Podcast : robot et société

Quand les robots changent nos lois.

L’utilisation des robots ne se limite plus à des espaces industriels contrôlés. Ils sont intégrés dans nos espaces quotidiens, et y interagissent de manière plus ou moins prédictible. Ce sont donc des objets auxquels les lois actuelles en matière de responsabilité, par exemple, ne sont plus complètement adaptées. Décryptage…

Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

Jean-Pierre Merlet est directeur de recherche Inria, responsable scientifique de l’équipe Hephaistos, et membre Fellow de l’IEEE. Ses recherches actuelles en robotique portent sur le développement de plate-formes robotisées destinées aux personnes âgées et handicapées, pour les aider à garder une certaine autonomie, et autres services à la personne. Il a aussi apporté des contributions majeures dans le domaine de la robotique de précision à hautes performances (robots parallèles) et en prospective scientifique liée à la robotique.
Il est aussi un chercheur très engagé, tout particulièrement en ce qui concerne la défense d’une recherche publique de qualité, et les liens entre la recherche et les grands enjeux éthiques et environnementaux.

Pour aller plus loin

(*) on note bien (contrairement à des auteurs qui parlent sans aucune précaution de « droits des robots » en raisonnant sur des éléments littéraires de science-fiction et non sur les réalités technologiques actuelles ou prospectives) que le statut juridique des robots n’a aucun lien avec le fait de personnifier un robot (comme on personnifierait un nounours) ; donner une capacité juridique à un robot est à rapprocher de celle donnée à une personne morale (une association ou une structure privée).

Qui va vraiment gagner les élections ?

Avons-nous fait un vote utile car selon les sondages nous pensions que… ou avons-nous fait un vote selon nos convictions (si le choix proposé nous le permettait) ? Est-ce bien notre opinion collective qui s’est exprimée ici ou est-elle biaisée par le système de vote lui-même ? Un groupe de chercheurs en informatique et économie en ont fait un sujet d’étude. Écoutons-les. Charlotte Truchet et Thierry Viéville.

« Réformons l’élection présidentielle ! » Tel est le titre du billet de blog de Science étonnante [0] et de la vidéo [1] qui l’accompagne, mis en ligne en octobre 2016, dans lesquels on nous explique que le mode de scrutin uninominal à deux tours, que nous utilisons pour choisir collectivement notre président de la République, est plein de défauts et qu’il conviendrait d’en changer ! Il fait aussi référence à une autre vidéo populaire, « Monsieur le président, avez-vous vraiment gagné cette élection ? » [2], plus courte, mise en ligne en août 2016 par une autre excellente chaîne de vulgarisation :  « La statistique expliquée à mon chat ». Celle-ci expliquait déjà certains travers de notre mode d’élection présidentielle. Regardons-la :

Ces deux vidéos (qui totalisent à elles deux plus de 650 000 vues) ont sans doute convaincu un grand nombre de personnes qu’il y avait peut-être un meilleur moyen d’exprimer nos préférences individuelles que de donner  « 4 bits [d’information] au premier tour, [et] 1 seul au second » comme écrit il y a quelque temps sur ce blog [3].

Le paradoxe de Condorcet dit qu’il est possible, lors d’un vote où l’on demande aux votants de classer trois propositions (A, B et C) par ordre de préférence, qu’une majorité de votants préfère A à B, qu’une autre préfère B à C et qu’une autre préfère C à A. Dur dur de donner le meilleur choix. © wikipédia.fr

Alors pourquoi ne pas adopter, par exemple, la méthode dite du « jugement majoritaire » qui a la préférence d’une des vidéos [1], parce que moins mauvaise que le système actuel ? C’est que la question est plus complexe qu’elle en a l’air : les scientifiques se sont demandé depuis longtemps s’il n’y avait pas un système de vote meilleur que tous les autres. Comme Condorcet et Borda en leur temps, ils en ont proposé de nouveaux, sans parvenir à établir un consensus. Car toutes les règles ont leurs qualités et leurs défauts, et parfois des défauts plus graves que d’autres.

Grâce à la théorie du choix social, on sait maintenant pourquoi : il n’existe pas de système de vote parfait ! Ceci est notamment illustré par le théorème de Gibbard [4].

Dans tout mode de scrutin non-dictatorial (c’est-à-dire où on ne laisse pas un électeur privilégié choisir le résultat tout seul) avec au moins 3 candidats éligibles, il existe des situations où un électeur a intérêt à voter stratégiquement plutôt qu’à exprimer ses préférences sincères. Autrement dit, le bulletin qui défend le mieux ses opinions dépend de ce que vont voter les autres électeurs !

Le « jugement majoritaire », par exemple, n’échappe pas à la règle : c’est un système parmi d’autres, qui présente des qualités et des défauts, et qui aboutit parfois à des résultats « paradoxaux »**. Le problème posé ici n’a pas fini de susciter des questionnements*** et des travaux de recherche, comme en témoignent les travaux récents de ce collègue [5]  qui contourne le problème en faisant une nouvelle hypothèse sur les préférences d’une personne.

Et puis ces résultats théoriques ne doivent pas nous faire oublier que les constructions mathématiques ou algorithmiques échafaudées par les scientifiques doivent avant tout pouvoir être utilisées et pour cela comprises par des humains. C’est vrai des systèmes informatiques interactifs comme des modes de scrutin : leurs utilisateurs doivent pouvoir se construire un modèle du fonctionnement du système. Et dans le cas des élections, c’est d’ailleurs une exigence démocratique que d’utiliser un mode de scrutin que chacun puisse expliquer et dont chacun puisse comprendre les effets !

C’est d’ailleurs une des raisons pour lesquelles nous menons une expérimentation qui vous propose de voter autrement [6] en testant différents modes de scrutin pour départager les candidats à l’élection présidentielle. Vous nous direz ensuite ce que vous pensez de ces modes de scrutin, et nous analyserons la manière dont les citoyens s’emparent de l’expressivité qui leur est offerte de s’exprimer sur l’ensemble des candidats plutôt que de devoir choisir un simple nom à glisser dans une enveloppe. N’hésitez pas à y participer en quelques minutes, et à diffuser le site vote.imag.fr dans tous vos réseaux : sociaux, amicaux, familiaux, associatifs…

Pour finir : faut-il enterrer le scrutin uninominal majoritaire à deux tours ? Il faudra en tout cas bien réfléchir avant d’opter pour un autre mode de scrutin et s’assurer que chaque personne en comprenne bien le fonctionnement.

Et en ce printemps, allons voter, car même si nous y allons avec quelques réserves, nous avons un devoir vis-à-vis de celles et ceux qui nous ont précédés. Telles ces femmes qui, il y a moins de trois générations, se sont battues pour que le vote ne concerne pas que la moitié de notre peuple. Tels leurs propres aïeux qui ont été jusqu’à donner leur vie pour que nous ayons ce choix.

L’équipe Voter Autrement*

Références :
0. Réformons l’élection présidentielle ! Science étonnante
1. Réformons l’élection présidentielle ! Science étonnante
2. « Monsieur le président, avez-vous vraiment gagné cette élection ? » La statistique expliquée à mon chat
3. Élection 4 bits au premier tour, 1 seul au second blog binaire
4. Théorème de Gibbard-Satterthwaite Wikipedia (voir surtout la référence anglo-saxonne)
5. Le scrutin de Condorcet randomisé (vidéo introductive (les 14:45 minutes) et le travail scientifique associé.
6. Voter Autrement, travail des auteurs et autrices de ce billet*.

Notes :

(*) L’équipe de Voter Autrement :
Renaud Blanch, LIG, Université Grenoble-Alpes
Sylvain Bouveret, LIG, Grenoble-INP
François Durand, LAMSADE, Université Paris-Dauphine
Jean-François Laslier, CNRS, Paris School of Economics
Antoinette Baujard, GATE Lyon Saint-Étienne, Université Jean Monnet, Saint-Étienne
Herrade Igersheim, CNRS, BETA, Université de Strasbourg
Jérôme Lang, LAMSADE CNRS, Université Paris-Dauphine
Annick Laruelle, UPV-EHU, Universidad del País Vasco
Isabelle Lebon, CREM, Universités Caen-Normandie et Rennes 1
Vincent Merlin, CNRS, CREM, Universités Caen-Normandie et Rennes 1

(**) Un exemple de mise en défaut du jugement minoritaire. Malgré son nom, le jugement majoritaire peut conduire à choisir B contre A alors qu’une large majorité de gens jugent A meilleur que B. Comment ? C’est simple : prenons 101 électeurs qui votent de la manière suivante.
– 50 électeurs attribuent la mention « Bien » à A et la mention « Assez
Bien » à B ;
– 50 électeurs attribuent la mention « Passable » à A et la mention « Insatisfaisant » à B ;
– le dernier électeur attribue la mention « Assez Bien » à B et « Passable » à A.
Que donne le jugement majoritaire sur cet exemple ? La mention majoritaire de A est « Passable » (mention attribuée à A par 51 électeurs). Celle de B est « Assez Bien » (mention attribuée à B par 51 électeurs). B gagne, en dépit du fait que 100 électeurs sur 101 lui préfèrent A.

(***) L’hypothèse de pleine connaissance. Une autre hypothèse clé du théorème de Gibbard est celle de  « pleine connaissance » des choix des autres votes, donc des sondages (qui sont du reste interdits quelques heures avant la fin du vote) : les effets du fait que nous puissions voter  « en fonction des sondages » est une autre vraie question.

 

Réinventer la biologie

Un nouvel « Entretien autour de l’informatique  ». Serge Abiteboul  et Claire Mathieu interviewent Alessandra Carbone, professeure au département d’informatique de l’université Pierre et Marie Curie. Alessandra dirige le laboratoire de biologie computationnelle et quantitative, qui étudie le fonctionnement et l’évolution des systèmes biologiques. Elle nous parle de bioinformatique.
Cet article est publié en collaboration avec TheConversation.

Alessandra Carbone

B : comment devient-on bioinformaticienne ?
AC : j’ai suivi des études en informatique et mathématiques. Je travaillais sur des problèmes de logique mathématique et complexité d’algorithmes, avec un regard à la fois combinatoire et géométrique. Ce qui m’intéressait alors était de trouver des « langages » nouveaux pour pouvoir reformuler des questions de théorie de la complexité. C’est en partie pour cette raison que j’ai commencé à suivre des séminaires de biologie, et que j’ai été attirée par les structures moléculaires. J’ai découvert tout d’abord le monde de l’ADN. Le codage de l’ADN pose des problèmes algorithmiques passionnants.

Protéine avec ses sites de liaison (jaune) à deux partenaires (bleu)

B : Tes premiers travaux portaient sur la construction de ces structures complexes ?
AC : Mes premiers travaux à l’interface avec la biologie portaient sur la construction de structures d’ADN en trois dimensions, notamment en collaboration avec Ned Seeman, le père des nanotechnologies ADN. Il s’agissait d’un travail théorique, pionnier, qui a été suivi de premières expériences en laboratoire 10 ans après ! Nous avons imaginé disposer d’une sorte de Lego qui, à partir de brins d’ADN interagissant entre eux, nous permettrait de programmer la construction de structures moléculaires tridimensionnelles complexes avec des formes et des propriétés spécifiques.

Il faut imaginer des milliers de molécules d’ADN différentes qui se retrouvent ensemble et entrent en compétition pour s’assembler entre elles. Si on souhaite qu’elles s’assemblent pour former par exemple des « feuilles » ou pavages réguliers, éventuellement très grands et possiblement infinis, on doit éviter de leur donner la possibilité de s’assembler de manière incorrecte. « Éviter l’erreur » devient le but de la conception de ces molécules d’ADN. La pensée informatique et algorithmique rentre en jeu dans la conception de ces molécules d’ADN (dans la programmation des mots composés des lettres ATGC qu’elles décrivent) et des structures moléculaires (dans la programmation de leurs formes géométriques) que l’on souhaite obtenir après assemblage.

Pour construire des structures 3D, l’idée est de procéder par couches successives. C’est le même principe que les imprimantes 3D d’aujourd’hui, où l’objet est construit en programmant les différentes couches du solide à produire. On commence par un pavage 2D qui peut être, de façon contrôlée, augmenté par des couches ultérieures de pavés de façon programmable. Ce qui nous plaisait, c’était d’intervenir de façon contrôlée, pour programmer et reprogrammer les pavés, et construire une structure 3D complexe qui pouvait évoluer pendant le processus de construction. Pour faire cela, nous avons utilisé des blocs de base, des briques Lego, qui peuvent avoir deux « états », c’est-à-dire se retrouver dans deux formes physiques différentes. Ces briques sont des molécules programmables par des brins d’ADN qui interagissent avec la molécule et la forcent à changer d’état. Elles ont été réalisées dans le laboratoire de Ned Seeman.

Pavage d’ADN (microscopie à force atomique)

B : à quoi est-ce que de telles structures ADN pourraient servir ?
AC : on peut imaginer qu’elles puissent être utilisées pour créer des nano-objets à recouvrir avec des matériaux résistants ou ayant des propriétés chimiques particulières. Un contrôle précis sur l’assemblage ADN et donc sur les formes géométriques produites à des échelles nanoscopiques pourrait être utilisé pour rejoindre le monde de l’infiniment petit avec la même précision que l’on a dans notre monde macroscopique. Des nombreux labos, en France et à l’étranger, travaillent maintenant sur ce sujet et sur des thématiques proches. Le prix Nobel de chimie de cette année a été attribué à Jean-Pierre Sauvage, de Strasbourg, pour ses travaux sur les machines moléculaires,. On ne sait pas trop où on arrivera. Aujourd’hui, on construit des petites boîtes d’ADN contenant des médicaments dont l’ouverture peut être contrôlée.

B : « contrôler », c’est un mot essentiel ?
AC : ce mot rentre assez difficilement dans le vocabulaire des biologistes expérimentateurs. En biologie, on observe les phénomènes naturels, on les expliquent. Nous aimerions comprendre comment les contrôler.  L’idée de perturber les systèmes, de le modifier pour en observer le mauvais fonctionnement est très présente en génétique, mais ce que nous souhaiterions faire c’est comprendre comment aller au delà de mutations dirigées pour induire le système à réaliser une fonction voulue. Nous agissons sur le code de la molécule d’ADN pour réussir à ce que, géométriquement ou chimiquement, elle se comporte de manière spécifique, pour modifier son comportement et son assemblage.

Prédiction du site actif (jaune) d’une enzyme (gris) impliquée dans la biosynthèse des acides gras (rouge-violet-bleu)

B : les chimistes mélangent des produits chimiques pour avoir, par exemple, des explosifs. Ce qui est différent ici c’est que vous « programmez » ces transformations ?
AC : les informaticiens ont construit des langages formels pour réussir à comprendre le genre d’interaction qu’on peut envisager entre des molécules différentes. Il s’agit de langages de programmation basés sur des opérations qui décrivent le comportement de molécules interagissantes. Le mouvement et les interactions des molécules qui ont lieu au même moment, en parallèle, sont pris en compte et le programme guide le processus d’assemblage.

B : Tu travailles aujourd’hui sur tout à fait autre chose ?
AC : oui. J’essaie de comprendre l’impact des processus évolutifs sur les séquences protéiques, sur leur structure (leur repliement dans l’espace 3D) et sur leurs fonctions (leur rôle dans la cellule). Nous partons de l’analyse des séquences d’une protéine, trouvées dans des espèces différentes, et nous essayons d’en extraire des signaux biologiques intéressants. On fait de l’« ingénierie renversée » en essayant de prédire comment la protéine (dans sa forme tridimensionnelle) fonctionne à partir des séquences.

On essaye de détecter les points faibles/critiques d’une protéine. Leurs mutations peuvent impliquer des changements dans la structure ainsi que dans la fonction de la protéine, induisant potentiellement des conséquences irréversibles pour la vie de la cellule. Des phénomènes de développement précoce de vieillissement, ou encore de développement de maladies génétiques peuvent démarrer suite à des mutations spécifiques dans les séquences des protéines. Ces transformations arrivent de manière aléatoire. Nous développons des « mesures » et des approches computationnelles qui nous permettent de distinguer les mutations critiques des mutations neutres.

Dans mon travail, je cherche aussi des informations sur les interactions d’une protéine avec les autres, qu’elles soient des partenaires cellulaires ou non, pour comprendre comment discriminer les partenaires protéiques des protéines qui n’interagissent pas. C’est une question fondamentale en biologie moléculaire parce que le comportement cellulaire dépend des interactions entre les protéines.

Les biologistes expérimentent dans ce domaine, mais les expérimentations sont longues, coûteuses, et le nombre de paramètres est tel que les progrès sont lents. Avec l’informatique, il est devenu possible  de tester et simuler les interactions de milliers de protéines entre elles. Avec nos simulations, nous pouvons faire émerger des hypothèses que nous pouvons ensuite passer aux expérimentateurs pour qu’ils les testent, les vérifient. Nos calculs nous permettent d’obtenir des connaissances bien au delà de ce que peuvent atteindre aujourd’hui les expérimentateurs.

B : comment fonctionnent de telles interactions ?
AC : Par exemple, nous voulons chercher les interactions entre un millier de protéines pour lesquelles nous connaissons la structures 3D, obtenues par exemple par cristallographie. Prenons-en deux ; appelons-les Alice et Bob. Nous voulons comprendre les interactions entre Alice et Bob. Mettons Alice au centre d’une sphère. Nous faisons bouger Bob sur toutes les autres positions possibles de la sphère et nous testons comme Alice et Bob s’amarrent au niveau moléculaire : ça s’appelle du « docking ». Il nous faut calculer les surfaces d’interaction possibles entre deux protéines et « évaluer » l’interaction. Y-a-t-il affinité ou pas dans le contact ?

Protéine avec trois sites d’interaction (au centre, blue/orange/jaune) et ses partenaires. Les cercles concentriques représentent les niveaux d’affinité de liaison des protéines

B : ce sont des calculs considérables ?
AC : tout à fait considérables. Nous testons 300 000 positions sur la sphère. Pour chaque position, nous testons si l’amarrage est prometteur ou pas en faisant tourner Bob autour d’Alice quelques centaines de fois, pour chacun position de la sphère. Nous  recommençons ces calculs pour quelques millions de couples possibles. Vous imaginez la dimension du calcul ! Nous avons pu réaliser ce calcul pour à peu près 2200 protéines humaines en 3 ans, en utilisant des raccourcis algorithmiques qui nous ont permis de prédire l’espace de recherche des solutions et de le réduire ainsi de manière considérable. Surtout, nous avons pu employer 200 000 ordinateurs de volontaires reliés à la World Community Grid, gérée par IBM-US. Mais nous ne sommes pas encore prêts à traiter les dizaines de milliers de protéines humaines ! Pour cela, nous avons besoin d’idées algorithmiques nouvelles.

Ceci n’est qu’un exemple qui illustre l’impact énorme de l’informatique en biologie. Mais, tout cela demande des puissances de calcul inouïes, et nous conduit à résoudre des problèmes algorithmiques passionnants.

B : cela soulève des problèmes mathématiques et algorithmiques passionnants ?
AC : de plus en plus je m’aperçois que les mathématiques à utiliser ou à développer sont dépendantes des données sur lequel s’applique le problème à résoudre. Selon les caractéristiques des données, il faut utiliser des approches computationnelles radicalement différentes. Pour vous donner un exemple, les échelles de temps qui ont généré certaines données biologiques, comme les séquences protéiques, sont très variables, depuis des jours ou des dizaines d’années pour l’évolution à l’échelle de l’individu, jusqu’aux millions ou billions d’années pour l’évolution à l’échelle des espèces.

Pour étudier des séquences au niveau des populations d’individus, nous allons plutôt nous appuyer sur des calculs combinatoires. On ira chercher les « régularités » dans ses séquences, c’est-à-dire des positions qui ne changent quasiment pas et estimer de combien ces positions s’ « éloignent » d’une régularité attendue. Pour explorer les espèces dans un arbre du vivant, nous allons plutôt utiliser des modèles statistiques pour lesquels une difficulté majeure est l’estimation du « bruit » de fond, nécessaire pour évaluer la distance entre le signal et  ce bruit de fond.

B : à quoi est-ce que ressemble ton travail au quotidien ?
AC : dans mon équipe, nous travaillons avec papier et crayon mais surtout nous écrivons des programmes, indispensables pour réfléchir sur les données biologiques. Pour nous, l’ordinateur est un instrument pour penser. Nous avançons des hypothèses, nous les testons sur de larges quantités de données, nous les modifiions, nous testons de nouveau et ainsi de suite jusqu’à révéler les principes généraux qui gouvernent le comportement moléculaire. Nos résultats amènent à prédire des comportements moléculaires concernant les interactions protéine-molécule, mais aussi les arrangements tridimensionnels des molécules dans la cellule. Nous travaillons sur les structures protéiques, sur la conformation géométrique en 3D de l’ADN et d’autres questions autour des génomes. Pour toutes ces questions, nous avons besoin de développer des algorithmes efficaces, rapides, pour ne pas avoir à attendre les résultats des mois et des mois. Notre travail consiste souvent à concevoir des algorithmes qui résolvent des problèmes de géométrie et géométrie combinatoire. Donc, pour nous, les ordinateurs ont deux utilités : pour raisonner (avec eux) et pour produire des prédictions.

Deux protéines, une montrant la surface (bleu) et l’autre ses sous-structures (rouge). Un réseau schématise les interactions

B : vous obtenez des théorèmes ?
AC : pas au sens mathématique du terme. J’ai abandonné les théorèmes quand je suis passé à la biologie. Je suis dans le monde des données et des phénomènes physiques complexes, pour lesquels très souvent on approche des principes généraux (c’est ce que je cherche) du comportement moléculaire qui expliquent les données expérimentales.

Les mathématiciens ont des règles logiques qui peuvent les aider à vérifier leurs preuves. Au contraire, nos vérificateurs sont les données biologiques, provenant des expériences. Il s’agit de données bruitées et leur utilisation, pour tester nos « théorèmes », doit être judicieusement employée. C’est important de se rendre compte que la rigueur du phénomène physique est bien plus élevée en certitude que la rigueur du raisonnement logique, et cela parce que les expériences physiques reproductibles sont bien plus fiables que l’intuition humaine. L’idée de travailler aujourd’hui dans un contexte où les phénomènes biologiques complexes définissent le cadre de l’intuition me fascine et je pense que l’on est en train d’aller vers la définition d’une nouvelle discipline, différente des mathématiques existantes, et qui nous permettra d’utiliser les données de façon rigoureuse à l’aide de calculs qui accompagneront la construction de l’intuition.

B : travailler aux interfaces entre deux disciplines n’est pas simple ?
AC : les mathématiciens pensent que nos méthodes ne sont pas rigoureuses et générales, et les biologistes aimeraient souvent nous cantonner à un rôle de producteurs de services. Je pense que nous sommes en train d’inventer une nouvelle biologie. Nous produisons des données « biologiques » avec nos ordinateurs ; il s’agit de données qui ne peuvent pas être produites par des expériences en laboratoire avec les techniques existantes. Ces données ont autant de valeur que les données expérimentales ! Elles peuvent servir à faire avancer nos connaissances. C’est une révolution importante pour les sciences biologiques, une révolution qui demande aux biologistes d’accepter de nouvelles frontières intellectuelles, et à nous, informaticiens et mathématiciens, de faire un gros effort intellectuel pour comprendre comment utiliser nos puissances de calcul pour étendre les frontières de la connaissance.

Entretien recueilli par Serge Abiteboul et Claire Mathieu

Pour aller plus loin

Podcast : les robots

Tout ce qu’on peut dire de la robotique.

Ce qui est paradoxal, c’est que la robotique est en train de produire des objets programmables inouïs, mais tout à fait différents du fantasme usuel lié à la science-fiction du siècle dernier. Elle plonge le monde numérique au cœur même du monde réel, et ce, au delà des idées reçues…

Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

Pierre-Yves Oudeyer est directeur de recherche Inria et responsable scientifique de l’équipe FLOWERS*. Docteur en Intelligence Artificielle, plusieurs fois primé, il s’intéresse à la modélisation informatique et robotique de l’apprentissage et du développement sensori-moteur et social chez l’humain et les machines. Il étudie en particulier les mécanismes de curiosité, de  maturation, le rôle du corps dans le développement cognitif, et des interactions homme-robot permettant l’apprentissage par imitation.
Il est aussi auteur du livre Aux sources de la parole: auto-organisation et évolution, et participe activement à la diffusion des sciences vers le grand public, au travers d’ émissions de radios/télé et d’ expositions sur les sciences et de l’écriture d’articles et de livres de vulgarisation, comme Mondes mosaïques Astres, villes, vivant et robots Jean Audouze , Georges Chapouthier , Denis Laming , Pierre-Yves Oudeyer, CNRS Edition, 2015 (en savoir plus).

Pour aller plus loin

Des nanas pour les data !?

La collégialité internationale. Photo : Florence Sèdes

 

Nous tenions à relayer les initiatives de promotion des femmes, au-delà des journées officielles car pour nous, c’est tout les jours le 8 mars… On a donc invité Florence Sèdes pour parler du numéro spécial de la revue 1024 de la Société informatique de France. Thierry Vieville (Inria) et Pierre Paradinas (CNAM).

 

Il y a quelques semaines, j’étais invitée par le groupe  « Femmes & Sciences » toulousain à animer un Café des Savoirs[1], dans le genre  « Moi, Florence S., scientifique, informaticienne,…». Profitant de cette tribune, je concluais sur mon regret que le renouvellement du casting des personnages emblématiques des « James Bond 007 » n’ait pas été l’occasion de donner le rôle de « Q »…. à une femme !

La réalité dépasse parfois la fiction, et les vœux pieux se réalisent au-delà de nos espérances. Devinant mon désarroi, entendant ma complainte, le gouvernement britannique s’est exprimé quelques semaines plus tard. Le 28 Janvier 2017, le chef des services secrets britanniques MI6 annonce que l’inventeur de gadgets « Q » existe… et que c’est une femme ! Damned !

Quel combat nous reste-t-il à mener ?….

Las, ce prestigieux cas n’en reste pas moins particulier. Notre quotidien, majoritairement masculin, n’évolue pas vers une mixité, un équilibre, une harmonie entre les genres… La désertification de nos amphis et la politique volontariste de « quotas » féminins  sont de criants et vains témoignages de la désaffection des filles pour nos filières, et de l’absence de vivier potentiel, interdisant ainsi toute perspective de  « rééquilibrage ». Sortons de l’impasse ?!

Le premier congrès de la Société Informatique de France sur le thème «Femmes & Informatique» que j’ai co-présidé avec Jérome Durand-Lose, s’est tenu en Janvier 2015 dans les magnifiques locaux historiques de l’université d’Orléans[2].

De prestigieux intervenants et intervenantes ont abordé les différentes facettes, historiques, sociologiques, génétiques, « genrées », de la présence des femmes dans les carrières, les professions et les filières informatiques, de leur évolution… et de leur disparition !

C’est ce riche évènement qui a servi de point de départ au numéro thématique du bulletin 1024 sur le thème « Femmes & Informatique ». Les articles reprennent et développent les prestations orales de cette journée. D’autres personnalités ont accepté de venir compléter cet état des lieux en donnant un éclairage industriel ou académique à granularité plus fine.

Nous nous sommes enfin tournés vers l’avenir, nos « jeunes pousses », de différents continents, et de diverses cultures, pour recueillir leur point de vue avec des témoignages pleins de fraîcheur et de rassurantes et candides certitudes.

Photo : Florence Sedes

Au sommaire de numéro spécial ;

  • Rita Bencivenga, Isabelle Collet, Nicky Le Feuvre apportent leur vision d’éminentes sociologues à la perspective féminine de nos professions.
  • La chercheuse en communication Valérie Schaffer étudie l’évolution de la présence féminine dans sa dimension historique.
  • Marie-Claude Gaudel et Brigitte Rozoy, émérites collègues, dressent un état des lieux dans l’enseignement et la recherche.
  • Claudine Herman nous explique la genèse de l’association Femmes & Sciences, notre tutélaire association qui encourage l’émergence d’un groupe « Femmes & Informatique » au sein de la Société Informatique de France.
  • Le point de vue de Sandrine Vaton, référente égalité à Télécom Bretagne, sur l’égalité Femmes-Hommes et « le numérique » est développé au travers d’une interview.
  • Christian Colmant, au nom de Pasc@line, évoque l’attractivité et la féminisation du secteur du numérique, apportant son expérience d’un industriel du métier.

Nos « jeunes pousses », en point d’orgue de ce numéro, nous font pousser des ailes et donnent un souffle nouveau à nos propos :

  • Ankita Mitra, animatrice d’ateliers, et Shreay Sinha, « web world » girl, nous parlent de leur culture, à la fois indienne et internationale.
  • La « Girl who codes», lycéenne française que Pascale Vicat-Blanc interviewe, témoigne de son expérience aux US.
  • Noémy Artigouha, étudiante à l’INSA après un DUT Informatique, ironise sur sa survie dans un monde de garçons.
  • Marthe et Héloïse Olivier, « Girls who code made in Toulouse », tirent des conclusions de leur expérience des coding goûters toulousains, et posent d’intéressants jalons sur le futur de nos enseignements au collège et au lycée.

Pour conclure, au-delà des illustrations inspirées à notre collègue humoriste Patrick Mignard, deux suggestions : plongez-vous dans la contemplation du si décoratif et documenté ouvrage de Rachel Ignotofsky sur 50 femmes en sciences, et scrutez régulièrement la revue de presse de la SIF sur Femmes&Informatique!

Un riche numéro, volontairement très féminin, sur cette mystérieuse alchimie[3] des femmes dans les sciences, qui aborde de nombreux aspects de la question, toujours sans réponse, de l’attractivité / répulsivité des enseignements, des études et des carrières.

Que cette lecture, féconde et inspiratrice, fasse les stéréotypes s’évanouir, les choses évoluer, les barrières se rompre, et les a priori fondre : vive les filles, vive les femmes, dans les Sciences, dans le numérique, en Informatique… et partout ailleurs !

Florence Sèdes

[1] https://www.irit.fr/Femmes-en-Sciences-Informatique

http://www.cnrs.fr/midi-pyrenees/IMG/pdf/cartesf_s-finales_-_f._sedes_web.pdf

[2] http://www.societe-informatique-de-france.fr/congres-2015/

[3] https://fr.wikipedia.org/wiki/Marie_la_Juive

Binaire marche pour les sciences

Galileo Galilei, dit Galilée : le combat de la science contre le pouvoir est-il uniquement à conjuguer au passé ? ©Wikipédia

Pourquoi les citoyennes et citoyens, dont les scientifiques, organisent-ils une marche mondiale, le 22 avril, pour les Sciences ?

L’origine d’une marche. Née aux Etats-Unis à la suite d’une conversation sur Reddit, l’initiative, devait être initialement limitée aux chercheurs américains, en première ligne face à la nouvelle administration Trump « qui menace d’entraver davantage la capacité des chercheurs à mener à bien leurs recherches et à diffuser leurs résultats ». Elle est en train de prendre une toute autre dimension. En effet, la marche pour les sciences est devenue un mouvement mondial. En France, Marche pour les sciences rassemble plus d’une dizaine d’initiatives citoyennes, soutenues par les plus grands instituts scientifiques français.
Sources: communiqué du CNRS, communiqué InriaNumérama: pourquoi-les-scientifiques-organisent-une-marche-mondiale.

Quel est l’enjeu ?

Défendre la recherche scientifique, en particulier quand elle s’engage dans une démarche d’ouverture et de partage citoyen des enjeux et des résultats de la recherche : volonté de faire des données de la science des données ouvertes, de développer des paradigmes de sciences participatives, de faire de la vulgarisation scientifique une facette incontournable des métiers de la recherche, d’associer citoyennes et citoyens aux réflexions sur les enjeux de la recherche. Une telle démarche devient rapidement dérangeante quand le pouvoir veut verrouiller les discussions sur certains sujets.

Et au delà ?

Oui, il y a un « au delà » : il s’agit aussi de défendre l’esprit critique, le décodage de la vérité, le respect des lois naturelles et humaines (notre environnement, notre justice), la nécessité que chacune et chacun puisse se construire une vision éclairée des faits. Que notre regard ne se trumpe pas de direction : argumenter sur des « fake news », utiliser les chiffres sans fondement comme des arguments magiques, remettre en cause la justice, ce n’est pas un danger localisé ailleurs. Il est aussi bien de chez nous.

Alors que ferez-vous le 22 avril ?   Nous, nous marcherons !

Les éditeurs de Binaire.

Podcast : Intelligence-artificielle

Enjeux et histoire de l’intelligence artificielle.

Certaines personnalités (Bill Gates, Elon Musk, Stephen Hawking…) ont lancé un appel afin de mettre en garde contre les dangers de l’intelligence artificielle. Terminator et Skynet vont-ils détruire l’humanité ? Visiblement, la question ne se pose pas comme cela…

Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

Nicolas Rougier est chercheur à l’Inria au sein de l’équipe Mnemosyne et de l’Institut des maladies neurodégénératives à Bordeaux. Il travaille en neurosciences computationelles et cherche à comprendre le fonctionnement du cerveau au travers de modèles informatiques.

Pour aller plus loin

 

50e anniversaire du Plan Calcul

Pour les passionnés d’histoire, le CNAM organise un Séminaire d’Histoire de l’informatiqueLe prochain séminaire traite du Plan Calcul. Ça se passe le  jeudi 13 avril 2017 de 14h30 à 17h00, dans l’amphi C « Abbé Grégoire » du CNAM, 292 rue Saint-Martin, 75003 Paris. Inscription obligatoire auprès de : isabelle.astic(@)cnam.fr. Un ami de binaire, Pierre Mounier-Kuhn, nous parle du Plan Calcul. Serge Abiteboul, Pierre Paradinas

Vidéos du séminaire (onglet séminaire)

Un demi-siècle de politique française en informatique

Au début des années 1960, l’industrie électronique française affrontait une concurrence états-unienne de plus en plus redoutable dans les composants semi-conducteurs et les ordinateurs. Les multinationales comme IBM ou Texas Instruments, profitant du traité de Rome et d’accords commerciaux transatlantiques, multipliaient les investissements directs en Europe et y vendaient leurs produits déjà bien amortis sur le marché nord-américain. Ce « défi américain » allait bientôt inspirer aux experts et aux gouvernements européens des réflexions alarmistes sur le « fossé technologique » qui se creusait entre les deux rives de l’Atlantique.

De l’affaire Bull au Plan Calcul

Au printemps 1964 éclate l’affaire Bull : le principal constructeur européen de systèmes informatiques subit une crise, l’une des plus graves de l’histoire industrielle française. Plusieurs montages échafaudés sous l’égide gouvernementale avec des banques et des firmes d’électronique achoppent, et Bull préfère passer sous le contrôle de General Electric. C’est vécu comme une défaite économique par le gouvernement gaulliste, au moment où l’on commence à percevoir l’informatique et les télécommunications comme des secteurs stratégiques, « le système nerveux » des nations modernes.

Les comités d’experts qui cherchaient une solution aux problèmes de Bull, et qui disposent de crédits de R&D, bâtissent un montage de rechange en s’efforçant de rapprocher les petites entreprises françaises constituées depuis une décennie pour produire des ordinateurs. Leur mission est presque impossible : il s’agit de combiner la politique d’indépendance gaulliste, les intérêts des industriels concurrents abonnés aux subventions et les desiderata des grands clients du secteur public. Leur activisme en faveur d’une politique de l’informatique reçoit une justification supplémentaire lorsque Washington décrète un embargo sur les supercalculateurs commandés par la division militaire du CEA. Il aboutit, fin 1966-début 1967, au lancement d’un des plus grands projets de la Ve République, officialisé par une convention Plan Calcul le 13 avril 1967.

Une Délégation à l’informatique est créée au niveau gouvernemental comme maître d’œuvre du Plan. Une Compagnie internationale pour l’informatique (CII), filiale des groupes privés CGE, Thomson et CSF, fusionne deux petits constructeurs de calculateurs scientifiques avec pour mission essentielle de développer une « gamme moyenne de gestion » et de participer à terme à la constitution d’une informatique européenne. Le dispositif est complété l’année suivante par la création d’une société pour les périphériques, d’une autre pour les composants  résultant de la fusion des filiales spécialisées de Thomson et de CSF. Et d’un Institut de recherches en informatique et automatique (IRIA, devenu depuis Inria), seul survivant aujourd’hui de cet ambitieux programme.

Signature de la convention Plan Calcul le 13 avril 1967 par Michel Debré, Ministre de l’Économie et des Finances, avec les patrons de l’industrie électronique française et des start-ups d’informatique. Photo : Archives Bull.

De la CII à Unidata

La CII démarre difficilement, soutenue à bout de bras par les subventions et les achats préférentiels des administrations, mais déchirée par des conflits internes résultant d’une fusion forcée. Elle vend d’abord surtout des machines développées en Californie par son partenaire Scientific Data Systems (SDS). Puis cette firme d’ingénieurs réalise des systèmes techniquement avancés (séries Iris, Mitra et Unidata), les premiers ordinateurs commerciaux en circuits intégrés d’Europe. Les axes de développement visent les ordinateurs temps réel, les systèmes en réseaux, les périphériques magnétiques. La CII tentera même d’assembler un gros quadri-processeur, atteignant les limites de la technologie de l’époque.

Iris 50 présenté au salon de l’informatique Sicob (septembre 1968). Les anciens de la CII associent leurs souvenirs du Sicob 1968 avec celui de « l’Iris 50 en bois », maquette d’exposition dont les seuls éléments en état de marche étaient les périphériques d’origine américaine. Les concurrents ont pu ironiser : « au moins sur cette machine, les problèmes de parasites pourront être traités au Xylophène ». Une fois mis au point, cet ordinateur moyen sera vendu à plusieurs centaines d’exemplaires, production honorable à l’époque. Photo : Archives historiques Bull.

Après une reprise en mains managériale en 1970, le champion national semble avoir son avenir assuré. Cherchant à devenir un constructeur normal sur le marché, la CII remporte des succès commerciaux hors du secteur public et à l’export, et négocie des accords avec d’autres constructeurs européens. De son côté l’IRIA, s’il a connu lui aussi un démarrage cahoteux, abrite notamment l’équipe qui développera le réseau Cyclades, l’un des prédécesseurs d’Internet. Quant à la Délégation à l’informatique, elle soutient les premières grandes SSII françaises en veillant à ce qu’elles ne passent pas sous contrôle américain, et initie les premières expériences de la programmation au lycée. L’ambiance générale du Plan Calcul favorise aussi l’extension de l’enseignement de l’informatique dans toutes les universités et écoles d’ingénieurs, avec la création de nouveaux diplômes (maîtrises, doctorats, MIAGE, etc.) pour répondre à la demande massive d’informaticiens.

En 1973 la CII s’associe avec Siemens et Philips dans Unidata, constructeur européen d’ordinateurs, qui produit rapidement une nouvelle gamme compatible IBM. Toutefois ce nouveau meccano industriel pose autant de problèmes qu’il en résout – les demandes de subventions continuent pour financer la croissance de la firme. Le Plan Calcul dépendait du volontarisme des gouvernements gaulliens et de la prospérité économique française. Or l’élection de Valéry Giscard d’Estaing coïncide avec le premier choc pétrolier, tandis qu’une coalition d’industriels français se ligue contre la CII et Unidata. Une série de décisions gouvernementales conduit à tuer la configuration européenne et à la remplacer par une configuration franco-américaine : la CII est absorbée en 1976 par Bull (entre temps revendue par GE à Honeywell). Deux ans plus tard, Cyclades, réseau d’informaticiens, est mis en extinction pour faire place au réseau conçu par le corps des Télécommunications : Transpac, dont le terminal le plus connu sera le Minitel.

Nœud de réseau Cyclades-Cigale à l’université de Grenoble, au centre CII-IMAG (1974). Cette photo associe deux réussites incontestables du Plan Calcul : le réseau Cyclades, réalisé à l’IRIA par l’équipe de Louis Pouzin, et le mini-ordinateur CII Mitra 15, conçu sous la direction d’Alice Recoque. Photo : Archives Bull

La fin du Plan Calcul ne sonne pas pour autant le glas des politiques technologiques ou industrielles dans le numérique. D’une part celles-ci se déploient avec succès dans les télécommunications. D’autre part les socialistes, arrivés au pouvoir en 1981, lancent une « filière électronique » et une nouvelle vague de restructurations assorties de nationalisations. Ces ambitions se heurteront vite aux réalités et à la concurrence irrésistible des « petits dragons » asiatiques. Les préoccupations qui motivèrent le Plan Calcul, il y a cinquante ans, inspirent toujours au XXIe siècle des projets, généralement à l’échelle européenne, de maîtrise du Big Data et de l’internet, de « systèmes d’exploitation souverains », de soutien à l’éducation comme aux entreprises du numérique.

Pierre Mounier-Kuhn, CNRS & Université Paris-Sorbonne

Bibliographie

  • Pierre Bellanger, La Souveraineté numérique, Éditions Stock, 2014.
  • Laurent Bloch, Révolution cyberindustrielle en France, Economica, coll. Cyberstratégie, 2015.
  • Jean-Pierre Brulé, L’Informatique malade de l’État, Les Belles-Lettres, 1993.
  • Emmanuel Lazard et Pierre Mounier-Kuhn, Histoire illustrée de l’informatique,  (préface de Gérard Berry, professeur au Collège de France), EDP Sciences, 2016.
  • Pierre Mounier-Kuhn,  L’Informatique en France de la seconde guerre mondiale au Plan Calcul. L’Émergence d’une science, préface de Jean-Jacques Duby, Presses de l’Université Paris-Sorbonne, 2010.
  • Jean-Michel Quatrepoint et Jacques Jublin, French ordinateurs. De l’affaire Bull à l’assassinat du Plan Calcul, Alain Moreau, 1976.

Élections : 4 bits au premier tour, 1 seul au second

Les élections présidentielles arrivent à grand pas. Pour ces prochaines élections 4 bits d’information suffiront pour le premier tour (pour 11 candidats) et un seul au second. Des débats d’idées sur la politique prennent place, sur les thèmes bien connus qui préoccupent les Français.es, comme le chômage, les impôts ou la sécurité. Mais débat-on assez de nouveaux sujets qui impacteront la vie de nos concitoyens dans 10 ou 20 ans ? Des sujets dont les décisions d’aujourd’hui feront notre prospérité de demain ?

Consciente de l’importance de l’informatique dans notre monde numérique, la Société informatique de France a posé à tous les candidat.e.s des questions relatives à l’informatique dans notre monde numérique, en se focalisant principalement sur les questions de formation. Il est en effet indispensable de donner aux citoyen.ne.s et aux jeunes en particulier la culture générale de leur époque, culture qui inclut désormais l’informatique. C’est l’avenir du pays qui est en jeu, tant sur le plan sociétal que sur les plans scientifique et économique.

Voir la lettre.

La SIF n’a obtenu pour l’heure que peu de réponses. Elle en fera une synthèse une fois qu’elle en aura reçu suffisamment.

Arrêtons-nous sur le quinquennat qui va se terminer. Sur la lancée de l’introduction de l’enseignement de l’ISN (Informatique et Sciences du Numérique) sous la mandature de Nicolas Sarkozy, la présidence de François Hollande a connu une vraie prise de conscience politique de l’importance du sujet, et des prises de décisions fortes.

Saluons le travail du secrétariat au numérique. La French Tech, la loi sur la république numérique, sont par exemple, de vraies avancées. Saluons aussi de réelles avancées au ministère de l’Éducation nationale, telles que l’initiation à la programmation à l’école, l’enseignement de l’informatique dans le tronc commun au collège et sous forme optionnelle au lycée.

Mais, nous ne sommes qu’au milieu du gué. Par exemple, le problème de la formation des Maîtres reste critique pour l’Éducation nationale. On y confond encore trop souvent littératie numérique (qui peut être inculquée par tous les enseignants) et enseignement de l’informatique (qui ne peut être effectué que par des professeurs d’informatique). Ces enseignements sont indispensables pour former les citoyens et les créateurs du 21ème siècle.

Profitons de cette période particulière pour la démocratie qu’est celle de l’élection de nos responsables pour discuter de sujets essentiels pour notre pays : le passage au numérique de l’administration, de la médecine, de l’enseignement…, la poursuite de la modernisation de notre économie par l’informatique, le développement de la participation des citoyens à la vie de la cité par l’informatique, les problèmes de transparence et d’équité de la mise en œuvre des algorithmes, etc. Les sujets de société sont nombreux, qui mettent en jeu l’informatique et le numérique. Il est urgent que les candidats s’en emparent et que les citoyens en discutent.

Serge Abiteboul, Luc Bougé, Gilles Dowek, Christine Froidevaux, Jean-Marc Petit
(Membres du Conseil d’administration ou du Conseil scientifique de la Société informatique de France)

La vérité, rien que la vérité

Le monde numérique rend possible des accès à l’information, aux connaissances, inimaginables encore récemment. Mais il permet aussi la diffusion de toutes les erreurs, tous les mensonges, toutes les désinformations. Que puis-je croire dans le flot d’information qui me submerge ? Comment séparer le bon grain de l’ivraie ? Fake news, fact checking, post-news. Le vocabulaire est anglais, mais les sujets nous concernent au plus haut point. Binaire a demandé à une directrice de recherche d’Inria qui travaille sur le fact checking de nous faire partager son expérience. Serge Abiteboul.

Ioana Manolescu

Avez-vous fait des courses récemment ? Si oui, vous reste-t-il un ticket de caisse ? Retournez-le, et vous avez des fortes chances d’y lire « Imprimé sur du papier ne contenant pas de BPA ». Le BPA, quésaco ? Appelé plus cérémonieusement bisphénol A, c’est une substance chimique longtemps utilisée, entre autres, dans le procédé dit « thermique » d’impression des tickets de caisse, mais aussi pour tapisser l’intérieur des cannettes et boîtes de conserve, pour les empêcher de réagir chimiquement avec les boissons et autres aliments contenus. De la sorte, le BPA nous évite de boire ou manger la rouille et autres produits peu ragoûtants de ces réactions chimiques…

Malheureusement, ses bons services s’accompagnent de sacrés risques sanitaires, car le BPA est un perturbateur endocrinien ; chez les souris, même une faible exposition in utero conduit à des changements hormonaux observés sur 4 générations… Fâcheux, quand  on pense que trois millions de tonnes en sont produites encore chaque année dans le monde. (Voir wikiwix.)

Pexels

Mère de deux enfants, j’ai ma petite histoire avec le BPA. Lorsque mon premier utilisait des biberons, le BPA était déjà interdit dans la composition des biberons, et sa réputation noircie sur la place publique, au Canada… mais pas encore en Europe. En France, des amies mamans me conseillaient gentiment d’arrêter la paranoïa et d’utiliser sans râler les mêmes biberons que tout le monde… Lorsqu’il a fallu biberonner mon deuxième, l’on enseignait « déjà » ici à toute jeune maman les dégâts potentiels du BPA et on leur apprenait à l’éviter.

Nous avons constamment à faire des choix. Dans le pays qui a donné au monde Descartes, nous nous targuons de faire ces choix sur la base de faits, en pesant tant que faire se peut le pour et le contre, en nous appuyant sur les informations dont nous disposons. La loi proscrit aujourd’hui le BPA même des tickets de caisse, non seulement des biberons ; il n’en était rien, il y a de cela quelques années.

Le processus est classique. La science émet des doutes.  De longues études sont menées. Après examen par les élus, les doutes se transforment en certitudes,  conduisent à des réglementations, des lois. Mais, ce processus est lent et peut prendre des années.

On le voit, la construction de la vérité est longue et ardue : il est bien plus facile de croire, que de savoir. Mais cette construction est à la base de tout processus de connaissance et de pensée, depuis que nos ancêtres ont dû être bien certains des baies et racines que l’on peut manger, si on ne veut pas finir ses jours empoisonné… De nos jours, scientifiques, journalistes, et experts de tout poil s’y attèlent. Il nous apportent tantôt l’interdiction du BPA, tantôt des gros mensonges à résultats tragiques comme l’étude truquée faisant croire à un lien entre les vaccins et l’autisme, retirée depuis par la revue l’ayant publiée, mais étude gardant des croyants bien tenaces, au grand dam des autorités sanitaires.

Quoi de neuf, alors, dans cet effort vieux comme le monde pour démêler le vrai du faux ?

Le Web, évidemment ! Il n’a jamais été si simple de publier une idée, information, rumeur ou bobard, et tout cela se propage plus vite et plus rapidement que jamais. Le travail de vérification de ces informations est-il devenu impossible ? Non, parce que l’informatique peut donner un coup de main, nous aider à détecter les mensonges.

Pexels - photo

Un politicien s’attribue le mérite d’une réduction spectaculaire du chômage pendant son mandat ? Des algorithmes proposés à l’Université de Duke, aux Etats-Unis permettent de voir que cette réduction était en fait bien amorcée avant  le début de son mandat, et ne peuvent donc pas être mise à son crédit. Cette connaissance n’est accessible qu’en s’appuyant sur une base de données de référence, dans ce cas des statistiques du chômage dans lesquelles on a confiance. De telles bases de données sont, par exemple, celles construites à grands frais par des instituts financés par les États, tels que l’INSEE ou des instituts de veille sanitaire en France.

Cet exemple illustre le fact checking (vérification de faits), c’est-dire la comparaison d’une affirmation (« M. X a fait baisser le chômage ») avec une base de référence (évolution du chômage dans le temps), ce qui permet soit de prouver que M. X aurait avancé un chiffre faux, soit (dans notre cas) que l’interprétation qu’il en faisait n’était pas correcte.

Les limites de ces approches sont atteintes lorsque les données de référence sont muettes ou incomplètes sur un sujet, soit parce qu’un problème n’a pas été quantifié ou documenté, soit parce qu’il ne l’a été que par des acteurs s’accusant mutuellement  de partialité ou directement de mensonge. Un exemple en est fourni par les débats très vif autour de l’introduction des OGM dans l’alimentation, notamment concernant les expériences de M. Seralini.

L’informatique permet ainsi de vérifier un fait, en s’appuyant sur d’autres ; elle ne permettrait donc d’établir que ce que l’on savait déjà ! Mais son aide est essentielle lorsque les volumes de données et informations à traiter dépassent (de loin) la capacité humaine.

Un autre scénario de fact checking exploite de façon ingénieuse l’intelligence humaine, recueillie, coordonnée et analysée par l’informatique. Il s’agit du crowd-sourcing, où l’on demande à des multiples utilisateurs de résoudre des « tâches » (déterminer si un paragraphe parle d’un certain sujet, étiqueter une photo…) puis on croise et intègre leurs réponses par des moyens informatiques et statistiques. Dans le domaine journalistique, une première approche collaborative de ce genre a été constituée par l’International Consortium of Investigative Journalism, à l’origine des publications du grand scandale d’évasion fiscale « Panama Papers » : des rédactions de journaux du monde entier ont mis en commun leurs données et leurs traitements, afin de « connecter les points » et de faire émerger l’histoire.

Dans l’histoire récente, une grosse partie des mensonges, manipulations et bobards sont publiés et propagés par les réseaux sociaux. Ceux-ci sont, d’un côté une arme puissante dans les mains des manipulateurs, mais ils fournissent en même temps une clé pour les débusquer : examiner les connexions sociales d’un utilisateur permet de se faire une idée de son profil et de la bonne foi et la véracité des informations qu’il ou elle propage. Les journalistes ne s’y trompent pas, qui utilisent des plateformes d’analyse et classification de contenus publiés sur les réseaux sociaux ainsi que de leurs auteurs.

Enfin, au delà de la vérification par des données et de la vérification par le réseau social, le style et les mots utilisés dans un document peuvent être exploités par les algorithmes d’analyse du langage naturel. Une telle classification permet par exemple de savoir si un texte est plutôt d’accord, plutôt pas d’accord, plutôt neutre ou complètement étranger à un certain propos, tel que « Donald Trump est soutenu par le Pape ». Une fois que l’énorme masse de textes à analyser a été ainsi classifiée par la machine, l’attention précieuse des humains peut se concentrer juste sur les textes qui soutiennent tel propos, ou encore, cibler l’analyse sociale (cf. ci-dessus) juste sur les auteurs de ceux-ci. Il s’agit ici d’utiliser le pouvoir informatique pour épargner l’effort humain, le plus cher et le plus précieux, puisqu’il peut effectuer des tâches « fines » d’analyse qu’on ne sait pas encore complètement automatiser. C’est dans cette optique que le problème de classification de texte ci-dessus a été proposé pour la première édition du Fake News Challenge, une compétition organisée conjointement par des journalistes et des informaticiens.

Ceci nous amène à une autre remarque fondamentale : le journaliste est seul capable de choisir les faits à partir desquels tirer un article, à choisir la nuance des mots pour en parler, et ceci demande de connaître ses lecteurs, la tradition du journal, l’angle de présentation etc. Les outils informatiques de fact checking sont des aides, des « bêtes à besogne », même s’ils sont loin d’être bêtes. Leur but est d’aider… des humains à communiquer avec des humains, pas de remplacer les journalistes.

Pexels - photosUne vague de pessimisme est venue dernièrement rafraîchir l’enthousiasme des « croyants » aux vertus du fact checking. A quoi bon vérifier, dans une époque de « post-vérité », où chacun reste enfermée dans sa sphère sociale et médiatique et n’écoutera pas des arguments allant à l’encontre de ses croyances ?

Dans un magnifique article intitulé « Défense contre les forces des ténèbres : propagande et contre-propagande en réseau », Jonathan Stray cite une étude qui estime que le gouvernement chinois publie, par le biais de ses employés dédiés à cette tâche, 448 millions messages sur les réseaux sociaux, avec notamment une production de « nouvelles » accrues les jours où des informations défavorables au gouvernement circulent sur les mêmes réseaux. La stratégie est très simple » noyer le message indésirable dans la masse des contenus favorables, pour le rendre invisible.  J. Stray note aussi, amèrement, que le fact checking vient nécessairement après un coup de désinformation, et que si celui-ci a été bien calculé et amplement diffusé, la fausse image créée dans les esprits va s’imposer.  Mais cet article donne aussi une piste vers la solution : contre l’armée des forces des ténèbres, constituer l’armée des bons sorciers, qui, en mode crowd-sourcing (évidemment !), établiront l’atlas des sources de désinformation, afin que la connaissance gagnée par les uns profite à tous.

Le projet CrossCheck, un partenariat d’une vingtaine de grands médias dont Le Monde, est un pas dans cette direction.

Les scientifiques travaillent aussi sur le fact checking. Dans le projet ContentCheck, financé par l’Agence Nationale de la Recherche (ANR), nous élaborons par exemple des modèles de données et des outils pour le fact checking s’appuyant sur les contenus tels que les données ou les textes. La lutte contre la désinformation et les fake news (fausses nouvelles) est un sujet très actif dans la fouille des données ou l’analyse des réseaux… La consolidation des données contradictoires et partielles en des bases de confiance, avec ou sans appel au crowd-sourcing, apporte aussi un soutien évident au fact checking.

Mais, finalement, on pourrait se demander si le sujet est vraiment si important ? Nous vivons dans un monde qui doit gérer des guerres, des famines, du terrorisme international et les changements climatiques. Est-ce bien raisonnable d’investir des efforts pour savoir si ce que l’on vous dit est vrai ? La réponse à cette question, je ne la trouve pas uniquement dans mes expériences d’enfance dans une dictature, la Roumanie communiste, où la vérité était encore plus rare à trouver que les denrées de première nécessité. Je la trouve dans cette simple phrase : La liberté, c’est la liberté de dire que deux et deux font quatre. Si on vous accorde cela, tout le reste va suivre, Orwell, 1984.

Ioana Manolescu, Inria Saclay, @ioanamanol

Merci, Axelle

Quand nous parlons d’informatique avec « le gouvernement », nous avons souvent l’impression d’être incompris. Avec le secrétariat au numérique, Fleur Pellerin et Axelle Lemaire, avec la French Tech, la loi sur la république numérique, notamment, la situation a changé.

Axelle Lemaire, Photo Claude Truong-Ngoc / Wikimedia Commons – cc-by-sa-3.0

Profitons de l’occasion pour remercier ici Axelle Lemaire dont nous avons pu apprécier l’intelligence, les compétences, la passion, et le travail acharné. Nous avons besoin de personnes comme elle pour concilier les angoisses des uns et les attentes irréalistes des autres sur le monde numérique, pour faire bouger les lignes.

Serge Abiteboul et l’équipe de binaire

Pétanque : une belle victoire des informaticiens

Joueurs de boules, vers 1840, par Charlet.

Les robots sont depuis longtemps dans des usines de fabrication de boules de pétanques. Ce n’est que récemment qu’ils se sont invités sur les terrains de jeu de pétanque même.

La pétanque (du provençal pèd : pieds, et tanca : planté ; (lou) jo à pèd-tanca, le jeu à pieds-plantés, ou (la) petanco, la pétanque) est un jeu de boules dérivé du jeu provençal. C’est le dixième sport en France par le nombre de licenciés. Fin 2007, on compte 558 898 licenciés répartis dans 78 pays. À ces chiffres, il convient de rajouter les pratiquants occasionnels, en vacances notamment, c’est-à-dire plusieurs millions d’amateurs. C’est un sport principalement masculin (seulement 14 % des licenciés sont des femmes en France). Néanmoins, c’est l’un des rares sports où des compétitions mixtes sont organisées. Wikipédia

Un scoop binaire : l’intelligence artificielle a fini par vaincre l’humanité.

Trois robots ont battu la semaine dernière une triplette de champions. Après les échecs, le go, Jeopardy !, c’est un des derniers bastions de la domination humaine qui cède.

Il a fallu pour battre les humains à ce jeu pourtant très simple combiner les talents d’informaticiens d’Inria Paris et de roboticiens bordelais du CNRS, des spécialistes de robotiques, d’apprentissage automatique, et de géométrie computationnelle, sans compter bien entendu leurs collègues universitaires marseillais, en pointe sur tous les sujets du deep-learning à la pétanque. Nous avons rencontré le responsable de l’équipe, Lagneau Ennepé.

Pour confronter les robots, la ville d’Aubagne a réuni une triplette de choc – on a parlé de dream team. Emilie, Redouane, et Marcel sont des habitués des tournois, bardés de médailles. Emilie a été championne du monde, Redouane champion du Maroc, et Marcel champion de Provence.

Reachy, le bras robotique bio-inspiré et open sourceReachy, le bras robotique bio-inspiré et open source

Les trois robots, Fanny, Marius et Aimée, en fait identiques, ont été développés à partir de Reachy, le bras robotique bio-inspiré et open source, de Pollen Robotics. Un premier défi a été le poids de la boule de pétanque, trop lourd pour Reachy. Malgré l’insistance des ingénieurs, la fédération de pétanque a refusé les boules en plastiques (même peintes couleur argent). L’équipe de Lagneau a dû revoir complètement la mécanique du bras.

Une autre difficulté a été la nature souvent imprévisible des terrains de pétanque. Les pentes, les trous, les irrégularités… Les robots s’appuient sur un premier réseau de neurones pour découvrir le terrain et apprendre à s’y adapter, mais surtout sur la notion de robotique incarnée qui déporte l‘intelligence vers la mécanique elle -même.

Les robots ont perdu leur première partie de manière inhabituelle pour une partie de pétanque.  C’était au tour d’Aimée de jouer. Elle est restée bloquée pendant de longues minutes sans bouger, avant que l’arbitre ne déclare la triplette humaine vainqueur. Emilie Noether, la pointeuse de la triplette humaine, a déclaré : « Bonne mère ; ça t’arrive d’hésiter, mais, putaing, tu te fais crier dessus et tu joues, cong. Je n’avais jamais vu cela en tournoi. »

Lagneau nous a expliqué : « Il existe deux façons de lancer les boules : pointer comme un têtu et tirer comme un testard. Une des plus grandes difficultés techniques a été de résoudre ce simple questionnement, pointer ou tirer.  C’est d’ailleurs la cause d’innombrables disputes à la pétanque. »

Ce qui s’est passé est dramatiquement simple. Les robots ont joué des milliers de parties à un contre un. Le but était d’entrainer leurs réseaux de neurones pour apprendre à décider sur le dilemme : tirer ou pointer. Ils n’ont donc pas tous joué les mêmes parties. Dans la situation de la première partie, Marius pensait qu’il fallait tirer quand Fanny était convaincue qu’il fallait pointer. Ils ont transmis leurs avis par Bluetooth à Aimée. Le problème que l’équipe de Lagneau n’avait pas envisagé, c’est qu’Aimée était arrivée à des probabilités si voisines qu’elle a choisi de s’en remettre à l’avis des autres : et là égalité et blocage. C’était totalement imprévisible.

Ce problème n’est jamais plus arrivé. Nous avons cru comprendre que la solution de l’équipe de Lagneau était très low tech (une ligne de code) : en cas de désaccord, suivre l’opinion de Fanny. En fait, ils ont suivi le conseil de Corine Lercier : « Les femmes ont toujours raison. Et même si elles ont tort c’est qu’elles ont tarpé une raison d’avoir tort. » Est-ce vrai aussi pour les robottes ? La féminité des robots étant un sujet toujours délicat, la question reste en discussion dans les communautés d’intelligence artificielle.

Fanny, Marius et Aimée n’ont cessé de s’améliorer. Les humains ont commencé à douter et finalement perdu. La dernière partie s’est conclue sur le score de 13 à zéro. Cela a conduit les participants à suivre une vieille coutume provençale « embrasser Fanny ». Il s’agit d’embrasser le postérieur d’une Fanny. Comme un des robots s’appelle Fanny, la fin s’imposait. Redouane a commencé par dire : « le cul de la radasse ? T’es con toi ! » Mais, devant les huées de la foule, il a dû s’y résoudre. Il a embrassé comme les deux autres le postérieur de Fanny !

Serge Abiteboul, Marie-Agnès Enard, Pierre Paradinas, Charlotte Truchet, Thierry Vieille,

Il y a un an, pile

Un article de binaire sur le Big data et les objets connectés avait fait beaucoup réagir : La data du vibromasseur (binaire du 1er avril 2016). Le sujet reste d’actualité. Voir l’article du Monde : Un fabricant de sextoys connectés va indemniser les utilisateurs qu’il a espionnés (LeMonde.fr du 15 mars 2017).  La Société Informatique de France a créé une commission sur ces sujets ; n’hésitez pas à la contacter.