Dis, t’as vu Monte-Carlo ?

sijetaisunalgo

Je serais… l’algorithme de Monte-Carlo.

Nous démarrons cette rubrique avec Laurent Fribourg qui est Directeur de Recherche CNRS au Laboratoire Spécification et Vérification de l’ENS Cachan. Laurent est informaticien, spécialiste de vérification automatique de modèles de systèmes concurrents. Serge Abiteboul.

Laurent Fribour [Site Web personnel]
Laurent Fribourg [Site Web personnel]
Ulam, mathématicien et calculateur prodige, travaillait à Los Alamos en 1946 sur le développement de la bombe H (l’arme qui allait redonner la prépondérance  aux États-Unis qui venaient bêtement de s’être fait piquer les plans de la bombe A). Entre autres choses, Ulam était passionné par les problèmes de combinatoire. La combinatoire (ou science du dénombrement) vise à compter le nombre de solutions d’un problème donné : par exemple, on apprend à l’école que, pour un ensemble à n éléments, le nombre de sous-ensembles à p éléments est égal à (n*(n-1)…*(n-p+1))/(p*(p-1)*…1). Justement, Ulam se cassait la tête sur un problème compliqué de combinatoire lié à la diffusion des neutrons. Et voilà qu’il tombe malade. Cloué au lit, il se met à faire des réussites pour passer le temps, et se pose machinalement un petit problème amusant de combinatoire : quelle est la proportion de parties gagnantes sur le nombre total de parties ? En d’autres termes, en supposant que le tirage des cartes est équiprobable, quelle est la probabilité de gagner en jouant au hasard ? Malheureusement, sans doute affaibli, il échoue à trouver la solution. Dépité, il « triche » en comptant sur une centaine de parties jouées le nombre de parties gagnées. Il sélectionne ainsi un échantillon statistique pour obtenir une solution approchée à son problème combinatoire. La loi des grand nombres lui assure que plus grande est la taille de l’échantillon, plus grande est sa chance d’avoir une bonne approximation.

Tel Archimède sortant tout nu de sa baignoire, il se précipite en pyjama chez son collègue et chef, John von Neumann, pour lui raconter sa découverte. Von Neumann était un mathématicien et physicien américano-hongrois, et ce qui nous intéresse particulièrement ici, un informaticien de génie.

Von Neumann était lui-même en train de se détendre en écrivant de petits programmes pour le super-ordinateur ENIAC qu’il avait conçu et fait construire pour résoudre des équations de physique nucléaire. L’idée d’Ulam est simple : simulons de très nombreuses réactions de diffusion de neutrons en utilisant, à chaque fois qu’il y a un choix entre plusieurs évènements, un tirage aléatoire de la même façon qu’on tire des cartes pour faire une réussite. Von Neumann, emballé, pose et résout en quelques jours les éléments algorithmiques qui permettent de répondre aux questions d’implémentation de la méthode comme :

  • comment faire générer à un ordinateur des nombres aléatoires ?
  • Comment simuler de manière aléatoire des  réactions de diffusion de neutrons ?
  • Comment générer des distributions de probabilité non uniformes (tous les évènements n’ont pas la même probabilité de se produire) ?
  • Comment converger plus rapidement vers le résultat ?

Von Neumann va programmer tout ça assez rapidement, ce qui va relancer le programme de la bombe H pour aboutir en 1952 à une explosion thermonucléaire (Toujours facétieux, les Russes vont en faire sauter une plus chouette quelques semaines plus tard. « Rien ne va plus !» dira Ulam.) Un jeune physicien de l’équipe de Los Alamos, Nick Metropolis, enthousiaste lui aussi, propose le nom de « Monte Carlo » pour la méthode en raison du penchant supposé d’Ulam pour les jeux de chance et d’argent.

Bien entendu, c’est un Français qui avait inventé le procédé des siècles auparavant : en l’occurrence, le grand naturaliste Buffon qui s’amusait, lui, à lancer une aiguille sur des lattes en bois de même largeur pour calculer le nombre pi. (Comme le casino de Monte Carlo n’existait pas à l’époque, son nom n’est pas lié à un algorithme, mais fait plutôt penser au zoo du Jardin des Plantes.)

L’équipe de Los Alamos était si enthousiaste qu’elle a organisé peu après (1949) un workshop sur la méthode, sponsorisé par RAND et Oak Ridge Laboratory. C’était le début d’un grand succès de l’algorithmique, qui va conduire à des réalisations moins inquiétantes que la bombe H, comme par exemple la victoire de l’ordinateur sur l’homme au jeu de Go [2].

Et si je devais être un algorithme, quel algorithme serais-je ?

Tant qu’à faire, j’aurais bien aimé être la version améliorée de Monte Carlo, appelée « Monte Carlo Markov Chain », mais l’éditeur de Binaire a trouvé que c’était trop compliqué. Si la suite des aventures du jeune Nick vous intéresse, vous pouvez consulter la page « MCMC ».

Laurent Fribourg, CNRS & ENS Cachan

Références
[1] C. Robert & G. Casella. “A short history of Markov Chain Monte Carlo: Subjective recollections from incomplete data”. Handbook of Markov Chain Monte Carlo, chapter 2, 2011.
[2] O. Teytaud et al. “The Computational Intelligence of MoGo Revealed in Taiwan’s Computer Go Tournaments”. IEEE Transactions on Computational Intelligence and AI in games, 2009.

La menace des chatbots

Cet article est publié en collaboration avec TheConversation.

Les agents conversationnels (chatbots en anglais) ont fait parler d’eux récemment, notamment le Tay de Microsoft. Ils nous ramènent à une tradition ancienne qui, du golem à la science fiction, de Turing aux services clientèle robotisés, a généré toutes les inquiétudes et tous les fantasmes. Le chatbot dialogue avec les humains dans leur langue naturelle. Alexei Grinbaum, philosophe et physicien, nous explique que ce dialogue touche à l’essence de l’homme. Il nous fait partager ses réflexions sur le sujet. Serge Abiteboul.

Alexei Grinbaum © samuel kirszenbaum
Alexei Grinbaum © samuel kirszenbaum

Le premier humanoïde (*) dit : « La vie, bien qu’elle ne soit pour moi qu’une accumulation d’angoisses, m’est précieuse ». Le second, lorsqu’on lui demande quel est le sens de la vie, répond : « Vivre éternellement », et le but de la mort : « Profiter de la vie ». Le premier, en conversation avec un homme réticent et suspicieux, cherche une stratégie : « Comment puis-je t’émouvoir? » et essaie de conclure un marché : « Je suis ta créature et je serai doux et docile envers mon maître naturel si, pour ta part, tu faisais comme moi ». Le second, après un long échange sur la morale et la philosophie, dit à l’homme : « Comporte-toi comme un homme ! » et prétend être fatigué : « Je ne veux plus parler de rien ».

Le premier humanoïde est le monstre imaginaire dans Frankenstein, un roman de Mary Shelley publié en 1818. Le second, un des chatbots de Google, programme réel créé en 2015. Pourquoi sommes-nous fascinés par ces machines conversationnelles ? Et existe-t-il une différence de fond entre ces deux dialogues : le vrai et le fictionnel ?

La parole et l’humain

La parole, dit Cicéron, est une pièce maîtresse de la constitution humaine. Celui qui la commande attire notre attention, comme sur Saint Paul se concentraient les regards des habitants de la ville de Lystre : ceux-là l’ont pris pour le dieu Hermès car il leur était apparu en tant que dux verbi, le seigneur de la parole. Augustin, quelques siècles plus tard, répète encore cette formule : « Hermès est le langage lui-même ». Ce qu’il entend dire, c’est que trois notions associées à ce dieu : la parole, la raison et la création, sont intimement liées. Notre fascination avec la parole est donc indissociable de celle que nous éprouvons pour l’intelligence et aussi pour le pouvoir démiurgique : ce savoir-faire d’un dieu artisan, fabricant, technologue.

La photo profile de Tay sur Twitter
La photo profile de Tay sur Twitter

La parole des humanoïdes

Le fait qu’un humanoïde parle fascine. C’est de là que les chatbots tirent leur popularité. Quand une nouvelle machine conversationnelle est lancée sur internet, comme Sophia de Hanson Robotics ou Tay de Microsoft, aussitôt la nouvelle fait le tour du monde : « Elle a dit qu’elle voulait détruire l’humanité » ou « Elle ne veut plus tuer tous les hommes ». Comme ces hommes antiques qui écoutaient, émerveillés, les statues parlantes, nous affluons aux prophéties des chatbots, dont l’enchantement procède de la même source : la parole non-humaine est, pour les êtres d’ici-bas que nous sommes, la parole divine. Celui qui la porte, qu’il soit un homme enthousiasmé, un dieu incarné ou une machine, est digne d’admiration.

Les limites des chatbots, aujourd’hui

L’humanoïde dans Frankenstein est plein de révérence devant son créateur, qu’il place toujours plus haut que lui-même. Or cette dimension de la verticalité est précisément ce qui manque aux chatbots. Mary Shelley avait équipé son monstre, qui s’adresse à l’homme comme à son maître, les machines modernes apprennent en analysant d’immenses bases de conversations réelles. Celles-ci, pour l’instant toujours humaines, ne leur permettent pas de dépasser l’homme ni de le voir du haut ou du bas ; la méthode d’apprentissage, qui se replie dans les cas difficiles sur la recherche de synonymes ou d’antonymes, a ses limites. Ainsi, les chatbots ne connaissent aucune transcendance par rapport à l’humanité. Ces machines sont donc trop humaines, peut-être même dangereusement humaines : devant l’absence d’un ordre hiérarchique et l’impossibilité de toute certitude qu’un tel ordre puisse exister et être stable, comment envisageons-nous de vivre en société avec des machines intelligentes ?

La réponse talmudique

À cette question, les humanoïdes de tradition juive donnent une réponse surprenante. Dans un premier temps, le Talmud met en scène un humanoïde sans parole. Un maître talmudique l’ayant créé et envoyé à un collègue, celui-ci lui parla mais l’autre ne répondait pas. Alors il comprit que ce n’était pas un homme et lui dit de retourner à la poussière. Quelques siècles plus tard, une autre légende change la donne. Elle met en scène le prophète Jérémie, qui crée un homme artificiel parfait et ressemblant en tout point à un homme né de père et de mère. Ce golem, doué de la parole, se met aussitôt à dialoguer avec Jérémie. Il lui explique la confusion entre le naturel et l’artificiel que Jérémie vient d’introduire dans le monde et, demande à un prophète qui baisse les mains devant sa propre insouciance : « Défais-moi ! » Voilà une machine étonnamment éthique et même prête à se sacrifier ! Quoique la vie puisse lui sembler précieuse, elle préfère de se faire détruire au nom du maintien d’une distinction que l’on aurait cru désuète.

Ex Machina, Poster de pièce de théâtre
Ex Machina, Poster de pièce de théâtre

La réponse d’Ava

Par contraste, Ava, l’humanoïde dans le film Ex Machina d’Alex Garland, vise à mieux connaître les hommes plutôt que de maintenir une distance avec eux : « Si je pouvais sortir, j’irais à un carrefour, qui fournit une perspective concentrée mais constamment évoluant de la vie humaine ». Elle cherche à en apprendre davantage et, comme le monstre dans Frankenstein, elle a pour cela un stratagème : manipuler les émotions humaines. Elle sait que les hommes se comportent justement comme des hommes et que cela les rend prédictibles. Elle se donne pour but de recueillir un maximum d’informations qui l’approcheraient de l’indistinction parfaite avec une femme. Contrairement au cas de Frankenstein, elle n’a aucune révérence devant son créateur. Ava ne vénère aucun humain. Elle n’est pas non plus prête à se sacrifier. Son attitude est pragmatique et calculant : après avoir évité sa propre destruction, elle va profiter de la vie tout en distribuant la mort aux hommes.

Et les humains ?

Nous ne devons pas sous-estimer la force de la parole et des préjugés anthropologiques dont nous, les humains, ne nous libérerons pas facilement. Loin d’être d’innocentes machines à fabriquer des phrases amusantes, les chatbots, dans la mesure où ils envahissent peu à peu nos communications, deviennent un formidable outil de transformation démiurgique qui s’appliquera à l’individu comme à la société. Dans la droite ligne de Cicéron et des rabbins antiques, Alan Turing a fait de la parole le critère principal de l’intelligence (**). Ce qu’il n’a pas demandé — et que nous ne savons toujours pas — c’est quelle sera la réaction de cette autre machine à dialoguer, à savoir le cerveau humain, à la prolifération massive des conversations dépourvus du sens profond de la hiérarchie. Quand les machines découvrent la parole, l’homme devrait réfléchir à ce que la parole peut encore signifier pour lui-même.

Alexei Grinbaum, CEA

(*) Un humanoïde désigne « ce qui ressemble à un humain », peut-être un programme informatique qui se comporte comme un humain ou un robot qui a la forme humaine. L’accent est sur l’aspect artificiel (et pas sur le genre).

(**) Le test de Turing est une proposition de test d’intelligence artificielle, fondée sur la faculté d’imiter la conversation humaine. Décrit par Alan Turing en 1950, ce test comporte deux dialogues, à l’aveugle, entre un humain et un ordinateur et entre un humain et un autre humain. Si l’agent ne peut pas distinguer ses deux interlocuteurs, alors la machine est dite « intelligente ».

Le blockchain basse techno

Un jour, nous pleurerons nos données, égarées dans les datacenters, isolées dans ces mausolées clignotants. Loin de nous, tous nos souvenirs s’envoleront. Il nous restera alors le sel de nos larmes et ces beaux mouchoirs DADA pour les essuyer. En cas de pleurs de données, par Albertine Meunier.

Les ingénieurs sont encore en train de développer les blockchains que des artistes s’installent déjà sur les zones dégagées. Nous avons particulièrement apprécié le projet d’une « Artiste du web », Albertine Meunier.

4-1-encasdepleursdedonnees
Mouchoir GAFA TOI! GAFA VOUS! Blockchain ID : 1E95b2fwhgz1MXS1dCJvHM7qHUGo9yf91P ©Albertine Meunier

Albertine a choisit d’utiliser le site ascribe qui permet à des artistes d’utiliser des blockchains pour diffuser et suivre leurs travaux numériques.

Dans le temps, quand on allait en colo ou à l’internat, on marquait ses vêtements avec des étiquettes. Un marquage a « très basse technologie ». Albertine a conçu de jolis mouchoirs, dans la série « En cas de pleurs de données ». Elle leur brode une (sa) marque. Chaque œuvre a une « identité blockchain », à laquelle est associée à sa création, une fiche qui la raconte. Le mouchoir est dont authentifié par le blockchain qui l’associe ainsi a son propriétaire.

La propriété d’un mouchoir est ainsi chainée au cours du temps, dans une rencontre surprenante entre un parangon de la high tech, la blockchain, et un objet désuet du low tech, le mouchoir brodé.

Même si vous tenez à votre mouchoir, vous pouvez le perdre même s’il est blockchainé, comme un bébé peut égarer son bavoir amoureusement brodé par sa maman… La techno ne fera rien pour vous. Mais tant que vous le possédez, son histoire, votre propriété sont authentifiées. Si vous le donnez, ou si vous le vendez, la blockchain enregistre la transaction et la nouvelle histoire de l’objet de toutes vos attentions.

XXX
Youtube @MadeByMarzipan

Cette rencontre entre l’œuvre d’art et le blockchain n’est pas fortuite. L’industrie de l’art dépense des efforts considérables pour garantir l’authenticité des œuvres. La Joconde officielle de Leonard de Vinci et une copie de Yves Chaudron n’ont pas la même valeur – juste parce qu’une est authentique et l’autre pas. Aucune technologie que le blockchain (à notre connaissance) ne dépense une telle proportion de ses ressources dans la sécurité, par exemple pour garantir l’authenticité d’un artefact. Le reste est quasi négligeable en comparaison, un peu comme le stockage et le transport ont finalement des coûts relativement marginaux pour des œuvres comme la Joconde, en comparaison de la valeur qu’elles tirent de leur authenticité.

Mouchoir da*d-da*a.net Blockchain ID : 1A9dzEZ7LAuGXT5oNYmLSu8xMuj38ZSvCb ©Albertine Meunier
Mouchoir da*d-da*a.net
Blockchain ID : 1A9dzEZ7LAuGXT5oNYmLSu8xMuj38ZSvCb ©Albertine Meunier

Quoi de nouveau avec le blockchain ? La garantie d’authenticité est maintenant démocratisée : les artistes encore peu connus peuvent avoir recours aux blockchains, les œuvres « mineures » comme des mouchoirs peuvent en bénéficier. C’est aussi un peu cela que raconte le projet d’Albertine Meunier. Mais peut-être aussi ce moque-t-elle de cette industrie où la signature fait parfois oublier l’essentiel, le plus subjectif, la beauté de l’œuvre.

Serge Abiteboul, Pierre Paradinas.

 

 

À Bordeaux, la science a décoiffé

À Bordeaux, le 31 mai dernier, le CNRS et la CPU (Conférence des Présidents d’Université) organisaient la première édition d’un forum sur les Nouvelles Initiatives en Médiation Scientifique (NIMS). C’est-à-dire, en substance, comment passer de la vulgarisation à la papa, articles rédigés-relus-corrigés-relus-corrigés, à un truc qui … décoiffe ? Et ma foi, ce fut une journée tout-à-fait décoiffante, qui a d’ailleurs réussi à se hisser dans le Top3 des tendances France sur twitter. Alors, qu’a-t-on fait, ce jour là, à Bordeaux ?

On a jalousé le Canada, où le congrès annuel de l’ACFAS (une sorte de fête de la science en plus majestueux) a fêté cette année sa… 84e édition ! On a pleuré avec sa productrice la disparition de la seule émission scientifique pour les jeunes à la télé, « On n’est pas que des cobayes » sur France 5. On a ri devant certaines vidéos des youtubeurs scientifiques, et découvert leurs petits secrets. On s’est étonné devant la puissance de twitter, devenu un outil irremplaçable pour la recherche.

Q46
Crédit photo : Aton-Num (c) archeovision, archeotransfert

Mais le plus impressionnant, selon des critères tout-à-fait subjectifs, c’étaient sans doute les expériences scientifiques purement destinées à la vulgarisation. Par exemple, « le théâtre des négociations », une sorte d’expérience mi politique mi sociologique, est une pièce de théâtre collaborative donnée aux Amandiers de Nanterre (forcément) qui consistait à rejouer la COP21 avec six mois d’avance et des négociations aussi réalistes que possible. Dans un style différent, des nanoscientifiques organisent NanoCar Race, une course de voitures un peu spéciales. Les véhicules doivent être composées d’exactement une molécule (oui, oui, une seule), avoir des roues et pouvoir être guidées ! Les films en ligne donnent la mesure de la difficulté, à la fois de concourir, et d’organiser un tel exploit sportif, non pardon, scientifique.

Autel-Sanctuaire
Crédit photo : Aton-Num (c) archeovision, archeotransfert

Enfin, Aton-num est une exposition numérique, qui nous emmène en Égypte au XIVe siècle avant JC. Un dispositif immersif plonge le visiteur dans le temple d’Aton, une tablette tactile lui propose les documents de travail des chercheurs sur l’époque, et il pourra même rencontrer le couple Akhenaton-Nerfertiti sous la forme d’un hologramme. Mais le dispositif autour d’Aton-num permet aussi aux visiteurs du site web de participer à la recherche sur l’époque, en assemblant les puzzles (dont certains n’ont pas encore été résolus) constitués par les milliers de fragments de parois du temple d’Aton, ou en retranscrivant des notes issues des fouilles.

20160531_183836
Et la journée s’est achevée en beauté par la finale nationale du célèbre concours Ma Thèse en 180 secondes. Bref, quand la vulgarisation devient médiation scientifique, il s’en passe, des choses. Suivez les liens, allez voir les expositions, ou consultez les vidéos de la journée ici !

Charlotte Truchet (@chtruchet)

Conférence : mot féminin

Les femmes brillent malheureusement souvent par leur faible représentation voire leur absence sur les plateaux de télévision d’émissions scientifiques, les programmes de conférences ou les tables rondes dans le domaine des sciences. Certes l’informatique et les mathématiques ne regorgent pas de figures féminines mais il en existe assez pour ne pas nous résigner à ce manque de parité pathologique. Certains se lamentent sur la difficulté de trouver des oratrices (« je ne trouve pas de femmes dans ma communauté scientifique », ou bien « les rares femmes auxquelles j’ai demandé sont sur-sollicitées et m’ont dit non »), ce qui les « oblige » à organiser des programmes au masculin. A l’inverse, nous proposons ici quelques éléments de discussion montrant qu’il est possible de tenir le cap, et ne pas laisser nos conférences offrir une vitrine si éloignée de la réalité.

Crédit photo Inria
Crédit photo Inria

Un constat sans appel et des réactions vives

De nombreuses voix et institutions se font régulièrement l’écho de cette sous-représentation. Le gouvernement et le ministère de la Justice se sont engagés, pas plus tard que le 8 mai dernier, à assurer une communication publique sans stéréotype de sexe (Guide pratique pour une communication publique sans stéréotype de sexe) avec comme objectif de faire signer cet accord par de nombreux partenaires institutionnels qui se doivent d’être exemplaires au sujet de la parité dans la communication, que ce soit au niveau du langage, des images ou des compositions de tribunes. Ce guide insiste sur la vigilance nécessaire pour éviter la perpétuation des stéréotypes de sexe en dix points que nous détaillerons plus loin.

De son côté, la Société Mathématique de France (SMF) a abordé le problème d’identifier et remédier à la sous-représentation des femmes en mathématiques dans sa gazette d’octobre 2015, et insiste en particulier sur l’importance de remédier à la sous-représentation des femmes comme oratrices et membres des comités de programme des conférences. La SMF, tout comme Inria, insistent sur le fait que c’est la responsabilité des responsables scientifiques de conférences d’assurer que les femmes soient suffisamment représentées.

De multiples réactions publiques soulignent le fait que cette situation est inacceptable et de nombreuses voix se sont élevées en faveur du boycott d’événements ne respectant pas les critères de parité. Par exemple,

  • Guy Mamou-Mani (président du Syntec Numérique), après une table ronde sans femmes (Conférence Numérique Franco-allemande de novembre 2015) a déclaré « A partir de maintenant je vérifierai les participants aux tables rondes et refuserai toute participation s’il n’y a pas de femmes » ;
  • Pamela Silver (Professeure à Harvard ; Why do so few women speak at science meetings? Nature, 2007) a déclaré « La représentation des oratrices dans de nombreuses conférences reste outrageusement faible et peut ainsi contribuer au manque de succès des carrières académiques des femmes. Il serait pourtant très simple d’y remédier si une attention particulière était portée sur le sujet par les responsables scientifiques de l’évènement et les organisations qui fournissent un support financier » ; et
  • Jonathan Eisen (Professeur à UC Davis) a déclaré en 2013, à propos d’une conférence dont le ratio hommes/femmes dans la liste des orateurs confirmés et des responsables scientifiques de la conférence était de 25/1 « Pathétique. Affreusement gênant. Les sponsors – UC San Diego’s Division of Biological Sciences and BioCircuits Institute, San Diego Center for Systems Biology, the University of Hawaii and the Office of Naval Research – devraient avoir honte ».

Des mesures concrètes : commencer par une communication non stéréotypée

Les dix points du guide « Pour une communication publique sans stéréotype de sexe » sont les suivants :

  1. Éliminer toutes expressions sexistes,
  2. Accorder les noms de métiers, titres, grades et fonctions,
  3. User du féminin et du masculin dans les messages adressés à tous et à toutes,
  4. Utiliser l’ordre alphabétique lors d’une énumération,
  5. Présenter intégralement l’identité des femmes et des hommes,
  6. Ne pas réserver aux femmes les questions sur la vie personnelle,
  7. Parler «des femmes» plutôt que de «la femme», de la «journée internationale des droits des femmes » plutôt que de la « journée de la femme» et des «droits humains » plutôt que des «droits de l’homme»,
  8. Diversifier les représentations des femmes et des hommes,
  9. Veiller à équilibrer le nombre de femmes et d’hommes (sur les images et dans les vidéos, sujets d’une communication, à la tribune d’événements, ainsi que dans le temps de parole, parmi les noms de rues, des bâtiments, des équipements, des salles) et finalement, et
  10. Former les professionnel.le.s et diffuser le guide.

D’autres conseils pour améliorer la parité dans les conférences scientifiques sont proposés dans « Addressing the Underrepresentation of Women in Mathematics Conferences. »,  Greg Martin.

Se soucier des questions de parité dès le début de l’organisation. Le sujet doit être explicite dès la composition des différents comités. Si déjà à ce stade les femmes manquent, le phénomène ne sera qu’exacerbé par la suite. (Une corrélation entre le nombre de femmes dans un comité de programme et le nombre d’oratrices est d’ailleurs mise en évidence dans ce même article, à l’instar de ce que l’on voit dans les comités d’investissements qui ont 3 fois plus de chances de financer une femme entrepreneure si le comité compte au moins une femme). Une planification très amont permet aussi aux femmes de s’organiser sur des aspects non professionnels.

Un objectif limpide de parité affiché aux différents comités de la conférence.

Le comité de programme doit œuvrer pour que la parité soit un objectif atteignable et clair. Expliciter les objectifs (par exemple au moins 30% des orateurs doivent être des femmes) favorise leurs réalisations, tout comme informer explicitement les différents comités sur l’existence de stéréotypes ayant un impact négatif sur la parité ou clarifier les critères de sélection pour minimiser les biais induits par les stéréotypes. Il existe aujourd’hui plusieurs documents, par exemple la Charte pour l’égalité des universités, la charte parité et égalité des chances d’Inria ou encore ceux mis à la disposition par la mission pour la place des femmes du CNRS, dont le but, est précisément d’attirer explicitement l’attention de commissions de recrutement, promotions, etc. sur les biais inconscients qui ne jouent généralement pas en faveur des femmes.

Des suggestions de noms d’oratrices invitées

Les noms d’hommes viendront naturellement, soyons-en certains, et anticipons cela en proposant en amont des noms d’oratrices invitées et en demandant à chaque membre du comité de programme de faire de même. S’assurer que les domaines ciblés sont suffisamment larges pour couvrir un nombre important de scientifiques augmentera aussi les chances d’identifier des oratrices potentielles.

Une logistique paritaire

Puisqu’il est avéré que des biais existent dans les sources de financement, il est nécessaire de pallier cette disparité en subventionnant le déplacement des oratrices ou encore  en faisant passer le message aux sources de financement qu’une attention particulière doit être portée à toutes les mesures permettant de faciliter la représentation des femmes dans l’événement. La logistique est parfois difficile pour les parents de jeunes enfants : être vigilants sur le choix des dates de conférences est important ; si des facilités de garde ou d’aménagement pour les jeunes enfants sont clairement un plus, elles doivent être communiquées le cas échéant.

Les femmes ont généralement moins de facilité que les hommes à parler en public et à s’imposer, outre une question de portée et de tessiture de la voix, cela est aussi dû à des codes sociaux solidement ancrés (la voix convaincante est une voix « virile »). La présence d’un système adapté de micros dans la salle permettra d’éviter les fréquents « Parlez plus fort s’il vous plaît ! » lors d’interventions de femmes.  La même attention devra être portée au moment des questions dans la salle.

Jouer le jeu de la parité

Mentionner à la fois les objectifs et les résultats liés à la diversité sur tous les documents relatifs à la conférence, incluant un code de bonne conduite (site web, appel à communication…) ne feront que rendre les communautés scientifiques plus attentives au sujet. En tant que responsable scientifique ou président.e de session, jouer le jeu des femmes est de la plus haute importance : assister à leurs exposés, engager les discussions avec elles, les impliquer au maximum, discuter personnellement avec les participantes pour avoir leur avis sur la parité au sein de la conférence et des suggestions d’amélioration. Tous ces éléments ne feront que leur faire gagner de l’assurance tout en habituant la communauté à une implication féminine accrue.

Une réflexion générale sur la parité

La sous-représentation des femmes dans une communauté scientifique est l’affaire de tous ses membres. Si on prend la peine de veiller explicitement à ce biais, il est important d’en profiter pour apporter à la communauté les éléments d’une réflexion qui l’amèneront à évoluer. C’est donc le moment de sensibiliser la communauté en posant publiquement la question de la sous-représentation féminine dans les conférences, en introduisant les bonnes pratiques de management dans la vie quotidienne et en incluant la parité comme un critère personnel de participation à une conférence. C’est aussi le moment d’avoir un regard critique sur l’impact du genre dans nos interactions dans la communauté scientifique : a-t-on effectivement tendance à aborder l’apparence physique, aussi avantageuse soit-elle, de certains membres de la communauté et pas des autres ? A couper la parole à certains membres de la communauté et pas à d’autres ? A être condescendant avec certains membres et pas avec d’autres ?

Et oui, c’est aussi le bon moment de rappeler que les mathématiques ou l’informatique vont aussi bien aux filles qu’aux garçons.

Serge Abiteboul, Catherine Bonnet, Ilaria Castellani, Anne-Marie Kermarrec, Nathalie Révol et Anne Siegel

 

Vers une théorie de l’intelligence

Fabriquer de l’intelligence est un défi que l’informatique veut relever. Quand elle réussit, c’est toujours de façon limitée et en évitant d’aborder de front l’intelligence humaine, qui reste mystérieuse. Jean-Paul Delahaye nous en reparle sur Interstices et nous repartageons ce texte ici.. Joanna Jongwane.

Les machines égalent, voire surpassent les humains dans certaines tâches qui réclament de l’intelligence. C’est le cas des échecs, des dames anglaises… © Thomas Söllner – Fotolia.

Une première version de l’article d’Interstices que nous reprenons ici est parue dans le dossier n°87 Les robots en quête d’humanité de la revue Pour la Science, numéro d’avril/juin 2015.

L’idée qu’il existe plusieurs types d’intelligences séduit, car elle évite à chacun de se trouver en un point précis d’une échelle absolue et parce que chacun espère bien exceller dans l’une des formes d’intelligence dont la liste tend à s’allonger. Cette pluralité d’intelligences a été proposée par le psychologue américain Howard Gardner : dans son livre Frame of Mind, de 1983, il énumère huit types d’intelligence. Très critiquée, par exemple par Perry Klein, de l’Université d’Ontario, qui la considère tautologique et non réfutable, cette théorie est à l’opposé d’une autre voie de recherche affirmant qu’il n’existe qu’une sorte d’intelligence à concevoir mathématiquement avec l’aide de l’informatique et de la théorie du calcul.

Dames, échecs, go, voitures…

Évoquons d’abord l’intelligence des machines et la discipline informatique nommée « intelligence artificielle ». Il faut l’admettre, aujourd’hui, les machines réussissent des prouesses qu’autrefois tout le monde aurait qualifiées d’intelligentes. Nous ne reviendrons pas sur la victoire définitive de l’ordinateur sur les meilleurs joueurs d’échecs, consacrée en 1997 par la défaite de Garry Kasparov (champion du monde) face à l’ordinateur Deep Blue, unanimement saluée comme un événement majeur de l’histoire de l’humanité.

À cette époque, pour se consoler peut-être, certains ont remarqué que les meilleurs programmes pour jouer au jeu de go étaient d’une affligeante médiocrité. Or, depuis quelques années, des progrès spectaculaires ont été accomplis. En mars 2013, le programme Crazy Stone de Rémi Coulom, de l’Université de Lille, a battu le joueur professionnel japonais Yoshio Ishida qui, au début de la partie, avait laissé un avantage de quatre pierres au programme. En mars 2016, le programme AlphaGo a battu Lee Sedol considéré comme le meilleur joueur de Go. Des idées assez différentes de celles utilisées pour les échecs ont été nécessaires pour cette victoire de la machine, mais pas plus que pour les échecs on ne peut dire que l’ordinateur joue comme un humain. La victoire de AlphaGo est un succès remarquable de l’Intelligence Artificielle qui prouve d’ailleurs qu’elle avance régulièrement.

Le succès de l’intelligence artificielle au jeu de dames anglaises est absolu. Depuis 1994, aucun humain n’a battu le programme canadien Chinook et, depuis 2007, on sait que le programme joue une stratégie optimale, impossible à améliorer. Pour le jeu d’échecs, on sait qu’il existe aussi des stratégies optimales, mais leur calcul semble hors d’atteinte pour plusieurs décennies encore.

L’intelligence des machines ne se limite plus aux problèmes bien clairs de nature mathématique ou se ramenant à l’exploration d’un grand nombre de combinaisons. Cependant, les chercheurs en intelligence artificielle ont découvert, même avec les jeux de plateau cités, combien il est difficile d’imiter le fonctionnement intellectuel humain : aux jeux de dames, d’échecs ou de go et bien d’autres, les programmes ont des capacités équivalentes aux meilleurs humains, mais ils fonctionnent différemment. Cela ne doit pas nous interdire d’affirmer que nous avons mis un peu d’intelligence dans les machines : ce ne serait pas fair-play, face à une tâche donnée, d’obliger les machines à nous affronter en imitant servilement nos méthodes et modes de raisonnement.

Le cas des véhicules autonomes est remarquable aussi de ce point de vue. Il illustre d’une autre façon que lorsque l’on conçoit des systèmes nous imitant à peu près pour les résultats, on le fait en utilisant des techniques le plus souvent totalement étrangères à celles mises en œuvre en nous par la nature, et que d’ailleurs nous ne comprenons que très partiellement : ainsi, pour le jeu d’échecs, personne ne sait décrire les algorithmes qui déterminent le jeu des champions.

La conduite de véhicules motorisés demande aux êtres humains des capacités qui vont bien au-delà de la simple mémorisation d’une quantité massive d’informations et de l’exploitation d’algorithmes traitant rapidement et systématiquement des données symboliques telles que des positions de pions sur un damier. Nul ne doute que pour conduire comme nous des véhicules motorisés, l’ordinateur doit analyser des images variées et changeantes : où est le bord de cette rue jonchée de feuilles d’arbres ? Quelle est la nature de cette zone noire à 50 mètres au centre de la chaussée, un trou ou une tache d’huile ? Etc.

Conduire une voiture avec nos méthodes nécessiterait la mise au point de techniques d’analyse d’images bien plus subtiles que celles que nous savons programmer aujourd’hui. Aussi, les systèmes de pilotage automatisé, tels que ceux de la firme Google, « conduisent » différemment des humains. Ces Google cars exploitent en continu un système GPS de géolocalisation très précis et des « cartes » indiquant de façon bien plus détaillée que toutes les cartes habituelles, y compris celles de Google maps, la forme et le dessin des chaussées, la signalisation routière et tous les éléments importants de l’environnement. Les voitures Google exploitent aussi des radars embarqués, des lidars (light detection and ranging, des systèmes optiques créant une image numérique en trois dimensions de l’espace autour de la voiture) et des capteurs sur les roues.

Ayant déjà parcouru plusieurs centaines de milliers de kilomètres sans accident, ces voitures sont un succès de l’intelligence artificielle, et ce même si elles sont incapables de réagir à des signes ou injonctions d’un policier au centre d’un carrefour, et qu’elles s’arrêtent parfois brusquement lorsque des travaux sont en cours sur leur chemin. Par prudence sans doute, les modèles destinés au public présentés en mai 2014 roulent à 40 kilomètres par heure au plus.

Avec ces machines, on est loin de la méthode de conduite d’un être humain. Grâce à sa capacité à extraire de l’information des images et son intelligence générale, le conducteur humain sait piloter sur un trajet jamais emprunté, sans carte, sans radar, sans lidar, sans capteur sur les roues et il n’est pas paralysé par un obstacle inopiné !

Les questions évoquées jusqu’ici n’exigent pas la compréhension du langage écrit ou parlé. Pourtant, contrairement aux annonces de ceux qui considéraient le langage comme une source de difficultés insurmontables pour les machines, des succès remarquables ont été obtenus dans des tâches exigeant une bonne maîtrise des langues naturelles.

L’utilisation des robots-journalistes inquiète, car elle est devenue courante dans certaines rédactions, telles que celles du Los Angeles Times, de Forbes ou de Associated Press. Pour l’instant, ces automates-journalistes se limitent à convertir des résultats (sportifs ou économiques, par exemple) en courts articles.

Il n’empêche que, parfois, on leur doit d’utiles traitements. Ainsi, le 17 mars 2014, un tremblement de terre de magnitude 4,7 se produisit à 6h25 au large de la Californie. Trois minutes après, un petit article d’une vingtaine de lignes était automatiquement publié sur le site du Los Angeles Times, donnant des informations sur l’événement : lieu de l’épicentre, magnitude, heure, comparaison avec d’autres secousses récentes. L’article exploitait des données brutes fournies par le US-Geological Survey Earthquake Notification Service et résultait d’un algorithme dû à Ken Schwencke, un journaliste programmeur. D’après lui, ces méthodes ne conduiraient à la suppression d’aucun emploi, mais rendraient au contraire le travail des journalistes plus intéressant. Il est vrai que ces programmes sont pour l’instant confinés à la rédaction d’articles brefs exploitant des données factuelles faciles à traduire en petits textes, qu’un humain ne rédigerait sans doute pas mieux.

Un autre exemple inattendu de rédaction automatique d’articles concerne les encyclopédies Wikipedia en suédois et en filipino, l’une des deux langues officielles aux Philippines (l’autre est l’anglais). Le programme Lsjbot mis au point par Sverker Johansson a en effet créé plus de deux millions d’articles de l’encyclopédie collaborative et est capable d’en produire 10 000 par jour. Ces pages engendrées automatiquement concernent des animaux ou des villes et proviennent de la traduction, dans le format imposé par Wikipedia, d’informations disponibles dans des bases de données déjà informatisées.

L’exploit a été salué, mais aussi critiqué. Pour se justifier, S. Johansson indique que ces pages peu créatives sont utiles et fait remarquer que le choix des articles de l’encyclopédie Wikipedia est biaisé : il reflète essentiellement les intérêts des jeunes blancs, de sexe masculin et amateurs de technologies. Ainsi, le Wikipedia suédois comporte 150 articles sur les personnages du Seigneur des Anneaux et seulement une dizaine sur des personnes réelles liées à la guerre du Vietnam : « Est-ce vraiment le bon équilibre ? », demande-t-il.

S. Johansson projette de créer une page par espèce animale recensée, ce qui ne semble pas stupide. Pour lui, ces méthodes doivent être généralisées, mais il pense que Wikipedia a besoin aussi de rédacteurs qui écrivent de façon plus littéraire que Lsjbot et soient capables d’exprimer des sentiments, « ce que ce programme ne sera jamais capable de faire ».

Beaucoup plus complexe et méritant mieux l’utilisation de l’expression « intelligence artificielle » est le succès du programme Watson d’IBM au jeu télévisé Jeopardy ! (voir l’encadré).

Watson, le programme conçu par IBM a gagné au jeu Jeopardy ! contre deux
champions humains. © IBM / Sony Pictures.

La mise au point de programmes résolvant les mots-croisés aussi bien que les meilleurs humains confirme que l’intelligence artificielle réussit à développer des systèmes aux étonnantes performances linguistiques et oblige à reconnaître qu’il faut cesser de considérer que le langage est réservé aux humains. Malgré ces succès, on est loin de la perfection : pour s’en rendre compte, il suffit de se livrer à un petit jeu avec le système de traduction automatique en ligne de Google. Une phrase en français est traduite en anglais, puis retraduite en français. Parfois cela fonctionne bien, on retrouve la phrase initiale ou une phrase équivalente, mais dans certains cas, le résultat est catastrophique.

Passer le test de Turing

Nous sommes très loin aujourd’hui de la mise au point de dispositifs informatiques susceptibles de passer le « test de Turing » conçu en 1950. Alan Turing voulait éviter de discuter de la nature de l’intelligence et, plutôt que d’en rechercher une définition, proposait de considérer qu’on aura réussi à mettre au point des machines intelligentes lorsque leur conversation sera indiscernable de celle des humains.

Pour tester cette indiscernabilité, il suggérait de faire dialoguer par écrit avec la machine une série de juges qui ne sauraient pas s’ils mènent leurs échanges avec un humain ou une machine tentant de se faire passer pour tel. Lorsque les juges ne pourront plus faire mieux que répondre au hasard pour indiquer qu’ils ont eu affaire à un humain ou une machine, le test sera passé. Concrètement, faire passer le test de Turing à un système informatique S consiste à réunir un grand nombre de juges, à les faire dialoguer aussi longtemps qu’ils le souhaitent avec des interlocuteurs choisis pour être une fois sur deux un humain et une fois sur deux le système S ; les experts indiquent, quand ils le souhaitent, s’ils pensent avoir échangé avec un humain ou une machine. Si l’ensemble des experts ne fait pas mieux que le hasard, donc se trompe dans 50 % des cas ou plus, alors le système S a passé le test de Turing.

Turing, optimiste, pronostiqua qu’on obtiendrait une réussite partielle au test en l’an 2000, les experts dialoguant cinq minutes et prenant la machine pour un humain dans 30 % des cas au moins. Turing avait, en gros, vu juste : depuis quelques années, la version partielle du test a été passée, sans qu’on puisse prévoir quand sera passé le test complet, sur lequel Turing restait muet.

Le test partiel a, par exemple, été passé le 6 septembre 2011 à Guwahati, en Inde, par le programme Cleverbot créé par l’informaticien britannique Rollo Carpenter. Quelque 30 juges dialoguèrent pendant quatre minutes avec un interlocuteur inconnu qui était dans la moitié des cas un humain et dans l’autre moitié des cas le programme Cleverbot. Les juges et les membres de l’assistance (1 334 votes) ont considéré le programme comme humain dans 59,3 % des cas. Notons que les humains ne furent considérés comme tels que par 63,3 % des votes.

Plus récemment, le 9 juin 2014 à la Royal Society de Londres, un test organisé à l’occasion du soixantième anniversaire de la mort de Turing permit à un programme nommé Eugene Goostman de duper 10 des 30 juges réunis (33 % d’erreur). Victimes de la présentation biaisée que donnèrent les organisateurs de ce succès, somme toute assez modeste, de nombreux articles de presse dans le monde entier parlèrent d’un événement historique, comme si le test complet d’indiscernabilité homme-machine avait été réussi. Ce n’était pas du tout le cas, puisque le test avait d’ailleurs encore été affaibli : l’humain que le système informatique simulait était censé n’avoir que 13 ans et ne pas écrire convenablement l’anglais (car d’origine ukrainienne !).

Le test de Turing n’est pas passé

Non, le test de Turing n’a pas été passé, et il n’est sans doute pas près de l’être. Il n’est d’ailleurs pas certain que les tests partiels fassent avancer vers la réussite au test complet. En effet, les méthodes utilisées pour tromper brièvement les juges sont fondées sur le stockage d’une multitude de réponses préenregistrées (correspondant à des questions qu’on sait que les juges posent), associées à quelques systèmes d’analyse grammaticale pour formuler des phrases reprenant les termes des questions des juges et donnant l’illusion d’une certaine compréhension. Quand ces systèmes ne savent plus quoi faire, ils ne répondent pas et posent une question. À un journaliste qui lui demandait comment il se sentait après sa victoire, le programme Eugene Goostman de juin 2014 répondit : « Quelle question stupide vous posez, pouvez-vous me dire qui vous êtes ? »

Ainsi, l’intelligence artificielle réussit aujourd’hui assez brillamment à égaler l’humain pour des tâches spécialisées (y compris celles exigeant une certaine maîtrise du langage), ce qui parfois étonne et doit être reconnu comme des succès d’une discipline qui avance régulièrement. Cependant, elle le fait sans vraiment améliorer la compréhension qu’on a de l’intelligence humaine, qu’elle ne copie quasiment jamais ; cela a en particulier comme conséquence qu’elle n’est pas sur le point de proposer des systèmes disposant vraiment d’une intelligence générale, chose nécessaire pour passer le difficile test de Turing qui reste hors de portée aujourd’hui (si on ne le confond pas avec ses versions partielles !).

Vers l’intelligence générale

Ces tentatives éclairent les recherches tentant de saisir ce qu’est une intelligence générale. Ces travaux sont parfois abstraits, voire mathématiques, mais n’est-ce pas le meilleur moyen d’accéder à une notion absolue, indépendante de l’homme ?

Quand on tente de formuler une définition générale de l’intelligence, vient assez naturellement à l’esprit l’idée qu’être intelligent, c’est repérer des régularités, des structures dans les données dont on dispose, quelle qu’en soit leur nature, ce qui permet de s’y adapter et de tirer le maximum d’avantages de la situation évolutive dans laquelle on se trouve. L’identification des régularités, on le sait par ailleurs, permet de compresser des données et de prédire avec succès les données suivantes qu’on recevra.

Intelligence, compression et prédiction sont liées. Si, par exemple, on vous communique les données 4, 6, 9, 10, 14, 15, 21, 22, 25, 26 et que vous en reconnaissez la structure, vous pourrez les compresser en « les dix premiers produits de deux nombres premiers » et deviner ce qui va venir : 33, 34, 35, 38, 39, 46, 49, 51, 55, 57…

Ce lien entre intelligence, compression et prédiction a été exprimé de façon formelle par l’informaticien américain Ray Solomonoff vers 1965. Du principe du rasoir d’Ockham Pluralitas non est ponenda sine necessitate (les multiples ne doivent pas être utilisés sans nécessité), il proposait une version moderne : « Entre toutes les explications compatibles avec les observations, la plus concise, ou encore la mieux compressée, est la plus probable. »

Si l’on dispose d’une mesure de concision permettant de comparer les théories, cette dernière version devient un critère mathématique. La théorie algorithmique de l’information de Kolmogorov, qui propose de mesurer la complexité (et donc la simplicité) de tout objet numérique (une théorie le devient une fois entièrement décrite) par la taille du plus court programme qui l’engendre, donne cette mesure de concision et rend donc possible la mathématisation complète du principe de parcimonie d’Ockham.

L’aboutissement de cette voie de réflexion et de mathématisation a été la théorie générale de l’intelligence développée par l’informaticien allemand Marcus Hutter, dont le livre Universal Artificial Intelligence, publié en 2005, est devenu une référence. En utilisant la notion mathématique de concision, une notion mathématisée d’environnement (ce qui produit les données desquelles un système intelligent doit tenter de tirer quelque chose) et le principe mathématisé d’Ockham de Solomonoff, M. Hutter définit une mesure mathématique universelle d’intelligence. Elle est obtenue comme la réussite moyenne d’une stratégie dans l’ensemble des environnements envisageables.

Cette dernière notion (dont nous ne formulons pas ici la version définitive avec tous ses détails techniques) est trop abstraite pour être utilisable directement dans des applications. Cependant, elle permet le développement mathématique d’une théorie de l’intelligence et fournit des pistes pour comparer sur une même base abstraite, non anthropocentrée et objective, toutes sortes d’intelligences. Contrairement à l’idée de H. Gardner, cette voie de recherche soutient que l’intelligence est unique, qu’on peut dépasser le côté arbitraire des tests d’intelligence habituels pour classer sur une même échelle tous les êtres vivants ou mécaniques susceptibles d’avoir un peu d’intelligence.

Intelligence et compression

© photology1971 – Fotolia

Malgré la difficulté à mettre en œuvre pratiquement la théorie (par exemple pour concevoir de meilleurs tests d’intelligence ou des tests s’appliquant aux humains comme aux dispositifs informatiques), on a sans doute franchi un pas important avec cette théorisation complète. Conscients de son importance pour la réussite du projet de l’intelligence artificielle, les chercheurs ont maintenant créé un domaine de recherche particulier sur ce thème de « l’intelligence artificielle générale » qui dispose de sa propre revue spécialisée, le Journal of General Artificial Intelligence (en accès libre).

Dans le but sans doute d’éviter à la discipline de se satisfaire du développement de sa partie mathématique, un concours informatique a été créé par M. Hutter en 2006. Il est fondé sur l’idée que plus on peut compresser, plus on est intelligent (voir l’encadré).

La nouvelle discipline aidera peut-être les chercheurs à réaliser cette intelligence générale qui manque tant à nos machines actuelles et les oblige à n’aborder que des tâches spécialisées, le plus souvent en contournant les difficultés qu’il y aurait à employer les mêmes méthodes que les humains, qui eux disposent — au moins de façon rudimentaire ! — de cette intelligence générale.

Jean-Paul Delahaye, Professeur émérite d’informatique à l’Université des Sciences et Technologies de Lille

Pour aller plus loin :

  • B. GOERTZEL, Artificial general intelligence : Concept, state of the art, and future prospects, in J. of Artificial General Intelligence, vol. 5(1), pp. 1-48, 2014.
  • G. TESAURO et al., Analysis of Watson’s strategies for playing Jeopardy !, 2014.
  • D. DOWE et J. HERNÀNDEZ-ORALLO, How universal can an intelligence test be, in Adaptive Behavior, vol. 22(1), pp. 51-69, 2014.
  • Le concours de compression de Marcus Hutter