La NSI pour que tout le monde y arrive aussi

L’introduction de l’enseignement de l’informatique au lycée va permettre aux prochaines générations de maîtriser et participer au développement du numérique. Le principal enjeu est alors la formation des enseignantes et des enseignants. Comment relever un tel défi ?

« Eils ne savaient pas que c’était impossible … alors eils l’ont fait´´ Mark Twain (apocryphe).

Les enseignant·e·s d’informatique ont d’abord fait communauté d’apprentissage et de pratique : depuis des semaines déjà, l’AEIF et le projet CAI contribuent à l’accueil et l’entraide de centaines de collègues en activité ou en formation, discutant de tous les sujets, partageant des ressources sur un forum dédié et des listes de discussions.

 Et puis avec quelques collègues de l’enseignement secondaire et supérieur eils ont tenté (et réussi) à offrir deux formations en ligne :

 

  • Une formation aux fondamentaux de l’informatique, accessible ici, avec plus d’une centaine d’heures de ressources de formation d’initiation et de perfectionnement. Plus qu’un simple « MOOC´´, ce sont les ressources d’une formation d, et un accompagnement prévu pour permettre de bien les utiliser.
  • Une formation pour apprendre à enseigner… par la pratique, accessible ici, en co-préparant les activités pédagogiques des cours à venir, en partageant des pratiques didactiques et en prenant un recul pédagogique, y compris du point de vue de la pédagogie de l’égalité.

Ces formations permettent de commencer à se former au CAPES et les personnes désireuses de se préparer au CAPES y trouveront aussi des conseils et des pistes de travail. Elles sont particulièrement utiles pour les professionel·le·s de l’informatique qui souhaitent se réorienter vers l’enseignement.

On peut s’inscrire gratuitement sur l’une et l’autre de ces formations sur la plateforme FUN.

Ce fut une aventure, disons, un peu compliqué, à cause du covid-19 et de quelques autres soucis … et on peut considérer le travail des collègues du https://learninglab.inria.fr et des collègues qui ont fait front en équipe comme un exploit, en réussissant à produire un objet vraiment inédit, qui va vivre et évoluer au fil du temps.

Le message de l’équipe :

« Le défi était immense, bien au-delà de ce que l’on peut atteindre avec seulement un ou deux MOOCs usuels. Alors nous l’avons relevé en faisant un parcours de formation un peu gigantesque et inédit, qui sera adapté cette première année, grâce à votre participation, pour vos besoins de formation. Vous, les « profs », devenez donc co-actrice ou acteur avec nous dans la réalisation de cette formation.

Destinés aux futur·e·s collègues, cet espace est ouvert plus largement à d’autres publics : celles et ceux qui s’intéressent à ces sujets, d’une professionnelle de l’informatique qui imagine se reconvertir ou à un parent curieux de ces sujets devenus matière scolaire : bienvenue ! »

Anthony, Aurélie, Charles, David, Gilles, Jean-Marc, Marie-Hélène, Maxime, Mehdi, Olivier, Sébastien, Tessa, Thierry, Thierry, Vania, Violaine et toute l’équipe.

Continuer la lecture de « La NSI pour que tout le monde y arrive aussi »

Data et IA : un escape game numérique

Donner envie aux employés d’une entreprise de s’intéresser aux sujets data et à l’Intelligence Artificielle, c’est un vrai défi !  Pour faire cela, le club datacraft a développé  un escape game numérique, un jeu d’évasion en bon français.   C’est ce que nous raconte Isabelle Hilali. Elle nous parle de Science des données, apprentissage automatique,  et d’autres sujets passionnants. SergeAbiteboul et Marie-Agnès Enard.
Illustration de l’escape game

Qui trouvez-vous dans une entreprise ? Des experts en science des données, peu nombreux, qui ont du mal à communiquer sur leur métier. Quelques enthousiastes qui attendent de l’Intelligence Artificielle une solution magique. D’autres collaborateurs pour qui l’IA est une véritable source d’angoisse, une boîte noire qui contribuera à déshumaniser notre société. Surtout, une grande majorité de personnes qui ne s’intéressent pas du tout à ces sujets car ils n’y voient pas de lien direct avec leurs problématiques au quotidien.

Et pourtant s’il est un sujet auquel chacun devrait s’intéresser, quel que soit son rôle dans l’entreprise, c’est bien l’Intelligence Artificielle. C’est d’abord parce que les experts ne peuvent pas développer de solutions d’IA sans comprendre les enjeux qui y sont associés, sans explications sur les données qui vont alimenter leurs modèles. C’est aussi parce que, par essence, un projet data et IA est collaboratif. C’est avant tout parce que cela sera un élément de plus en plus important des prises de décision et qu’il serait dommage que seuls quelques experts aient leur mot à dire.

Alors comment donner envie aux collaborateurs de l’entreprise de s’intéresser à ces sujets et d’y participer ?

Deux membres de datacraft(*), Air Liquide et Danone, nous ont demandé de réfléchir avec eux à une solution qui soit ludique et qui fédère les équipes. Un vrai défi ! Laurent Oudre, Professeur à l’ENS Paris-Saclay en apprentissage et chercheur en résidence du Club datacraft, et Xavier Lioneton, Directeur des opérations de datacraft ont d’abord imaginé faire un escape game physique, mais en pleine période Covid, être enfermés à plusieurs dans une pièce n’était pas le plus adapté ! Et l’idée d’un escape game numérique s’est rapidement imposée. Une très belle aventure réalisée avec Emeraude escape pour la partie développement technique et en coconstruction avec les équipes des deux entreprises.

Alors à quoi sert ce jeu ? L’objectif est d’abord de jouer, en équipe de six avec la possibilité de se voir et se parler grâce à la visio intégrée dans le jeu, s’entraider pour résoudre les énigmes – et il y en a au moins une qui est vraiment coriace – et passer un bon moment en équipe sur un sujet qui en temps normal ne susciterait pas nécessairement autant d’excitation ! Mais c’est aussi sensibiliser aux enjeux d’un projet data et IA :

  • le besoin d’expliquer ses problématiques business aux équipes data et IA,
  • collecter des données, et ça prend du temps, beaucoup de temps même,
  • garantir la sécurité et la confidentialité des données utilisées,
  • prendre en compte les enjeux sociétaux, et finalement,
  • prendre conscience à travers le jeu que l’IA est loin d’être une baguette magique mais que cela peut apporter des solutions pour chacun.

L’escape game permet de comprendre que chacun a un rôle à jouer dans un projet data et IA : l’équipe métier pour expliquer ses besoins et ses enjeux et valider les solutions développées, l’équipe IT pour fournir l’environnement informatique nécessaire et l’équipe data science pour construire les solutions d’IA.

Un intérêt du projet a été de le coconstruire avec les entreprises partenaires. Il fallait trouver comment donner envie aux équipes de participer et de s’impliquer sur des projets data. Il fallait également intégrer le jeu dans des politiques globales d’acculturation et de formation car bien entendu un jeu tout seul ne peut suffire dans la durée.

Les prochaines étapes : créer un Club dans le Club, en invitant l’ensemble des participants à échanger régulièrement sur leurs enjeux d’engagement des équipes, sur l’impact du jeu, les bonnes pratiques de son utilisation, l’animation de leur communauté data, etc.  Sur ce sujet, le Club datacraft a organisé une soirée Animer sa communauté data le 22 mars, à l’intention des directeurs des données (CDO) et chef.fes d’équipe data, des DRH et des responsables impliqués sur ces sujets https://datacraft.paris/event/soirees-cdo-hr-comment-animer-sa-communaute-data/

Isabelle Hilali, datacraft

(*)  datacraft permet un échange de bonnes pratiques entre experts de la data. Récemment, binaire en parlait dans un article.

Illustrations du jeu :

La boule du boulanger

Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible l’optimisation multi-objectif. Marie-Agnès Enard, Pascal Guitton et Thierry Viéville.

– Moi j’aime bien à la fois le pain croustillant et le pain tendre. 
– Oui mais plus ça croustille moins c’est tendre et inversement.
Oui mais je connais Vilfredo Pareto
– Il était boulanger ?
Vilfredo Pareto 1870s2.jpg

– Ah non 🙂 scientifique. Économiste et sociologue, Vilfredo Pareto est un des premiers scientifiques à tenter de formaliser et modéliser des phénomènes humains.
– Stop ! Explique-moi comment je peux à la fois avoir le meilleur de deux choses qui sont partiellement contradictoires …

Écoute : les frères jumeaux Pierre et Paul ont suivi avec succès l’École de la Boulange et tiennent chacun un dépôt de pain dans la même rue, l’un faisant face à l’autre. Ils pétrissent la pâte ensemble dans le respect parfait des proportions apprises (farine, eau, sel, et levain), mais alors qu’on recommande pour la cuisson une température de 180 degrés Celsius, pour un temps de cuisson de 1h15, ces deux boulangers se distinguent:
+ Pierre qui aime le pain croustillant cuit à 200 degrés pendant 1h05, 
+ Paul qui aime le pain tendre, à 170 degrés pendant 1h20.
Qui fait le meilleur pain ? Difficile à dire, ils ont chacun une clientèle fidèle … Chacun d’eux a trouvé une excellente combinaison des paramètres température et temps de cuisson pour réaliser une cuisson irréprochable et d’autres combinaisons iraient tout aussi bien : moins chaud et plus de temps, plus chaud et moins de temps.

Deux solutions optimales différentes, mais elles ont toutes les deux une propriété commune : si on modifie les paramètres de l’un ou de l’autre pour que le pain soit un peu plus tendre alors il sera moins croustillant, et si on le rend plus croustillant, alors il sera moins tendre. On est dans une situation telle qu’il est impossible d’améliorer l’un d’entre eux sans réduire la satisfaction par rapport à l’autre.

– Une sorte de compromis en quelque sorte ?
– Oui on parle de solutions Pareto-optimales, elles forment une frontière dans l’espace de tous les pains possibles et tant qu’à choisir une solution autant qu’elle soit un meilleur compromis, on parle de théorème du bien-être,  il suffit de choisir lequel.
– Ce qui me laisse sur ma faim, si j’ose dire, c’est qu’il n’y a pas de solutions unique !
– Oui, pour choisir “la” solution, il faut encore introduire autre un critère de choix : c’est le goût de chacun, qui fait la « patte du boulanger » quant à sa pâte, et divise leur clientèle  😉
– Et on pourrait automatiser le calcul ?
– Absolument, c’est ce qu’à fait Jean-Antoine Désidéri en 2012, il a proposé un algorithme qui permet de tenir compte de plusieurs critères en même temps pour trouver par le calcul une meilleure solution.

Chercheur en mathématiques appliquées au service des sciences du numérique Inria, il a étudié comment simuler des phénomènes complexes de manière pluri-disciplinaire.


– Et tu verras ici qu’on parle de ses travaux, 10 ans après dans un article sur l’intelligence artificielle :– Et oui il y a des résultats scientifiques qui servent même dix ans plus tard !
– Et tu sais quoi, entre nous ?
– Quoi ?
– Moi je trouve que Jean-Antoine, il a plus une tête de boulanger que de mathématicien.
– Et ben tu crois pas si bien dire : quand il était enfant, il passait le jeudi avec son oncle, pâtissier, et il a appris plein de trucs très pratiques, avant de … “mal tourner” et devenir chercheur 🙂

Jean-Antoine Désidéri, chercheur Inria à la retraite (propos reformulés par la petite équipe de Petit Binaire).

Les cinq murs de l’IA 6/6 : des pistes de solutions

Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ? Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

Episode 6: des pistes pour éviter de se fracasser sur les cinq murs

Je ne voulais pas laisser cette série se terminer sur une note négative, il me reste donc à évoquer quelques pistes pour le futur. Amis lecteurs, je suppose que vous avez lu les cinq épisodes précédents, ils sont indispensables à la compréhension de ce qui suit.

D’abord, sur la confiance. C’est un des sujets majeurs de recherche et développement en IA depuis quelques années, pour les systèmes dits à risques ou critiques1. Par exemple, le programme confiance.ai, qui réunit des partenaires industriels et académiques sur quatre ans pour développer un environnement d’ingénierie pour l’IA de confiance, aborde de multiples sujets: qualité et complétude des données d’apprentissage; biais et équité; robustesse et sûreté; explicabilité; normes et standards; approche système; interaction avec les humains. Et ce n’est pas le seul, de multiples initiatives traitent de ce sujet, directement ou indirectement. On peut donc espérer avoir dans quelques années un ensemble de technologies permettant d’améliorer la confiance des utilisateurs envers les systèmes d’IA. Sera-ce suffisant ? Pour ma part, je pense que faute d’avancées fondamentales sur la nature des systèmes d’IA on n’arrivera pas à des garanties suffisantes pour donner une confiance totale, et probablement des accidents, catastrophiques ou non, continueront à se produire. Mais on aura fait des avancées intéressantes et on aura amélioré les statistiques. En attendant d’avoir la possibilité de démontrer les facteurs de confiance, il faudra s’appuyer sur des quantités d’expériences : des centaines de millions de kilomètres parcourus sans encombre par des véhicules autonomes, des dizaines de milliers de décisions automatiques d’attributions de crédits non contestées, de diagnostics médicaux jugés corrects par des spécialistes etc.). On en est encore loin. Et la confiance n’est pas qu’un sujet technologique, les facteurs humains et sociaux sont prépondérants. L’étude2 – un peu ancienne mais certainement toujours pertinente – faite par les militaires américains – est éclairante.

Sur l’énergie, plusieurs pistes sont développées, car le mur est proche de nous ! Si la croissance actuelle se poursuit, il faudra en 2027 un million de fois plus d’énergie qu’aujourd’hui pour entraîner les systèmes d’IA, à supposer que l’on continue à le faire de la même manière.

Je vois principalement trois types de solutions, dont les performances sont très différentes: a) solutions matérielles; b) amélioration des architectures et algorithmes de réseaux neuronaux profonds: c) hybridation avec d’autres formalismes d’IA.

Je ne m’étends pas sur a), il existe des dizaines de développements de nouveaux processeurs, architectures 3D, architectures neuro-inspirées, massivement parallèles, etc., et d’aucuns disent que l’ordinateur quantique lorsqu’il existera, résoudra la question. Lorsque Google est passé des GPU (Graphical Processing Units) de Nvidia aux TPU (Tensor Processing Units) qu’il a développé pour ses propres besoins, un saut de performance a été obtenu, pour une consommation d’énergie relativement stable. Disons que les pistes matérielles permettent des économies d’énergie intéressantes, mais ne changent pas fondamentalement les choses.

Les recherches sur b) sont plus intéressantes: améliorer la structure des réseaux par exemple en les rendant parcimonieux par la destruction de tous les neurones et connexions qui ne sont pas indispensables; ou encore par la définition d’architectures spécifiques, à l’image des réseaux récurrents de type LSTM pour le signal temporel, ou des Transformers (BERT, Meena, GPT3 etc.) pour le langage, dont la structure permet de faire de la self-supervision et donc au moins d’économiser l’annotation des données d’entraînement3 – mais tout en restant particulièrement gourmands en temps d’apprentissage. Je pense également à l’amélioration du fonctionnement interne des réseaux comme l’ont proposé divers auteurs avec des alternatives à la rétro-propagation du gradient ou autres.

Enfin, la troisième approche consiste à combiner les modèles neuronaux à d’autres types de modèles, essentiellement de deux natures: modèles numériques utilisés pour la simulation, l’optimisation et le contrôle de systèmes; modèles symboliques, à base de connaissances. Si on est capable de combiner l’expertise contenue dans ces modèles, basée sur la connaissance établie au cours des années par les meilleurs spécialistes humains, à celle contenue dans les données et que l’on pérennise par apprentissage, on doit pouvoir faire des économies substantielles de calcul, chacune des deux approches bénéficiant de l’autre. Le sujet est difficile car les modèles basés sur les données et ceux basés sur les connaissances ne sont pas compatibles entre eux, a priori. Quelques travaux existent sur la question, par exemple ceux de Francesco Chinesta4, ou le projet IA2 de l’IRT SystemX5.

J’ai bien peur que le mur de la sécurité de l’IA soit très solide. Ou plutôt, il a une tendance naturelle à s’auto-réparer lorsqu’il est percé. Je m’explique (réécriture d’extraits d’un billet paru dans le journal Les Echos).

D’une manière générale, les questions de cybersécurité sont devenues cruciales dans notre monde où le numérique instrumente une partie de plus en plus importante des activités humaines. De nouvelles failles des systèmes sont révélées chaque semaine ; des attaques contre des sites ou des systèmes critiques ont lieu en continu, qu’elles proviennent d’états mal intentionnés, de groupes terroristes ou mafieux. Les fournisseurs proposent régulièrement des mises à jour des systèmes d’exploitation et applications pour intégrer de nouvelles protections ou corrections de failles. Le marché mondial de la sécurité informatique avoisine les cent milliards d’euros, les sociétés spécialisées fleurissent. En la matière il s’agit toujours d’un jeu d’attaque et de défense. Les pirates conçoivent des attaques de plus en plus sophistiquées, l’industrie répond par des défenses encore plus sophistiquées. Les générateurs d’attaques antagonistes et de deepfakes produisent des attaques de plus en plus sournoises et des faux de plus en plus crédibles, l’industrie répond en augmentant la performance des détecteurs de faux. Les détecteurs d’intrusions illégales dans les systèmes font appel à des méthodes de plus en plus complexes, les attaquants sophistiquent encore plus leurs scénarios de pénétration. Les protocoles de chiffrement connaissent une augmentation périodique de la longueur des clés de cryptographie, qui seront ensuite cassées par des algorithmes de plus en plus gourmands en ressources de calcul. Et ainsi de suite.

Pour les attaques adverses, une solution déjà évoquée est d’entraîner les réseaux avec de telles attaques, ce qui les rend plus robustes aux attaques connues. Mais, la course continuant, les types d’attaques continueront d’évoluer et il faudra, comme toujours, répondre avec un temps de retard. Quant aux attaques de la base d’apprentissage, leur protection se fait avec les moyens habituels de la cybersécurité, voir ci-dessus.

Comparons au domaine militaire, qui a connu la course aux armements pendant de longues périodes : glaives, boucliers et armures il y a des milliers d’années, missiles et anti-missiles aujourd’hui. La théorie de la dissuasion nucléaire, établie il y a une soixantaine d’années, a modéré cette course, puisque la réponse potentielle d’une puissance attaquée ferait subir des dommages si graves que cela ôterait toute envie d’attaquer. Début 2018, l’État français a reconnu s’intéresser à la Lutte Informatique Offensive. Israël a déjà riposté physiquement à une cyber-attaque. Il faudrait peut-être imaginer une doctrine équivalente à la dissuasion nucléaire en matière de cybersécurité de l’IA … ou espérer que l’IA apporte suffisamment de bonheur à la population mondiale, et ce de manière équitable, pour que les causes sociales et autres (politiques, religieuses, économique etc.) de la malveillance disparaissent. Cela va prendre un peu de temps.

J’aborde maintenant le mur de l’interaction avec les humains. On peut commencer à le fracturer en ajoutant des capacités d’explication associées à la transparence des algorithmes utilisés. La transparence est indispensable lorsqu’il s’agit de systèmes qui sont susceptibles de prendre des décisions (imposées) ayant un impact important sur notre vie personnelle et sociale. Un sujet qui a par exemple fait l’objet d’un petit rapport de l’institut AINow de Kate Crawford6, dont l’objectif est de définir un processus assurant la transparence des systèmes de décision mis en place au sein des administrations. On pense notamment aux domaines de la justice, de la police, de la santé, de l’éducation, mais le texte se veut générique sur l’ensemble des sujets d’intérêt des administrations. La démarche préconisée par les auteurs est en quatre étapes et s’accompagne d’une proposition organisationnelle. Les quatre étapes sont 1) Publication par les administrations de la liste des systèmes de décision automatisée qu’elles utilisent ; 2) auto-évaluation des impacts potentiels de ces systèmes par les administrations, notamment en phase d’appels d’offres ; 3) ouverture des systèmes au public et aux communautés – en respectant les conditions de confidentialité ou de propriété intellectuelle – pour examen et commentaires ; 4) évaluation externe par des chercheurs indépendants.

J’ai déjà abordé, dans la section correspondante, les travaux sur l’explicabilité. Un « méta-état de l’art7 » a été produit par le programme confiance.ai, c’est-à dire une synthèse de nombreuses synthèses déjà publiées dans la communauté. Les pistes sont nombreuses, je ne les détaillerai pas plus ici. Ma faveur va à celles qui combinent apprentissage numérique et représentations à base de connaissances (logiques, symboliques, ontologiques), même si elles sont encore à l’état de promesses: le passage du numérique (massivement distribué dans des matrices de poids) au symbolique est un sujet particulièrement ardu et non résolu de manière satisfaisante pour le moment.

Plus généralement, l’interaction entre systèmes d’IA et humains entre dans le concept général d’interaction humain-machine (IHM ou HCI, human-computer interaction en anglais). La communauté IHM travaille depuis des décennies sur le sujet général, avec des réalisations remarquables en visualisation, réalité virtuelle, réalité augmentée, interfaces haptiques etc.; on peut – et il faut – faire appel à leurs compétences pour le cas particulier des interactions avec des machines d’IA. C’est par exemple ce que propose la deuxième édition du Livre Blanc d’Inria sur l’Intelligence Artificielle8, qui consacre un chapitre au sujet en soulignant quatre orientations majeures:
créer une meilleure division du travail entre les humains et les ordinateurs, en exploitant leurs pouvoirs et capacités respectifs tout en reconnaissant leurs limites et leurs faiblesses;
– apporter une transparence et une explication véritables aux systèmes d’IA grâce à des interfaces utilisateur et des visualisations appropriées;
– comment combiner les systèmes interactifs et les systèmes d’IA afin que chacun tire parti des forces de l’autre au moment opportun, tout en minimisant ses limites;
– créer de meilleurs outils, davantage axés sur l’utilisateur, pour les experts qui créent et évaluent les systèmes d’IA

La piste que je préconise donc (à l’image d’autres chercheurs et institutions qui l’ont également encouragé) est de resserrer les liens entre les deux communautés IA et IHM. Les chercheurs en IA y trouveront des éléments pour repousser le quatrième mur, et les chercheurs en IHM y trouveront la source de nouveaux défis pour leurs méthodes et leurs outils.

Reste le mur de l’inhumanité: le plus éloigné, mais aussi le plus solide pour le moment. Le risque n’est pas encore très important, mais s’amplifiera au fur et à mesure de l’insertion de systèmes IA de plus en plus autonomes, intrusifs, et impactants, dans notre société. En ce qui concerne la quête du sens commun, on a vu que des millions de dollars et des années de recherche investis sur CYC n’ont pas réglé la question, loin de là. Peut-on miser sur des nouvelles architectures et organisations de réseaux neuronaux pour cela? Certains l’espèrent. Personnellement, je miserai plutôt sur une autre branche de l’IA, celle de la robotique développementale (developmental robotics) qui a pour but de faire acquérir à des robots doués de sens les notions de base du monde en interagissant avec leur environnement – peuplé d’objets et d’humains – et surtout en stimulant ce qu’on appelle la curiosité artificielle, à savoir doter les robots d’intentions et de capacités d’exploration et d’envoi de stimuli vers leur environnement afin d’en recevoir un feedback pour l’apprentissage par renforcement. Certaines expérimentations faites par l’équipe Inria FLOWERS (image ci-contre) sont assez convaincantes en ce sens.

Image Inria, équipe-projet FLOWERS

J’ai déjà abordé les recherches en cours sur la découverte de la causalité par apprentissage automatique. C’est un sujet de longue haleine bien identifié mais disposant de peu de résultats. Les équipes de Bernhard Schöllkopf à Tubingen9 et de Yoshua Bengio à Montréal10 ont publié des premiers résultats encore insuffisants, basés sur la notion d’intervention. L’équipe TAU d’Inria Saclay a développé des méthodes pour identifier des relations de causalité dans des tableaux de données11. Je pense que l’introduction explicite de causalité soit par conception d’architecture, soit par ajout d’une couche causale symbolique, apporteront des résultats plus rapidement et plus concrètement – modulo la difficulté de combiner symbolique et numérique, dont j’ai déjà parlé. Une piste alternative, très intéressante, est celle utilisée par la startup américaine de Pierre Haren CausalityLink12, qui se base sur le texte pour détecter automatiquement – et statistiquement – les liens de causalité entre variables d’un domaine, sujet qui intéresse beaucoup les financiers.

Enfin, pour le passage de l’IA au niveau du Système 2, j’ai abordé les pistes dans la section correspondante. La principale question est de savoir si cela peut être atteint par apprentissage de réseaux neuronaux – après tout, c’est bien ainsi que nous fonctionnons – ou par la conjonction de réseaux avec d’autres modes de représentations des connaissances, réalisant une IA hybride conjuguant symbolique et numérique, mettant en résonance les rêves et avancées de l’IA de la fin du vingtième siècle avec les progrès remarquables de celle du début du vingt-et-unième.

Tout ceci pour réaliser des IA faibles, spécialisées sur la résolution d’un seul ou d’un petit nombre de problèmes, bien entendu, même si certains comme DeepMind ont l’ambition de développer une IA Générale. Mais essayons déjà de ne pas nous écraser dans les murs de l’IA spécialisée.

​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

Notes:

1 Pour des applications non critiques comme la recommandation de contenu ou de chemin optimal pour aller d’un point à un autre, cette question est évidemment moins cruciale. Nous utilisons ces systèmes tous les jours sans nous poser de questions.

2 Foundations for an Empirically Determined Scale of Trust in Automated System, Jiun-Yin Jianet aL, (2000) International Journal of Cognitive Ergonomics

3 Attention is All you Need, Ashish Vaswani et al. (2017), ArXiv 1706.03762

4 https://project.inria.fr/conv2019/program/#program, communication non publiée

5 https://www.irt-systemx.fr/activites-de-recherches/programme-ia2

6 Algorithmic Impact Assessments: a practical framework for public agency accountability, AINow Institute, 2018, https://ainowinstitute.org/aiareport2018.html

7 Characterisation of the notion of trust, State of the art, T. Boissin et coll. , confiance.ai EC2&EC3&EC4 projects, (2021), disponible sur demande

8 Artificial Intelligence: current challenges and Inria’s engagement, second edition, B. Braunschweig et al., 2021; https://www.inria.fr/en/white-paper-inria-artificial-intelligence

9 Causality for Machine Learning, B. Schöllkopf, 2019, ArXiv:1911.10500v1

10 LEARNING NEURAL CAUSAL MODELS FROM UNKNOWN INTERVENTIONS, N.R. Ke et al., 2019, ArXiv:1910.01075v1

11 https://raweb.inria.fr/rapportsactivite/RA2020/tau/index.html

Le fonctionnement d’un projet de logiciel libre : Scikit-learn

Scikit-learn est une bibliothèque libre Python destinée à l’apprentissage automatique. Elle offre des bibliothèques d’algorithmes en particulier pour les data scientists.  Elle fait partie de tout un écosystème libre avec d’autres bibliothèques libres Python comme NumPy et SciPy. Pour les spécialistes, elle comprend notamment des fonctions de classification, régression et clustering. Elle fait un tabac dans le monde de l’apprentissage automatique. Nous avons rencontré Gaël Varoquaux, directeur de recherche à Inria dans l’équipe Soda, cofondateur du projet Scikit-learn, ancien élève de l’École normale supérieure et titulaire d’un doctorat en physique quantique pour comprendre comment fonctionne un projet de logiciel libre plutôt emblématique.
Gaël Varoquaux,  © Inria / Photo G. Scagnelli

Binaire : Quelle est la taille de l’équipe Inria de Scikit-learn ?

Gaël Varoquaux : Si on compte les personnes à temps plein sur le projet à Inria, il y a 5 personnes. Mais il y a beaucoup plus de personnes qui participent et qui aident, entre autres des chercheurs qui s’investissent sur des questions dans leur domaine spécifique d’expertise. Scikit-learn est plus large qu’un projet Inria standard et a de nombreux participants et contributeurs en dehors d’Inria.

B : Comment peut-on mesurer la popularité du système et son utilisation ?

GV : Une des façons de le faire est de regarder les statistiques d’accès à la documentation : elles montrent un million d’accès par mois. C’est une bonne mesure des participations des développeurs, mais certainement pas une mesure des participation des utilisateurs qui se servent de produits générée à partir de scikit-learn et qui sont certainement beaucoup plus nombreux. Les statistiques Kaggle (*)  par exemple montrent que plus de 80% des projets Kaggle utilisent régulièrement scikit-learn. Le deuxième plus utilisé étant Tensor Flow avec un taux de plus de 50%.

Les développeurs Scikit-learn sont répartis un peu partout dans le monde. Le nombre d’utilisateurs aux États-Unis, en Amérique du Sud ou en Chine est proportionnel au nombre de développeurs dans ces pays.

B : Est-ce qu’il y a des thèmes particuliers ?

GV : C’est difficile à dire parce qu’on n’a pas toujours l’information. Parmi les thèmes, on voit clairement la science des données, des analyses socio-économiques, et tout ce qui touche aux questions médicales. Un domaine où on a eu un fort impact, c’est la banque. Par exemple sur des sujets type détection de fraude. Vous comprendrez que, vu la sensibilité des sujets, c’est difficile de rentrer dans les détails.

B : Le projet est-il en croissance, en stabilité ou en régression ?

GV : En nombre d’utilisateurs, il est clairement en croissance. Une des raisons est que le nombre de data scientists croit ; on est tiré par cette croissance. Est-ce qu’on croit plus que cette croissance naturelle, je ne sais pas. En moyens internes et taille du projet, on est aussi clairement en croissance.

B : D’où vient le financement ? Quel est le budget de Scikit-learn ?

GV : Principalement de gros contributeurs. Nous nous sommes focalisés sur eux jusqu’à présent . En particulier, nous avons une dotation d’Inria qui doit être de l’ordre de 300 000 € par an. Ensuite, nous avons beaucoup d’organisations qui contribuent financièrement, soit par des dotations financières, soit en prenant en charge tel ou tel contributeur. Donc si on voulait évaluer le montant global, il est très certainement bien en millions d’euros par an.

B : Quelle licence avez-vous choisie et pourquoi ?

GV : On a choisi la licence BSD (+), pour deux raisons. D’abord, c’est une licence avec laquelle les gros utilisateurs sont relativement confortable (en tout cas plus confortable qu’avec la GPL). Par ailleurs, c’est une licence du monde Python, qui est notre monde.

B : Quelle place le projet a-t-il dans Inria ? Y a t-il d’autres projets similaires dans l’institut ?

GV : Le projet est hébergé par la Fondation Inria. Nous avons une convention de mécénat qui réunit les partenaires du projet et qui définit comment nous travaillons ensemble. Le projet est vu à l’intérieur d’Inria comme un succès et il est souvent mis en avant.

Il y a  d’autres projets un peu comme nous, par exemple OCaml. OCaml a une organisation différente de la nôtre, beaucoup plus verticale, et fonctionne sur un ADN différent. Mais les deux approches ont du sens.

B : Comment êtes-vous organisés ? Et comment vous avez choisi votre gouvernance  ?

GV :  A l’origine, les premières idées pour la gouvernance nous sont venues de la communauté Apache et c’est sa gouvernance qui a servi d’inspiration. La gouvernance a d’abord été surtout informelle et puis on a commencé à la formaliser. La description de la gouvernance est ici. Cette formalisation a été développée notamment à la demande d’un de nos sponsors qui voulait mieux comprendre comment on fonctionnait. Il y a deux éléments dans nos règles de fonctionnement :  il y a une gouvernance écrite et puis il y a quelque chose qu’on considère comme les us et coutumes, la culture de notre communauté. La gouvernance continue à changer notamment probablement la prochaine étape sera de mettre en place la notion de sous-groupe, qui permettra de fonctionner sur une plus petite échelle.

De manière générale, on veut être très transparent, en particulier, sur les décisions prises. En revanche, de temps en temps on considère qu’il doit y avoir des discussions privées et ces discussions ont lieu.

B : Tu crois à l’idée du dictateur bienveillant ?

GV : Pas du tout ! On refuse ça complètement. Notre mode de décision est par consensus : on fonctionne en réseau et pas du tout de façon hiérarchique. Ça marche, mais le problème du consensus c’est que ça induit une certaine lenteur, lenteur qui peut aussi causer une certaine frustration auprès des contributeurs. Donc on essaie d’améliorer le processus de gestion des conflits.

B : Quel type de conflits ?

GV : Il y a 2 types soit des conflits : les complètement triviaux, par exemple quelle est la couleur qui faut donner à tel ou tel objet. Et puis on a des conflits de fond, des choix essentiels qu’il faut régler en prenant son temps.

B : Tu contribues au code ?

GV : Je code encore, mais pas énormément. L’essentiel de mon activité est l’animation du projet et de la communauté.

B : Est-ce qu’il y a des spin-off de Scikit-learn aujourd’hui  ? 

GV : Il n’y en a pas aujourd’hui, mais ça pourrait se produire. On est sorti des années difficiles, celles pendant lesquelles on se battait pour avoir des moyens, pendant lesquelles les profils de l’équipe étaient essentiellement scientifiques. Maintenant on est un peu plus confortable donc la communauté s’est diversifiée, il y a des profils différents, et  éventuellement certains pourraient être intéressés par la création de start-up.

B : Des forces d’un tel projet tiennent de sa documentation et de ses tutoriels.  Les vôtres sont excellents. Vous avez un secret ?

GV : C’est parce que nous sommes pour la plupart chercheurs ou enseignants-chercheurs. Nous avons l’habitude d’enseigner ces sujets, et nous le faisons avec Scikit-learn. Et puis, nous aimons expliquer. Nous avons établi assez tôt des normes et nous nous y tenons : par exemple, une méthode ne peut être ajoutée au projet sans venir avec des exemples et une documentation qui explique son utilité.

B : Quel est l’intérêt commun qui réunit la communauté ?

GV : On peut dire que notre objectif, c’est de rendre la science des données plus facile pour tous. Ça, c’est l’objectif global. Les motivations individuelles des contributeurs peuvent être différentes. Certains, par exemple, sont là parce qu’ils veulent participer à rendre le monde meilleur.

B : C’est bon pour la carrière d’un chercheur de travailler à Scikit-learn ?

GV : Le projet offre clairement un boost de carrière pour les chercheurs Inria.

Serge Abiteboul, François Bancilhon

 

Choisir le bon estimateur avec scikit-learn : le site propose un guide pour s’orienter parmi tous les algorithmes ©scikit-learn

Références :

(*) Kaggle est une plateforme web organisant des compétitions en science des données appartenant à Google. Sur cette plateforme, les entreprises proposent des problèmes en science des données et offrent un prix aux datalogistes obtenant les meilleures performances. Wikipédia 2022. (Note des éditeurs : c’est une plateforme très populaire.)

(+) La licence BSD (Berkeley Software Distribution License) est une licence libre utilisée pour la distribution de logiciels. Elle permet de réutiliser tout ou une partie du logiciel sans restriction, qu’il soit intégré dans un logiciel libre ou propriétaire.

Et pour en savoir plus :

– Le site avec le logiciel téléchargeable https://scikit-learn.org/stable.

– Un MOOC gratuit et accessible pour se former à utiliser Scikit-learn https://www.fun-mooc.fr/en/courses/machine-learning-python-scikit-learn.

Les communs numériques

Les cinq murs de l’IA 5/6 : l’inhumanité

Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ? Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

Episode 5: le mur de l’inhumanité

Cet épisode s’intéresse à des capacités intellectuelles qui distinguent fortement les humains des machines, en tous cas pour le moment. Le paragraphe sur Système 2 reprend principalement un billet paru dans le journal Les Échos courant 2021.

Je range plusieurs composantes dans ce cinquième mur que j’appelle globalement celui de l’humanité des machines, ou plutôt celui de leur inhumanité : acquisition du sens commun; raisonnement causal; passage au système 2 (au sens de Kahneman1). Toutes composantes que nous, humains, possédons naturellement et que les systèmes d’intelligence artificielle n’ont pas – et n’auront pas à court ou moyen terme.

Le sens commun, c’est ce qui nous permet de vivre au quotidien. Nous savons qu’un objet posé sur une table ne va pas tomber par terre de lui-même. Nous savons qu’il ne faut pas mettre les doigts dans une prise électrique. Nous savons que s’il pleut, nous serons mouillés. Dans les années 80-90, un grand projet de modélisation des connaissances, CYC2, initié par Doug Lenat, a tenté de développer une base de connaissances du sens commun, en stockant des millions de faits et règles élémentaires sur le monde. Ce projet n’a pas abouti, les systèmes d’IA actuels ne sont capables que de résoudre des problèmes très précis dans un contexte limité, ils ne savent pas sortir de leur domaine de compétence. Sans aller jusqu’à parler d’Intelligence Artificielle Générale (celle qui fait peur et qu’aucun spécialiste du domaine n’envisage réellement à un futur atteignable), faute de disposer de bases élémentaires faisant sens, les systèmes d’IA seront toujours susceptibles de faire des erreurs monumentales aux conséquences potentielles dommageables.

Il est très largement connu que les systèmes d’IA entraînés par apprentissage établissent des corrélations entre variables sans se soucier de causalité. Dans l’exemple référence du classement d’images de chats, le réseau établit une corrélation – complexe certes – sans lien de causalité entre les données d’entrées (les pixels de l’image) et la donnée de sortie (la catégorie). Il existe de nombreux exemples de corrélations « fallacieuses » (spurious correlations) comme dans celui-ci, tiré du site du même nom3 qui établit une corrélation à 79% entre le nombre de lancers de navettes spatiales et celui de doctorants en sociologie.

Un exemple de corrélation fallacieuse issues de https://www.tylervigen.com/spurious-correlations

Autrement dit, un système d’IA entraîne par apprentissage sera capable de reproduire cette relation et de prédire très correctement l’un à partir de l’autre. De même, on doit pouvoir décider si un jour est pluvieux à partir des ventes de parapluies, mais la causalité est évidemment dans l’autre sens. L’absence de prise en compte de la causalité dans les systèmes d’IA est une grande faiblesse: globalement, les systèmes d’apprentissage automatique se basent sur le passé pour faire des prédictions sur le futur, faisant implicitement l’hypothèse que la structure causale du système ne changera pas. On a vu les limites de cette hypothèse suite à la pandémie de Covid-19 qui a changé le comportement des populations: les outils d’IA intégrés dans les chaînes de décision des grandes entreprises, notamment financières, n‘étaient plus capables de représenter la réalité et ont dû être ré-entraînés sur des données plus récentes.

Il y a principalement deux manières de prendre en compte la causalité dans un système d’apprentissage automatique: le faire en injectant manuellement des connaissances sur le domaine d’intérêt, ou faire découvrir les liaisons causales à partir de données d’apprentissage4. Mais c’est très difficile: dans le premier cas, on revient aux problèmes des systèmes experts, avec les questions de cohérence des connaissances, de l’effort nécessaire pour les acquérir, et cela demande beaucoup de travail de configuration manuelle, à l’opposé de ce que l’on espère de l’apprentissage automatique; dans le deuxième cas, on ne sait traiter aujourd’hui que des exemples « jouets » à très peu de variables, en utilisant des « interventions », c’est à dire des actions connues qui font évoluer le système de l’extérieur. Lors de mon dernier échange à ce sujet avec Yoshua Bengio, dont c’est un des thèmes de recherche, il a parlé de quelques dizaines de variables, ce qui est déjà très encourageant. Mais si l’on ajoute les phénomènes de feedback, forcément présents dans les systèmes complexes, matérialisés par des boucles causales avec un contenu temporel, on ne sait plus le faire du tout.

Enfin, la troisième composante du mur de l’inhumanité est le passage au niveau du système 2. La très grande majorité des applications de l’IA consiste à (très bien) traiter un signal en entrée et à produire une réponse quasiment instantanée : reconnaissance d’objets ou de personnes dans des images et des vidéos ; reconnaissance de la parole ; association d’une réponse à une question, ou une traduction à une phrase ; estimation du risque financier associé à un client d’après ses données, etc. Dans son livre « Thinking, fast and slow », déjà cité, Daniel Kahneman s‘appuie sur des travaux en psychologie qui schématisent le fonctionnement de notre cerveau de deux manières différentes, qu’il nomme « Système 1 » et « Système 2 ». Système 1 est le mode rapide, proche de la perception : il ne vous faut qu’un instant pour reconnaître une émotion sur une photo, pour comprendre un mot ou une courte phrase. C’est Système 1 qui vous donne ces capacités. Par contre, si vous devez faire une multiplication compliquée et si vous n’êtes pas un calculateur prodige, vous devrez faire appel à du raisonnement pour donner le résultat. Les processus mentaux plus lents sont de la responsabilité de Système 2. Et les deux modes sont en permanente interaction, Système 1 fournit les éléments pré-traités à Système 2 qui peut conduire ses raisonnements dessus.

Cette théorie commence à inspirer les chercheurs en intelligence artificielle : aujourd’hui, avec l’apprentissage machine profond, l’IA est au niveau du Système 1. Pour pouvoir dépasser cela, représenter les connaissances de sens commun, faire de la planification, des raisonnements élaborés, il faudra coder le Système 2. Mais les avis diffèrent sur la manière d’y arriver : certains pensent qu’il suffit d’empiler des couches de neurones artificiels en organisant très finement leur architecture et leur communication ; d’autres pensent que des paradigmes différents de représentation de l’intelligence humaine seront nécessaires – par exemple en hybridant l’apprentissage machine avec le raisonnement symbolique utilisant des règles, des faits, des connaissances. Et il faudra aussi coder l’interaction continue entre Système 1 et Système 2. De beaux sujets de recherche pour les prochaines années, mais pour l’instant, un idéal encore bien lointain, même si des premiers exemples ont été réalisés sur des problèmes jouets comme l’a récemment montré Francesca Rossi d’IBM lors de la conférence AAAI-20225.

Il y a d’autres facteurs d’inhumanité dans l’IA (par exemple la question de l’émotion, de l’empathie, ou encore la réalisation de l’intelligence collective, sujets intéressants que je ne développe pas ici, considérant que les trois premiers constituent déjà un mur très solide sur lequel l’IA va inévitablement buter dans les prochaines années.

​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

Notes:

1 Thinking, Fast and Slow; D. Kahneman, 2013, Farrar, Straus and Giroux;

2 https://en.wikipedia.org/wiki/Cyc

3 https://tylervigen.com/spurious-correlations

4 Une solution hybride étant de spécifier « manuellement » un graphe causal concis et de faire apprendre ses paramètres à partir de données.

5 Combining Fast and Slow Thinking for Human-like and Efficient Navigation in Constrained Environments, Ganapini et al. (2022), arXiv:2201.07050v2.

 

Correction scientifique : droit à l’erreur et devoir de bonne foi

A travers l’exemple d’un article très partagé sur l’impact du confinement sur la pandémie de COVID-19 que Lonni Besançon et ses collègues ont réussi à faire rétracter car il était faux, nous explorons le processus de la rétractation scientifique et pourquoi les avancées en terme de partage de code et de données permettent de faciliter la correction de la science.  Pascal Guitton et Thierry Viéville.

Publier pour accroitre la connaissance scientifique. Dans le monde de la recherche scientifique,  le coeur de la transmission de la connaissance est la publication scientifique (aussi appelée “article”, “papier” ou “manuscrit”), car c’est à travers elle que les chercheurs communiquent leurs résultats de recherche entre eux et avec le grand public. Avant qu’un article scientifique ne soit publié dans une revue ou les actes d’une conférence, il doit (dans la majorité des cas) passer l’épreuve de la relecture par les pairs (Image 1) : d’autres scientifiques, deux ou trois en général, vont indépendamment relire le manuscrit proposé pour publication et en évaluer les mérites et faiblesses avant de donner des arguments pour l’éditeur de la revue lui permettant de publier l’article, de le rejeter, ou de demander aux auteurs de modifier leur manuscrit. Il existe plusieurs implémentations de la relecture par les pairs, chacune ayant ses avantages et inconvénients (voir par exemple [1]). Cependant, la relecture par les pairs est souvent considérée comme une norme d’excellence de la publication scientifique qui permet d’éviter la publication, et donc la propagation, de conclusions scientifiques erronées ou exagérées.

Image 1 : Une examinatrice des National Institutes of Health aux USA évaluant une proposition de financement, domaine public.

L’erreur est humaine et peut se corriger. Cependant, l’erreur étant humaine, le processus de relecture par les pairs n’est pas parfait, et certains articles problématiques passent parfois entre les mailles du filet. C’est notamment le cas pour les articles recélant de la fraude scientifique. Les relecteurs font le plus souvent l’hypothèse que les auteurs sont de bonne foi et par conséquent ne recherchent pas systématiquement de signes de fraudes dans ce qu’ils évaluent. Dans les cas où un article problématique serait donc publié, l’éditeur en chef de la revue peut, une fois qu’il s’en aperçoit, décider de le rétracter, c’est-à-dire le supprimer du corpus des articles scientifiques présents afin qu’il ne soit plus utilisé. Ces rétractations restent cependant très rares. 

L’une des plus célèbres d’entre elles est probablement la rétractation de l’article d’Andrew Wakefield dans The Lancet, une revue très prestigieuse dans la recherche médicale. L’article rétracté avait été initialement publié en 1998 par A. Wakefield et conclut que le triple vaccin Rougeole-Oreillon-Rubeole pouvait être à l’origine du développement de l’autisme chez les enfants. Des doutes commencèrent à apparaître après que plusieurs études indépendantes n’aient pas réussi à reproduire les résultats de Wakefield [2,3], avant qu’une enquête journalistique de Brian Deer en 2004 ne démontre que Wakefield avait des intérêt financiers à publier de tels résultats (car il recevait de l’argent de compagnies qui produisent des vaccins uniques au lieu du triple vaccin). L’article fut finalement rétracté par The Lancet en 2010 mais continue malheureusement, plus d’une vingtaine d’années plus tard, à être cité par des opposants à la vaccination comme justification à leur croyance.

Bien que, dans cet exemple célèbre, la rétractation prend environ 12 ans, nous avons pu voir pendant la pandémie des exemples de rétractations bien plus rapides. Par exemple des articles publiés par une compagnie appelée Surgisphere ont été rétractés en quelques semaines dans The Lancet et The New England Journal Of Medecine ; le décompte actuel du nombre de rétractations sur des articles scientifiques COVID-19 est de plus de 200. Ce mécanisme “correctif” aide à garantir la qualité de nos connaissances scientifiques.

À notre tour d’aider à éviter que les erreurs scientifiques ne perdurent. En décembre 2021, une étude très partagée sur les réseaux sociaux qui démontrerait que le confinement est inutile pour contenir la pandémie de COVID-19 a été rétractée. Cette rétraction intervient 9 mois après la publication originale de l’article. L’article en question, de Savaris et ses co-auteurs, a été publié par Nature Scientific Reports en Mars 2021. 

Un travail de vérification. Très rapidement, nous avons, avec mes collègues, étudié et critiqué le contenu de cet article. En particulier, les auteurs utilisaient un modèle particulier pour déterminer si une réduction de la mobilité des gens (mesurée via leurs smartphones et les données de Google) entrainait une réduction des cas. Le modèle était codé en Python et un Jupyter Notebook a été mis en ligne, avec les données, en même tant que l’article afin de respecter les principes clés de la science ouverte [4]. Outre les limitations des données initiales des auteurs (notamment sur le Google Mobility), nous avons pu utiliser le code des auteurs pour vérifier l’adéquation du modèle qu’ils utilisaient pour répondre à leur question de recherche. Grâce au fait que le modèle était partagé, nous avons par conséquent créé des jeux de données artificiels pour lesquels nous pouvions être sûrs que le confinement aurait (ou non) un impact sur la propagation COVID (Image 2). Cependant, en créant un jeu de données censé prouver un effet du confinement et en le soumettant en entrée au modèle de Savaris et de ses collègues, le modèle a conclu que le confinement ne fonctionnait pas pour limiter la propagation COVID. Nous avons donc publié nos jeux de données artificiels en ligne sur Github, résumé nos préoccupations sur l’article dans un document que nous avons posté en version préliminaire (preprint) [5], puis contacté les éditeurs de Nature Scientific Reports afin de leur envoyer notre preprint. 

Image 2 : les cinq faux pays que nous avons créé pour vérifier le modèle de Savaris et ses collègues. Aucun de ces pays fictifs n’a permis de retourner de résultats significatifs avec le modèle des auteurs. Image CC-BY Meyerowitz-Katz et al.

Un mécanisme collégial de discussion et de re-travail. L’équipe éditoriale a envoyé nos préoccupations aux auteurs, en leur demandant de répondre ; dans un second temps notre preprint et la réponse des auteurs ont été évalués par 6 relecteurs indépendants. Nous avons reçu la réponse des auteurs ainsi que l’évaluation des relecteurs et, contacté Savaris et ses collègues pour leur demander un jeu de données artificiel qui montrerait un effet positif du confinement. Ils nous ont fourni ce jeu de données qui, quand nous le soumettions en entrée de leur modèle, produisait bien un effet positif du confinement. Cependant, nous avons constaté qu’en ajoutant ne serait-ce qu’un minimum de bruit à ce jeu de données, le résultat basculait à nouveau vers le négatif. Nous avons donc corrigé notre preprint pour y inclure ces nouvelles préoccupations, envoyé cette nouvelle version à l’équipe éditoriale qui a donc commencé un second tour de réponse auteurs + relecture par les pairs. Notre manuscrit a été finalement publié le 07 Décembre 2021 en tant que “Matters Arising” (question soulevée) lié à la publication en question [6], 1 semaine après la publication d’un autre Matters Arising de Carlos Góes sur ce même papier qui démontre mathématiquement que le modèle ne pouvait pas répondre à leurs question de recherche [7]. Le 14 décembre 2021, l’article était finalement rétracté [8]. Bien que dans ce cas, le manuscrit de Carlos Góes démontre un problème mathématique et appuie donc le point que nous mettions en exergue dans le nôtre, il est important de noter qu’il nous aurait été impossible de trouver ces erreurs si les auteurs n’avaient pas mis en ligne et donc à disposition de la communauté scientifique leur codes et données, ce qui est tout à leur honneur.

Une morale à cette histoire. Bien qu’un grand nombre d’articles de recherche sur COVID-19 souffre d’un très clair manque de transparence et de respect des principes de la science ouverte [4], il est certain que la disponibilité des données et du code (Open Data, Open Source) facilite grandement et accélère le processus de correction (et parfois de rétractation) de la science. Il faut vraiment l’encourager.

Lonni Besançon 

Références : 

[1] Besançon, L., Rönnberg, N., Löwgren, J. et al. Open up: a survey on open and non-anonymized peer reviewing. Res Integr Peer Rev 5, 8 (2020). https://doi.org/10.1186/s41073-020-00094-z 

[2] Madsen, K. M., Hviid, A., Vestergaard, M., Schendel, D., Wohlfahrt, J., Thorsen, P., … & Melbye, M. (2002). A population-based study of measles, mumps, and rubella vaccination and autism. New England Journal of Medicine, 347(19), 1477-1482. https://doi.org/10.1056%2FNEJMoa021134 

[3] Black C, Kaye J A, Jick H. Relation of childhood gastrointestinal disorders to autism: nested case-control study using data from the UK General Practice Research Database BMJ 2002; 325 :419 https://doi.org/10.1136/bmj.325.7361.419 

[4] Besançon, L., Peiffer-Smadja, N., Segalas, C. et al. Open science saves lives: lessons from the COVID-19 pandemic. BMC Med Res Methodol 21, 117 (2021).  https://doi.org/10.1186/s12874-021-01304-y 

[5] Meyerowitz-Katz, G., Besançon, L., Wimmer, R., & Flahault, A. (2021). Absence of evidence or methodological issues? Commentary on “Stay-at-home policy is a case of exception fallacy: an internet-based ecological study”.

[6] Meyerowitz‐Katz, G., Besançon, L., Flahault, A. et al. Impact of mobility reduction on COVID-19 mortality: absence of evidence might be due to methodological issues. Sci Rep 11, 23533 (2021). https://doi.org/10.1038/s41598-021-02461-2 

[7] Góes, C. Pairwise difference regressions are just weighted averages. Sci Rep 11, 23044 (2021). https://doi.org/10.1038/s41598-021-02096-3 

[8] Savaris, R.S., Pumi, G., Dalzochio, J. et al. Retraction Note: Stay-at-home policy is a case of exception fallacy: an internet-based ecological study. Sci Rep 11, 24172 (2021). https://www.nature.com/articles/s41598-021-03250-7   

 

Les cinq murs de l’IA 4/6 : l’interaction avec les humains

Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ? Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

Episode 4: le mur de l’interaction avec les humains

Cet épisode débute par des éléments développés par le programme confiance.ai dans son état de l’art sur les facteurs humains et la cognition1, établi mi-2021. Je remercie en particulier Christophe Alix (Thales), le coordonnateur de cet état de l’art sur un sujet clé pour notre futur avec les systèmes d’IA.

De très nombreux systèmes d’intelligence artificielle doivent interagir avec les humains; certains robots, notamment, et on pense en particulier aux véhicules autonomes; mais aussi les robots d’assistance aux personnes, les dialogueurs (chatbots), et plus généralement tous les systèmes qui ont besoin de communiquer avec leurs utilisateurs. Au-delà de ces fonctions de dialogue avec les humains, il y a tout le domaine de la cobotique, la collaboration étroite entre humains et robots, où la communication se fait en permanence dans les deux sens.

On peut classer ces applications en grandes catégories:
– dialogue (chatbots);
– résolution partagée de problèmes et de prise de décision;
– partage d’un espace et de ressources (cohabitation avec des robots qu’on ignore ou à qui on donne des ordres);
– partage de tâches (robot coéquipier).

Les machines intelligentes d’aujourd’hui sont essentiellement des outils, pas des coéquipiers. Au mieux, ces technologies sont utiles dans la mesure où elles étendent les capacités humaines, mais leurs compétences communicatives et cognitives sont encore inadéquates pour être un coéquipier utile et de confiance. En effet, les machines collaboratives intelligentes doivent être flexibles et s’adapter aux états du coéquipier humain, ainsi qu’à l’environnement. Elles doivent comprendre les capacités et les intentions de l’utilisateur et s’y adapter.

Or, nous ne comprenons pas suffisamment la cognition, la motivation et le comportement social de haut niveau de l’être humain social. Les humains excellent dans l’apprentissage et la résolution de problèmes d’une manière qui diffère de celle des machines, même sophistiquées. La nature de l’intelligence humaine reste difficile à cerner. Même si d’importants efforts de recherche en sciences cognitives ont été consacrés à la compréhension de la façon dont les humains pensent, apprennent et agissent, dans les environnements naturels, la séquence d’actions qui mène à un objectif n’est pas explicitement indiquée, voire même la connaissance même des objectifs d’un humain reste complexe à appréhender. Stuart Russell a consacré un excellent ouvrage à ce sujet4, dans lequel il montre à quel point il est difficile pour un système d’IA de connaître les intentions d’un humain ou d’un groupe d’humains, et il propose que l’IA questionne systématiquement lorsqu’il y a ambiguïté.

Réciproquement, il est également indispensable de permettre aux collaborateurs humains de comprendre les buts et actions des machines avec lesquelles ils sont en interaction. Les machines ont souvent des caractéristiques physiques et des capacités très différentes de celles des humains, ce qui a un impact sur les rôles qu’elles peuvent jouer dans une équipe. Dans ce contexte, les besoins d’explications (qu’on nomme souvent « explicabilité ») de la part des systèmes d’intelligence artificielles sont cruciaux – ils font d’ailleurs l’objet d’une des mesures de la réglementation proposée par la Commission Européenne (déjà citée), ou encore du projet de référentiel concernant la certification du processus de développement de ces systèmes, développé par le Laboratoire National de Métrologie et d’Essais2. Mais les capacités d’explication des systèmes actuels d’IA sont très limitées, particulièrement lorsqu’il s’agit de réseaux neuronaux profonds dont les modèles internes sont composés de très grandes matrices de poids qu’il est difficile d’interpréter. J’en veux pour preuve les innombrables recherches sur l’explicabilité de l’IA, initialement popularisées par le programme « XAI » de la DARPA américaine lancé en 20173.

Il existe certes une tendance, illustrée par le propos de Yann LeCun ci-dessous, qui défend l’idée que l’explicabilité (causale notamment) n’est pas indispensable pour que les utilisateurs aient confiance envers un système, et qu’une campagne de tests couvrant le domaine d’utilisation suffit. Mais d’une part la dimension d’une telle campagne peut la rendre impossible à réaliser dans un temps imparti et avec des moyens finis; d’autre part il n’est pas toujours aisé de définir le domaine d’utilisation d’un système. Enfin, la plupart des cas pour lesquels nous n’avons pas besoin d’explications sont ceux où les systèmes disposent d’un autre mode de garantie; par exemple nous ne demandons pas nécessairement d’explications à un médecin qui nous prescrit un médicament, parce que nous savons que le médecin a été diplômé pour l’exercice de son métier après de longues études.

Reproduit de https://twitter.com/ylecun/status/1225122824039342081

L’interaction avec les humains peut prendre des formes diverses: parole, texte, graphiques, signes, etc. En tous cas elle n’est pas nécessairement sous forme de phrases. Un excellent exemple d’interaction que je trouve bien pensé, est celui d’une Tesla qui a l’intention de procéder à un dépassement: la voiture affiche la voie de gauche pour montrer qu’elle souhaite le faire, et le conducteur répond en activant le clignotant. Un problème plus général, illustré par le cas des véhicules autonomes4, est celui du transfert du contrôle, lorsque la machine reconnaît être dépassée (par exemple en cas de panne, de manque de visibilité etc.) et doit transférer le contrôle à un humain, qui a besoin de beaucoup de temps pour assimiler le contexte et pouvoir reprendre la main.

En résumé, l’interaction avec les humains est un sujet complexe et non résolu aujourd’hui; et il ne le sera pas de manière générale, mais plutôt application par application, comme dans l’exemple précédent.

​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

Notes :

1 « EC2 Human Factors and Cognition 2021 », C. Alix, B. Braunschweig, C.-M. Proum, A. Delaborde, 2021, document interne du projet confiance.ai, disponible sur demande

2 REFERENTIEL DE CERTIFICATION: Processus de conception, de développement,

d’évaluation et de maintien en conditions opérationnelles des intelligences artificielles. LNE, 2021.

3 https://www.darpa.mil/program/explainable-artificial-intelligence

4 Dans la classification des niveaux d’autonomie pour le véhicule autonome, le niveau maximum 5 et celui de l’autonomie complète. Au niveau juste inférieur, 4, le véhicule gère presque toutes les situations mais rend la main dans des situations exceptionnelles, ce qui est extrêmement délicat à mettre en œuvre.

servAtem mise tout sur le 7 !

Page d’accueil de servAtem, 2022

« On s’est habitué à voir les jeunes faire la pluie et le beau temps et nous renvoyer dans les cordes à tout bout de champ. Même les GIF sont devenus old school, il paraît. Le journal de Tintin, c’était pour les 7 à 77 ans. Et bien, on a plus de 77 ans et on se libère de la dictature des gosses ! » C’est ce qu’explique Eva Madeleine, la pédégère de servAtem, une startup solognote, un réseau social qui vise principalement les seniors.

Elle continue : « Le PMU commençait à m’ennuyer sérieusement. La section locale du PS aussi. Facebook et Meetic, ça a été pour moi des bouffées d’air. Mais, je me suis vite remise à tourner en rond. Toujours les mêmes débats, toujours les mêmes ébats. Ça devenait la section sans le saucisson ou le PMU sans le petit ballon. Autant dire l’EPHAD.» Killian Makrout, l’autre fondateur précise : « Je lui ai demandé ce qu’elle aurait voulu trouver dans une plateforme. On a descendu une bouteille de Chardonnay et, à l’arrivée, on avait les spécs de servAtem. Je ne pensais pas que ça nous mènerait jusque-là, dit-il en riant. Je ne pensais pas que c’était possible même. » Et pourtant ils l’ont fait.

Ils avaient un vague business plan. Ils avaient une bande de copains développeurs-retraités qu’ils ont payés en tournées de bière au Café de la Mairie. Le vendeur d’ordinateurs d’occasion du centre ville leur a prêté les premières machines, une cousine de Killian son garage. Ils n’avaient besoin que de ça pour lancer le service. La popularité a suivi : « Entre le bingo et les clubs de bridge, le bouche à oreille a fait le travail. Le senior aime bien bavasser in real life aussi » précise Killian.

Première règle, on n’a pas le droit à plus de 77 personnes dans son groupe de contacts, dénommé « la bauge » chez servAtem. « Ce qui est dingue, s’émerveille Eva, c’est que paradoxalement, moins les gens sont dans une course aux likes, plus ils se font de vraies relations.» La référence du lien social, pour servAtem est  Montaigne et La Boétie, des amitiés fondées sur des valeurs communes, le respect.

La plateforme encourage à choisir des amis différents de soi. Elle ne propose jamais à un utilisateur une personne qui lui ressemble trop, par son âge, son milieu social, ses préférences sexuelles ou politiques. Et puis, on n’entre pas dans la bauge de quelqu’un si facilement. Il faut 7 jours avant d’avoir le droit d’échanger une photo, 77 pour un numéro de téléphone. Pour le « coup d’un soir », il faut chercher ailleurs. On est moins dans le club de rencontre que dans le fin’amor occitan.

La sérendipité est une religion pour servAtem. Les contenus proposés sont choisis pour sortir l’utilisateur de ses habitudes. Au début, cela déconcerte de ne pas comprendre la moitié de ce qui est proposé, de ne pas forcément être intéressé par ce qu’on comprend. Magie des lieux, on finit pourtant par s’intéresser à des sujets aussi improbables que « La reconnaissance coloniale du couvain et du champignon chez la fourmi champignonniste » ou « L’implication des récepteurs 5-HT2A dans la modulation des interneurones PKC gamma dans un contexte d’allodynie. »

La modération est enfin prise au sérieux chez servAtem. « He oui c’est comme au troquet, il y a des choses qu’on peut pas laisser dire, même avec quelques verres dans le nez. » précise Killian. Certains trouveront pourtant que cela devient compliqué de s’exprimer quand des mots comme zut, sexe, ou fossille, sont interdits. Et la correction des fautes d’orthographes en rouge leur rappellera peut-être de mauvais souvenirs. Mais Killian est prof des écoles retraité ; ça ne s’oublie pas.

Quand on envoie un message à un ami qui se trouve être à moins de 7777 mètres, servAtem affiche le message : « Un coup de vélo et vous pouvez le-la rencontrer pour de vrai. Ziva ! » Et le réseau a raison, c’est quand même plus sympa un.e ami.e in real life.

Le changement peut-être le plus visible, avec servAtem, est le tempo. Un message peut prendre jusqu’à 7 semaines. Eva explique : « Notre réseau s’est aligné sur la marine d’antan. Les messages voyagent avec les vents. » Si c’est sympa, ça complique les conversations. C’est vrai que cela aussi encourage la pratique du vélo. En plus de favoriser le temps long, servAtem encourage les post et les messages longs : au moins 777 caractères. Est-ce que le but est de favoriser l’éclosion d’une génération de futurs Proust ?

Dans les réseaux sociaux traditionnels, on ne choisit rien. Chez servAtem, un bouton permet de s’éloigner plus ou moins des paramètres par défaut proposés par la plateforme. Si on règle ce bouton sur minimum, on se retrouve sur… Meta.

Serab Jancat