Les hauts de Otesia

Lorsqu’on parle d’intelligence artificielle, surgit très souvent le problème de la définition de ce que cette notion recouvre, en opposition ou en complément à une intelligence dite « humaine ». Profitant des travaux sur la formalisation d’une intelligence mécanique et de nombreux outils développés dans ce cadre, abordons la question passionnante de la modélisation de l’intelligence humaine ! Regardons ici comment quelques scientifiques essayent d’aborder cette question.  Antoine Rousseau

Promouvoir une Intelligence Artificielle (IA) responsable et éthique en ouvrant une réflexion approfondie sur l’IA, par exemple la manière dont elle va impacter les différents aspects de la société, l’Observatoire des Impacts Technologiques Économiques et Sociétaux de l’Intelligence Artificielle (OTESIA) de la Côte d’Azur en a fait sa mission.

Comprendre pour maîtriser et non subir

Pour bien profiter de ce que l’IA propose, il faut comprendre comment ça marche, et ce n’est pas uniquement un enjeu technologique : nous devons développer nos compétences en matière de pensée informatique, c’est à dire bien comprendre ce qui peut être mécanisé au niveau du traitement de l’information (d’où le mot “informatique”), pour justement que notre pensée humaine ne se limite pas à cela. 

Nous savons que plus le problème à résoudre est spécifique, plus une méthode algorithmique sera efficace, possiblement plus que la cognition humaine, tandis qu’à l’inverse plus le problème à résoudre est général, moins un algorithme ne pourra intrinsèquement être performant, quelle que soit la solution.

C’est une double approche, créative et d’esprit critique, vis-à-vis du numérique. Nous y contribuons avec ClassCode. On y montre aussi que le développement de l’intelligence artificielle modifie notre vision de ce que peut être l’intelligence humaine.

©4minutes34.com

On se pose souvent la question “symétrique” de savoir si une machine peut être ou devenir intelligente : le débat est interminable, car – en gros – il suffit de changer la définition de ce que l’on appelle intelligence pour répondre “oui, pourquoi-pas” ou au contraire “non, jamais”. La vraie définition de l’IA est de “faire faire à une machine ce qui aurait été intelligent si réalisé par un humain”, ce qui évite de considérer cette question mal posée. 

L’intelligence artificielle comme modèle de l’intelligence naturelle

L’IA permet aussi de mieux étudier notre intelligence. Pas uniquement en fournissant des techniques pour améliorer l’apprentissage d’une personne, mais aussi en tentant de mieux comprendre les apprentissages humains. En effet, pour faire fonctionner des intelligences algorithmiques on dispose de modèles de l’apprentissage mécanique, de plus en plus sophistiqués. Dans quelle mesure peuvent-ils aussi aider à modéliser l’apprentissage humain pour mieux l’appréhender ?

Pour répondre à cette question, le projet AIDE construit un formalisme, une ontologie, permettant de réaliser une modélisation de la personne apprenante, de la tâche et des observables au cours de l’activité, ceci afin de développer un modèle applicable aux données qui puisse être exploité pour les analyser avec des approches computationnelles, et modéliser les tâches de résolution créative de problèmes.

Modéliser la tâche d’apprentissage et se donner des observables

Pour cela, il faut observer les traces d’apprentissage, avoir des sources de mesure. Ces traces d’apprentissages sont relevées lors de l’utilisation d’un logiciel (mesure des déplacements de la souris, des saisies au clavier…), en analysant des vidéos des activités, mais aussi grâce à des capteurs employés dans des situations pédagogiques sans ordinateur (par exemple une activité physique dans une cours d’école, observée avec des capteurs visuels ou corporels). Exploiter ces mesures impose alors non seulement de formaliser la tâche d’apprentissage elle-même, mais en plus, de modéliser la personne apprenante (pas dans sa globalité bien entendu, mais dans le contexte de la tâche).

Une approche pluridisciplinaire

L’apprenant·e est ainsi modélisé·e à partir de connaissances issues des neurosciences cognitives. Dans ce cadre, on structure les facultés cognitives humaines selon deux dimensions.

La première dimension prend en compte les différentes formes d’association entre entrées sensorielles externes ou internes et les réponses à y apporter, des plus simples (schémas sensori-moteurs, comportements liés aux habitudes) aux plus complexes (comportements dirigés par un but, décisions après délibérations ou raisonnements).

La deuxième dimension prend en compte le fait que ces associations peuvent être apprises et exécutées pour quatre différentes classes de motivations (pour aider à identifier un ‘objet’ de l’environnement comme but possible du comportement, pour le localiser ou y prêter attention, pour le manipuler ou encore pour définir en quoi il répond à une motivation). 

Cette modélisation inscrit ces différents concepts au sein de l’architecture cérébrale, permettant de spécifier ainsi le rôle fonctionnel de ces régions (cortex préfrontal, boucles impliquant les ganglions de la base, incluant l’amygdale, en lien avec le thalamus et l’hippocampe). 

En explicitant les différentes fonctionnalités liées à ces deux dimensions, on rend compte de nombreuses fonctions cognitives, en particulier relatives à la résolution de problèmes. Il s’agit donc d’un cadre de description intéressant car il est structuré, relativement compact et rend compte de ce qui semble s’être développé pour élaborer l’architecture cognitive du cerveau.

Ontologie et modèle de données pour l’étude d’une activité d’apprentissage médiatisée par des robots pédagogiques (Romero, Viéville & Heiser, 2021). 

Un exemple de questionnement : exploration versus exploitation

Dans des activités de résolution de problèmes, on peut considérer que les sujets alternent entre deux principaux modes de raisonnement : l’exploration vise à “expérimenter des nouvelles alternatives” pour générer de nouvelles connaissances (par exemple la recombinaison de connaissances pour développer une nouvelle idée), tandis que l’exploitation est l’usage des connaissances (déclaratives, procédurales) existantes dans une situation donnée. 

Dans une situation que le sujet reconnaît comme familière, le sujet peut exploiter ses connaissances pour résoudre la situation existante s’il vise un objectif de performance (performance goal). Mais, dans cette même situation, il pourrait également décider d’explorer la situation de manière différente s’il a des buts de maîtrise ou, même, si au moment de développer une première solution, il avait envisagé plusieurs idées de solution qu’il avait laissées de côté au moment de réussir la situation-problème une première fois. 

Dans des situations problèmes, le sujet est face à une double-incertitude, sur la manière mais aussi sur les moyens d’arriver au but. Dans ces circonstances, les connaissances (déclaratives et procédurales) pour arriver au but ne sont pas clairement structurées et le sujet se doit d’explorer les moyens à sa disposition pour pouvoir développer des connaissances lui permettant de développer une idée de solution.

La régulation des modes exploration/exploitation pour accomplir la tâche.

Les tâches simples nécessitent juste l’exploitation, cependant, les tâches plus complexes nécessiteraient l’exploration pour être complétées, nécessitant ainsi de pouvoir combiner les deux modes.

Exploration et exploitation selon la (mé)connaissance des moyens en lien aux objectifs (Busscher et al 2019).

Ce domaine en est encore à ses débuts et des actions de recherches exploratoires qui allient sciences de l’éducation, sciences du numérique (dont intelligence artificielle symbolique et numérique) et neurosciences cognitives se développent.

Au-delà de ce projet, dans le cadre d’OTESIA, on étudie aussi l’impact de l’apprentissage machine sur les compétences professionnelles pour contribuer à une compréhension des processus d’apprentissage par lesquels les entreprises développent de nouvelles capacités technologiques, c’est un autre projet. Par ailleurs, les liens entre IA et santé, pour décrypter les multiples dimensions et impacts de l’usage du numérique dans les établissements médico-sociaux, notamment les EHPAD, et analyser le lien entre soin et numérique sont aussi étudiés. Enfin, la prévention du cyber-harcèlement et de la cyber-haine, à travers le développement d’un logiciel de détection des messages haineux à partir d’une analyse du langage naturel pour comprendre permettre aux victimes de développer leur esprit critique et un contre-discours pour une meilleure lutte contre ce fléau.

Lisa Roux, Margarida Romero, Frédéric Alexandre et Thierry Viéville.

 

En savoir plus :

Développement d’une ontologie pour l’analyse d’observables de l’apprenant dans le contexte d’une tâche avec des robots modulaire

Class´Code IAI :  Ouvert en avril 2020, le Mooc Class’Code IAI “Intelligence Artificielle avec Intelligence” offre une initiation à l’Intelligence artificielle, gratuite et attestée, via une formation citoyenne qui a attiré jusqu’à présent plus de 18800 personnes. Son approche ludique et pratique et la diversité de ses supports –  vidéos conçues avec humour, tutos et activités pour manipuler, ressources textuelles pour aller plus loin, un forum pour échanger et enfin des exercices pour s’évaluer – a  remporté un grand succès chez nos mooqueurs et mooqueuses qui se disent satisfaits à plus de 94%.

Tous au libre !

Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible cette notion de logiciel libre. Marie-Agnès Enard, Pascal Guitton  et Thierry Viéville.

 

Tu as faim ? J’ai une pomme. Partageons là. Du coup, je n’ai mangé qu’une demi-pomme. Mais j’ai gagné ton amitié. Tu as une idée ?  Partageons là. Du coup, nous voilà toi et moi avec une idée. Mieux encore : ton idée vient de m’en susciter une autre que je te repartage, en retour. Pour te permettre d’en trouver une troisième peut-être.


Une pomme est un bien rival. Cette notion désigne un bien dont la consommation par une personne empêche la consommation par d’autres. Ce qui relève de l’information ne l’est donc pas ; du coup, partager de l’information n’appauvrit pas … Sauf si on considère que l’autre en profite ? Peut-être … même pas. Découvrons cette histoire.

Il était une fois, ah non : il était deux fois.

Il était une première fois [0], bien avant l’informatique, l’idée de rétribuer qui contribue au perfectionnement du métier à tisser, dans le Lyon du XVIIIe siècle. Les corporations de marchands et la municipalité choisirent de récompenser qui adapte un nouveau système à un grand nombre de métiers à tisser [1]. Cette politique d’innovation économique ouverte basée sur une stratégie gagnante-gagnante de partage des innovations technologiques (travailler ensemble plutôt que de tenter de cacher son savoir et de tuer les autres pour finir par mourir dans un désert économique) a permis à Lyon, devant Nottingham par exemple, de devenir leader sur ce secteur [2].

Pour le fameux métier à tisser de Jacquard, d’aucuns y voient un génie, d’autres de dire qu’il n’a rien inventé. Les deux ont tort et raison. Joseph Marie Charles dit Jacquard n’est pas un inventeur, c’est un intégrateur. Basile Bouchon a créé une machine à tisser à aiguille, Jean-Baptiste Falcon a complété la machine avec un système de carte perforée pour bénéficier d’un programme des gestes à mécaniser, et Jacques Vaucanson, a mis au point les cylindres automatiques pour soulager les utilisateurs en leur évitant d’avoir à faire tout cela à la main. Le métier de Jacquard est un aboutissement. C’est le fait que toutes ces innovations furent partagées publiquement qui permit de dépasser le monde anglo-saxon empêtré dans un système de protections avec des brevets, sur ce secteur économique.

Et il était une autre fois l’informatique [4].

L’informatique est une science et depuis toujours les connaissances scientifiques se partagent, se visitent et se revisitent pour pouvoir les vérifier, les confronter, les critiquer, les dépasser. À de rares exceptions près, les scientifiques qui ont travaillé isolément, dans le plus grand secret, sont restés … stérilement isolés. La science n’avance plus que collectivement et il est important de toujours se battre pour mettre en avant ces valeurs d’une science ouverte [5]. Au début de l’informatique, les algorithmes se partageaient comme les équations mathématiques, avec des communautés de développeurs qui s’entraidaient. Et puis, avec la découverte du potentiel commercial des logiciels et sous l’influence notamment de Bill Gates, la notion de  “copyright” s’est imposée en 1976, faisant du logiciel un possible bien propriétaire, en lien avec l’émergence d’un secteur d’activités nouveau et très vite florissant, au moment de l’avènement de l’informatique grand public qui est devenu omniprésente. Mais cette réglementation engendrera tellement de contraintes que 45 ans plus tard, même Microsoft [6] s’investit de plus en plus dans le logiciel libre. L’intérêt réel de grandes firmes comme IBM ou Microsoft dans ce nouveau type de partage de connaissances [7] marque un tournant.

Quel intérêt à une telle démarche ?

On peut invoquer de multiples raisons : pour que les personnes qui travaillent sur des projets parfois gigantesques puissent s’entraider, pour que l’on puisse étudier un logiciel complexe dont le fonctionnement doit rester transparent (par exemple pour mettre en place un système de vote numérique), pour que économiquement on crée des “biens communs” qui puissent permettre au plus grand nombre de développer ce dont il ou elle a besoin, et faire des économies d’échelle, comme par exemple lorsqu’il s’agit de corriger des bugs.

Un logiciel libre garantit quatre libertés fondamentales [8] :

– utiliser le logiciel

– copier le logiciel

– étudier le logiciel

– modifier le logiciel et redistribuer les versions modifiées.

Et si cette démarche d’ouverture ne se limitait pas au logiciel [9] ? Et si comme Wikipédia qui a permis de “libérer” les connaissances encyclopédiques humaines, qui avaient été enfermées sous forme de bien marchand, on faisait en sorte de s’organiser de manière collégiale, en privilégiant l’entraide et le partage pour d’autres grandes créations humaines ? 

Allez, un petit jeu pour finir, sauriez-vous reconnaître ces logiciels libres, parmi les plus célèbres ?

Références :

[0] Merci à Stéphane Ubeda, de nous avoir fait découvrir ces éléments.

[1] Histoire de la soierie à Lyon : Système public de soutien à l’innovation.

[2] The economics of open technology: Collective organization and individual claims in the « fabrique lyonnaise » during the old regime. Dominique Foray and Liliane Hilaire Perez, Conference in honor of Paul A.David, Turin (Italy), May 2000

[3] Histoire de la soierie à Lyon : Mécanisation de la production.

[4] Histoire du logiciel libre 

[5] Open Science, Nicolas Rougier, https://hal.inria.fr/hal-01418314 

[6] Microsoft libère 60000 brevets pour protéger LinuX https://www.numerama.com/tech/426979-microsoft-libere-60-000-brevets-pour-proteger-linux.html 

[7] Microsoft, IBM : le logiciel libre s’impose chez les géants de l’informatique https://la-rem.eu/2019/03/microsoft-ibm-le-logiciel-libre-simpose-chez-les-geants-de-linformatique/ 

[8] Comprendre les logiciels libres (podcast vidéo)  https://www.lemonde.fr/blog/binaire/2017/07/05/podcast-logiciel-libre/ 

[9] Logiciel libre et ouvert, révolution ou évolution

https://interstices.info/le-logiciel-libre-et-ouvert-revolution-ou-evolution/

 

Bienvenue dans la communauté d’apprentissage de l’informatique

L’enseignement de l’informatique est un enjeu majeur dans la formation des adultes de demain. Dans cette société où la technologie est de plus en plus présente, cet enseignement commence seulement à arriver dans nos pays francophones. L’équipe de CAI (Communauté d’Apprentissage de l’Informatique) nous présente son initiative. Lonni Besançon

Dans ce contexte, le projet de Communauté d’Apprentissage de l’Informatique (CAI) vise la mise en communauté d’enseignant·e·s pour faciliter la découverte de l’informatique et leur permettre d’accéder aux outils nécessaires pour son enseignement aux élèves de 10 à 18 ans : entraide entre enseignant·e·s et autres professionnel·le·s de l’éducation, partages d’expériences et de ressources pédagogiques, co-construction de projets, via une méta-plateforme https://cai.community en phase de déploiement.

C’est par exemple le cas du projet Canopé de “Collection Open Badges Robotique Educative” à propos de robotique éducative ou de nos #CAIchat qui permettent de partager sur des sujets comme «Informatique et société» ou l’enseignement du Numérique et Sciences Informatiques (NSI) au niveau lycée. À bientôt à Ludovia pour se rencontrer sur ces sujets.

Qu’y fait-on concrètement ?

On y partage, identifie, évalue ou construit des ressources; on échange, s’accompagne et partage nos pratiques; on se donne des rendez-vous et on se rencontre pour s’entraider sur internet ou les territoires. Tout est librement réutilisable en CC-BY et CeCILL-C.

Nous sommes au service des enseignant·e·s et éducatrices et éducateurs francophones au sens large, toute personne intéressée (ex: parent) est bienvenue. Nous sommes régis par une charte qui tient en quelques mots :

 #entraide #partage #bienveillance
#respect-mutuel  #esprit-critique #humour:)

Une vue de la plateforme résultat de la réflexion partagées ici et des spécifications proposées, on y voit le choix d’une présentation minimale, les différentes rubriques qui correspondent aux fonctionnalités proposées ici et le lien avec les réseaux sociaux les plus usités par les personnes qui vont l’utiliser.

Comment ça marche ?

Très simplement 😉

1/ on édite et consulte des “ressources” (de formation, activités, outils logiciels, …) qui sont définis par des méta-données, et peuvent former des “parcours”; on trouve aussi des profils de personnes (avec qui on partage et s’entraide), des “rendez-vous” (en ligne ou sur un territoire), ou des simples “brèves” (actualité, bonne-feuille, liens utiles, …).

2/ on “partage” sur des fils de discussion qui sont structurés en catégories et s’ouvrent et se ferment selon nos besoins, on y pose des questions, on y propose des retours sur les ressources, on y invite à co-créer des ressources, on y organise des rendez-vous en ligne ou sur un territoire


Une vue de la page de ressources, on peut rechercher une ressource par recherche textuelle, différentes métadonnées, et il y a aussi la possibilité d’une aide pour rechercher un ressource, en proposer, ou en co-créer.

À quel niveau aider les collègues enseignant·e·s ?

Notre projet cherche simplement à offrir ce qui semble manquer dans l’écosystème actuel.

Assistance documentaire : beaucoup de belles ressources, partagées au fil de messages sur des mailing listes, ont besoin d’être thésaurisées et recevoir des métadonnées permettant de facilement les retrouver. Pour couvrir ce besoin, il faut un référentiel de référencement et une véritable aide humaine documentaire avec un support en matière de secrétariat numérique.

Espaces de co-construction : les ressources actuelles sont majoritairement individuelles ou le fait de petites équipes locales, à contrario de produits comme les ouvrages scolaires ou les ressources numériques issues de travaux d’équipes qui permettent de rassembler une intelligence collective. Pour couvrir ce besoin il faut proposer un process et des outils usuels de travail collaboratif.

• Bureau d’accueil individuel : il y a un vrai besoin de contact “personnel” en contrepoint des discussions collectives, pour des problèmes spécifiques ou moins faciles à exprimer publiquement, ou des demandes dont la formulation est encore préliminaire. Pour couvrir ce besoin, une personne animatrice de communauté est disponible.

Service pour les rencontres hybrides : au-delà des échanges asynchrones (mails ou forum) le besoin de rencontres en ligne ou sur un territoire est couvert de manière un peu disparate, et (i) une solution de rendez-vous en ligne est proposée: ouverte, sécurisée et facile d’utilisation tandis qu’un (ii) outil minimal connectable aux agendas numériques usuels permettant de poser des rendez-vous est déployé.

Navigation entre plateformes : entre les dialogues par courriels, utilisation des réseaux sociaux, sites webs personnels sous forme de blogs, de dépôts de ressources ou de banques, multiples outils d’échange et co-travail synchrone en ligne, il y a vraiment besoin de mettre en lien ces différents espaces de ressources, partages ou rendez-vous. Pour couvrir ce besoin, une méta-plateforme est déployée à capot ouvert .

https://cai.community

Maintenant que l’on commence à enseigner l’informatique en secondaire et primaire, il faut surtout se demander comment le monde de l’enseignement supérieur et de la recherche peut continuer de s’orienter au service et aider à la continuation de la réussite de cette mutation.

Les initiatives sont multiples, et la présente est une des briques de ce mouvement de soutien à ce qui va permettre à nos enfants, avec l’aide des enseignants, de maîtriser le numérique, en apprenant les bases de l’informatique.

Pour en savoir plus : https://hal.inria.fr/hal-02994175v3

Olivier Goletti et toute l’équipe de CAI.

 

Les robots et l’IA : un livre documentaire pour enfants, à découvrir !

LUDOMAG nous fait part de la sortie d’un livre documentaire pour les enfants dès 7 ans,  » Les robots et l’IA », écrits par Didier Roy et Pierre-Yves Oudeyer. Est-ce qu’un robot a un cerveau ? Un robot peut-il apprendre à parler ? Qu’est-ce que l’intelligence artificielle ? Qui a inventé le premier robot ? Comment vont évoluer les robots?

Autant de questions que se posent petits et grands et auxquelles répondent avec des mots de tous les jours et des illustrations claires deux chercheurs spécialistes des apprentissages, des robots et de l’intelligence artificielle, levant ainsi le voile sur des phénomènes majeurs du monde d’aujourd’hui, qui fascinent et inquiètent à la fois.

Une occasion de comprendre leur fonctionnement, leur utilité pour l’homme, leurs usages raisonnables, de trier le vrai du faux, et de connaître les recherches en cours.

Nous avons le plaisir de reprendre ici l’interview des auteurs, Didier Roy et Pierre-Yves Oudeyer sur LUDOMAG.

Pourquoi ce livre pour enfants ?

Dans un monde où l’intelligence artificielle et les robots ont un impact croissant sur la société, il nous a semblé important d’aider les enfants à comprendre de quoi il s’agit, leur donner des repères pour trier le vrai du faux, les motiver pour être acteurs du monde dans lequel ils vivent.

Les robots et l’intelligence artificielle sont très présents dans les médias mais finalement très mal connus. Fantasmes, craintes excessives ou à l’inverse confiance aveugle, prédictions gratuites, théories: il n’est pas facile, surtout pour les enfants, de comprendre de quoi on parle et pourquoi on en parle comme ça.

Je suis toujours étonné de voir circuler des informations complètement farfelues sur les robots ou l’IA alors que sont ignorées des choses incroyables et pourtant bien réelles !

Au fur et à mesure que notre monde a évolué, en se complexifiant de plus en plus, des découvertes ont été faites, de nouvelles sciences sont apparues et avec elles de nouveaux savoirs à transmettre. Il en est ainsi par exemple des sciences physiques, chimiques, humaines, et aujourd’hui de la science informatique dont la connaissance des bases permet d’éclairer notre compréhension de ce monde devenu largement numérique. Ce livre s’inscrit dans ce mouvement de transmission vers les enfants, pour que peu à peu leur culture s’enrichisse d’informations les plus fiables possibles, pour nourrir leur curiosité mais aussi pour que leur choix d’adultes à venir soit les plus avisés.

C’est aussi une occasion de fournir des outils aux adultes pour échanger avec leurs enfants. Un livre pour enfants est souvent un moyen efficace de parler aussi aux parents : sans doute beaucoup préfèrent acheter un livre sur les robots et l’intelligence artificielle pour leurs enfants plutôt que d’en acheter un pour eux-mêmes, mais finissent quand même par le lire et en discuter avec eux. Nous apprenons nous même une foule de choses en lisant des livres avec des enfants !

L’un de nous (Didier Roy) a été longtemps enseignant dans le secondaire et formateur d’enseignants de primaire avant de devenir chercheur, et sait combien l’adhésion des parents, leur participation active dans la construction des connaissances de leurs enfants, est un atout majeur pour leur motivation et leur développement !

Que trouve-t-on dans le livre ?

Des éléments sur les robots, sur l’intelligence artificielle, l’apprentissage automatique (machine learning), les les réseaux de neurones, l’apprentissage par renforcement, sur les enjeux sociétaux… présentés de façon scientifiquement juste mais avec des mots simples et accessibles aux enfants. Il y est même question de “curiosité artificielle��, un thème de recherche phare de l’équipe Flowers dans laquelle nous travaillons.

Le livre contient aussi une frise historique du 1er siècle avant JC jusqu’en 2019, avec les grandes dates de la robotique et de l’intelligence artificielle. On y trouve notamment l’histoire du premier vrai robot en 1912, le “chien électrique” des ingénieurs Hammond et Miessner, histoire que la plupart des chercheurs en robotique et en intelligence artificielle ne connaissent pas ! De façon générale, l’histoire des sciences est jalonnée d’événements absolument passionnants et c’est un éclairage important des concepts en jeu.

N’est-ce pas un peu dérisoire pour des chercheurs comme vous plutôt habitués à produire des conférences et des publications de haut-niveau scientifique ?

Pas du tout dérisoire, bien au contraire ! S’adresser aux enfants est très gratifiant, et les voir avec le livre en mains inspire un sentiment de fierté qui n’a rien à envier aux moments les plus intenses de notre vie de chercheur. Ça été une très belle expérience que l’écriture de ce petit ouvrage, nous nous sommes régalés !

Et quand on transmet des connaissances scientifiques et techniques, on peut aussi donner les intentions des chercheurs et des ingénieurs qui travaillent dans ce domaine en entendant directement leur point de vue.

Côté chercheur, s’efforcer d’expliquer en termes simples le domaine sur lequel on travaille et son impact sur la société est une façon efficace de prendre du recul et de voir les opportunités, les menaces et les priorités, de donner du sens.

D’une certaine manière, nous avons le sentiment que certaines actions de vulgarisation scientifique que nous sommes amenés à réaliser en tant que chercheurs en IA peuvent parfois avoir un impact plus important sur la société que la production d’une énième contribution à une conférence scientifique prestigieuse.

L’un de nous (Pierre-Yves Oudeyer) s’est rendu il y a quelques semaines dans une école primaire pour expliquer les robots et l’intelligence artificielle, et ça a été l’occasion de merveilleuses discussions avec des enfants de 6 à 9 ans. Certains n’avaient aucune idée de ce que pouvait être un « scientifique », et sont repartis les yeux brillants en multipliant les “Merci !”. Nous sommes persuadés que ces minuscules graines de science semées dans ces moments-là sont très importantes.

Entre nous, est-ce que les robots et l’intelligence artificielle sont une menace pour l’humanité ?

C’est dans le livre. La réponse est très simple : les robots et l’intelligence artificielle seront ce que les humains veulent qu’ils soient, ni plus ni moins. D’où l’importance de diffuser au plus grand nombre les connaissances sur ces sujets, pour éclairer les choix à faire.

Pierre-Yves Oudeyer* et Didier Roy** sont chercheurs en informatique et en intelligence artificielle. Ils travaillent à Inria (Institut National de Recherche en Sciences et Technologies du Numérique), où ils décodent avec l’IA les mécanismes du cerveau et mettent au point des machines qui apprennent des tâches variées de manière plus autonome.

*Directeur de recherche à Inria, responsable de l’équipe Flowers
**Chercheur à Inria et au Centre LEARN EPFL (Ecole Polytechnique Fédérale de Lausanne)

Plus d’infos :
Editions Nathan, Collection Questions/Réponses
Auteurs : Didier ROY, Pierre-Yves OUDEYER
Illustrateur : Laurent BAZART
Sortie : Octobre 2020
www.nathan.fr

 

Éducation et numérique : quels défis et quels enjeux ?

Éducation et numérique : deux domaines de plus en plus fréquemment associés, a minima pour en débattre. Entre les farouchement « pour » et les non moins motivés « contre », il est souvent difficile d’appréhender les véritables défis et enjeux posés par ce sujet pourtant vraiment central pour notre société. C’est pour participer à ce débat que des chercheur.e.s, tant des sciences du numérique que des sciences de l’éducation, ont entrepris la rédaction d’un livre blanc consacré à l’éducation et au numérique (disponible sur HAL) en apportant des éléments factuels sur la situation, en faisant le point sur les recherches actuelles et enfin en émettant une série de recommandations notamment pour contribuer à lutter contre l’échec scolaire. Binaire.

La crise liée à la pandémie de Covid-19 est survenue au moment de la finalisation du document et bien entendu, nous nous sommes interrogés sur notre projet. Était-il toujours d’actualité ? Le contenu était-il toujours pertinent ? Quels ont été les usages et les limites du numérique pour soutenir la continuité pédagogique pendant la crise ? De nouvelles questions de recherche sont-elles posées ? Autant d’interrogations qui nous ont conduits à un travail supplémentaire de réflexion.

Cette réflexion a tout d’abord débouché sur la mise en lumière, encore plus criante, des inégalités que nous avions placées au cœur de notre document posant de façon encore plus explicite la question de l’inclusion numérique. En effet, que ce soit pour l’Éducation nationale, l’Enseignement supérieur et plus généralement pour toutes les formations, dans cette période de crise, la continuité pédagogique les a encore accrues pour des raisons diverses et souvent cumulatives :

Conditions matérielles : la mise en place de cours en ligne a davantage souligné les effets réels de la fracture numérique avec la présence d’un seul ordinateur (voire pas du tout) pour une famille entière et/ou une connexion internet défaillante (voire absente) ;

Perte de soutien : naturellement les élèves en situation d’échec scolaire, d’isolement social et/ou de handicap ont été les plus touchés car le confinement les a emp��chés de bénéficier des soutiens humains qui leur permettaient de compenser – au moins partiellement – leurs difficultés ;

Contexte social : la présence et l’engagement inégal de parents pouvant aider à organiser le travail, à expliquer les consignes et à soutenir les enseignements complexes ont été encore plus déterminants qu’à l’habitude.

Plus largement, le déploiement d’outils pour assurer la continuité pédagogique n’est qu’un prérequis mais il a parfois été considéré comme suffisant pour le retour à un niveau d’enseignement opérationnel, alors que certains élèves (et en particulier des étudiants) se retrouvaient plongés dans un état d’isolement ou de précarité qui leur interdisait de penser à leurs études. Mentionnons également que certains enseignants, s’ils pouvaient envoyer du matériel pédagogique, n’arrivaient pas à retrouver le niveau de contact leur permettant d’identifier des problèmes ; autrement dit, ces outils, souvent conçus comme un accompagnement au présentiel et non pour un enseignement à distance, n’avaient peut-être pas été suffisamment pensés pour procurer des retours, y compris émotionnels voire existentiels, des apprenants.

Le deuxième axe de notre réflexion a été l’analyse (partielle et sûrement imparfaite à cause du recul trop court) du comportement des systèmes numériques liés à l’éducation offerts aux élèves et au monde enseignant. Commençons par les outils et les plates-formes : il nous semble que ce bilan est mitigé. D’une part, des outils préconisés par les structures de formation qui, malgré la très forte implication d’individus tentant de les maintenir à flot, ont connu beaucoup de difficultés et se sont révélés inadaptés dans de nombreuses situations. D’autre part, afin d’assurer une présence pédagogique, beaucoup d’enseignants et d’enseignantes, parfois conseillés par leurs élèves et/ou leurs enfants, ont plébiscité des plates-formes permettant de mettre à disposition des contenus, d’entretenir des échanges, voire de dispenser quelques cours. Enfin, il faut absolument mettre en exergue de très belles initiatives animées par des enseignants et enseignantes afin de pallier les difficultés d’outils ou de contenus peu adaptés aux besoins immédiats.

À partir de cette analyse, le troisième axe de notre réflexion nous a conduits à lister les forces et les faiblesses des usages associés à cet environnement numérique dédié à l’éducation.

– En tout premier lieu, rappelons que la relation forte entre les enseignants et leurs élèves est absolument fondamentale et que les pratiques se bornant à consulter des plates-formes délivrant de façon dépersonnalisée des contenus sont vouées à l’échec à moins que l’élève n’ait une motivation hors du commun. La situation actuelle souligne la nécessité de développer des nouvelles collaborations entre les enseignants, les élèves et les parents pour soutenir l’apprentissage des élèves et fait apparaître le défi de penser les modalités de la formation tant synchrone qu’asynchrone. Mais le fait de développer de nouvelles modalités scolaires en temps et en espace nécessitera une adaptation tant de la part des enseignants que des élèves et de leur famille.

– Ensuite, la nécessité d’un recours massif aux pratiques numériques a souligné le déficit de formation d’une partie du monde enseignant ; on parle ici d’abord de la capacité à concevoir son usage au service d’une pratique pédagogique, ce qui sous-entend aussi la capacité à « faire fonctionner » un logiciel. Cette réflexion entraîne un écho d’abord individuel mais aussi collectif. Une des difficultés pour les élèves a été de s’adapter et de jongler entre les approches très diverses de leurs enseignants : récupérer des consignes sur ProNote, passer de Skype à Discord pour suivre un cours, après être allé récupérer des fichiers pdf ou audio sur Moodle et avoir envoyé une évaluation par e-mail a constitué un redoutable parcours du combattant, souvent hors de portée d’élèves en échec scolaire et/ou en situation de handicap pour lesquels la quasi-totalité des outils est inaccessible. Il ne s’agit pas de critiquer ces décisions prises dans l’urgence mais simplement de les mettre en lumière pour motiver très rapidement une réflexion de fond sur l’accompagnement des pratiques pédagogiques soutenues par le numérique.

– Il faut également insister sur les problèmes importants liés à la souveraineté numérique nationale et européenne face aux géants américains voire asiatiques, notamment en lien à la confidentialité des données personnelles que pose l’utilisation de systèmes présentés comme gratuits mais dont la rentabilité est basée sur la monétisation de ces informations. Même si l’usage de tels outils s’explique, par facilité ou par économie, cela démontre, encore plus fortement en temps de crise, combien manquent des alternatives nationales ou européennes, offrant la sécurité des données comme élément de décision et donc pas uniquement la performance. De manière plus globale, c’est aussi une nouvelle illustration du manque de formation au numérique.  Il est fondamental que le recours à ces systèmes soit très restreint, limité dans le temps et surtout qu’une fois la crise surmontée, de vraies réflexions soient menées et des formations proposées pour savoir choisir les « bonnes » solutions.

– Enfin, et ce n’est pas le moins important, si des enseignants et des formateurs ont su se mobiliser pour développer de belles initiatives, il est crucial que collectivement nous reconnaissions tant les actions que leurs auteurs, et que la société et les institutions commencent rapidement à les soutenir afin d’assurer leur pérennité. On parle ici explicitement d’introduire plus d’agilité (au sens informatique du terme) dans le fonctionnement de l’Éducation nationale afin qu’elle ne reste pas dans le seul modèle descendant (top-down) qui prévaut trop souvent et qui n’est manifestement pas le plus efficace face au besoin d’adaptation dans un contexte de disruption dans les modalités d’apprentissage.

Le passage d’un modèle de formation principalement présentiel à un modèle totalement distanciel, sans transition ni réflexion préalable, a conduit à une adoption massive du numérique pour assurer la continuité pédagogique aux différents niveaux éducatifs. Cette disruption a entraîné l’ensemble des acteurs à l’appropriation des outils numériques, comme les environnements numériques de travail (ENT). Le développement des usages du numérique, même si adoptés en raison de la nécessité liée à la fermeture des centres éducatifs, permet d’envisager pour l’après confinement, des compétences numériques davantage développées qui puissent permettre à un plus grand nombre d’enseignants de considérer les usages du numérique dans leurs pratiques éducatives.

 

Forts de cette réflexion, nous partageons avec les lecteurs de Binaire ce document et espérons que vous aurez autant de plaisir à le découvrir que nous en avons eu à le rédiger.

Gérard Giraudon – Pascal Guitton – Margarida Romero – Didier Roy – Thierry Viéville, avec la participation de Gilles Dowek – Fabien Gandon – Marc Schoenauer et les contributions de Frédéric Alexandre – Francis Bach – Anne Boyer – Bertrand Braunschweig – Marie-Claire Forgue – Martin Hachet – Jean-Marc Hasenfratz – Fabien Lotte – Florent Masseglia – Pierre-Yves Oudeyer – Jean-Baptiste Piacentino – Sophie Raisin – Jil-Jênn VIE.

 

Désinformation en temps de crise : liberté et discipline des plateformes

Nous sommes confrontés à la désinformation sur les réseaux sociaux. Le sujet est tout sauf simple : qu’on modère trop et on porte atteinte à la liberté d’expression ; pas assez, et on laisse les fakenews se propager et mettre en cause les valeurs de notre société. Alors, qui doit dire le vrai du faux et selon quels principes ? Emmanuel Didier, Serena Villata, et Célia Zolynski nous expliquent comment concilier liberté et responsabilité des plateformes. Serge Abiteboul & Antoine Rousseau
Cet article est publié en collaboration avec theconversation.fr.
@SabrinaVillata

L’élection présidentielle aux États-Unis a encore une fois mis la question des fausses nouvelles au cœur du débat public. La puissance des plateformes et notamment celle des réseaux sociaux est devenue telle que chaque événement d’importance engendre depuis quelques temps des discussions sur ce problème. Pourtant, il semble que les analyses produites à chacune de ces occasions ne sont pas capitalisées, comme s’il n’y avait eu ni réflexions, ni avancées au préalable. Nous voudrions montrer ici la pérennité de certaines conclusions auxquelles nous étions parvenues concernant la modération de la désinformation pendant le premier confinement.

Photo Markus Winkler – Pexels

En effet, durant la crise sanitaire engendrée par l’épidémie de SARS-CoV-2, l’isolement des individus en raison du confinement, l’anxiété suscitée par la gravité de la situation ou encore les incertitudes et les controverses liées au manque de connaissance sur ce nouveau virus ont exacerbé à la fois le besoin d’informations fiables et la circulation de contenus relevant de la désinformation (émis avec une claire intention de nuire) ou de la mésinformation (propagation de données à la validité douteuse, souvent à l’insu du propagateur). Les plateformes ont alors très vite accepté le principe qu’il leur fallait modérer un certain nombre de contenus, mais elles ont été confrontées à deux difficultés liées qui étaient déjà connues. Premièrement, ce travail est complexe car toute information, selon le cadre dans lequel elle est présentée, la manière dont elle est formulée ou le point de vue de son destinataire, est susceptible de relever finalement de la mésinformation ou de la désinformation. Deuxièmement, le fait de sélectionner, de promouvoir ou de réduire la visibilité de certaines informations échangées sur les plateformes numériques entre en tension avec le respect des libertés d’information et d’expression qu’elles promeuvent par ailleurs.

Quelles sont donc les contraintes qui s’imposent aux plateformes ? Quelles sont les mesures qu’elles ont effectivement prises dans ces conditions ? Le présent texte s’appuie sur le bulletin de veille rédigé dans le cadre d’un groupe de travail du Comité national pilote d’éthique du numérique (CNPEN)[1] qui nous a permis de mener une dizaine d’auditions (par visioconférence) avec, entre autres, les représentants de Facebook, Twitter et Qwant ainsi que le directeur des Décodeurs du Monde. Il est apparu que les difficultés posées par la modération des fausses nouvelles pouvaient être regroupées en trois catégories. D’une part, celles qui sont associées aux algorithmes, d’autre part celles qui relèvent du phénomène de la viralité et, enfin, celles posées par l’identification et les relations avec des autorités légitimes.

Les algorithmes en question

Bien sûr, les mécanismes de lutte contre la désinformation et la mésinformation développés par les plateformes reposent en partie sur des outils automatisés, compte tenu du volume considérable d’informations à analyser. Ils sont néanmoins supervisés par des modérateurs humains et chaque crise interroge le degré de cette supervision. Durant le confinement, celle-ci a été largement réduite car les conditions de télétravail, souvent non anticipées, pouvaient amener à utiliser des réseaux non sécurisés pour transférer de tels contenus, potentiellement délictueux, ou à devoir les modérer dans un contexte privé difficilement maîtrisable. Or les risques d’atteintes disproportionnées à la liberté d’expression se sont avérés plus importants en l’absence de médiation et de validation humaines, seules à même d’identifier voire de corriger les erreurs de classification ou les biais algorithmiques. En outre, l’absence de vérificateurs humains a compliqué la possibilité de recours normalement offerte à l’auteur d’un contenu ayant été retiré par la plateforme. Ces difficultés montrent clairement l’importance pour la société civile que les plateformes fassent plus de transparence sur les critères algorithmiques de classification de la désinformation ainsi que sur les critères qu’elles retiennent pour définir leur politique de modération, qu’ils soient d’ordre économique ou relèvent d’obligations légales. Ces politiques de modération doivent être mieux explicitées et factuellement renseignées dans les rapports d’activité périodique qu’elles sont tenues de publier depuis la loi Infox de décembre 2018 (v. le bilan d’activité pour 2019 publié par le CSA le 30 juillet 2020[2] et sa recommandation du 15 mai 2019[3]). Plus généralement, il apparait qu’une réflexion d’ampleur sur la constitution de bases de données communes pour améliorer les outils numériques de lutte contre la désinformation et la mésinformation devrait être menée et devrait aboutir à un partage des métadonnées associées aux données qu’elles collectent à cette fin (voir dans le même sens le bilan d’activité du CSA préc.)

La responsabilité de la viralité

Pexels

L’ampleur prise à ce jour par les phénomènes de désinformation et de mésinformation tient à l’accroissement de mécanismes de viralité qui se déploient à partir des outils offerts par les plateformes. La viralité est d’abord l’effet du modèle économique de certains de ces opérateurs, qui sont rémunérés par les publicitaires en fonction des interactions avec les utilisateurs qu’ils obtiennent et ont donc intérêt à générer des clics ou toute autre réaction aux contenus. Elle relève ensuite du rôle joué par leurs utilisateurs eux-mêmes dans la propagation virale de la désinformation et de la mésinformation (que ces derniers y contribuent délibérément ou par simple négligence ou ignorance). La lutte contre la désinformation doit donc nécessairement être l’affaire de tous les utilisateurs, responsables de devenir plus scrupuleux avant de décider de partager des informations et ainsi de contribuer à leur propagation virale. Cette remarque va d’ailleurs dans le même sens que le programme #MarquonsUnePause désormais promu par l’ONU[4]. Mais ceci n’est possible que si les plateformes mettent à disposition de leurs utilisateurs un certain nombre d’informations et d’outils afin de les mettre en mesure de prendre conscience, voire de maîtriser, le rôle qu’ils jouent dans la chaîne de viralité de l’information (voir également sur ce point les recommandations du CSA formulées dans le bilan d’activité préc.). En ce sens, les plateformes ont commencé à indiquer explicitement qu’une information reçue a été massivement partagée et invite leurs utilisateurs à être vigilants avant de repartager des contenus ayant fait l’objet de signalement. Mais il serait possible d’aller plus loin. Plus fondamentalement, il est important que les pouvoirs publics prennent des mesures permettant de renforcer l’esprit critique des utilisateurs, ce qui suppose tout particulièrement que ceux-ci puissent être sensibilisés aux sciences et technologies du numérique afin de mieux maîtriser le fonctionnement de ces plateformes et les effets induits par ces mécanismes de viralité. La création d’un cours de « Science numérique et technologie » obligatoire pour toutes les classes de seconde va dans ce sens[5].

La légitimité

Enfin, troisièmement, si la modération des contenus et le contrôle de la viralité jouent un rôle prépondérant dans le contrôle pragmatique de la désinformation et de la mésinformation, ces opérations ne peuvent, in fine, être accomplies sans référence à des autorités indépendantes établissant, ne serait-ce que temporairement, la validité des arguments échangés dans l’espace public. Sous ce rapport, une grande difficulté provient du fait que les plateformes elles-mêmes sont parfois devenues de telles autorités, en vertu de l’adage bien plus puissant qu’on pourrait le croire selon lequel « si beaucoup de monde le dit, c’est que cela doit être vrai ». Pourtant, les plateformes n’ont bien sûr aucune qualité ni compétence pour déterminer, par exemple, l’efficacité d’un vaccin ou le bienfondé d’une mesure de santé publique. Elles sont donc contraintes de se fier à d’autres autorités comme l’État, la justice, la science ou la presse. Depuis le début de la crise sanitaire, de nombreuses plateformes se sont ainsi rapprochées, en France, de différents services gouvernementaux (en particulier du Secrétariat d’État au numérique ou du Service d’information du gouvernement). Pourtant, dans le même temps, elles se sont éloignées d’autres gouvernements, comme en atteste leur modération des contenus publiés par Jamir Bolsonaro ou Donald Trump. En l’occurrence, on peut légitimement se réjouir de ces choix. Ils n’en restent pas moins arbitraires dans la mesure où ils ne reposent pas sur des principes explicites régulant les relations entre les plateformes et les gouvernements. À cet égard, une réflexion d’ensemble sur la responsabilité des plateformes ainsi que sur le contrôle à exercer s’agissant de leur politique de modération de contenus semble devoir être menée. À notre sens, ce contrôle ne peut être dévolu à l’État seul et devrait relever d’une autorité indépendante, incluant les représentants de diverses associations, scientifiques et acteurs de la société civile dans l’établissement des procédures de sélection d’informations à promouvoir, tout particulièrement en période de crise sanitaire.

Emmanuel Didier, Centre Maurice Halbwachs, CNRS, ENS et EHESS
Serena Villata, Université Côte d’Azur, CNRS, Inria, I3S
& Célia Zolynski Université Paris 1 Panthéon-Sorbonne, IRJS DReDIS

[1] Comité national pilote d’éthique du numérique, Enjeux d’éthique dans la lutte contre la désinformation et la mésinformation. Bulletin de veille n°2, Juillet 2020. https://www.ccne-ethique.fr/sites/default/files/cnpen-desinformation-v2020-10-01.pdf

[2]https://www.csa.fr/Informer/Toutes-les-actualites/Actualites/Lutte-contre-les-infox-le-CSA-publie-son-premier-bilan

[3] https://www.csa.fr/Reguler/Espace-juridique/Les-textes-reglementaires-du-CSA/Les-deliberations-et-recommandations-du-CSA/Recommandations-et-deliberations-du-CSA-relatives-a-d-autres-sujets/Recommandation-n-2019-03-du-15-mai-2019-du-Conseil-superieur-de-l-audiovisuel-aux-operateurs-de-plateforme-en-ligne-dans-le-cadre-du-devoir-de-cooperation-en-matiere-de-lutte-contre-la-diffusion-de-fausses-informations

[4] https://news.un.org/fr/story/2020/10/1080392

[5]https://www.ac-paris.fr/portail/jcms/p2_1881839/nouvel-enseignement-sciences-numeriques-et-technologie

Les IA comprennent-elles ce qu’elles font ?

Omniprésente dans les médias depuis quelques années, l’intelligence artificielle est décrite tantôt comme l’avenir de l’humanité, tantôt comme sa fossoyeuse. Nous reprenons un article de Fabien Gandon consacré à la notion d’intelligence et publié par The Conversation. Thierry Viéville.
Les IA ne saisissent pas les finalités, les conséquences et le contexte de ce qu’on leur demande.
studiostoks / shutterstock

Que ce soit dans vos choix de séries TV à regarder, dans l’analyse de vos résultats médicaux, dans vos rencontres amoureuses, dans l’attribution de votre prêt ou dans les réglages de vos prises de photos – les IA mettent leur grain de sel partout. Ce qui rend peut-être d’autant plus surprenante la réponse à cette question : non, aujourd’hui, les IA ne comprennent pas ce qu’elles font.

Par contre, décomposer la question et détailler la réponse permet de soulever beaucoup de problèmes, d’ambiguïtés et d’enjeux de l’« intelligence » artificielle. « Intelligence » avec des guillemets, car les méthodes actuelles sont essentiellement des simulations très spécifiques et convaincantes, sur lesquelles nous projetons beaucoup plus que ce qu’elles renferment réellement, à commencer par cette impression de compréhension. Il est difficile de savoir si, dans le futur, les IA continueront à ne pas comprendre. Mais, en l’état des connaissances, la réponse est « non »… jusqu’à preuve du contraire.

Si on parcourt des dictionnaires, on peut lire que « comprendre », c’est saisir le sens, les finalités, les causes et conséquences, les principes. Comprendre quelque chose, c’est recevoir ou élaborer une représentation de cette chose, c’est s’approprier une conceptualisation reçue ou construite, qui permettra notamment de produire un comportement intelligent.

Du Graal de l’« IA forte » à la réalité de l’IA

Pour ce qui est des intelligences artificielles, une première catégorie est celle de l’« IA forte » ou « généralisée » : un seul et même système qui serait capable d’apprendre et d’effectuer tout type d’activité intelligente. Un tel système n’existe pas à ce jour et donc, pour ce cas, la question est close. On peut tout de même remarquer au passage que l’une des distinctions parfois faites entre « IA forte » et « IA faible » est justement la capacité de comprendre et d’être conscient.

Un système d’« IA faible » est un système conçu par l’humain pour simuler de la façon la plus autonome possible un comportement intelligent spécifique. En l’état actuel de la recherche, c’est l’homme qui produit le système artificiel qui va simuler un comportement intelligent – ce n’est pas une intelligence artificielle qui, par sa compréhension, créerait son propre comportement. En IA faible, l’homme choisit la tâche pour laquelle on a besoin d’automatiser un comportement intelligent, les données qu’il fournit au système et leurs représentations informatique, les algorithmes utilisés pour simuler ce comportement (par exemple, un réseau de neurones spécifique), les « variables de sorties » ou les objectifs qu’il attend du système (par exemple, différencier les chats des chiens) et la façon dont ils seront intégrés à une application (par exemple, trier automatiquement les photos sur votre téléphone). La méthode d’IA faible ne comprend pas le contexte dans lequel elle est exécutée, ni de ce que ces différents aspects choisis par l’homme représentent.

Il existe beaucoup d’approches et de méthodes différentes pour produire des systèmes d’IA faible, mais elles partagent toutes cette absence de compréhension.

Différentes méthodes d’IA faible, dont aucune ne saisit la signification de ses calculs

On peut différencier différents systèmes d’IA faible par les données sur lesquelles ils travaillent, par exemple un texte, un graphe de connaissances, des vidéos ou un mélange de différents types de données.

Les systèmes d’IA faible se différencient aussi par les techniques qu’ils utilisent. On peut citer par exemple d’une part les réseaux de neurones pour apprendre de façon plus ou moins supervisée par un humain, d’autre part des « systèmes experts » pour déduire de nouvelles connaissances en utilisant un moteur d’inférence à partir de connaissances établies, ou encore des « systèmes multi-agents » pour simuler des comportements sociaux. Dans toutes ces méthodes, les buts sont fixés par l’humain, ainsi que l’évaluation des performances de l’IA.

Prenons l’exemple de différentes approches d’apprentissage automatique. Dans l’apprentissage supervisé dit « actif », l’IA est capable de solliciter d’elle-même des exemples à lui fournir pour améliorer son apprentissage, mais sans compréhension de ce qu’elle fait au-delà de cette optimisation. Dans le cas de l’apprentissage « non supervisé », l’humain ne fixe pas exactement les catégories de sorties attendues, mais le but reste fixé : il s’agit de découvrir des structures sous-jacentes à des données – l’IA propose d’elle-même des regroupements, mais elle est pilotée par des fonctions d’évaluation de ses performances qui sont fixées par son concepteur. Il en va de même pour l’apprentissage par renforcement dont le principe consiste à répéter des expériences pour apprendre les décisions à prendre de façon à optimiser une récompense, décidée par l’humain, au cours du temps.

Un autre exemple concerne la branche de l’IA qui ne s’intéresse pas à l’apprentissage, mais à l’inférence. Le composant central, dit « moteur d’inférences » cherche à déduire un maximum de conclusions à partir des connaissances qu’on lui fournit. Dans cette approche, la capacité intelligente que l’on souhaite simuler est essentiellement une forme de raisonnement. Mais ici encore, les inférences à faire et les méthodes utilisées sont déterminées par le concepteur et restent complètement en dehors du champ de vision et d’action du système : l’IA ne comprend rien à son contexte, elle simule des inférences ciblées.


À lire aussi :
Comment motiver une IA ?


Une métaphore utilisée pour cette situation est celle de la chambre chinoise de Searle  : une personne non sinophone est enfermée dans une pièce et fait illusion quant à sa capacité de comprendre et de s’exprimer en chinois, car elle répond à des questions inscrites sur des papiers reçus de l’extérieur uniquement à l’aide d’un livre indiquant quelle réponse donner à quelle question. Comme notre captif, les méthodes d’IA faible n’ont aucun accès à la signification de leur tâche, aucune mise en contexte. Cette simulation d’un comportement spécifique ne vient pas avec tout le reste des capacités que nous mobilisons à chaque instant et dans lequel notre comportement intelligent s’inscrit.

Sommes-nous dupes de notre propre farce ?

Le danger de l’IA c’est que lorsqu’elle simule assez bien une forme de comportement intelligent, on peut projeter beaucoup de choses sur elle, bien au-delà de ce qu’elle fait réellement. En particulier, on peut lui prêter une compréhension ou d’autres traits qu’elle n’a pas comme nous allons l’illustrer.

Prenons l’exemple des leurres conversationnels qui sont de petits systèmes très simples dont le seul but est de relancer la conversation pour que nous continuions à parler au système sans aucune compréhension de sa part. Le plus ancien et le plus connu est le chatbot Eliza qui dans les années 60 singeait une séance de psychothérapie avec des modèles de phrases toutes faites comme « et comment vous-sentez vous à propos de […] ? ». Plus récemment le chatbot vocal peu sophistiqué Lenny utilise juste un ensemble de phrases préenregistrées afin de faire parler le plus longtemps possible une personne vous appelant pour du démarchage par téléphone. Eliza et Lenny montrent comment un programme simpliste peut nous duper : par conception, le programme ne comprend rien, mais l’utilisateur va se comporter, interagir et finir même par croire qu’il comprend.

Ce sont là moins des démonstrations de prouesses d’intelligence artificielle que des preuves des limites de l’intelligence humaine et ces limites peuvent participer à faire qu’une IA, même « faible », soit dangereuse. On voit des soldats-démineurs s’attacher à leurs robots-démineurs au point d’interroger sur leur capacité à accepter de les mettre en danger alors que leur raison d’être est celle d’artefacts que l’on souhaite sacrifier à la place d’humains.

C’est parce qu’elle semble agir comme si elle était intelligente que nous projetons sur elle des caractéristiques qu’elle n’a pas, et que nous commençons à lui donner une place qu’elle ne devrait pas forcément occuper – ou du moins, pas seule.

Pourquoi l’absence de compréhension est-elle une limitation très importante pour nos utilisations de l’IA ?

Plus que de s’inquiéter de ce que les IA comprennent trop, il faudrait s’inquiéter de ce que les humains ne comprennent pas assez : les biais des données et des algorithmes, l’impact sur la société d’une gouvernementalité algorithmique, etc.

De plus, alors que les chatbots Eliza et Lenny « dupent » les humains, l’expérience du détournement du chatbot Tay de Microsoft montre ce qui se passe quand quelques humains peuvent retourner la situation. Ils comprennent comment la simulation d’intelligence fonctionne et utilisent cette compréhension contre elle pour manipuler l’IA, l’influencer et la dévier du but pour lequel elle était conçue, mais qu’elle ne comprend pas – la laissant incapable de comprendre son propre détournement (un prérequis pour le corriger).

Un autre danger actuel est celui d’un usage criminel de l’IA faible que ce soit en cybercriminalité ou en manipulation de masse sur des médias sociaux.

Le documentaire de Netflix sur l’affaire Cambridge Analytica.

Mais surtout, il est très dangereux actuellement de laisser des IA qui ne comprennent absolument pas ce qu’elles font aux commandes de systèmes dans lesquels les humains ne réalisent plus ce qui se passe, soit parce qu’ils n’ont pas su identifier les implications de leur système, soit parce que celui-ci commet des erreurs non détectées ou à une vitesse bien au-dessus de nos temps de réaction d’humains (par exemple, des algorithmes de « flash trading »).


À lire aussi :
Peut-on faire confiance aux IA ?


Les « bulles de filtrage » qui se forment autour de nous lorsque nous ne voyons plus du Web que ce que nos applications nous recommandent, les suggestions racistes parce que personne n’avait détecté les biais des données, l’exposition à des nouvelles déprimantes pour vendre des voyages sont autant d’exemples de dérives de systèmes d’IA faible qui ne savent qu’optimiser leurs objectifs sans comprendre ce qu’ils font et, a fortiori, les dégâts qu’ils causent. Et ne parlons pas à nouveau des cas où leurs concepteurs sont mal intentionnés : ne comptez pas sur l’IA faible pour comprendre que ce qu’elle fait est mal.

Une combinaison particulièrement dangereuse actuellement est donc celle d’une IA faible (par exemple, un système de recommandation) déployée dans une application ayant énormément d’utilisateurs (par exemple, un grand réseau social) et prenant des décisions à une vitesse bien au-delà de notre temps de réaction d’humain. Car de la même façon que les intelligences artificielles faibles peuvent produire des résultats très impressionnants, une bêtise artificielle (même faible) peut produire des dégâts énormes.

Ainsi, c’est précisément parce que les IA ne comprennent pas que nous ne devons pas leur donner des responsabilités pour lesquelles il est vital de comprendre. C’est aussi pour cette raison que développer les capacités d’explication des IA est actuellement un enjeu majeur. Et, si les chercheurs utilisent parfois la métaphore de la chambre chinoise de Searle pour souligner le manque de compréhension de la machine, il semble aussi important que nous soyons vigilants à ce que la complexité, l’opacité et la vitesse des systèmes que nous concevons ne nous enferment pas à notre tour dans cette chambre d’incompréhension.The Conversation

Fabien Gandon, Research Director, Inria

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Ne soyez pas durs avec les robots

La robotique déformable est un domaine de recherche prometteur et surprenant par la diversité des champs d’applications qu’il concerne. Eulalie Coevoet, ingénieure R&D à l’Université de Naples Federico II, a reçu le prix de la meilleure thèse du GDR Robotique qui récompense de jeunes scientifiques dont les travaux ont permis une avancée de la recherche par des contributions au progrès des connaissances scientifiques et/ou aux innovations techniques en robotique. Dans la série Il était une fois ma thèse, Eulalie nous présente les travaux de sa thèse soutenue en 2019 au sein de l’équipe de recherche Defrost d’Inria Lille.
Marie-Agnès Enard et Pascal Guitton.

Dans l’imaginaire collectif, un robot est fait de métal, et prend souvent la forme d’un humanoïde ou d’un bras robotisé sur une chaîne industrielle. La robotique déformable casse les codes de la robotique rigide traditionnelle avec des mouvements d’un nouveau genre et des formes atypiques, souvent inspirés d’animaux tels que la pieuvre, la méduse, le serpent, la chenille etc. Un robot déformable (ou robot souple) est fabriqué à partir de matériaux flexibles, comme le silicone, le plastique, ou encore les tissus et papiers. Par définition, ces robots créent le mouvement en déformant leur structure (à l’aide de câble, ou de pression dans des cavités par exemple), en contraste avec les robots classiques qui basent leurs mouvements sur des mécanismes d’articulations. En plus d’élargir le champ des possibles en termes de mouvements, l’utilisation de ces types de matériaux à l’avantage de rendre ces robots plus sûrs pour les objets ou personnes avec qui ils interagissent. Comme par exemple pour la robotique chirurgicale.

Ce pan de la robotique est jeune d’une trentaine d’années. La recherche dans ce domaine est aujourd’hui très active et vient soulever des problématiques dans le design, la fabrication, et le pilotage des robots. C’est ce dernier sujet sur lequel je me suis penchée pendant ma thèse. En effet, la modélisation des mouvements d’un robot déformable est complexe. Dans le cas des robots traditionnels articulés, l’actionnement (rotation d’axe par exemple) qui amène le robot à une forme cible, peut être déduit de la seule géométrie du robot, c’est-à-dire des articulations et des parties rigides entre les articulations. Ce n’est pas aussi simple pour un robot déformable notamment parce que les propriétés mécaniques des matériaux qui le constituent jouent un rôle très important dans ses mouvements. Par exemple, si on applique une même pression dans deux ballons d’élasticité différente, la forme finale des deux ballons ne sera pas la même. De la même manière si on gonfle un ballon entre deux parois étroites, la forme finale du ballon ne sera pas la même qu’à l’air libre. Tous ces phénomènes doivent être pris en compte pour pouvoir piloter efficacement un tel robot.

@EC

Dans ma thèse je propose donc des solutions pour le pilotage de robot déformable qui prennent en compte les effets des obstacles sur les mouvements du robot. Les autres solutions qui existent aujourd’hui sont généralement peu performantes quand le robot interagit avec son environnement, or c’est le cas dans la plupart des applications. Les algorithmes que je propose dans ma thèse se basent sur la modélisation et la simulation du robot et de son environnement, à l’aide entre autres de la méthode des éléments finis. Cette méthode très connue en analyse numérique, repose sur une représentation des objets en petits éléments géométriques (par exemple des tétraèdres en 3D); les calculs nécessaires à la simulation sont ensuite réalisés en chaque sommet des éléments.  Je propose également d’étudier les problématiques de leur actionnement et des contacts en m’appuyant sur le concept de résolution de problème d’optimisation sous contraintes. On entend par là le fait d’optimiser leur actionnement pour atteindre une cible, alors même que le robot est contraint par les objets qui l’entourent. La problématique principale de ma thèse a été de proposer des algorithmes peu coûteux en calcul, afin de pouvoir piloter ces robots en temps réel, et dans un environnement changeant.

@EC

J’ai pu démontrer durant ma thèse que les méthodes que je propose sont applicables à un large type de robots, c’est-à-dire avec des géométries et actionnements différents. Le développement de ces nouvelles techniques pour le pilotage est important pour la création de robots de plus en plus complexes, et aux capacités de plus en plus riches.

Eulalie Coevoet

Raconte-moi un algorithme : on peut se passer des patrons

En 2020, chaque mois, Charlotte Truchet et Serge Abiteboul nous racontent des histoires d’algorithmes. Des blockchains aux algorithmes de tri en passant par le web, retrouvez tous leurs textes, ainsi que des petits défis mathématiques, dans le Calendrier Mathématique 2020 et dans la série binaire associée… Antoine Rousseau

Décembre : On peut se passer des patrons

 

Un algorithme superbe scientifiquement peut avoir un intérêt social contrasté. C’est le cas de l’algorithme blockchain (chaîne de blocs) inventé vers 2008 par un informaticien connu sous le nom de Satoshi Nakamoto.
Cet algorithme permet de maintenir un registre numérique unique de transactions sans aucune autorité centrale. N’importe qui peut lire le registre, écrire dedans, ou même maintenir localement une copie du registre. La garantie que la réalisation des transactions est correcte est obtenue collectivement. Le problème est d’arriver à assurer que les copies restent identiques. Plus précisément, on veut éviter que Bob puisse acheter sur une des copies du registre une pomme à Alice avec tout l’argent qu’il possède, et, en même temps, échanger cet argent contre une orange avec Suzanne. La solution de Nakamoto est de décider à un instant particulier quelle
est la copie de référence unique ; elle seule a le droit de rajouter un bloc de transactions. L’algorithme résout ainsi un des problèmes les plus complexes d’algorithmique distribuée : le problème du consensus, qui consiste à élire un membre parmi une communauté de pairs.
Pour devenir patron pour un instant, un pair doit résoudre un problème supercomplexe, comme un sudoku gigantesque. Le premier pair ayant trouvé la solution gagne le droit d’enregistrer la transaction, ce qui est rémunéré. Le problème étant complexe, il est quasi impossible que deux pairs le résolvent en même temps. La victoire doit être reconnue par le plus grand nombre de pairs et ceci force Bob à attendre un certain temps avant de manger la pomme.
Cette technologie s’est d’abord fait connaître avec une cryptomonnaie, le bitcoin, un mécanisme monétaire tout à fait fonctionnel, sans autorités centrales. Comme tout
se fait anonymement, des bitcoins sont utilisés, entre autres, sur le dark web.
La résolution de ce problème nécessite une puissance de calcul informatique énorme. L’avantage social de pou- voir se passer d’une autorité de gestion du registre se paie avec un coût écologique discutable.
Scientifiquement, l’algorithme blockchain pose des défis fantastiques à l’algorithmique : on continue à chercher des algorithmes de blockchain peu coûteux en énergie, ajouter des preuves que ces algorithmes ne sont pas buggés, réfléchir à d’autres utilisations comme les smart contracts qui simplifient les échanges commerciaux entre des entreprises sans avoir à choisir de leader ni à fixer à l’avance de liste de participants, etc.

Serge Abiteboul et Charlotte Truchet