Neurosmart, une histoire de cerveau et de passionnés

Comment expliquer au mieux au grand public, aux étudiantes et étudiants, mais aussi à d’autres collègues chercheurs, notre métier de chercheuses et chercheurs ? Comment expliquer le lien entre les neurosciences, la cognition et l’informatique de manière la plus accessible à chacune et chacun, quel que soit le niveau de connaissance dans ces domaines ? Ikram Chraibi-Kaadoud nous propose une réponse. Thierry Viéville.

Fiche d’identité du projet

 

La passion de la cognition : Ode au cerveau, chef d’orchestre !

Les sciences cognitives sont une science de sciences : elle consiste en l’étude et la compréhension des fonctions cognitives tel que la mémoire, le langage, les fonctions exécutives, les fonctions visuo spatiale et le langage. Autrement dit, les sciences cognitives s’intéressent à nous, humains !

C’est une science regroupant entre autres des neurosciences, de la psychologie, de l’anthropologie, de la linguistique et bien sur l’informatique.

Ce dernier domaine permet de créer des modèles artificiels s’inspirant du fonctionnement biologique du cerveau, on parle alors de neurosciences computationnelles, ou du fonctionnement cognitif, on parle alors de modélisation de la cognition.

En tant qu’humain nous sommes de plus en plus intéressés par la compréhension de notre soi profond, de ce qui fait de nous, ce que nous sommes. Depuis l’antiquité, nous nous sommes toujours intéressé à essayer de comprendre l’humain, démystifier nos idées reçues sur ce sujet, et plus précisément étudier cet organe qu’est le cerveau. Il a fallu d’abord comprendre que le siège de la pensée était dans la tête (et non dans le cœur comme le pensait, par exemple, Aristote), puis avancer l’hypothèse avec le siècle des lumières, que la pensée se décomposait en fonctions (on parle aujourd’hui de fonctions cognitives), qui se retrouvaient dans différentes parties du cerveau, tandis qu’au niveau philosophique les liens entre matière et esprit de Descartes aux premiers matérialistes et empiristes, était un grand sujet de réflexion, qui commencera à se clarifier avec la révolution scientifique du XIXème siècle et en particulier la possibilité de mesurer l’activité neuronale.

Or il existe une grande difficulté lorsque la chercheuse passionnée que je suis, cherche à expliquer à ses étudiants ou au grand public ce qu’est la modélisation de la cognition et comment peut-on passer de l’humain à une machine (par exemple pour simuler, afin de valider les modèles proposés), tant les concepts associés peuvent paraître abstraits ou incompréhensibles.

En effet, en communication, il est estimé qu’il existe une différence entre le message émis, celui entendu et celui assimilé. Autrement dit, en temps normal il est parfois difficile d’éviter les incompréhensions et les malentendus, alors imaginez lorsqu’il s’agit de sujets complexes comme la cognition !

Mais au-delà de cela, lorsqu’il n’y a pas de connaissances communes d’un milieu, on parle alors de représentation des connaissances partagées (par le vécu ou l’expérience), il est encore plus difficile d’expliquer. Imaginez expliquer à quelqu’un qui n’a jamais vu ou utilisé de micro-ondes, qu’il existe une machine capable de chauffer vos plats en un instant et que la pression de boutons différents, aboutira à un résultat différent (décongélation, changement de poids, lancement de 30s de chauffage etc) 2. Voyez-vous c’est compliqué… et cela à moins de lui montrer ce qu’est un micro-onde et de lui en faire une démonstration.

Nous, chercheurs, développeurs, individus de tout horizon, passionnés par la cognition, le cerveau, les neurosciences, en bref passionnés d’humain, nous sommes posés la même question : comment expliquer au mieux au grand public, aux étudiantes et étudiants, mais aussi à d’autres collègues chercheurs, notre métier ? Comment expliquer le lien entre les neurosciences, la cognition et l’informatique de manière la plus accessible à chacune et chacun, quel que soit le niveau de connaissance des domaines ?

Après des heures de labeur, de réflexions, d’ateliers et d’échanges passionnés, nous sommes heureux de vous présenter (non sans une pointe de fierté avouons-le) Neurosmart !!

Un lien entre la cognition et les neurosciences à travers de la 3D

 

Interaction, visualisation et pédagogie sont les mots clés décrivant Neurosmart. Outil de pédagogie alliant contenu, textuel, image ou vidéo et modélisation 3D du cerveau, Neurosmart est un logiciel disponible sur une plateforme web qui a pour but d’offrir plusieurs scénarios ludiques présentant la sollicitation de fonctions cognitives dans différents contextes. Le but de cet outil est de démystifier le fonctionnement cérébral associé à certaines fonctions cognitives dans différents scénarios.

Par exemple, que se passe-t-il lorsqu’on a peur ? Comment notre cerveau explore-t-il l’espace visuel ? Quels réseaux s’activent lors de la compréhension du langage ? Autant de situations que l’on vit au quotidien de manière instantanée et naturelle sans réellement y penser, or notre cerveau répond efficacement à chaque fois !

Ainsi si vous vous posez ces questions, jouez avec Neurosmart et même plus, participez-y !

Ouvert à la contribution de tous, cet outil initié par des passionnés scientifiques et de tous horizons, se veut accessible, évolutif et surtout participatif. Vous souhaitez en savoir plus sur un scénario que vous vivez au quotidien ? Alors rejoignez-nous, appropriez-vous le sujet et proposez votre propre scénario !

Seul ou ensemble, participons à la construction d’un savoir faire par tou.te.s, accessible pour tou.te.s, car après tout l’humain n’est-il pas l’affaire de chacun.e d’entre nous, non ? 😉

Concrètement, comment ça fonctionne ? 

Il s’agit d’un site web où il est possible de visualiser plusieurs scénarios. Un scénario est le nom donné à une situation particulière que vit un individu et pour laquelle ses fonctions cognitives vont être sollicitées pour pouvoir y réagir.

Ce n’est pas clair, regardez la vidéo qui suit !

Une vidéo de démonstration plus étoffée est disponible aux liens suivants :

En francais : https://www.youtube.com/watch?v=2i7ut6yFNHs

En anglais : https://youtu.be/58JB0yR3-Bc

L’idée de Neurosmart est donc de :

  1. Décortiquer une série d’actions réalisée par un personnage dans une situation donnée
  2. Associer visuellement neurosciences et sciences cognitives en explicitant pour chaque action les structures cérébrales qui sont impliquées et mettre en avant cela par une visualisation 3D dynamique (c’est littéralement le cerveau qui s’illumine au sens propre du terme !)
  3. Expliquer textuellement les mécanismes cognitifs, qui interviennent dans les actions et les interactions entre les structures cérébrales par du texte.
  4. Enfin dernier point, mais pas des moindres, permettre de fouiller la représentation 3D du cerveau en le manipulant. A tout moment, vous pouvez zoomer, déplacer et changer l’orientation du cerveau afin de mieux visualiser comment les structures cérébrales s’agencent entre elles!

Notre fierté est que vous pouvez tous rejoindre les rangs des autrices et auteurs de scénarios, voire même des développeurs !

En effet, le code et l’ensemble des sources sont disponibles sur un gitlab ouvert à tous !

Vous pouvez même proposer à vos amis non-francophones de proposer des scénarios ensemble, puisque Neurosmart est multilingue ! Le scénario “How to catch a fight on time? “ a justement été réalisé par un collègue anglophone !

Que retenir?

Neurosmart est l’idée farfelue née du souhait de partager autour d’une passion commune : le cerveau ! C’est un site web doté d’un module 3D qui permet de visualiser des personnages en situation et de comprendre quels sont les processus cognitifs et cérébraux qui interviennent dans ces situations. Le cerveau s’illumine, tourne, et on peut interagir avec à souhait !

Ce projet a permis la collaboration de chercheurs en IA, en neurosciences computationnelles, en modélisation de la cognition, de chercheurs en neurosciences, de chef·fe·s de projet, de développeur·e·s web, de stagiaires, doctorants et bien d’autres passionnés d’horizons divers et variés…

Vous êtes les bienvenues pour nous rejoindre, car en science et en médiation c’est tous ensemble que nous irons plus loin!

Ikram Chraibi Kaadoud avec la complicité de Martine Courbin & Thierry Viéville.  Ont contribué à ce projet : Frédéric Alexandre, Denis Chiron, Ikram Chraibi-Kaadoud, Martine Courbin, Snigdha Dagar, Thalita Firmo-Drumond, Charlotte Héricé, Xavier Hinaut, Bhargav teja Nallapu, Benjamin Ninassi, Guillaume Padiolleau, Silvia Pagliarini , Sophie de Quatrebarbes, Nicolas Rougier, Remya Sankar, Antony Strock, Thierry Viéville.

Ce projet a été co-financé par la Fondation Blaise Pascal*, le Réseau néo-aquitain de culture scientifique et la médiation scientifique Inria.

(*) La fondation Blaise Pascal  a pour vocation de promouvoir, soutenir, développer et pérenniser des actions de médiation scientifique en mathématiques et informatique à destination de toute citoyenne et citoyen français, sur l’ensemble du territoire. Ses actions se portent plus particulièrement vers les femmes et les jeunes défavorisés socialement et géographiquement, et ce dès l’école primaire. Nous en reparlerons su binaire.

En savoir plus sur Neurosmart :

https://mnemosyne.gitlabpages.inria.fr/neurosmart/presentation.html

Fichiers sources et documentation  :: https://gitlab.inria.fr/mnemosyne/neurosmart

Des idées, des questions, des projets autour de neurosmart, n’hésitez pas :  mecsci-accueil@inria.fr

 


1 https://fr.wikipedia.org/wiki/Histoire_de_la_connaissance_du_cerveau

De quoi sont réellement coupables les réseaux sociaux ?

Nos usages des réseaux sociaux font l’objet de nombreux débats et deviennent en soi des sujets de société. Isabelle Collet, informaticienne, enseignante-chercheuse à l’université de Genève et romancière française apporte son éclairage sur la face cachée de ces réseaux et les comportements qu’ils génèrent. A partager sans modération.
Marie-Agnès Enard .

Photo Roman Odintsov – Pexels

Récemment est sorti sur Netflix un document qui a fait du bruit : « Derrière nos écrans de fumée » réalisé par Jeff Orlowski. Le documentaire mêle des témoignages de cadres supérieurs des GAFAM à des scènes de fiction avec des membres d’une famille qui utilisent (trop) les réseaux sociaux. Dans la fiction, ces réseaux sont incarnés par 3 geeks sans scrupules dans un centre de contrôle qui monitorent les interactions de la famille et influencent les comportements de ses membres.

Ce documentaire est loin de m’avoir convaincue. Le fait que les réseaux sociaux cachent des mécanismes qui tentent de vous rendre accro afin de vous soutirer le plus d’informations personnelles possible est maintenant devenu un secret de polichinelle. Écouter pendant de longues minutes de riches repentis expliquer qu’ils voulaient vraiment rendre le monde meilleur donne le sentiment qu’on regarde un épisode raté de la série parodique Silicon Valley dans laquelle la phrase « Make the world a better place » revient sans arrêt. Ces anciens cadres sup viennent faire leur Mea culpa : ils se sont trompés. Eux-mêmes sont devenus accros à leur création, vivaient à travers Pinterest ou Instagram, et c’était l’enfer. Alors, si même eux, les créateurs géniaux, se sont fait piéger, vous et moi n’aurions aucune chance d’y échapper. Logique spécieuse pourtant : contrairement à eux, nous, utilisateurs et utilisatrices de ces applis, ne pensons pas qu’elles ont été créées pour le bien de l’humanité. À ce titre, nous sommes capables de les utiliser tant qu’elles nous servent (certes en offrant nos données aux GAFAM), mais sans nécessairement offrir chaque seconde de nos vies. Ce n’est pas parce que nous sommes moins « géniaux » que nous sommes moins lucides.

Enfin, dans ce reportage, la manière de mêler science-fiction et témoignages m’a paru malhonnête… ou disons : très efficace pour semer la panique, mais aussi pour brouiller les faits… ce qui est quand même un comble quand on prétend dénoncer les méfaits des espaces virtuels.

À l’autre bout du spectre, nous avons The Game d’Alessandro Baricco dont j’ai déjà parlé sur binaire. Suite à la remise du prix de l’essai européen par la Fondation Veillon, on lui a demandé lors de la table ronde ce qu’il pensait de ce documentaire (https://youtu.be/zK0LcfJbfx). Le moins qu’on puisse dire, c’est qu’il a réaffirmé sa position ultra technophile en déclarant avoir été énervé par ce documentaire rétrograde et obscurantiste. Il fut un temps, dit-il, où on a déconseillé les romans aux femmes de peur que les histoires soient trop puissantes et que ça les entraine à négliger leur intérieur. Selon lui, c’est le même procès qu’on fait actuellement aux réseaux sociaux.

Finalement, l’analyse posée et étayée des réseaux sociaux que je rêvais de lire se trouve dans un média suisse appelé Heidi News qui propose des « Explorations », c’est-à-dire des dossiers thématiques. « Votre cerveau a été piraté » est un dossier réalisé par Gea Scancarello qui parle spécifiquement de l’addiction au numérique.

Les réseaux sociaux sont-ils vraiment ces avatars du mal décrits par le reportage de Netflix ? L’ironie étant que Netflix est tout de même une Wannabe GAFAM qui fantasme d’avoir aussi un tel pouvoir sur les cerveaux… Le numérique est vraiment aussi bénéfique et avant-gardiste que nous le présente Baricco ? Ou sommes-nous les pantins lobotomisés des GAFAM ?

Tout d’abord, il est important de réajuster les termes : utiliser beaucoup son téléphone, ce n’est pas forcément de l’addiction.

Comme le dit Daphnée Bavelier, Professeur de psychologie à l’université de Genève, parler de « temps d’écran » (et a fortiori de réduire son temps d’écran) n’a aucun sens. C’est comme si vous évaluiez la nourriture que vous consommez uniquement à son poids : 5 kg de laitue ne fera pas le même effet à votre corps que 5 kg de chips. Il faut aussi définir ce qu’est un écran. Une amie enseignante me racontait que pendant le premier confinement, un de ses élèves de 4e s’est déclaré complètement perdu et paniqué devant l’ordinateur. Sa mère a reconnu qu’elle avait à tout prix cherché à le « protéger des écrans ». À l’heure de l’école à distance, cet enfant de classe moyenne, dont les parents savaient évidemment utiliser un ordinateur, était incapable d’envoyer un mail, d’enregistrer un lien internet ou de naviguer dans un répertoire de fichier.

Regarder toute la journée des vidéos youtube, ce n’est pas mettre en page sur traitement de texte… et ce n’est pas dans l’usage de la bureautique qu’on trouve l’addiction. Mais quand est-on vraiment accro ? Et comment le devient-on ?

Voilà ce que nous dit l’Exploration de Gea Scancarello :

« Les authentiques addicts sont ceux dont la vie réelle – ou du moins certain de ses aspects – est conformée par le numérique. Tout le reste est qualifié d’usage problématique. On ne parle pas du temps passé sur les écrans. Ma meilleure définition de l’addiction numérique est l’incapacité à générer naturellement du bonheur, parce que le bonheur dépend toujours de la réaction d’un autre » dit Sanaibou Cham, du Bournemouth University’s Research Center for Digital Addiction.

Les applications numériques jouent sur notre besoin de reconnaissance sociale, et celle-ci est régulièrement alimentée avec les notifications. La crainte de manquer de reconnaissance sociale est une émotion puissante, elle s’accompagne de la FoMO, fear of missing-out, un syndrome défini comme l’appréhension envahissante que les autres sont en train de vivre quelque chose de gratifiant sans vous. Évidemment, les médias sociaux, et en tête Instagram, vous incitent sans cesse à être en phase avec les autres et à l’affut de ce qu’ils et elles font. Donc on poste (ou on transfère) du contenu et on attend les likes, pour avoir une confirmation que sa vie vaut de la reconnaissance. La dopamine est sécrétée par le cerveau par de nombreuses manières, mais l’une de ces manières est liée à la composante motivationnelle du comportement lié à la récompense. L’industrie numérique stimule cette production de dopamine via des récompenses et gratifications instantanées que sont les likes, cœurs et notifications. Les personnes addicts en veulent plus, comme au casino ou en jouant à des jeux vidéo : elles ont besoin des likes pour que leur vie ait de la valeur (même quand elles ont juste transféré une vidéo de chaton faite d’un inconnu… ou un morceau de la vie d’une célébrité numérique).

L’addiction c’est quand le bonheur ne peut être généré que par ces likes.

Photo Cristian Dina – Pexels

L’étape suivante, c’est l’application qui veut être votre amie : on tape un mot et l’algorithme finit nos phrases (google mail le fait déjà). Bientôt l’algorithme finira nos phrases à partir de tout ce qu’on aura tapé précédemment : il saura parler comme nous.

« Nul ne songe à nier que ça peut être utile, mais la question est de savoir si, à ce stade, vous serez capable de regarder quelque chose de différent si l’IA se borne à amplifier vos intérêts présents et passés. L’IA vous empêchera-t-elle d’expérimenter des choses nouvelles ou d’écouter des opinions différentes des vôtres ? Et que dire des choses que vous n’avez même jamais songé à vouloir jusqu’ici ? » dit Elvira Bolat.

Après ce premier article qui pose les choses (Vous n’êtes pas accro par hasard en accès libre), Gea Scancarello est partie interviewer Mr Brown qui crée des logiciels prédictifs de nos comportements pour nous faire adopter des habitudes : « Nous avons créé un moteur prédictif qui analyse les habitudes de chaque personne et détermine les moments où des stimuli de bien-être doivent être envoyés pour récompenser une action. »

Par exemple une application de running vous envoie des pouces levés au bon moment pour vous encourager, vous féliciter, et vous envoyer une giclette de dopamine. Bien sûr, la société de Mr. Brown, Boundless mind, se défend de développer des addictions, juste des habitudes, pour courir, maigrir, manger sainement, augmenter la productivité en entreprise… « Des applications conçues pour aider les utilisateurs à combler le fossé entre leurs aspirations et leur comportement« . Y croit-il vraiment ? Lui aussi veut faire du monde a better place ! Comment voit-il le futur ? « Nous aurons des capteurs qui détecteront notre mode de vie dans nos vêtements, nos chaussures et même nos médicaments. Votre réfrigérateur pourra savoir que vous avez l’habitude de grignoter tard le soir et trouvera des moyens pour vous en dissuader« .

J’imagine le moment où ma mutuelle santé aura accès à mon capteur de frigo et qu’elle régulera à distance ma prise de calories en échange d’une baisse de mes cotisations…

L’inventeur du Persuasive design, c’est BJ Fogg, interviewé également. Trois facteurs modulent votre comportement : motivation, réaction et capacité.

« Une nouvelle forme de persuasion est apparue : je l’appelle la “persuasion interpersonnelle de masse”. Ce phénomène associe le pouvoir de la persuasion interpersonnelle à l’audience des médias de masse. Il consiste à modifier les pensées et les comportements des utilisateurs, et pas seulement à les distraire ou les informer, déclarait-il. Les progrès des réseaux sociaux permettent aujourd’hui aux personnes de faire évoluer des attitudes et des comportements à grande échelle. La persuasion interpersonnelle de masse possède six composantes : l’expérience persuasive, la structure automatisée, la diffusion sociale, la rapidité du cycle, l’immense graphe social et la mesure de l’impact. Avant le lancement de la plateforme Facebook, ces six composantes n’avaient jamais été réunies dans un système. Les outils pour créer la persuasion interpersonnelle de masse devenant accessibles à tous, les individus et les petits groupes peuvent désormais mieux atteindre et convaincre le grand public. Ce nouveau phénomène changera l’avenir de la persuasion. »

Sur toutes ces bonnes nouvelles, je vous enjoins à lire en ligne ou en papier « Votre cerveau a été piraté ». Vous pourrez y découvrir une série de plusieurs articles, non pas pour mettre le smartphone à la poubelle, mais pour l’utiliser en conscience… ou pas.

Isabelle Collet

  • Ressources complémentaires :
  • Arte a proposé en septembre 2019, une mini série appelée « Dopamine » avec 8 épisodes sur la dépendance aux applications mobiles que binaire vous invite à découvrir.

Vous avez dit « critiques du numérique » ?

 

Yaël Benayoun et Irénée Régnauld, cofondateurs de l’association Le Mouton Numérique, viennent de publier leur premier ouvrage “Technologies partout, démocratie nulle part : Plaidoyer pour que les choix technologiques deviennent l’affaire de tous”, (Fyp éditions, octobre 2020). Leur livre, très documenté, réhabilite la pensée techno-critique pour passer au crible le développement du secteur numérique, en identifier les défaillances et proposer de nouvelles pistes pour aligner le progrès technique aux enjeux écologiques et sociaux de notre temps. Toujours prudents devant des critiques radicales de la technique qui peuvent parfois tourner à la technophobie, nous avons invité Yaël Benayoun à en discuter avec un de nos éditeurs, Serge Abiteboul. Les éditeurs de binaire.

Serge : Si je partage de nombreux constats de ton essai avec Irénée Régnauld, le ton très critique m’a par moments gêné. Pour planter le décor, dirais-tu que pour vous, il s’agit de mettre le numérique au service de la société ? Ou s’agit-il juste d’arrêter le numérique, source de tous les maux de la société ?

Yaël : (rire) Bien évidemment, il ne s’agit pas de dire que le numérique serait la cause de tous nos maux ; cela n’aurait aucun sens ! En revanche, il est symptomatique que dans le langage courant on parle toujours « du » numérique au singulier, comme si l’ensemble des terminaux, des logiciels, des réseaux formaient un tout monolithique dont les caractéristiques techniques et les modes de production n’avaient pas à être questionnés. Pourtant, suivant les acteurs impliqués, les modèles économiques retenus, les objectifs poursuivis ou les valeurs défendues, on va se retrouver avec des dispositifs techniques radicalement différents. L’exemple le plus frappant est sans doute l’application de livraison CoopCycle, éditée par la coopérative du même nom. Ici, pas question comme chez la plupart des grandes plateformes qu’un algorithme décide seul du prix ou de la durée des courses. Pas question non plus de tracer les livreurs ou de les fliquer ! Et pour cause, CoopCycle a été conçue comme un moyen de garantir des conditions de travail décentes pour les livreurs ; c’est un bien commun et cela se retrouve dans les caractéristiques techniques de l’application.

Dans le livre, nous nous sommes attachés à décortiquer les jeux d’acteurs et les idéologies qui aujourd’hui dominent le secteur du numérique, centralisent les sources de financement et nous orientent vers une société toujours plus numérisée sans que les conséquences environnementales, sociales ou politiques ne soient réellement prises en considération. Cette analyse critique nous amène non pas à rejeter toute technique, mais bien à identifier les défaillances structurelles (sur-exploitation de ressources non renouvelables, précarisation de certaines catégories de travailleurs, renforcement des discriminations et inégalités déjà existantes, insuffisance des garde-fous juridiques et institutionnels) pour mieux pouvoir y répondre.

Serge : Votre livre met bien en évidence tous ces problèmes soulevés par le numérique. Mais, et c’était peut-être difficile à éviter dans un tel exercice, à force de lister ad nauseam les problèmes, on finit par voir se dessiner la thèse que c’est le numérique, le problème. Pourtant, on pourrait aussi lister les trucs géniaux apportés par le numérique, ce que vous ne faites pas. Un point sur lequel nous serons peut-être en désaccord : je crois dans le progrès scientifique même si c’est un peu ringard. Je crois qu’on vit plus longtemps et mieux qu’avant et que si ce n’est pas vrai pour tout le monde, ce n’est pas la faute de la techno mais de l’égoïsme de certains. Par contre, je ne crois pas au déterminisme technologique ou à la neutralité technologique. Je crois qu’on a un vrai risque de régression non pas à cause de la technologie mais à cause de choix sociétaux. La techno des smartphones ne dit pas qu’on doit en changer tous les dix-huit mois. Un tel gaspillage extravagant devrait nous forcer à ne pas changer de smartphone si souvent, pas à remettre en question la techno des smartphones.

Yaël : Encore une fois, le problème n’est pas « le » numérique, mais bien la manière dont le développement technologique est confisqué par un certain nombre d’acteurs qui orientent ce « progrès scientifique » vers leurs propres intérêts. Il faut regarder comment la recherche publique devient de plus en plus subordonnée aux financements et logiques entrepreneuriales de groupes privés, au risque de porter atteinte aux libertés académiques et à l’indépendance des chercheurs.

C’est en ce sens que choix technologiques et choix de société sont indissociables. C’est d’ailleurs le titre d’un des ouvrages qui nous a servi de référence pendant l’écriture : Choix technologiques, choix de société de Richard Sclove (Descartes & Cie/ECLM, 2003). Le fait est que, quand on parle de dispositifs techniques, on ne peut pas faire abstraction de leur contexte de production. Malgré les apparences, depuis les années 2000 le but premier d’un moteur de recherche comme Google Search n’est plus de nous permettre d’effectuer une recherche sur internet, mais bien de capter les données et méta-données que nous produisons pour les monétiser. Cet objectif va entraîner des caractéristiques techniques bien précises qui n’auraient pas été développées si un autre modèle économique avait été choisi ou s’il avait été décidé qu’une telle technologie devait être appartenir à la catégorie des communs.

Serge : L’exemple du moteur de recherche est éclairant. Le but premier de Google Search n’était pas de vous fliquer mais de régler le problème du Web d’alors : il était impossible d’y trouver ce qu’on cherchait parce que les moteurs de recherche d’alors étaient nuls. Google Search captait au début assez peu de données. Et puis, vers 2004, le tournant. C’était pour mieux répondre aux requêtes des utilisateurs. Mais, c’était surtout pour faire encore plus de profits – quand leurs profits étaient déjà impressionnants. C’est vrai aussi. Bon. Nous sommes dans un système capitaliste et il n’est pas surprenant que les entreprises cherchent à faire toujours plus de profits. C’est aux États de définir les règles du jeu. Le RGPD est une étape. On voit bien avec toutes les poursuites contre Google Search qu’il y a encore du chemin à faire.

Yaël : Il est d’ailleurs significatif que des initiatives comme la machine à laver L’Increvable – conçue pour durée une cinquantaine d’années (soit plus de cinq fois plus longtemps qu’une machine à laver classique) – n’ait pas réussi à se développer faute de soutiens des secteurs industriels et des pouvoirs publics, mais que nous voyons en revanche fleurir depuis quelques années des machines à laver connectées toujours plus consommatrices en énergie et en métaux rares, et toujours aussi peu résistantes. La technologie incarne, dans ses caractéristiques mêmes, les choix de société et les rapports de force à l’œuvre. Une technologie ne se fait jamais « toute seule » et tant que nous n’en prendrons pas conscience et continuerons à affirmer que « la technologie est neutre, tout dépend de l’usage qu’on en fait » ou que tel progrès technique est « inéluctable », les garde-fous seront toujours insuffisants.

Serge : Bon les machines à laver ou les frigo connectés, c’est du pipeau. Mais, tu as raison, pourquoi ne pas construire des machines qui durent plus longtemps ? On a trop attendu que les industriels le fassent. C’est aux citoyens de se mobiliser pour ça et aux gouvernements de prendre leurs responsabilités. Pour rester dans le numérique, on a l’exemple des logiciels libres. C’est dingue que les États ne les soutiennent pas massivement car leur apport à la société est considérable.

Pour prendre un autre exemple, la smart city. Je pars du principe qu’on ne va pas envoyer des millions de personnes à la campagne, ce qui serait possible mais c’est un autre sujet. Alors dans une grande ville, très peuplée, le numérique me paraît un outil indispensable pour tout : le transport, la logistique des livraisons, l’énergie, la pollution, etc. Tout ça s’appuie sur le numérique, non ? Je ne parle pas de vidéosurveillance, ni de flicage de la population. C’est un peu la même techno, mais on peut dans une démocratie adopter les premiers sans accepter ces seconds. Ou faudrait-il jeter la smart-city aux ordures parce qu’on a peur de la vidéo-surveillance? Vous citez Barcelone comme une belle expérience de démocratie participative. Est-ce qu’ils sont fans de vidéo-surveillance ?

Yaël : Une chose est sûre : il y a autant de définitions de « smart city » que de projets s’en réclamant. Bien évidemment nous n’avons rien contre l’optimisation de certains services comme la gestion des eaux usées par exemple. Là n’est pas la question.

Dans le livre, nous nous sommes concentrés sur une expérience bien précise de smart city qui est le projet, aujourd’hui abandonné, de réhabilitation d’une partie du littoral de la ville de Toronto proposé par Sidewalk, filiale de Google consacrée aux projets d’urbanisme. Et cela pour deux raisons. Premièrement, c’était le premier grand projet porté par Sidewalk, ce qui signale un intérêt prononcé des grandes multinationales du secteur du numérique pour le marché des infrastructures urbaines – qui devrait représenter pas moins de 53 milliards de dollars d’ici 2030. Ce positionnement stratégique n’a pas échappé aux habitants du quartier concerné qui se sont rapidement organisés pour réclamer des précisions : comment une telle infrastructure allait-elle être rentabilisée ? (Il s’agissait d’une ville entièrement connectée avec des trottoirs chauffants, des bancs publics qui renseigneraient leur taux d’occupation, des caméras de vidéosurveillance, etc.) comment s’assurer de la non-exploitation des données personnelles des habitants, de la non-marchandisation de certains services de la ville, de la non-exclusion de certains groupes d’habitants. ? Deuxièmement, il était surprenant de voir une ville comme Toronto s’accrocher à ce projet, malgré les critiques des habitants, malgré les démissions successives des membres de la collectivité qui suivaient le projet. Il est vite apparu que la ville était en réalité en position de faiblesse par rapport à la filiale de Google qui, au fur et à mesure que la contestation montait, « achetait » l’équipe municipale en promettant toujours plus d’infrastructures qui devaient in fine créer plusieurs dizaines de milliers d’emplois directs et indirects. Cette faiblesse est d’autant plus inquiétante que le cas de Toronto n’est pas isolé et que les villes deviennent des terrains de jeu particulièrement attractifs pour les mastodontes du numérique.

Serge : Mais ne jetons pas, à cause de Sidewalk (son projet pour Toronto a été arrêté), la smart city à la poubelle. Ne nous privons pas de tout ce que le numérique pourrait apporter en termes de logistique, de gestion de la cité, etc. Vous parlez beaucoup de Toronto. Je trouve l’expérience de Barcelone beaucoup plus intéressante. Nous pouvons choisir la place du numérique collectivement dans la cité comme le fait Barcelone.

Yaël : Le cas de Barcelone est effectivement très intéressant, et il est important de souligner que la belle expérience de démocratie participative se trouve incarnée dans une plateforme conçue en licence libre et en open source que la ville a entièrement financée dans le cadre d’un partenariat Public-Commun. C’est un genre de partenariat encore trop rare aujourd’hui et il est fort à parier qu’une telle plateforme aurait eu des caractéristiques techniques toutes autres si elle avait été développée par un acteur privé comme Google.

Serge : N’évitons pas les sujets qui fâchent. Parlons du déploiement de la 5G ! Écartons les technophobes et technophiles béats. Même les modérés se partagent entre ceux qui veulent déployer la 5G et ceux qui préfèrent un moratoire. Pourquoi un moratoire ?

Yaël : Le secteur du numérique représente à lui seul 4% de la consommation d’énergie primaire au niveau mondial, consommation qui augmente chaque année de 9% alors même que nous devrions la réduire de 5% par an si nous voulons respecter nos engagements et atteindre une économie décarbonée. C’est donc un retard de 14% que nous cumulons chaque année. Quand va-t-on se donner les moyens de faire atterrir nos systèmes industriels – dont le secteur du numérique fait incontestablement partie ?

Serge : Je partage pleinement le constat de l’urgence environnementale. Mais, il faut répéter qu’un des buts premier de la 5G est de faire des économies d’énergie, par exemple, plutôt que de balancer des ondes dans toutes les directions, un émetteur 5G va viser le terminal qui reçoit le message. Si on avait choisi de retarder la 5G, on aurait assisté à une multiplication de sites 4G beaucoup plus énergivores et on se serait précipité vers une saturation des fréquences en centre ville. Le moratoire n’aurait rien réglé. La vraie question est de considérer le numérique dans sa globalité pour limiter sa consommation d’énergie, et son gaspillage de ressources naturelles. Et pour ça, la 5G peut aider car elle consomme moins d’énergie mais il faut bien sûr éviter un effet rebond.

Un moratoire n’aurait rien réglé à mon avis. On aurait juste passé notre temps à regarder les autres pays déployer la 5G et les technos qui vont avec. On aurait pris un retard industriel que je ne sais pas chiffrer en termes d’emplois perdus à termes, mais quand on voit ce que nous coûte le retard sur l’informatique de la fin du siècle dernier, on peut s’inquiéter. Au moins, si ça avait suffit à faire des économies d’énergie.

Yaël : Je pense qu’il est urgent de nous départir de cette vieille rhétorique du retard industriel qui nous éloigne toujours plus rapidement des exigences de l’accord de Paris. Tu évoques le risque de la perte d’emplois, c’est un sujet essentiel. En 2019, le cabinet B&L évolution estimait que la France avait besoin de la création de près de 2 millions d’emplois sur 5 ans pour répondre aux impératifs fixés par l’accord de Paris. Cela s’explique par un besoin de décentralisation des infrastructures, de relocalisation de certaines industries, mais aussi un besoin de réorientation massive des politiques industrielles vers les secteurs les moins carbonés. Les anticipations d’usages liées au déploiement de la 5G promettent-elles la création d’un plus grand nombre d’emplois ? Rien n’est moins sûr. L’industrie 4.0 mise sur l’automatisation industrielle, automatisation qui a toutes les chances de se doubler de la réorganisation des sites concernés et d’un nombre conséquent de licenciements.

Selon moi, l’enjeu du moratoire sur la 5G est d’une part de commencer à réfléchir collectivement à la définition du prochain réseau (sans quoi la 6G sera développée en vue de l’anticipation toujours plus pressante de l’explosion des contenus lourds et des équipements connectés), et d’autre part d’interroger en profondeur la soutenabilité, autant sociale qu’écologique, de la fuite en avant technologique que nous promet l’ensemble des études prospectives. Car ces études agissent aujourd’hui comme des prophéties auto-réalisatrices et incitent les investisseurs et les pouvoirs publics à suivre leurs prévisions et ainsi les conforter. Un grand chantier nous attend : ouvrir de nouvelles perspectives pour casser ce cercle d’investissement vicieux et réorienter les politiques industrielles en conséquence.

Serge : Si je ne vois pas en quoi un moratoire aurait pu aider, je partage totalement ton point de vue sur la nécessité d’une réflexion collective sur la définition des réseaux que nous voulons, je dirais même une réflexion est urgente dans l’objectif de l’accord de Paris. C’est d’ailleurs le sens de travaux récents de l’Arcep « Pour un numérique soutenable » avec une plateforme de travail et des ateliers d’échanges. Il est important de mettre la techno numérique au service de la société. La 5G, par exemple, a été développée avec les économies d’énergie dans ses spécifications originales. C’est une techno géniale. À nous de la mettre au service de notre société. Et tu as raison. La 6G est en préparation. On doit encore pouvoir influer sur ce qu’elle sera. Et au-delà des ondes, c’est une réflexion sur tout le numérique que nous devons engager.

Nous nous retrouvons au moins sur un point : le numérique doit être au service de la société. Et cela ne peut se limiter à des vœux pieux. Nos gouvernements, à toutes les échelles (régions, France, Europe) ont la responsabilité considérable de se donner les moyens d’une politique volontariste pour mettre le système du secteur du numérique au service de tous.

Yaël Benayoun, le Mouton Numérique, et Serge Abiteboul, Collège de l’Arcep et Inria, Paris.

 

Petit binaire : parler de vérité autrement

Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible que tout n’est pas vrai ou faux en informatique on peut aussi … modéliser une vérité contingente. Marie-Agnès Enard, Pascal Guitton  et Thierry Viéville.
©G.E. Mont.

Il ne l’écoutait que d’une oreille. Elle parlait de science. Lui, il aimait plutôt voyager en imagination au sein de toutes sortes de mondes possibles, certains mondes étant accessibles à d’autres … Il aimait se dire que la vérité dépend tellement du contexte où nous sommes, ou encore qu’une chose peut être seulement possible, sans être toujours vraie, que … Quoi ? Qu’est ce qu’elle dit là l’informaticienne de service ?

©Learning lab Inria

Lui : Mais qu’est ce que tu racontes, en informatique l’information est forcément binaire : si une chose n’est pas vraie, elle est fausse, et voilà, 1 ou 0, point.

Elle : Est-ce qu’il y a une vie après la mort ?

Lui : Ben, je sais pas …

Elle : Tu as donc besoin de plus de deux valeurs pour coder ton sentiment. Il t’en faut au moins trois : vrai, faux, inconnu.

Lui : C’est même un peu plus compliqué, on peut y croire ou pas.

Elle : Exact, tu as donc – pour faire simple – deux modalités possibles, la première si une vie après la mort existe et la seconde où elle n’existe pas.

Lui : Oui, je comprends

Elle :  On peut aller plus loin et s’interroger pour savoir si cette vie après la mort est proche de ce que nous avons connu avant ou bien si elle est totalement différente. Pourquoi pas ! Du coup il y a encore deux modalités, autrement dit deux autres mondes qui dérivent du monde où il y a une vie post-mortem.  Bref :  tu as donc besoin de préciser dans quel “monde” (ou modalité), c’est à dire dans quel contexte tu es, pour dire …

Lui : OK, selon le “monde” ou la modalité, on peut dire qu’il y a des choses possibles ou impossibles, des choses nécessaires, des choses … oh là là je m’embrouille un peu.

Elle : Tu as raison il faut bien poser les choses, écoute :  « quelque chose est nécessaire dans un contexte donné s’il n’est pas possible que ce soit logiquement faux » autrement dit si tu peux pas montrer que quelque chose est faux, quelle que soit la manière dont tu t’y prends, alors cette chose là est nécessaire, et si tu ne peux pas montrer qu’elle est toujours fausse alors elle est possible.

Lui : Wouaouhh, est-ce que tu es en train de me dire que les informaticiens ont envisagé et modélisé tout ça ? Moi je croyais qu’ils …

Elle : Ils et elles.

©wikimedia

Lui : Oups, pardon. Je croyais donc qu’illes représentaient les choses incertaines avec des probabilités.

Elle : Oui, c’est vrai, mais attention l’incertitude c’est différent : il y a des choses plus ou moins connues, qui peuvent être possibles ou impossibles ou au contraire nécessaires, et puis des choses incertaines par exemple :
– quand tu jettes une pièce de monnaie, tu es absolument certain qu’il y a une chance sur deux que ce soit pile ou face, c’est un phénomène certes incertain mais pas inattendu,
– mais si ta pièce de monnaie reste en l’air ou tombe sur la tranche alors là ce n’est plus incertain : c’est inattendu, c’est à dire que ton modèle initial “pile ou face” est à revoir …

Lui : Ah mais oui, et en plus le fait qu’elle tombe sur la tranche est possible mais le fait qu’elle reste en l’air est impossible car il est nécessaire qu’elle retombe dans un monde “normal”.

Elle : Exactement.

Lui : Dis-moi si mes souvenirs sont bons : les probabilités sont bien représentées par des valeurs
entre 0 (quand c’est impossible) et 1 (quand c’est certain) ?

Elle : Rassure-toi, tu as bien retenu ton cours de math ! Donc, on va aussi représenter la possibilité par des valeurs
entre 0 (si totalement impossible) et 1 (si parfaitement possible)
et la nécessité par des valeurs
entre 0 (si rien ne dit qu’elle est nécessaire) et 1 (si absolument nécessaire).

Sur la courbe , tu vois que le niveau de possibilité est représenté horizontalement alors que le niveau de nécessité l’est verticalement.

Lui : D’accord et si j’ai bien compris,
– quelque chose est assurément faux si c’est impossible, donc du coup pas nécessaire du tout, et c’est le coin en bas à gauche, tandis que
– quelque chose est assurément vrai, si c’est absolument nécessaire, donc du coup totalement possible, et c’est le coin en haut à droite.

Elle : Oui, c’est bien ça. Et de ce fait quelque chose de complètement inconnu est à la fois complètement possible (comme quand on dit « pourquoi pas ? ») et absolument pas nécessaire (puisque l’on ne peut rien en dire), c’est le coin en bas à droite.

Lui : Ce que je trouve le plus intéressant, tu sais, c’est que dans une discussion j’ai l’impression qu’on va parfois jusqu’à se disputer, alors qu’on est peut-être même pas vraiment en désaccord, juste parce qu’on utilise une vision trop “binaire” de la vérité, alors qu’elle est plus en nuances, et surtout qu’elle dépend souvent du contexte.

©Ipipipourax

Elle : Oui tu peux même relier cela à la probabilité que quelque chose se produise, c’est à dire relier cela à la notion d’aléatoire :

  0 ≤ nécessité ≤ probabilité  ≤ possibilité ≤ 1

La modélisation de l’incertitude est de plus en plus utilisée notamment en intelligence artificielle ou dans les ordinateurs quantiques dont tu as entendu parler.

Lui : Euh …  stop ! Cela fait trop de choses d’un coup. Laisse moi avec cette idée géniale, qu’on a pu modéliser une notion de vérité bien plus ouverte que “vrai” ou “faux” avec le droit de dire “on ne sait pas encore” et des nuances entre ce qui est plus ou moins possible ou nécessaire. Et c’est très utile bien au-delà du champ de l’informatique elle-même !

Elle : Oui, tu as entièrement raison. Et toi, à ton tour, est-ce que tu peux me faire partager les mondes imaginaires que tu as dans ta tête ?

Lui : Mais … comment as tu deviné ce qu’il y a dans ma tête … comment c’est possible ?

Elle : Parce que tu es mon frère, gros bêta, et … est-ce nécessaire de tout expliquer ?

Références et liens supplémentaires :

Représentations de l’incertitude en intelligence artificielle :
https://www.hds.utc.fr/~tdenoeux/dokuwiki/_media/en/publi/book-cepuades-test.pdf

Quelques définitions :
https://fr.wikipedia.org/wiki/Logique_modale
https://fr.wikipedia.org/wiki/Possibilité_et_impossibilité

 

Écran total pour les élèves

Binaire s’intéresse particulièrement à l’apport du numérique dans l’enseignement, ici la mise à disposition de tablettes et de PC. Dans ce cadre, Serge Abiteboul et Guy Daroles interviewent Bertrand Caillaud, directeur technique de Unowhy, un des gros fournisseurs français de tels objets pour l’enseignement. A l’heure des confinements et de l’enseignement à distance, le sujet est certainement d’actualité.
Nous sommes bien en présence d’une entreprise française qui montre que la dépendance aux grands fabricants mondiaux de matériel informatique n’est pas inéluctable.

 

Tablette QOOQ « historique »

binaire : Vous avez commencé en fabriquant la Tablet QOOQ pour les recettes de cuisine. Maintenant Unowhy est un des acteurs incontournables dans le domaine du matériel informatique pour l’éducation en France.

BC : En 2019, nous avons fourni 40 000 PC et 160 000 tablettes dans des lycées, collèges et écoles. Un de nos gros clients, c’est la région Île-de-France.

binaire : Ça fait au moins deux systèmes d’exploitation à faire vivre, un pour PC, un pour tablette.

BC : Oui. Nous avons choisi Windows 10 pour PC et Android pour tablettes.

Tablette et PC pour l’Île-de-France, Site web de Unowhy

binaire : Des PC et des tablettes. Qui choisit entre les deux ? Et comment choisit ?

Site web de Unowhy

BC : Ce sont deux usages très différents l’un, la tablette, plus orienté sur une production simple et la consultation de contenu tel que les manuels, l’autre, le PC, plus complexe à appréhender pour les élèves mais facilitant la production de contenus. On peut aussi considérer que la robustesse et la mobilité de la tablette sied mieux à certains usages (enfant plus jeune, usage en atelier …).

Site web de Unowhy

Pour les jeunes élèves (jusqu’à la fin du collège) la majorité des demandes va vers la tablette, là ou pour les plus âgés lycéen et supérieur la tendance penche largement vers le PC. Le PC est me semble-t-il un bon outil pour le lycéen et lui propose un outil qu’il utilisera avec certitude dans sa future vie professionnelle ou étudiante

binaire : Pourquoi pas Linux ?

BC : On a essayé une distribution Linux : Ubuntu dans nos premières expérimentations éducatives. Mais le catalogue d’applications disponibles ne suffisait pas aux besoins. Les applis historiques de l’Éducation nationale sont sur Windows. Par exemple, quasiment aucun des lecteurs de manuels scolaires n’est disponible sur Linux.

binaire : Est-ce que le logiciel est une partie importante du coût de vos machines ? Qu’est-ce que vous mettez comme logiciels ?

Site web de Unowhy

BC : Le logiciel et les services c’est environ 30% du coût. Il y a l’OS. Pour l’enseignement, Windows 10 et Android ne sont pas chers du tout. Vous avez aussi des applications et puis le logiciel Unowhy qui permet d’inventorier les machines, de déployer des logiciels, de gérer le parc, et en particulier suivre chaque machine. Un agent peut piloter tous ces matériels depuis nos bureaux. On veut aussi pouvoir adapter un look and feel aux demandes d’un client, par exemple, quand vous avez entre les mains une tablette fournie par une région IdF, vous savez immédiatement d’où elle vient

binaire : De quels outils dispose-t-on sur un de vos PC ?

BC : Typiquement, l’OS Windows 10, Libre office, une dizaine d’applications open source, l’accès en ligne à l’ENT (Espace numérique de travail).  Et puis, un prof peut déployer un logiciel particulier, par exemple Scratch, sur les machines de tous les élèves d’une classe, ou juste un groupe. Nous mettons à disposition des dizaines d’applications sur notre outil de gestion de parc, ce volume augmente en permanence.

binaire : Et pour ce qui est de la sécurité ?

BC : Un sujet complexe est celui de l’authentification. Pour l’Île-de-France, on utilise les comptes de l’ENT, un logiciel d’authentification open-source, et un pont avec les systèmes d’authentification de Microsoft et Android. Ensuite, on doit obéir au RGPD pour la protection des données personnelles. On applique le principe de minimisation des données personnelles : une application n’a accès qu’aux données dont elle a absolument besoin. Et puis, toutes nos données sont stockées en France, dans les data centers sécurisés d’OVH.

binaire : Et le matériel. Comment et où est-il construit ?

BC : On a essayé la conception et la fabrication, tout en France. Et puis tout en Asie. À chaque fois, on a été confronté à de nombreux soucis. Aujourd’hui la fabrication est en Chine, mais la conception et le contrôle qualité sont français. On veut des matériels hyper résistants pour des raisons évidentes. Ça fonctionne bien. On considère aussi la possibilité de réaliser l’assemblage en France pour le matériel « Île-de-France », ce qu’on fait déjà pour les tablettes destinées aux écoles et au collèges. Mais ça ce n’est pas simple à cause du coût supérieur de la main d’œuvre. Il faut introduire plus d’automatisation.

binaire : Qu’en est-il du développement durable ?

BC : Le numérique durable et éco-responsable est un enjeux important pour nous. Outre le gain immédiat et un peu évidement de la possibilité du presque zéro papier dans un système éducatif numérique, nous portons une attention particulière à :

– l’utilisation de matières recyclées quand c’est possible ; cela nous demande des efforts en particulier quand nous produisons en Asie où ces préoccupation sont loin d’être d’actualité.
– la réduction des emballages au maximum ; nous privilégions pour tous nos client « Éducation » la livraison dans un emballage bulk  de 5 ou 10 machines par cartons,  ce qui diminue les volumes transportés et le volume d’emballage.
– la durabilité et la réparabilité des produits ; comme nous travaillons avec les collectivités sur un temps long (au delà de 5 ans, parfois) avec une maintenance incluse dans nos offres, c’est aussi notre intérêt de faire des choix de conceptions  dans ce sens, même si c’est parfois un challenge face au désir d’avoir des machines toujours plus fines et plus intégrées.

binaire : L’écosystème des matériels éducatifs est complexe. Le fait que différents ENT, différentes entreprises développent indépendamment des solutions en concurrence, n’est-ce pas une cause d’inefficacité ? Et puis, la distribution des responsabilités entre différents acteurs, l’Éducation nationale, les régions, les départements, n’est-ce pas aussi une cause d’inefficacité ?

BC : Cette concurrence est un aiguillon pour aller vers plus d’innovation, de créativité. Par contre, le fait que les responsabilités soient partagées complique parfois les choses. Par exemple, le fait que les collectivités aient autant d’espace de décision dans le dispositif. C’est super quand vous avez à faire à une collectivité dynamique qui a placé le numérique dans ses priorités. Mais ce n’est pas toujours le cas. Cela induit des inégalités considérables entre les territoires.

binaire : Dans votre gros contrat avec la région Île-de-France, vous intervenez comme sous-traitant de La Poste. Ça peut paraître surprenant.

BC : Le projet est énorme et c’est bien de pouvoir s’appuyer sur une entreprise de la taille de La Poste, très motrice dans le numérique. Et puis quand vous devez déployer du matériel dans 600 lycées en 3 semaines, vous êtes contents de pouvoir vous appuyer sur un réseau de postiers qui couvre le territoire.

Serge Abiteboul, Inria et ENS, Paris, Guy Daroles, Directeur de projet Monlycee.net Région Île-de-France

Quels sont les liens entre IA et Éducation ?

Les liens entre Intelligence Artificielle et Éducation sont multiples : L’IA comme outil pour mieux apprendre, comme outil pour mieux comprendre comment on apprend, comme sujet à part entière et enfin comme objet d’enseignement. Pascal Guitton et Thierry Viéville nous parlent de ces différentes facettes. Serge Abiteboul.

L’IA comme outil pour mieux apprendre

C’est le premier usage auquel on pense, utiliser des algorithmes d’IA pour proposer des outils afin de mieux apprendre. Bien entendu, il y a beaucoup de mythes et de croyances à dépasser pour concrétiser cette première idée.

Pixabay

Le point clé est l’apprentissage adaptatif : en analysant les traces d’apprentissage de l’apprenant·e, par exemple ses résultats à des questionnaires, son interaction avec le logiciel…, le système va modifier son fonctionnement, notamment à travers la sélection de contenus, pour essayer de s’adapter à la personne.. Même si les fondements scientifiques n’en sont pas encore totalement stabilisés, on peut aussi exploiter une analyse de son “comportement” via l’utilisation de capteurs. Cela va d’une caméra sur son portable jusqu’à des interfaces cerveau-ordinateur en laboratoire. Ce principe d’adaptation se rencontre le plus souvent dans un contexte ludique et individuel, un jeu pédagogique avec la machine, mais existe également dans d’autres situations, par exemple avec plusieurs personnes. 

Cette approche implique au préalable un travail souvent colossal pour  formaliser complètement les savoirs et savoir-faire à faire acquérir. Cette formalisation est en soi intéressante car elle oblige à bien expliciter et à structurer les compétences, les connaissances et les pratiques qui permettent de les acquérir. Il faut cependant prendre garde à ne pas  “sur-organiser” l’apprentissage qui demeure dans tous les cas une tâche cognitive complexe.

Par ailleurs, cette approche nécessite de travailler dans un contexte d’apprentissage numérique qui s’accompagne des contraintes bien connues comme les besoins de matériels, de formation aux logiciels, les limites à l’usage d’écrans, etc.

On peut mentionner  plusieurs impacts pédagogiques de cet apprentissage algorithmique. En tout premier lieu, il génère en général un meilleur engagement de la personne apprenante, car interagir autrement avec les contenus offre une chance supplémentaire de bien les comprendre. Par ailleurs, la machine ne “juge pas” -comme un humain-, ce qui peut contribuer à maintenir cet engagement. Ensuite, et sans doute surtout, le fait que la difficulté soit adaptée à l’apprenant permet de limiter, voire d’éviter le découragement ou la lassitude. Ce type d’apprentissage nécessite cependant un investissement cognitif  important. Enfin, si l’aspect ludique est “trop” prépondérant, il ne faut pas négliger le risque de se disperser au lieu de s’investir dans l’apprentissage escompté. 

L’usage de ces nouveaux outils conduit le rôle de l’enseignant·e à évoluer. Ainsi, profitant que sa classe est plus investie dans des activités d’apprentissage autonomes,  il a plus de disponibilités pour individualiser sa pratique pédagogique, avec les élèves qui en ont le plus besoin. De même, cela permet de se libérer – comme en pédagogie inversée – d’une partie du passage des savoirs ou de l’accompagnement de l’acquisition de savoir-faire, avec des contenus multimédia auto-évalués et des exercices d’entraînement automatisés, pour se concentrer sur d’autres approches pédagogiques, par exemple, par projets. Par rapport à des outils numériques classiques, sans IA, le degré d’apprentissage en autonomie peut être bien plus élevé et s’applique plus largement, par exemple, avec des exercices auto-corrigés et des parcours complets d’acquisition de compétences. Ces outils sont particulièrement d’actualité dans des situations d’école distancielle avec la crise sanitaire, et questionnent sur l’organisation du temps de travail scolaire.  

L’utilisation de tels outils peut s’accompagner de dérives possibles dont on doit se protéger : traçage  omniprésent et omnipotent des personnes apprenantes permettant de les “catégoriser”, tentation de réduire l’offre humaine en matière d’enseignement, renforcement des inégalités en lien avec l’illectronisme, etc… Le risque est accru quand ces traces sont reliées à celles émanant d’autres facettes de son comportement : achats, consultations de vidéos/lectures…

 L’IA comme outil pour mieux comprendre comment on apprend

Pixabay

La possibilité de mesurer ces traces d’apprentissage n’offre pas uniquement une technique pour améliorer “immédiatement” l’apprentissage d’une personne, mais fournit aussi des sources de mesures pour mieux comprendre sur le long terme les apprentissages humains. Ces traces d’apprentissages sont relevées lors de l’utilisation d’un logiciel, par la mesure des déplacements de la souris, des saisies au clavier…, mais aussi grâce à des capteurs employés dans des situations pédagogiques sans ordinateur. On pense par exemple à une activité physique dans une cours d’école, observée avec des capteurs visuels ou corporels. Exploiter ces mesures impose alors non seulement de formaliser la tâche d’apprentissage elle-même, mais en plus, de modéliser la personne apprenante. Pas dans sa globalité bien entendu, mais dans le contexte de la tâche.

Il faut noter que ces algorithmes d’apprentissage machine reposent sur des modèles assez sophistiqués. Ils ne sont pas forcément limités à des mécanismes d’apprentissage supervisés où les réponses s’ajustent à partir d’exemples fournis avec la solution, mais fonctionnent aussi par “renforcement”, c’est à dire quand l’apprentissage se fait à partir de simples retours positifs (autrement dit par des récompenses) ou négatifs, le système devant inférer les causes qui conduisent à ce retour, parfois donc en construisant un modèle interne de la tâche à effectuer.  Ils peuvent s’appliquer aussi en présence de mécanismes qui ajustent au mieux les comportements exploratoires (qualifiés de divergents) d’une part et les comportements exploitant ce qui est acquis (qualifiés de convergents) d’autre part. Ces modèles sont opérationnels, c’est-à-dire qu’ils permettent de créer des algorithmes effectifs qui apprennent. Il est passionnant de s’interroger dans quelle mesure ces modèles pourraient contribuer à représenter aussi l’apprentissage humain. Rappelons que, en neuroscience, ces modèles dits computationnels (c’est-à-dire qui représentent les processus sous forme de mécanismes de calculs ou de traitement de l’information) sont déjà largement utilisés pour expliquer le fonctionnement du cerveau au niveau neuronal. Dans ce contexte, ce serait de manière plus abstraite au niveau cognitif. 

Ce domaine en est encore à ses débuts et des actions de recherches exploratoires qui allient sciences de l’éducation, sciences du numérique et neurosciences cognitives se développent.

 L’IA comme sujet d’enseignement

https://classcocde.fr/iai une formation citoyenne à l’intelligence artificielle intelligente.

Bien entendu pour maîtriser le numérique et pas uniquement le consommer, au risque de devenir un utilisateur docile voir même crédule, il faut comprendre les principes de son fonctionnement  à la fois au niveau technique et applicatif.

Il est essentiel de comprendre par exemple que ces algorithmes ne se programment pas explicitement à l’aide  “d’instructions”, mais en fournissant des données à partir desquelles ils ajustent leurs paramètres. Il est aussi nécessaire de se familiariser au niveau applicatif avec les conséquences juridiques, par exemple, d’avoir dans son environnement un “cobot” c’est-à-dire un mécanisme robotique en interaction avec notre vie quotidienne. Ce  système n’est quasiment jamais anthropomorphique (c’est à dire possédant une forme approchant celle de l’humain), c’est par exemple une machine médicale qui va devoir prendre en urgence des décisions thérapeutiques quant à la santé d’une personne que la machine monitore. On voit dans cet exemple que la chaîne de responsabilité entre conception, construction, installation, paramétrisation et utilisation est très différente de celle d’une machine qui fonctionne sans algorithme, donc dont le comportement n’est pas partiellement autonome.

Le MOOC https://classcode.fr/iai sur l’IA est justement là pour contribuer à cette éducation citoyenne, et faire de l’IA un sujet d’enseignement.

L’IA comme un objet d’enseignement qui bouleverse ce que nous devons enseigner. 

©iconspng.com

En effet, la mécanisation de processus dits intelligents change notre vision de l’intelligence humaine : nous voilà déléguer à la machine des tâches que nous aurions qualifiées  intelligentes si nous les avions exécutées nous mêmes. Nous allons donc avoir moins besoin d’apprendre des savoir-faire que nous n’aurons plus à exécuter, mais plus à prendre de la hauteur pour avoir une représentation de ce que les mécanismes “computent” (c’est-à-dire calculent sur des nombres mais aussi des symboles) pour nous.

C’est un sujet très concret. Par exemple, avec les calculettes … devons nous encore apprendre à calculer ? Sûrement un peu pour développer son esprit, et comprendre ce qui se passe quand s’effectue une opération arithmétique, mais nous avons moins besoin de devenir de « bons calculateurs ». Par contre, ils nous faudra toujours être entraînés au calcul  des ordres de grandeurs, pour vérifier qu’il n’y a pas d’erreur quand on a posé le calcul, ou s’assurer que le calcul lui-même est pertinent. De même avec les traducteurs automatiques, l’apprentissage des langues va fortement évoluer, sûrement avec moins le besoin de savoir traduire mot à mot, mais plus celui de prendre de la hauteur par rapport au sens et à la façon de s’exprimer, ou pas … c’est un vrai sujet ouvert.

Finalement, si nous nous contentons d’utiliser des algorithmes d’IA sans chercher à comprendre leurs grands principes de fonctionnement et quelles implications ils entraînent sur notre vie, nous allons perdre de l’intelligence individuelle et collective : nous nous en remettrons à leurs mécanismes en réfléchissant moins par nous-même. 

Au contraire, si nous cherchons à comprendre et à maîtriser ces processus, alors la possibilité de mécaniser une partie de l’intelligence nous offre une chance de nous libérer en pleine conscience de ces tâches devenues mécaniques afin de consacrer notre intelligence humaine à des objectifs de plus haut niveau, et à considérer des questions humainement plus importantes.

Pascal Guitton et Thierry Viéville.

P.S.:  pour aller plus loin Inria partage un  livre blanc « Education et Numérique : enjeux et défis », organisé en cinq volets :
– état des lieux de l’impact du numérique sur le secteur de l’éducation;
– identification des défis du secteur ;
– présentation des sujets de recherche liés au domaine de l’éducation au numérique ;
– analyse des enjeux français dans le domaine ;
– et enfin mise en avant de sept recommandations pour la transformation numérique de l’éducation.

Blockchain : un outil pour la conformité fiscale ?

La transparence n’est pas nécessairement le premier mot qui vient en tête lorsqu’on parle de blockchain, c’est pourtant une des qualités intrinsèque de cette technologie. Dorian Ravaute est doctorant en droit à l’université de Savoie-Mont Blanc, sous la direction de Polina Kouraleva-Cazals. Il vient nous parler de son sujet: « l’appréhension de la blockchain en fiscalité », dans la rubrique Il était une fois ma thèse. Serge Abiteboul, Pauline Bolignano et Clémentine Maurice
Dorian Ravaute

En matière fiscale, les débats contemporains font majoritairement référence aux notions d’optimisation, évasion ou fraude, mais également de justice, transparence et coopération. En effet, au cours de ces deux dernières années, la presse a relayé certaines pratiques qualifiées de dommageables. Citons par exemple les “Panama papers”, les “Malta files” ou plus récemment les “Cumcum/ Cumex files”. Mais sous un angle prospectif, ces débats sont abordés à travers des exigences de conformité croissantes, lesquelles reposent sur l’échange de données [1]. Cet échange nécessite une coopération à deux échelles, entre les contribuables et les États et entre États.

Symétriquement, les débats actuels autour de la technologie blockchain, font souvent référence aux notions de fraude, dissimulation, pseudonymat, confiance, coopération.

La blockchain est un registre partagé, en anglais “distributed ledger”, qui se distingue d’une base de données classique par des apports majeurs dans la vérification, le stockage, la transmission et l’accès aux données. En effet, les données d’une blockchain sont validées et sécurisées par un système particulier de cryptographie, et sont immuables.  Cet article a pour objectif de présenter comment la blockchain techniques peut constituer un outil de conformité fiscale, et ceux à partir de deux de ses particularités techniques.

1 – L’arbre de Merkle, outil dans la tenue et le contrôle de comptabilités informatisées

La présentation du « bitcoin » met en avant une particularité de la blockchain au regard de sa fonction de base de données sécurisée avec “l’arbre de Merkle”.

Arbre de Merkle
Arbre de Merkle – image de David Göthberg

Cette structure illustre le lien entre les différentes transactions d’une chaine de blocs et la possibilité d’identifier une transaction parmi cette chaine. Dans cette chaine, les transactions de la chaine de blocs sont représentées par des feuilles de l’arbre qui sont liées. Une transaction de cet arbre correspond donc à une feuille, et se repère à travers son hash. Le hash est une série complexe de chiffres et de lettres propre à une transaction. Chaque feuille de l’arbre prend soin de mentionner le hash de la précédente feuille à laquelle elle est liée. Ainsi, l’arbre de Merkle permet de vérifier les liens entre les transactions, conduisant à la feuille racine de l’arbre.

Par analogie entre les principes de la comptabilité informatisée et les caractéristiques de l’arbre de Merkle, la blockchain pourrait être un outil pour la tenue d’une comptabilité informatisée régulière, sincère et probante.

En vertu du Plan Comptable Général, les écritures sont passées sur le “grand livre” selon un système dit « en partie double » avec le débit/crédit. La blockchain à travers ses caractéristiques est in fine un grand livre, à la différence qu’il est partagé aux participants du réseau et contient une “troisième partie” correspondant à un reçu. La comptabilité à triple entrée est une amélioration du système traditionnel à double entrée, dans lequel toutes les écritures comptables sont validées par les participants à la blockchain puis scellées cryptographiquement, c’est la troisième entrée.  Ainsi on retrouve les débits, crédits et un lien immuable vers tous les débits et crédits passés.

Lorsqu’une entreprise tient une comptabilité informatisée, elle doit alors présenter celle-ci sous forme dématérialisée, et satisfait à cette obligation en cas de contrôle par la remise d’une copie du fichier des écritures comptable. La procédure de contrôle menée par l’administration fiscale s’attache notamment au respect de trois principes comptables, afin de vérifier que la comptabilité informatisée est régulière, sincère et probante.

Le premier principe vise le caractère définitif ou de l’irréversibilité des écritures assuré par une procédure de validation, qui interdit toute modification ou suppression de l’enregistrement. La blockchain satisfait à ce principe dès lors que les blocs contiennent des informations qui ne peuvent être altérées une fois validées, une feuille de l’arbre reliée à une autre par son hash ne peut être modifiée (sans que cela soit immédiatement détectable).

Le second principe porte sur la procédure de clôture périodique des enregistrements chronologiques, lequel est destiné à figer la chronologie et à garantir l’intangibilité des enregistrements au plus tard à la clôture de l’exercice. De son côté, la blockchain permet un traçage chronologique et immuable des informations, chaque feuille étant horodatée, quant à la clôture périodique, un smart contract (un mécanisme également permis par la blockchain – voir plus loin) pourrait venir figer la chaîne de blocs à la date de clôture de l’exercice.

Enfin, le troisième principe vise la « permanence du chemin de révision ». Il prévoit qu’un système de traitement doit reconstituer une chronologie et un lien à partir des pièces justificatives relatives aux écritures comptables et inversement. La structure de l’arbre de Merkle constitue justement un tel système de traitement.

Par conséquent, la blockchain convient à la tenue d’une comptabilité informatisée respectueuse des principes comptables. De plus, la garantie des droits du contribuable serait renforcée quant à l’accès et la remise de cette comptabilité via une blockchain. Enfin, en matière de contrôle des comptabilités informatisées, l’entreprise doit présenter les données élémentaires, les traitements et la documentation essentiels à la compréhension de la comptabilité informatisée. Afin de respecter cette exigence il semblerait opportun que l’élaboration d’une telle blockchain soit réalisée autour d’un dialogue avec l’administration, pour en assurer sa compréhension.

2 – Le smart contract, outil dans la transmission automatique d’informations au titre de la DAC6

La technologie permet également, au-delà de l’enregistrement sécurisé, la transmission automatique des données à travers le smart contract. L’appellation smart contract est trompeuse. En effet, il ne s’agit pas d’un contrat au sens de l’article 1101 du Code civil, mais d’un moyen d’exécution automatique de contrats, lorsque les conditions contractuelles sont réunies. Le smart contract vient « coder » (au sens informatique du terme), le contenu du contrat et ses caractéristiques (au sens juridique) afin de permettre l’exécution de celui-ci.  Les smart contracts fonctionnent sur des algorithmes traduisant sous la forme de code informatique la formule “if, then”, autrement dit “si l’algorithme vérifie les conditions contractuelles, alors l’exécution du contrat prend effet”. Pour que ces smart contracts puissent intégrer des éléments de faits, afin de remplir les conditions contractuelles prédéfinies dans la blockchain, les smart contracts peuvent être reliés à des « Oracle », qui sont des données exogènes.

De son côté, la Directive DAC 6 oblige les intermédiaires ou/et les contribuables à déclarer dans un délai de 30 jours, sous peine d’une amende, les « dispositifs transfrontières de planification fiscale à caractère potentiellement agressif » visés par des “marqueurs”.

La déclaration automatique d’informations au titre de la DAC6 pourrait être réalisée à travers un smart contract, dès lors que le protocole permet l’identification des “marqueurs”.

En effet, les intermédiaires, qu’ils soient des entreprises ou conseils qui conçoivent, commercialisent ou organisent la mise en œuvre et/ou la gestion d’un dispositif transfrontière, ont d’ores et déjà réalisé des « grilles de lecture » afin d’analyser si ces dispositifs entrent dans une catégorie des marqueurs. Cependant, certains dispositifs et marqueurs nécessitent parfois une analyse in concreto et ne peuvent être appréhendés par ces grilles.

Si une identification de tels dispositifs a été réalisée à travers un procédé informatique, alors il ne fait nul doute que les conditions de la grille de lecture puissent s’intégrer dans la mise en œuvre d’un smart contract. Une telle intégration permettrait la transmission automatique d’un dispositif déclarable aux autorités des pays visées.

L’intérêt d’un tel smart contract pour les entreprises est la mise en place d’un processus déclaratif automatisé afin d’éviter une sanction pécuniaire en cas de manquement à l’obligation déclarative. Les conditions quant au délai déclaratif serait respectées dès lors que le dispositif automatiquement déclaré est horodaté et enregistré.

L’intérêt pour les États visés par les dispositifs serait d’éviter la réception d’un volume de données trop important au regard de la capacité de traitement des administrations. Afin que l’obligation déclarative reste contraignante, l’administration pourrait consulter ces déclarations, en étant autorisée à accéder aux informations d’une blockchain dite de “consortium” tenue par l’intermédiaire recensant ces dispositifs déclarables. Une autre solution serait que les informations soient stockées sur une blockchain tenue par l’intermédiaire, puis remises sous demande, aux autorités des différents États concernées en dehors du réseau blockchain.

Néanmoins, deux limites existent. Premièrement, les capacités du smart contract présenteraient des lacunes lorsque l’étude d’un dispositif transfrontière nécessite l’interprétation in concreto sur la substance du dispositif ou l’intention du contribuable.  Au-delà de cette limite sur le fond, il faudrait également que les autres États membres transposent symétriquement la DAC6 et soit dotés de moyens techniques et humains suffisants pour appréhender la blockchain.

Dans ces deux exemples, la blockchain à travers les avantages offerts par l’arbre de Merkle et le smart contract, présente une innovation utile à des fins conformité fiscale à travers l’échange de données entre les contribuables et les Etats ou entre Etats.

Dorian Ravaute

[1] Ainsi le rapport BEPS intérimaire évoque déjà le recours à la blockchain dans la coopération entre les Etats. OCDE 2018 rapport intérimaire §6 Accessible sur https://www.oecd.org/fr/fiscalite/beps/etat-des-lieux-des-defis-fiscaux-souleves-par-la-numerisation-de-l-economie-rapport-interimaire-2018.pdf