Le métavers, quels métavers ? (1/2)

En octobre 2021, Facebook a annoncé le développement d’un nouvel environnement virtuel baptisé Metaverse. Cette information a entrainé de  nombreuses réactions tant sous la forme de commentaires dans les médias que de déclarations d’intention dans les entreprises. Comme souvent face à une innovation technologique, les réactions sont  contrastées : enfer annoncé pour certains, paradis pour d’autres. Qu’en penser ? C’est pour contribuer à cette réflexion que nous donnons la parole à Pascal Guitton et Nicolas Roussel. Dans ce premier article – bientôt suivi d’un second – ils nous expliquent de quoi il s’agit vraiment.
Binaire, le blog pour comprendre les enjeux du numérique, en collaboration avec theconversation.

De quoi parle-t-on ?

Le concept de métavers[1] vient de la littérature de science-fiction. Le terme est apparu la première fois dans un roman de 1992, Le samouraï virtuel de Neal Stephenson, pour décrire un univers généré par ordinateur auquel on accède à l’aide de lunettes et d’écouteurs. D’autres romans avaient auparavant décrit des mondes virtuels plus ou moins similaires sous d’autres termes : simulateur dans un roman de Daniel F. Galouye de 1968, ou cyberespace dans les romans de William Gibson du début des années 1980, par exemple.

Les premières réalisations concrètes de ce concept remontent aux années 1990-1995 pour Active Worlds, aux Etats Unis, ou 1997 pour Le deuxième monde, en France. Elles ont longtemps été limitées par les capacités techniques du moment.

Aujourd’hui, il existe un grand nombre de métavers, la plupart méconnus, et c’est l’annonce de Facebook/Meta qui a remis sur le devant de la scène médiatique ces environnements.

Photo de Bradley Hook – Pexels

Même s’il n’existe pas de définition précise, on peut lister quelques éléments caractéristiques d’un métavers :

  • C’est une réalisation informatique qui permet de créer un univers virtuel — ou monde ou environnement virtuel — dans lequel nous pouvons interagir ;
  • L’environnement virtuel créé est composé d’éléments de paysage ou de décor, d’objets divers et d’êtres animés autonomes ou contrôlés depuis le monde réel (on parle alors d’avatars) ;
  • L’environnement peut reproduire une partie du monde réel (la ville de Paris, dans Le deuxième monde), matérialiser des éléments abstraits de celui-ci (les éléments logiciels d’un ordinateur dans le film Tron, ou les interconnexions de réseaux informatiques dans le cyberespace de la littérature cyberpunk) ou proposer quelque chose de totalement nouveau ;
  • Les lois de cet environnement virtuel et l’aspect et le comportement de ce qui le compose peuvent être similaires à ceux du monde réel, ou non (on peut donner à un avatar humain la possibilité de survoler une ville, par exemple) ;
  • L’accès à cet environnement se fait à travers des interfaces classiques (clavier, souris et/ou manette, écran éventuellement tactile) ou spécifiques (casque, lunettes, gants, etc.) qui permettent de percevoir le monde (via une représentation visuelle, sonore, haptique, olfactive) et d’interagir avec ce qui le compose ;
  • A travers ces interfaces, diverses activités sont possibles : se déplacer ; observer ; créer ou modifier des éléments ; en acquérir ou en échanger ; collaborer ou rivaliser avec d’autres personnes présentes ; etc.
  • L’environnement est accessible et utilisable simultanément par un très grand nombre de personnes ;
  • L’environnement persiste dans la durée et évolue en permanence, qu’on y accède ou non, on le retrouve ainsi rarement dans l’état où on l’a laissé.

L’ensemble de ces caractéristiques permet à une société virtuelle de se développer, avec une culture propre, une économie, etc.

D’où vient ce concept ?

Première idée reçue à déconstruire : les métavers ne sont pas issus d’une révolution technologique récente initiée par Facebook. Ils reposent sur de nombreux développements scientifiques, technologiques, applicatifs et évènementiels parfois anciens qu’il convient de rappeler.

Les métavers s’inscrivent dans le domaine de la réalité virtuelle (RV) apparue au début des années 1980 et reposant sur une représentation immersive (visuelle et parfois aussi sonore et/ou haptique) d’un environnement virtuel avec laquelle l’utilisateur peut interagir pour se déplacer et réaliser des tâches variées. La richesse de cette représentation et de cette interaction génère un sentiment de présence dans l’environnement virtuel qui favorise l’implication de l’utilisateur. Focalisées sur la compréhension de phénomènes, la conception d’objets ou systèmes et l’apprentissage de tâches, les applications de la RV se sont d’abord cantonnées à des secteurs comme les transports, l’industrie, l’architecture et l’urbanisme, la médecine, puis se sont ouvertes à d’autres domaines comme le tourisme, la culture et le divertissement.

Dans les années 1990, le développement des technologies numériques a permis la création d’environnements virtuels collaboratifs dans lesquels différents utilisateurs pouvaient être simultanément immergés. A la croisée de différents domaines (RV, communication médiatisée, environnements de travail numériques), les premiers environnements multi-utilisateurs ciblaient encore souvent des situations professionnelles, notamment la fabrication de véhicules (voitures, avions, lanceurs de satellites) dont les acteurs sont le plus souvent localisés sur des sites différents. Assez vite, cependant, on a vu émerger des environnements destinés à des publics et des activités plus larges. Mentionnons par exemple le Deuxième monde lancé en 1997 par Canal + ou bien Second life lancé en 2003, qui a compté jusqu’à un million d’utilisateurs et reste aujourd’hui accessible.

Reconstitution de mouvements de foules dans un espace urbain – Inria, Photo C. Morel

Des recherches ont été menées sur les architectures nécessaires au passage à une plus grande échelle (en France, dans le cadre du projet Solipsis, par exemple). Le développement continu des technologies numériques a ensuite permis la diffusion à large échelle de matériels et logiciels précédemment cantonnés aux laboratoires de recherche ou très grandes entreprises. L’apparition dans les années 2010 de casques de réalité virtuelle de très bonne qualité mais à coût nettement réduit a notamment permis le développement de nouveaux usages de cette technologie dans les environnements professionnels et domestiques.

Les métavers s’inscrivent aussi dans l’évolution récente des jeux vidéo. Ces jeux proposent depuis longtemps l’exploration de mondes virtuels, mais plusieurs tendances ont profondément changé la donne ces dernières années.

L’approche « monde ouvert » sur laquelle reposent certains jeux permet l’exploration libre du monde proposé, et non plus seulement la simple progression dans une structure narrative prédéterminée. Les jeux multi-joueurs en ligne sont devenus courants. La liberté d’action permet, au-delà de la simple coprésence, la collaboration ou la rivalité entre les joueurs. Les jeux leur permettent de communiquer par texte ou oralement, de se socialiser, de s’organiser en équipes, en clans. Certains sont conçus comme des plateformes qui évoluent dans le temps à travers des mises à jour et ajouts significatifs (décors, objets, personnages animés, etc.), au point que l’on parle pour ces jeux de « saisons », comme pour les séries télévisées.

Des jeux permettent d’acquérir — en récompense à des actions ou contre de la monnaie virtuelle achetée dans le monde réel — des armes, ballons et autres objets, des tenues, des véhicules, des bâtiments, etc. Certains permettent aussi de créer des objets, de les échanger ou de les vendre. Une économie se crée ainsi au sein de ces environnements, inscrite dans la durée et avec des conséquences bien tangibles dans le monde réel[2]. Ces sociétés et économies virtuelles attirent dans le secteur des jeux vidéo des entreprises d’autres secteurs comme ceux de la musique, pour y organiser des concerts[3], ou du luxe, pour y vendre des objets griffés[4].

Dofus (2004), Roblox (2006), Minecraft (2011),  GTA online (2013), Fortnite (2017) ou les éditions récentes de Call of Duty (2003) illustrent la plupart des caractéristiques citées. Les briques technologiques créées pour réaliser ces environnements ont atteint un niveau très élevé de maturité et sont aujourd’hui utilisées dans de nombreux autres secteurs. Les « moteurs graphiques » Unity et Unreal sont ainsi couramment utilisés pour des applications dans les domaines de l’architecture, du cinéma ou de l’ingénierie. Ces briques pourraient jouer un rôle important dans la réalisation de nouveaux métavers, et sont valorisées comme telles[5].

L’engouement pour les métavers coïncide aussi avec un questionnement sur l’avenir des réseaux sociaux et la place des GAFAM, et de nouvelles possibilités offertes par les technologies de type chaîne de blocs (blockchain en anglais). Les réseaux sociaux tels que nous les connaissons sont de formidables outils de communication, avec un effet démultiplicateur pour le meilleur et pour le pire. Les métavers ouvrent de nouvelles possibilités, proposent de nouvelles interactions sociales, au-delà de la simple communication à base de textes courts ou d’images. Ils sont l’occasion de repartir sur de nouvelles bases, avec l’espoir — pour les plus optimistes — qu’elles ne conduiront pas nécessairement aux mêmes dérives.

Les technologies chaîne de blocs offrent les moyens de créer de la rareté numérique (des objets numériques ne pouvant exister qu’en nombre fini), de vérifier l’authenticité et la propriété d’un objet, de tracer son histoire, de permettre à son créateur ou sa créatrice de percevoir une redevance sur ses reventes par le biais de « contrats intelligents », etc. On voit se construire au-dessus de ces technologies de nouveaux jeux/mondes comme Decentraland ou Axie Infinity dans lesquels les joueurs/utilisateurs sont aussi les créateurs et administrateurs du monde virtuel, et peuvent en tirer de réels profits.

Cette implication des utilisateurs dans la création et l’administration permet d’envisager à terme des mondes bien plus complexes. Ces nouveaux mondes s’inscrivent dans ce qu’on qualifie de « Web3 », un internet décentralisé (au sens du pouvoir, pas de l’architecture informatique) qui permettrait aux utilisateurs de reprendre le contrôle aux acteurs qui dominent le système actuel.

Des décennies de romans et de films de science-fiction nous ont préparé aux métavers (Matrix, Ready Player One ou Free Guy par exemple, en plus des romans ou films déjà cités). La pandémie de Covid nous a poussé à déployer en masse des moyens informatiques pour nous coordonner, communiquer et collaborer. Des réunions de travail, des cours, des conférences, des concerts et autres performances artistiques en public se sont déroulés dans des conditions inédites. Malgré certaines difficultés, une étape a été franchie avec la numérisation de ces activités. Peut-on envisager ces expériences et d’autres sous des formes numériques plus riches, à plus grande échelle, telles que nous les promettent depuis longtemps les fictions sur les métavers ?

Dans un texte de 2005, Cory Ondrejka (un des créateurs de Second Life) écrivait : « [Le métavers] sera si énorme que seules des approches distribuées de la création pourront générer son contenu. Les utilisateurs devront donc construire le monde dans lequel ils vivront. […] Ces résidents attireront des utilisateurs occasionnels qui joueront à des jeux, constitueront un public et deviendront des clients. Cela constituera l’offre et la demande d’un énorme marché de biens et de services. Les créateurs ayant la propriété et les droits [sur leurs créations], cela permettra la création de richesse et de capital qui alimenteront la croissance. Ce n’est qu’alors que le Metaverse basculera et que le monde, tant réel qu’en ligne, ne sera plus jamais le même. ».

La convergence des éléments cités plus haut nous amène-t-elle au point de bascule ? De nombreuses questions scientifiques, technologiques, politiques, juridiques, économiques et sociologiques (entre autres) se posent encore. L’excitation actuelle retombera-t-elle avant qu’on ait pu y répondre ? Saura-t-on y répondre ? D’autres préoccupations rendront-elles toutes ces interrogations futiles ? Difficile de formuler un avis définitif…en attendant la seconde partie de l’article qui sera publiée jeudi prochain.

Pascal Guitton (Université de Bordeaux & Inria) & Nicolas Roussel (Inria)

[1] en anglais, on utilise Metaverse, contraction de meta + universe

[2] Fortnite, en accès gratuit, génère chaque année plusieurs milliards de dollars de chiffre d’affaires dans le monde réel à travers les microtransactions qu’il permet avec sa monnaie virtuelle.

[3] En 2020, une série de cinq concerts de Travis Scott a réuni plus de 27 millions de joueurs de Fortnite.

[4] Une représentation numérique d’un sac Gucci a été vendue plus de 4000 dollars dans Roblox l’été dernier. Le sac vaut un peu plus de 3000 dollars dans le monde réel. Sa représentation numérique ne peut être sortie du jeu et ne peut être revendue dans celui-ci.

[5] Roblox est valorisée en bourse à hauteur de 45 milliards de dollars, soit une fois et demi la valorisation de Twitter. Microsoft vient de racheter l’éditeur de jeux Activision Blizzard pour 69 milliards de dollars en expliquant que cette acquisition l’aiderait à développer les briques de base du métavers.

Réimaginer nos interactions avec le monde numérique

Wendy E. Mackay est Directrice de Recherche Inria. Elle est la toute nouvelle titulaire de la Chaire « Informatique et sciences numériques » du Collège de France où elle présente un cours intitulé « Réimaginer nos interactions avec le monde numérique ». La leçon inaugurale de ce cours est le 24 février 2022. Dans un monde où les machines sont de plus en plus présentes, son travail sur les interactions avec les machines est particulièrement essentiel. Elle avait déjà participé aux Entretiens autour de l’informatique en 2014 avec « L’être humain au cœur de la recherche en IHM ». Serge Abiteboul.
Wendy Mackay, ©Collège de France

Leçon inaugurale le 24 février 2022

Comment ré-imaginer le monde numérique ? Se focaliser seulement sur la technologie, c’est manquer l’essentiel : nos interactions avec cette technologie. Mon domaine, l’Interaction Humain-Machine, pose une question fondamentale : Comment garantir que les ordinateurs répondent aux besoins des personnes qui les utilisent ? Non pas en général, mais de façon précise, à chaque instant et pour chacun.

La leçon inaugurale du cours « Réimaginer nos interactions avec le monde numérique » offre un aperçu de ce domaine, y compris son rôle dans la révolution informatique, et des exemples historiques qui restent visionnaires aujourd’hui encore. J’explique les fondements théoriques de ce domaine multidisciplinaire qui puise dans les sciences naturelles et sociales ainsi que dans l’informatique, l’ingénierie et le design, et les défis qui se posent lorsque nous étudions des phénomènes que, par ailleurs, nous créons.

J’analyse les problèmes que peuvent causer les systèmes interactifs, avec des exemples de systèmes critiques où des défauts mineurs d’interface utilisateur ont conduit à des catastrophes. Je décris également les différentes relations que nous entretenons avec les systèmes informatiques, qu’il s’agisse d’un outil que nous apprenons à utiliser, d’un assistant intelligent à qui nous déléguons des tâches ou d’un support riche pour communiquer avec les autres. Je trace enfin une perspective vers de véritables partenariats entre les humains et leurs instruments numériques.

Les quatre premières leçons présentent les principes fondamentaux de l’interaction entre l’humain et l’ordinateur. Je commence par les principaux enseignements de la recherche sur les capacités humaines, avec des exemples qui illustrent leur contribution à la conception de technologies interactives. Ensuite, je mets l’accent sur les capacités pertinentes des systèmes informatiques, y compris les défis inhérents à la conception de l’interaction, avec des exemples historiques et actuels. La troisième leçon examine le processus de conception centré sur l’utilisateur, avec des exemples historiques de systèmes révolutionnaires et de méthodes permettant de générer de nouvelles technologies innovantes. La quatrième leçon explique comment évaluer les systèmes interactifs tout au long du processus de conception, en utilisant des méthodes qualitatives et quantitatives.

L’interaction humain-machine tire ses théories et ses méthodes d’une grande variété de disciplines, en particulier dans les domaines des sciences naturelles et des sciences humaines et sociales. Les quatre leçons suivantes présentent quatre domaines de recherche actuels dans le domaine de l’interaction humain-machine. Chaque domaine a une longue histoire de recherches innovantes et continue d’être un domaine actif de recherche :

  • l’interaction multimodale : comment interagir avec tout le corps ;
  • la réalité augmentée et virtuelle : comment intégrer l’informatique avec le monde physique ;
  • la communication médiatisée : comment concevoir des systèmes collaboratifs ;
  • les partenariats humain-machine : comment interagir avec l’intelligence artificielle.

Les humains utilisent diverses modalités pour communiquer, notamment la parole, les gestes, les expressions faciales et les mouvements du corps. La cinquième leçon retrace l’histoire des systèmes interactifs qui vont au-delà des entrées-sorties classiques que sont la souris, le clavier et l’écran. On peut par exemple penser aux interactions que nous avons tous les jours avec nos smartphone via un écran tactile. Je mentionne également des travaux qui combinent plusieurs modalités, comme la parole et le geste. Elle présente notamment des applications dans le domaine de la créativité, où les utilisateurs se servent de l’ensemble du corps pour créer avec le système.

En tant qu’êtres humains, nous utilisons la « physique de tous les jours » pour interagir avec le monde qui nous entoure. La réalité augmentée s’appuie sur cette compréhension pour « enrichir » dynamiquement les objets physiques d’informations et en mélangeant objets physiques et numériques. La réalité virtuelle, quand à elle, cherche à immerger l’utilisateur dans des mondes réels ou imaginaires simulés. La sixième leçon décrit leurs histoires entremêlées, illustrées par des exemples tirés de mes propres recherches sur le papier interactif et appliquées à un éventail de domaines allant du contrôle du trafic aérien à la musique contemporaine.

Les médias sociaux sont aujourd’hui partout et notre capacité à collaborer à distance est devenue une seconde nature, particulièrement depuis la pandémie, avec des outils de partage de documents et de communication directe ou différée par le texte, la voix ou la vidéo. La septième leçon retrace l’histoire de la communication médiatisée, en incluant des exemples tirés de mes propres recherches sur les mediaspaces et la vidéo collaborative, et décrit les recherches récentes sur la façon dont les innovations des utilisateurs avec les médias sociaux ont transformé notre façon de penser et d’utiliser les ordinateurs.

L’avènement de l’intelligence artificielle (IA) a transformé notre façon d’interagir avec les ordinateurs. Même si l’IA peut parfois remplacer l’humain, elle est le plus souvent vouée à aider celui-ci, par exemple dans des tâches d’aide à la décision. Pourtant, une grande partie de la recherche actuelle se concentre sur la manière de créer des algorithmes plus puissants, et moins sur la manière dont ces algorithmes affectent les personnes qui les utilisent. La huitième leçon retrace l’histoire des relations entre l’IA et de l’IHM, y compris mes propres recherches sur les partenariats homme-machine, où les utilisateurs restent maîtres de l’interaction afin de passer du paradigme de « l’être humain dans la boucle » à celui de « l’ordinateur dans la boucle ».

Wendy E. Mackay, Directeur de Recherche, Inria
Professeure au Collège de France,
Chaire Informatique et Sciences Numériques, 2021-2022

La chaire Informatique et Sciences numériques

Le site du Collège de France

L’informatique au Collège de France sur binaire

Les titulaires de la Chaire

  • Wendy Mackay – Réemaginer nos interactions avec le monde numérique 2021-2022
  • Frédéric Magniez – Algorithmes quantiques 2020-2021
  • Walter Fontana – La biologie de l’information. Un dialogue entre informatique et biologie 2019-2020
  • Rachid Guerraoui – Algorithmique répartie 2018-2019
  • Claire Mathieu – Algorithmes 2017-2018
  • Jean-Daniel Boissonnat – Géométrie algorithmique : des données géographiques à la géométrie des données 2016-2017
  • Yann LeCun – L’apprentissage profond : une révolution en intelligence artificielle
  • Marie-Paule Cani – Façonner l’imaginaire : de la création numérique 3D aux mondes virtuels animés 2014-2015
  • Nicolas Ayache – Des images médicales au patient numérique 2013-2014
  • Bernard Chazelle – L’algorithmique et les sciences 2012-2013
  • Serge Abiteboul – Sciences des données : de la logique du premier ordre à la toile 2011-2012
  • Martin Abadi – La sécurité informatique 2010-2011
  • Gérard Berry – Penser, modéliser et maîtriser le calcul informatique 2009-2010

 

 

Intelligence artificielle en médecine, faire de l’interpretabilité des réseaux de neurones une boite à outil pour le praticien

Quelle est l’importance et l’impact de l’interprétabilité et de l’explicabilité, domaines de recherche très porteurs pour démystifier l’Intelligence Artificielle (IA), dans la relation entre l’IA et le praticien pour une relation de confiance. Discutons de ce point avec le Dr Masrour Makaremi, docteur en chirurgie dentaire, spécialiste en orthopédie dento-faciale orthodontie titulaire d’un master2 en Anthropologie biologique et d’un master2 en Neuroscience computationnelle-sciences cognitives. Il est actuellement Doctorant en Neuroscience cognitives de l’Université de Bordeaux, et  soutiendra prochainement sa thèse de science qui traite en partie de l’apport de l’interpretabilité des réseaux de neurones à une meilleure compréhension des dysmorphoses cranio-faciales. Ikram Chraibi Kaadoud, Thierry Vieville, Pascal Guitton

 

En tant que praticien, comment en êtes-vous arrivé au domaine de l’IA ? 

L’évolution de la technologie a toujours accompagné l’évolution de la médecine, mais cela est d’autant plus vrai ces dernières années, car l’émergence de l’IA dans la sphère médicale, vient changer non seulement notre pratique, mais aussi la manière d’envisager les outils et d’interagir avec eux, et par extension, cela vient aussi changer notre relation avec les patients.

C’est en écoutant Yann Lecun en 2016 au collège de France, que je me suis réellement intéressé à l’IA. Il a su, à travers ses cours, démystifier le fonctionnement des réseaux de neurones artificiels que  j’ai commencé à envisager comme un moyen de pratiquer différemment mon métier…devenir en quelque sorte un expert augmenté en utilisant l’IA. Cette stratégie d’augmentation signifie que l’on part de ce que les humains font aujourd’hui pour arriver à comprendre la manière dont ce travail pourrait être approfondi, et non diminué, par une utilisation plus poussée de l’IA [1].

 Quels sont les challenges de l’IA en médecine ?

 C’est définitivement, la création d’un lien entre la cognition de l’expert et le flux des calculs numériques ! En résumé, les sciences cognitives ! Je m’explique : aujourd’hui les outils à base d’IA sont des outils soit d’aide à la décision, qui font par exemple des propositions de diagnostic, soit des outils pour faciliter le quotidien en prenant en charge les tâches répétitives. Par exemple, positionner des points sur un tracé céphalométrique pour objectiver les décalages des bases osseuses[2]. Ces outils sont déjà d’une très grande aide dans la pratique de mon métier au quotidien. Néanmoins, il leur manque la capacité de prendre en compte la cognition de l’expert auquel ils sont destinés.

Par exemple, prenons le cas d’un joueur d’échecs. Lorsqu’il regarde un plateau, il va mentalement découper celui-ci, l’analyser et imaginer facilement le prochain mouvement, et tout cela en peu de secondes. La théorie des chunks [3]  a démontré que les maîtres d’échecs préparent leurs coups grâce à une intuition guidée par le savoir, en comparant le jeu devant leurs yeux à une situation de jeu similaire stockée dans leur mémoire épisodique à long terme (hippocampe).

Figure 1 – Présentation d’une situation d’échec sous deux aspects différents, la même information présenté de deux manières différentes apportera potentiellement des réponses différentes de l’expert

Si l’on met ce même joueur d’échec devant une feuille où cette fois ci le jeu d’échec est présenté sous la forme de suite de codes indiquant la position des pions (ex cavalier C4, exemple illustré en Figure 1) et qu’on lui demande de jouer, sa réponse changera. Il mettra probablement plus de temps, proposera peut-être une réponse moins performante, ou tout simplement risque d’être trop perturbé pour répondre. La modification de la représentation du problème, va donc changer la réponse de l’expert humain et cela est complètement normal. Or on demande justement à l’IA de pallier celà, mais sans connaissance de l’expert avec lequel elle doit s’interfacer. Réussir une stratégie d’augmentation nécessite la connexion de l’intuition  de l’expert au flux du processus numérique.

Lors de la conception d’un produit quel qu’il soit, des utilisateurs sont de plus en plus souvent sollicités pour tester les produits et ainsi s’assurer que ces derniers répondent bien aux attentes. C’est aussi souvent le cas en informatique et en IA, mais cela ne semble pas assez pour vous, pourquoi ?

L’IA peut aller au-delà d’un rôle d’outil d’aide à la pratique du métier de médecin, ou d’une quelconque expertise. L’IA peut devenir « notre troisième œil »[4], celui que l’on pourrait avoir métaphoriquement derrière la tête afin de nous aider à percevoir tout ce que nous ne percevons pas dans l’instant. L’idée ici serait d’augmenter l’expert en le connectant à l’IA, dès le début des phases de conception de celle-ci afin de créer une vraie collaboration. Les outils IA conçus en fonction des experts, de leurs contraintes métier objectives, de leurs perceptions subjectives, pourraient mieux s’interfacer avec l’expert métier. Et pour que cet interfaçage se fasse, il vaut mieux que le praticien soit impliqué dans les échanges dès le début de manière continue, et non une fois par mois comme on peut le voir dans certaines collaborations.

Outre mon activité de clinicien, je travaille sur l’IA appliquée aux images médicales. Afin de maximiser la collaboration, nous avons installé une petite équipe de recherche en IA au sein de la clinique afin de pouvoir échanger constamment et facilement autour des techniques de vision par ordinateur, des stratégies de recherche et des analyses et interprétations des résultats. Mais au-delà de cela, je suis convaincu que l’équipe IA peut ainsi mieux accéder aux médecins, aux infirmières et assistantes, ceux qui ont une connaissance métier et qui interagissent avec les donnés là où elles se trouvent au quotidien. Nous savons qu’une grande partie de  l’apprentissage et de la communication entre individus se fait de façon non verbale et spontanée : en regroupant les praticiens, les data scientists et les données en un même lieu, c’est une symbiose naturelle que je recherche.

Récemment, Pierre Vladimir Ennezat, (médecin des hôpitaux cardiologue, Centre Hospitalier Universitaire -CHU- Henri Mondor, Créteil) s’est inquiété dans une tribune du journal « le Monde » « des effets de la numérisation croissante de la relation entre soignants et patients ». Qu’en pensez-vous? 

Heureusement qu’on est inquiet ! Cela nous oblige à une saine remise en cause ! Et nous incite à trouver notre place dans la médecine du futur. J’aime beaucoup citer « Michel Serres » qui pour les 40 ans de l’inria a fait un entretien, dans lequel il a dit que « les nouvelles technologies vont obliger les gens à être intelligents ». Isaac Bashevis Singer, prix nobel de la Littérature en 1978 complète cette pensée par une très belle citation « plus les technologies évolueront, plus on va s’intéresser à l’humain ». En résumé, l’informatique est incontournable dans le paysage médical aujourd’hui. L’IA est déjà en train de chambouler notre société à plusieurs niveaux et cela va sans aucun doute continuer. C’est d’ailleurs pour cela qu’avec le professeur P. Bouletreau, , professeur des Universités et Praticien Hospitalier au CHU de Lyon, nous proposons une introduction à l’IA dans le diplôme interuniversitaire de chirurgie orthognathique. Donc: oui, il va y avoir une numérisation croissante de la relation entre soignants et patients, mais je reste optimiste, car l’humain est un animal social ! C’est paradoxalement, là où il y a le plus de technologie, que l’on cherche le contact et la présence humaine.. Il nous faut donc juste réfléchir tous ensemble pour déterminer comment la machine peut trouver sa place parmi nous, et justement, l’interprétabilité va nous aider à cela.

Alors justement, pourquoi l’interprétabilité ? Que change ce domaine en IA pour vous en tant que praticien ?

L’interprétabilité en IA constitue le fait de véritablement rentrer dans le circuit des réseaux de neurones afin de rechercher une information qui vient compléter les connaissances déjà acquises, les challenger et les améliorer. Il faut “saisir ce que font ces réseaux de neurones”. Si ce domaine a été originellement pensé pour expliquer les mécanismes internes des réseaux de neurones, moi je le perçois comme étant un outil de découverte de connaissances auxquels, en tant que praticien, je n’aurais pas forcément pensé. Je vise donc à plus à une interprétabilité qui soit aussi explicable.  La question posée est  : que voit donc ce « troisième œil´´ ? Je suis convaincu qu’en explorant les mécanismes de prise de décision des réseaux de neurones nous pouvons faire de nouvelles découvertes. Par exemple, mieux appréhender des interactions entre différentes structures anatomiques dans une pathologie ou encore mieux définir les interactions entre la dysmorphose (mandibule en position rétrusive) et l’architecture cranio-faciale dans son ensemble (exemple illustré en Figure 2). Cette utilisation de l’interpretabilité des réseaux de neurones s’inspire de la théorie du logicien Kurt Godel qui disait : « Pour trouver des vérités dans un système donné, il faut pouvoir s’en extraire ». Je parle bien d’interprétabilité et non pas d’explicabilité, car le second, même s’il est très important, va moins loin pour moi dans le sens où il doit me permettre de valider le comportement de l’IA, et non me permettre de découvrir de nouvelles connaissances

Figure 2 – Carte de saillance (technique score-CAN) développée à partir de superposition de 1500 téléradiographie de profil de crâne de patients avec une mandibule en position retrusive par rapport au reste du crâne : retrognathe). Cette carte permet de mieux définir les interactions entre la dysmorphose (mandibule en position rétrusive)et l’architecture cranio faciale dans son ensemble.

 

 

 

Si vous pouviez ne transmettre qu’un message sur le sujet IA-praticien, quel serait-il ? 

Grâce à une réelle collaboration entre les spécialistes dans chacun des domaines,  les experts en IA et à l’utilisation de l’interprétabilité, les réseaux de neurones ne doivent pas seulement évoluer d’une black-box vers une white-box pour qu’on leur fasse confiance. Mais ils peuvent devenir une véritable   ”tool-box », c’est à dire une boîte à outils, au service de la réflexion du praticienCe défi sera pour moi une clé de la réussite d’une stratégie d’augmentation en médecine mais également éviter que l’IA ne sombre à nouveau  dans un  hiver délaissé par ses utilisateurs, après des promesses qui n’aboutissent pas

Pour en savoir plus: 

  1. Dr Masrour makaremi :https://www.makaremi-orthodontie.fr/ 
  2. Stratégie d’augmentation : 
    • Davenport TH, Kirby J. Au-delà de l’automatisation. HBR, 2016.
  3.  Utilisation de l’IA pour le positionnement de points sur un tracé céphalométrique pour objectiver les décalages des bases osseuses :
    •  Kim, H., Shim, E., Park, J., Kim, Y. J., Lee, U., & Kim, Y. (2020). Web-based fully automated cephalometric analysis by deep learning. Computer methods and programs in biomedicine, 194, 105513.
    • Lindner, C., & Cootes, T. F. (2015). Fully automatic cephalometric evaluation using random forest regression-voting. In IEEE International Symposium on Biomedical Imaging (ISBI) 2015–Grand Challenges in Dental X-ray Image Analysis–Automated Detection and Analysis for Diagnosis in Cephalometric X-ray Image. 
    • Liu, X., Faes, L., Kale, A. U., Wagner, S. K., Fu, D. J., Bruynseels, A., … & Denniston, A. K. (2019). A comparison of deep learning performance against health-care professionals in detecting diseases from medical imaging: a systematic review and meta-analysis. The lancet digital health, 1(6), e271-e297.
  4. Théorie des chunks :
    • Gobet, F., Lane, P. C., Croker, S., Cheng, P. C., Jones, G., Oliver, I., & Pine, J. M. (2001). Chunking mechanisms in human learning. Trends in cognitive sciences, 5(6), 236-243.
  5. IA, le troisième œil en médecine :

 

 

 

Le raisonnement scientifique qui se cache derrière le covido-scepticisme

Comment les sceptiques du COVID-19 utilisent-ils les données épidémiologiques sur les réseaux sociaux pour militer contre le port du masque et autres mesures de santé publique ? Dans cet article, Crystal Lee partage le résultat d’une enquête sur les groupes de réseaux sociaux des sceptiques du COVID afin de démêler leurs pratiques d’analyse de données et leur tentative de création de sens. Lonni Besançon

(an English version is also available)

Image 1 : un utilisateur de résaux sociaux présentant son analyse et ses doutes sur les données officielles américaine

Vous avez probablement assisté à une version de cette conversation au cours des derniers mois : un proche refuse de se faire vacciner ou affirme que l’épidémie de COVID est complètement exagérée, en pointant du doigt les dernières recherches lues sur Facebook. « Oui, moi je suis réellement la science », affirme-t-il. « Vous devriez faire pareil ». S’il est tentant d’écarter ces messages et conversations sur les médias sociaux comme étant simplement non scientifiques et nécessitant juste un rectificatif, une étude de six mois que j’ai menée avec une équipe de chercheurs du MIT suggère qu’une vision simpliste et binaire de la science – les chercheurs universitaires sont scientifiques, les messages Facebook ne le sont pas – nous empêche de vraiment comprendre l’accroche que génère ces groupes anti-masques. Bien que nous n’approuvions pas, ni ne cherchions à légitimer ces croyances, notre étude montre comment les utilisateurs de forums en ligne exploitent et détournent les compétences et les concepts qui sont les marqueurs de la démarche scientifique traditionnelle pour s’opposer à des mesures de santé publique telles que l’obligation de porter un masque ou l’interdiction de manger à l’intérieur d’une restaurant. Nombre de ces groupes utilisent activement des visualisations de données pour contredire celles des journaux et des organismes de santé publique, et il est souvent difficile de concilier ces discussions autour des données (voir image 1). Ces utilisateurs prétendent utiliser des méthodes scientifiques conventionnelles pour analyser et interpréter les données de santé publique ;comment se fait-il qu’ils arrivent à des conclusions totalement différentes de la majorité des scientifiques et experts de santé publique ? Qu’est-ce que « la science » telle que voudrait la définir ces groupes ?

Image 2 : un utilisateur montrant ses doutes sur l’origine des données.

Pour répondre à cette question, nous avons mené une analyse quantitative d’un demi-million de tweets et de plus de 41 000 visualisations de données parallèlement à une étude ethnographique des groupes Facebook anti-masques [1]. Ce faisant, nous avons catalogué une série de pratiques qui sont à la base des argumentations courantes contre les recommandations de santé publique, et beaucoup sont liées à des compétences que les chercheurs pourraient enseigner à leurs étudiants. En particulier, les groupes anti-masque sont critiques à l’égard des sources de données utilisées pour réaliser des visualisations dans les articles basés sur les données (voir images 1 et 2). Ils s’engagent souvent dans de longues conversations sur les limites des données imparfaites, en particulier dans un pays où les tests ont été ponctuels et inefficaces. Par exemple, beaucoup affirment que les taux d’infection sont artificiellement élevés, car au début de la pandémie, les hôpitaux ne testaient que les personnes symptomatiques. Ils arguent que le fait de tester aussi les personnes asymptomatiques ferait baisser cette statistique. De plus,  comme les personnes asymptomatiques ne sont par définition pas physiquement affectées par le virus, cela permet aux personnes qui utilisent cet argumentation de conclure que la pandémie n’est quasiment pas mortelle. 

Ces militants anti-masque en déduisent donc que des statistiques peu fiables ne peuvent pas servir de base à des politiques néfastes, qui isolent davantage les gens et conduisent les entreprises à s’effondrer de façon massive. Au lieu d’accepter telles quelles les conclusions des médias d’information ou des organisations gouvernementales, ces groupes affirment que comprendre comment ces mesures sont calculées et interprétées est le seul moyen d’accéder à la vérité sans fard. En fait, pour découvrir ces histoires cachées, certains ont délibérément évité les visualisations au profit des tableaux, qu’ils considèrent comme la forme de données la plus « brute » et la moins médiatisée. Pour nombre de ces groupes, il est essentiel de suivre la science pour prendre des décisions éclairées, mais selon eux, les données ne justifient tout simplement pas les mesures de santé publique telles que le port du masque (voir image 3).

Image 3 : un utilisateur utilisant les données de la Suède pour dire que les interventions gouvernementale ne sont pas justifiées.

 

Que disent donc les utilisateurs de masques à propos des données ? De mars à septembre 2020, nous avons mené une étude de type « deep lurking » (observation profonde) de ces groupes Facebook – basée sur la méthode de « deep hanging out » (immersion profonde) de l’anthropologue Clifford Geertz – en suivant les fils de commentaires, en archivant les images partagées et en regardant les flux en direct où les membres animent des tutoriels sur l’accès et l’analyse des données de santé publique.

 

Les anti-masques sont parfaitement conscients que les organisations politiques et d’information dominantes utilisent des données pour souligner l’urgence de la pandémie. Eux, pensent que ces sources de données et ces visualisations sont fondamentalement erronées et cherchent à contrecarrer ce qu »ils considèrent comme des biais. Leurs discussions reflètent une méfiance fondamentale à l’égard des institutions publiques : les anti-masques estiment que l’incohérence dans la manière dont les données sont collectées (image 4, surlignage jaune) et l’incessante propagande alarmiste rendent difficile la prise de décisions rationnelles et scientifiques. Ils pensent également que les données ne soutiennent pas les politiques gouvernementales actuelles (image 4, surlignage bleu).

Image 4 : conversations mettant en avant les doutes sur la façon dont les données sont collectées (surlignage jaune) et sur le fait que les données ne soutiennent pas les politiques gouvernementales actuelles (surlignage bleu).

Alors comment ces groupes s’écartent-ils de l’orthodoxie scientifique s’ils utilisent les mêmes données ? Nous avons identifié quelques tours de passe-passe qui contribuent à la crise épistémologique plus large que nous identifions entre ces groupes et la majorité des chercheurs. Par exemple, les utilisateurs anti-masque soutiennent que l’on accorde une importance démesurée aux décès par rapport aux cas recensés : si les ensembles de données actuels sont fondamentalement subjectifs et sujets à manipulation (par exemple, l’augmentation des niveaux de tests erronés), alors les décès sont les seuls marqueurs fiables de la gravité de la pandémie. Même dans ce cas, ces groupes pensent que les décès constituent une catégorie supplémentaire problématique car les médecins utilisent le diagnostic du COVID comme principale cause de décès (c’est-à-dire les personnes qui meurent à cause du COVID) alors qu’en réalité d’autres facteurs entrent en jeu (c’est-à-dire les personnes contaminées qui meurent de co-morbidité avec, mais pas à cause directement, du COVID). Puisque ces catégories sont sujettes à l’interprétation humaine, en particulier par ceux qui ont un intérêt direct à rapporter autant de décès dus au COVID que possible, ces chiffres sont largement « surdéclarés », peu fiables et pas plus significatifs que la grippe, pensent leurs détracteurs.

Plus fondamentalement, les groupes anti-masque se méfient de la communauté scientifique parce qu’ils croient que la science a été corrompue par des motivations liée au profit et par des politiques soi-disant progressistes mais en fait déterminées à accroître le contrôle social. Les fabricants de tabac, affirment-ils à juste titre, ont toujours financé des travaux scientifiques qui ont induit le public en erreur sur la question de savoir si le fait de fumer provoquait ou non le cancer. Ils pensent donc que les sociétés pharmaceutiques sont dans une situation similaire : des sociétés comme Moderna et Pfizer vont tirer des milliards de bénéfices du vaccin, et il est donc dans leur intérêt de maintenir un sentiment d’urgence sanitaire et publique quant aux effets de la pandémie, affirment-ils. En raison de ces incitations, ces groupes soutiennent que ces données doivent faire l’objet d’un examen supplémentaire et être considérées comme fondamentalement suspectes. Pour les scientifiques et les chercheurs, affirmer que les anti-masques ont simplement besoin d’une plus grande culture scientifique, alors que justement ils s’appuient dessus et la manipule, offre aux antimasques une preuve supplémentaire de l’impulsion de l’élite scientifique à condescendre aux citoyens qui épousent réellement le bon sens. 

Quelle solution s’offre alors pour éviter ces problèmes? 

  • Mieux rendre visible l’exemplarité : la communauté scientifique doit toujours travailler dans un vrai esprit éthique et de transparence [2], elle le fait (sauf exceptions rares et sanctionnées) mais ne montre probablement pas assez cet esprit éthique, il faudrait le ré-affirmer plus.
  • Bien rendre visible le doute : nombre de scientifiques ont aussi dit par rapport aux données du COVID « ça nous ne savons pas ou ne sommes pas sûrs´´ mais le traitement par les médias de ces incertitudes est souvent biaisée, c’est moins médiatique de dire « peut-être » que d’affirmer une chose … puis son contraire.
  • Aider à développer l’esprit critique : envers à la fois la science académique et les interprétations anti-scientifiques qui en sont faites. Développer l’esprit critique n’est pas dire qui a raison ou tort mais aider chacune et chacun à faire la part des faits de celles des croyances, à évaluer et déconstruire les arguments, non pas pour le rejeter systématiquement, mais pour en comprendre les origines.

Les données scientifiques de cette pandémie et leurs interprétations largement médiatisées pourraient être une occasion de mieux comprendre collectivement la démarche scientifique avec sa force, ses limites et ses dévoiements.

Crystal Lee

Références:

[1] Crystal Lee, Tanya Yang, Gabrielle Inchoco, Graham M. Jones, and Arvind Satyanarayan. 2021. Viral Visualizations: How Coronavirus Skeptics Use Orthodox Data Practices to Promote Unorthodox Science Online. In CHI Conference on Human Factors in Computing Systems (CHI ’21), May 8–13, 2021, Yokohama, Japan. ACM, New York, NY, USA, 18 pages. https://doi.org/10.1145/3411764.3445211

[2] Besançon, L., Peiffer-Smadja, N., Segalas, C. et al. Open science saves lives: lessons from the COVID-19 pandemic. BMC Med Res Methodol 21, 117 (2021). https://doi.org/10.1186/s12874-021-01304-y

 

Le plus gros bug de l’histoire !

Un bug ne se manifeste pas nécessairement dès l’instant où il est dans un système. Les bugs les plus discrets sont d’ailleurs souvent les plus dangereux. Quand ils surgissent, la catastrophe peut être terrible comme celle d’Ariane 5 en 1996, qu’on a qualifiée de bug le plus cher de l’histoire. Plus rares, il y a des bugs dont l’effet nuisible n’apparaît que lentement et progressivement, sans qu’on ose ou puisse les corriger et dont les conséquences désastreuses s’empirent jusqu’à devenir gravissimes. Celui dont nous parle ici Jean-Paul Delahaye est de ce type. Serge Abiteboul, Thierry Viéville.

Il s’agit du bug dans le protocole de distribution de l’incitation du réseau Bitcoin, la fameuse cryptomonnaie. On va voir qu’il est bien pire que celui d’Ariane 5.

Pour que le réseau Bitcoin fonctionne et fasse circuler en toute sécurité l’argent auquel il donne vie, il faut que des volontaires acceptent de participer à sa surveillance et à la gestion des informations importantes qu’il gère et qui s’inscrivent sur une « chaîne de pages », ou « blo

Explosion du vol 501 d’Ariane V du à un bug informatique ©ESA.int

ckchain ». Une rémunération a donc été prévue pour récompenser ces volontaires, appelés validateurs. Elle provient de nouveaux Bitcoins créés ex-nihilo et est distribuée toutes les 10 minutes environ à un et un seul des validateurs. Qu’il n’y en ait qu’un à chaque fois n’est pas grave car dix minutes est un intervalle court et donc la récompense est distribuée un grand nombre de fois — plus de 50000 fois par an. Reste que distribuer cette incitation pose un problème quand les ordinateurs ne sont pas obligés d’indiquer qui les contrôle, ce qui est le cas du réseau Bitcoin où tout le monde peut agir anonymement en utilisant des pseudonymes ou ce qui revient au même un simple numéro de compte.

Distribuer l’incitation par un choix au hasard qui donne la même chance à chaque validateur d’être retenu serait une solution parfaite si tout le monde était honnête. Ce n’est pas le cas bien sûr, et un validateur pourrait apparaître sous plusieurs pseudonymes différents pour augmenter la part de l’incitation qu’il recevrait avec un tel système. Avec k pseudonymes un validateur tricheur toucherait l’incitation k fois plus souvent que les validateurs honnêtes. S’il apparaît sous mille pseudonymes différents, il toucherait donc mille fois plus qu’un validateur honnête… qui ne le resterait peut-être pas. Le réseau serait en danger. En langage informatique, on appelle cela une « attaque Sybil » du nom d’une patiente en psychiatrie qui était atteinte du trouble des personnalités multiples ou trouble dissociatif de l’identité. Plusieurs solutions sont possibles pour empêcher ces attaques, et le créateur du protocole Bitcoin dont on ne connait d’ailleurs que le pseudonyme, Satoshi Nakamoto, en a introduite une dans son système qu’au départ on a jugée merveilleuse, mais dont on a compris trop tard les conséquences désastreuses. Ces conséquences sont si graves qu’on peut affirmer que le choix de la méthode retenue et programmée par Nakamoto pour contrer les attaques Sybil est un bug.

Sa solution est « la preuve de travail » (« Proof of work » en anglais). L’idée est simple : on demande aux validateurs du réseau de résoudre un problème arithmétique nouveau toutes les dix minutes. La résolution du problème exige un certain temps de calcul avec une machine de puissance moyenne, et elle ne s’obtient qu’en cherchant au hasard comme quand on tente d’obtenir un double 6 en jetant de manière répétée deux dés. Le premier des validateurs qui résout le problème gagne l’incitation pour la période concernée. Toutes les dix minutes un nouveau problème est posé permettant à un validateur de gagner l’incitation.

Si tous les validateurs ont une machine de même puissance les gains sont répartis équitablement entre eux, du moins sur le long terme. Si un validateur utilise deux machines au lieu d’une seule pour résoudre les problèmes posés, il gagnera deux fois plus souvent car avec ses deux machines c’est comme s’il lançait deux fois plus souvent les dés que les autres. Cependant c’est acceptable car il aura dû investir deux fois plus que les autres pour participer ; son gain sera proportionné à son investissement. Il pourrait gagner plus souvent encore en achetant plus de machines, mais ce coût pour multiplier ses chances de gagner l’incitation impose une limite. On considère que ce contrôle des attaques Sybil est satisfaisant du fait que les gains d’un validateur sont fixés par son investissement. Il faut noter que celui qui apparaît avec k pseudonymes différents ne gagne rien de plus que s’il apparait sous un seul, car les chances de gagner sont proportionnelles à la puissance cumulée des machines qu’il engage. Qu’il engage sa puissance de calcul sous un seul nom ou sous plusieurs ne change rien pour lui. Avec la preuve de travail, il semble que la répartition des gains ne peut pas être trop injuste car si on peut améliorer ses chances de gagner à chaque période de dix minutes, cela à un coût et se fait proportionnellement à l’investissement consenti.

Une usine de minage de bitcoin avec ces immense salles remplies d’unités de calcul ©AndreyRudakov/Bloomberg

Le réseau bitcoin fonctionne selon le principe de la preuve de travail. Au départ tout allait bien, les validateurs se partageaient les bitcoins créés et mis en circulation à l’occasion de chaque période, sans que cela pose le moindre problème puisque leurs machines avaient des puissances comparables et que personne n’en utilisait plusieurs pour augmenter ses chance de gagner. La raison principale à cette situation est qu’en 2009 quand le réseau a été mis en marche, un bitcoin ne valait rien, pas même un centime de dollar. Investir pour gagner un peu plus de bitcoins n’avait pas d’intérêt. Cependant, petit à petit, les choses ont mal tourné car le bitcoin a pris de la valeur. Il est alors devenu intéressant pour un validateur de se procurer du matériel pour gagner plus souvent les concours de calcul que les autres. Plus la valeur du bitcoin montait plus il était intéressant de mettre en marche de nombreuses machines pour augmenter ses gains en gagnant une plus grande proportion des concours de calcul. Une augmentation de la capacité globale de calcul du réseau s’est alors produite. Elle n’a pas fait diminuer le temps nécessaire pour résoudre le problème posé chaque dix minutes, car Nakamoto, très malin, avait prévu un mécanisme qui fait que la difficulté des problèmes soumis s’ajuste automatiquement à la puissance totale du réseau. Depuis 2009, il faut dix minutes environ pour qu’un des ordinateurs du réseau résolve le problème posé et gagne l’incitation, et cette durée n’a jamais changée car le réseau est conçu pour cela.

Du bitcoin à la blockchain : dans ce double podcast Jean-Paul prend le temps d’expliquer comment ça marche aux élève de l’enseignement SNT en seconde et au delà.

Les validateurs associés parfois avec d’autres acteurs spécialisés dans la résolution des problèmes posés par le réseau — et pas du tout dans la validation — ont accru leurs capacités de calcul. La puissance cumulée de calcul du réseau a en gros été multipliée par dix tous les ans entre 2010 et maintenant. C’est énorme !

Les spécialistes de la résolution des problèmes posés par le réseau sont ce qu’on nomme aujourd’hui les « mineurs » : ils travaillent pour gagner des bitcoins comme des mineurs avec leurs pioches tirent du minerai du sous sol. Il faut soigneusement distinguer leur travail de celui des validateurs : les validateurs gèrent vraiment le réseau et lui permettent de fonctionner, les mineurs calculent pour aider les validateurs à gagner l’incitation. Si parfois des validateurs sont aussi mineurs, il faut bien comprendre que deux type différents de calculs sont faits : il y a le travail de validation et le travail de minage.

Entre 2010 et maintenant, la puissance du réseau des mineurs a été multipliée par 1011, soit 100 milliards. L’unité de calcul pour mesurer ce que font les mineurs est le « hash ». En janvier 2022, on est arrivé à 200×1018 hashs pas seconde, soit 200 milliards de milliards de hashs par seconde, un nombre colossal.

Bien sûr les machines utilisées ont été améliorées et on a même fabriqué des circuits électroniques pour calculer rapidement des hashs, et on les perfectionne d’année en année. Cependant, et c’est là que le bug est devenu grave, même en dépensant de moins en moins d’électricité pour chaque hash calculé, on en a dépensée de plus en plus, vraiment de plus en plus ! La logique économique est simple : plus le cours du bitcoin est élevé —il s’échange aujourd’hui à plus de 30 000 euros— plus il vaut la peine d’investir dans des machines et d’acheter de l’électricité dans le but de miner car cela permet de gagner plus fréquemment le concours renouvelé toutes les dix minutes, et cela rentabilise les investissements et dépenses courantes du minage.

Une concurrence féroce entre les mineurs s’est créée, pour arriver en 2022 à une consommation électrique des mineurs qu’on évalue à plus de 100 TWh/an. La valeur 50 TWh est un minimum absolument certain, mais 100 TWh/an ou plus est très probable. Sachant qu’un réacteur nucléaire de puissance moyenne produit 8 TWh/an, il y a donc l’équivalent de plus de 12 réacteurs nucléaires dans le monde qui travaillent pour produire de l’électricité servant à organiser un concours de calcul qui fixe toutes les dix minutes quel est le validateur qui gagne l’incitation. Je me permets d’insister : l’électricité n’est pas dépensée pour le fonctionnement en propre du réseau, mais uniquement pour désigner le validateur gagnant. Quand on étudie le fonctionnement du réseau bitcoin, on découvre qu’il y a au moins mille fois plus d’électricité dépensée par le réseau pour choisir le gagnant toutes les dix minutes, que pour son fonctionnement propre. S’il dépense beaucoup, c’est donc à cause de la preuve de travail, pas à cause de sa conception comme réseau distribué et bien sécurisé permettant la circulation des bitcoins.

Est-ce que cette situation justifie vraiment de parler de bug ? Oui, car il existe d’autres solutions que la preuve de travail et ces autres solutions n’engendrent pas cette dépense folle d’électricité. La solution alternative la plus populaire dont de multiples variantes ont été proposées et mises en fonctionnement sur des réseaux concurrents du bitcoin se nomme « la preuve d’enjeu ». Son principe ressemble un peu à celui de la preuve de travail. Les validateurs qui veulent avoir une chance de se voir attribuer l’incitation distribuée périodiquement, engage une somme d’argent en la mettant sous séquestre sur le réseau où elle se trouve donc bloquée temporairement. Plus la somme mise sous séquestre est grande plus la probabilité de gagner à chaque période est grande. Comme pour la preuve de travail, avec la preuve d’enjeu il ne sert à rien de multiplier les pseudonymes car votre probabilité de gagner l’incitation sera proportionnelle à la somme que vous engagerez. Que vous le fassiez en vous cachant derrière un seul pseudonyme, ou derrière plusieurs ne change pas cette probabilité. Quand un validateur souhaite se retirer, il récupère les sommes qu’il a engagées ; ce qu’il a gagné n’est donc pas amputé par des achats de machines et d’électricité.

Cette méthode ne provoque pas de dépenses folles en électricité et achats de matériels, car il n’y en a pas ! Avec des configurations équivalentes de décentralisation et de sécurisation un réseau de cryptomonnaie utilisant la preuve d’enjeu dépensera mille fois moins d’électricité qu’un réseau utilisant la preuve de travail. Il y a une façon simple d’interpréter les choses. La preuve d’enjeu et la preuve de travail limitent toutes les deux les effets des attaques Sybil en distribuant l’incitation proportionnellement aux engagements de chaque validateur —soit du matériel de calcul et de l’électricité, soit un dépôt d’argent —. Cependant la preuve d’enjeu rend son engagement au validateur quand il cesse de participer, et donc rien n’est dépensé pour participer, alors que la preuve de travail consomme définitivement l’électricité utilisée et une partie de la valeur des matériels impliqués. En un mot, la preuve de travail est une preuve d’enjeu qui confisque une partie des sommes engagées et les brûle.

Avoir utilisé la preuve de travail, avec les conséquences qu’on observe aujourd’hui est de toute évidence une erreur de programmation dans le protocole du réseau du bitcoin. Le bug n’est apparu que progressivement mais il est maintenant là, gravissime. Le plus terrible, c’est qu’une fois engagé avec la preuve de travail le réseau bitcoin est devenu incapable de revenir en arrière. Corriger le bug alors que le réseau est en fonctionnement est quasiment impossible.

En effet, le pouvoir pour faire évoluer la façon dont fonctionne du réseau, ce qu’on appelle sa gouvernance, est aux mains de ceux qui disposent de la puissance de calcul pour le minage. Ils ont acheté du matériel, installé leurs usines, appris à se procurer de l’électricité bon marché, ils ne souhaitent pas du tout que la valeur de leurs investissements tombe à zéro. Ils ne souhaitent donc pas passer à la preuve d’enjeu. La correction du bug est donc devenue très improbable. Aujourd’hui le réseau Ethereum qui est le second en importance dans cette catégorie essaie malgré tout de passer de la preuve de travail à la preuve d’enjeu. Il a beaucoup de mal à le faire et il n’est pas certain qu’il y arrive. Du côté du bitcoin rien n’est tenté. Sans interventions extérieures, le bug du bitcoin va donc continuer à provoquer ses effets absurdes.

Est-ce le plus gros bug de l’histoire ? Celui d’Ariane 5 a été évalué à environ 5 millions de dollars. Si on considère, ce qui semble logique, que tout l’argent dépensé en minage représente le coût du bug du bitcoin alors c’est beaucoup plus, puisqu’en ordre de grandeur le minage depuis 2009 a coûté entre 5 et 10 milliards de dollars et peut-être plus. Le piège économique qui est résulté du bug est d’une perversité peut-être jamais rencontrée.

Jean-Paul Delahaye,  Professeur d’informatique à l’université Lille-I

Au delà :

+ La preuve de travail a d’autres inconvénients que celui mentionné ici de dépenser inutilement en électricité la production d’une dizaine de réacteurs nucléaires. Ces autres inconvénients sont présentés dans un document qui peut être vu comme un complément à ce texte :
Jean-Paul Delahaye, Les arguments en faveur de la preuve d’enjeu contre la preuve de travail pour les chaines de bloc, Institut Rousseau, février 2022.

Une tribune intitulée «Il est urgent d’agir face au développement du marché des cryptoactifs et de séparer le bon grain de l’ivraie » portant sur le problème de la régulation des cryptoactifs a été publiée par Le Monde le jeudi 10 février 2022. Vous pouvez en voir le texte avec la liste des signataires et éventuellement ajouter votre signature en allant en : https://institut-rousseau.fr/liste-des-signataires-tribune-regulation-cryptoactifs/

 

 

Aha ! Le cri de la créativité

Oui, binaire s’adresse aussi aux jeunes de tous âges, que les sciences informatiques laissent parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible, comment modéliser informatiquement la… créativité. Marie-Agnès Enard, Pascal Guitton et Thierry Viéville.

– Aha !
– Toi, tu viens de trouver quelque chose
– Oh oui : j’étais dans l’impasse depuis un moment pour résoudre mon problème, j’avais vraiment tout essayé, et puis là, soudainement, cela m’est apparu : la solution est devenue claire, générant un vrai plaisir intellectuel, et avec la certitude que c’est bien ça.
– Ah oui, c’est ce que les spécialistes en neuroscience appellent l’insight.  Ça se rapproche de l’intuition; on parle aussi de l’effet Eureka, et c’est super bien étudié.
– Tu veux dire qu’on sait ce qui se passe dans le cerveau à ce moment-là
– Oui et mieux encore : on sait simuler cela de manière informatique.
– Allez, vas-y, explique.

– Assez simplement quand on “pense”, il y a une partie de notre pensée qui est explicite : on amène de manière explicite des éléments dans notre mémoire de travail, pour les utiliser. Il y a à la fois des souvenirs épisodiques personnellement vécus dans un lieu et à un instant donné et des connaissances générales sur les choses, à propos des règles d’action.Mais il y aussi toute une part de notre cerveau qui fonctionne implicitement, c’est à dire qui utilise des processus automatisés (donc non conscients) correspondant à des résumés, des simplifications, de pensées explicites anciennes que l’on a tellement pratiquées qu’on a fini par les automatiser. Elles sont plus rapides et simples à utiliser mais moins adaptables et moins facile à interpréter. On peut alors raisonner de manière analytique en restant au niveau explicite ou solliciter la partie implicite de notre pensée pour fournir des pistes plus inédites, et cela correspond au fonctionnement d’une partie du réseau cérébral dit “par défaut” qui s’active quand on laisse libre court à nos pensées. Ce réseau sert aussi en utilisant notre mémoire épisodique à générer des souvenirs et des épisodes imaginaires qui aident, à partir de la situation présente, à explorer les possibles.

Modèle anatomique et fonctionnel du réseau du mode par défaut. Michel Thiebaut de Schotten, via Wikipédia © CC BY-SA, On trouvera une description précise ici.

– Ok alors, en gros pour résoudre une tâche créative, on se prépare et puis ensuite on laisse notre cerveau tourner pour voir à trouver des choses inattendues ?
– Tu as doublement raison : ça ne vient pas tout seul, il faut bien une phase d’initiation pour que les mécanismes implicites fonctionnent, puis une phase de “lâcher prise” et…
– Et que se passe-t-il lors du “Aha” ?
– Et bien regarde : il y a une rafale d’oscillations à haute fréquence du cerveau, précédée d’oscillations préparatoires plus lentes :


Quand le phénomène d’insight apparaît il est précédé d’une augmentation des oscillations lentes du cerveau (rythme alpha qui correspond à une activité de “repos” sans effectuer de tâches particulières mais qui permet au cerveau de travailler en interne) puis se manifeste avec l’apparition d’oscillations rapides (rythme gamma concomitant à l’arrivée à la conscience d’une perception au sens large en lien avec les phénomènes d’attention. ©CLIPAREA I Custom media/Shutterstock.com (image de gauche) et adapté de The Cognitive Neuroscience of Insight, John Kounios et Mark Beeman Annual Review of Psychology, January 2014 (image de droite)

Comme une vague de fond qui arrive ?
– Oui : le moment “Aha” , c’est justement quand tout s’emboîte : quand on se rend compte que la solution trouvée convient à la fois au niveau du sens des choses (au niveau sémantique) et de leur fonctionnement (on parle de niveau syntaxique).
– Ah oui : on en a une vision vraiment précise effectivement, j’ai même vu ici que cela conduit à des conseils pratiques pour doper sa créativité.
– Ce qui est vraiment intéressant, c’est qu’au delà de ces observations on commence à pouvoir décrire les processus calculatoires mis en oeuvre dans ces processus divergents d’exploration de nouvelles pistes (par exemple des mécanismes de recherche aléatoires ou des processus qui généralisent une situation en y ajoutant des éléments “hors de la boîte” initiale) et de mécanismes convergents de validation que ce qui est trouvé est pertinent et utile.
– Tu veux dire qu’on a des modèles informatiques de ces mécanismes créatifs ?
– Oui plusieurs, par exemple Ana-Maria Oltețeanu, pour ne citer qu’une collègue, a regardé comment tout cela peut se mécaniser et d’autres scientifiques fournissent des outils pour aider à faire ce délicieux travail de créativité. Il y a par exemple DeepDream qui peut générer des images inédites à partir de nos consignes, ou créer des animations 3D à partir d’images de 2D, ou générer de la musique statistiquement proche d’un style musical donné, voire inventer de nouveaux styles complètement inédits grâce aux Creative Adversarial Networks (CAN).
– Mais du coup, ça va permettre de développer des intelligence artificielles créatives à notre place ?
– Ah ben peut-être (ou pas), mais pourquoi serait-on assez con, pour se priver de ce qui est le plus cool pour nous intellectuellement, créer ! En le faisant faire par une machine capable de produire des choses nouvelles mais pas d’envisager ou juger l’émoi qu’elles suscitent, donc qui n’a pas d’intention créatrice faute de grounding ?
– Ah mince, encore un mot anglais à comprendre pour te suivre.
– T’inquiète, il y a un autre article de Petit Binaire qui explique tout ça.

Frédéric Alexandre, Chloé Mercier et Thierry Viéville.

Pour aller plus loin : Creativity explained by Computational Cognitive Neuroscience https://hal.inria.fr/hal-02891491