Alexandra Elbakyan : une grande dame pour un grand projet

Dans le cadre de la rubrique autour des “communs du numérique”.  Alexandra Elbakyan a réalisé SciHub, une archive de tous les articles scientifiques. Dans la tension entre le droit d’auteur et le droit d’accès aux résultats scientifiques, elle a choisi son camp. Elle répond pour binaire à nos questions. Serge Abiteboul et François Bancilhon. 
Ce qui suit est notre traduction. Le texte original.
Alexandra Elbakyan, SciHub.ru, 2020

Pouvez-vous décrire brièvement Sci-Hub, son histoire et son statut actuel ?

Sci-Hub est un site web dont l’objectif est de fournir un accès gratuit à toutes les connaissances académiques. Aujourd’hui, la plupart des revues scientifiques deviennent inaccessibles en raison de leur prix élevé(*). Sci-Hub contribue à supprimer la barrière du prix, ou paywall. Des millions d’étudiants, de chercheurs, de professionnels de la santé et d’autres personnes utilisent Sci-Hub aujourd’hui pour contourner les paywalls et avoir accès à la science.

J’ai créé Sci-Hub en 2011 au Kazakhstan. Le projet est immédiatement devenu très populaire parmi les chercheurs de Russie et de l’ex-URSS. Au fil des années, il n’a cessé de croître et est devenu populaire dans le monde entier.

Mais l’existence de Sci-Hub est aussi un combat permanent : le projet est régulièrement attaqué en justice qualifié d’illégal ou d’illicite, et bloqué physiquement. Les poursuites judiciaires proviennent de grandes entreprises, les éditeurs scientifiques  : Elsevier et d’autres. Ces sociétés sont aujourd’hui les propriétaires de la science. Elles fixent un prix élevé pour accéder aux journaux de recherche. Des millions de personnes ne peuvent pas se permettre cette dépenses et sont privées de l’accès à la science et l’information. Sci-Hub lutte contre cet état de fait.

Sci-Hub fait actuellement l’objet d’un procès en Inde. Les éditeurs académiques demandent au gouvernement indien de bloquer complètement l’accès au site web.

Nombre d’articles téléchargés depuis Sci-Hub au cours des 30 derniers jours (12 février 2022)

Est-ce que les articles de Wikipedia sur vous et Sci-Hub sont corrects ?

Cela dépend, car les articles diffèrent selon les langues. J’ai lu les articles anglais et russes de Wikipedia, et je ne les aime vraiment pas ! Des points essentiels sur Sci-Hub sont omis, comme le fait que le site est largement utilisé par les professionnels de la santé et que Sci-Hub contribue à sauver des vies humaines. Les articles semblent se concentrer sur la description des procès intentés contre le site et son statut illégal, alors que le large soutien et l’utilisation de Sci-Hub par les scientifiques du monde entier sont à peine mentionnés.

L’article russe, par exemple, donne l’impression que le principal argument d’Elsevier dans son procès contre Sci-Hub est que ce dernier utilise des comptes d’utilisateurs « volés » ! C’est évidemment faux, la raison principale et le principal argument d’Elsevier dans son procès contre Sci-Hub est la violation du droit d’auteur, le fait que Sci-Hub donne un accès gratuit aux revues qu’Elsevier vend au prix fort ! Aujourd’hui, les responsables des relations publiques d’Elsevier essaient de promouvoir ce message, comme si le principal point de conflit était que Sci-Hub utilise des références « volées » !

On trouve de nombreux points incorrects de ce genre dans les articles sur Sci-Hub.

Un article me concernant mentionnait que j’étais soupçonné d’être un espion russe. Un journal m’a demandé un commentaire à ce sujet, et j’ai répondu : il peut y avoir une aide indirecte du gouvernement russe dont je ne suis pas au courant, mais je peux seulement ajouter que je fais toute la programmation et la gestion du serveur moi-même.

Quelqu’un a coupé la citation, et a inséré dans Wikipedia seulement la première partie : « il peut y avoir une aide indirecte du gouvernement russe dont je ne suis pas au courant » en omettant que : « Je fais toute la programmation et la gestion du serveur moi-même ». Il y avait beaucoup d’insinuations de ce genre. Certaines ont été corrigées mais très lentement, d’autres subsistent. Par exemple, l’article russe affirme que j’ai « bloqué l’accès au site web ». C’est ainsi qu’ils décrivent le moment où Sci-Hub a cessé de travailler en Russie pour protester contre le traitement réservé au projet.

Au tout début, lorsque l’article de Wikipédia sur Sci-Hub a été créé, le projet était décrit comme un… moteur de recherche ! Ce qui était complètement faux. J’ai essayé de corriger cela mais ma mise à jour a été rejetée. Les modifications ont finalement été apportées lorsque j’ai publié sur mon blog un article sur les erreurs de l’article Wikipedia.

Pouvez-vous nous donner quelques chiffres sur l’activité de Sci-Hub ?

En dix ans, Sci-Hub a connu une croissance constante. En 2020, il a atteint 680 000 utilisateurs par jour ! Puis après le confinement, il est revenu à nouveau à environ 500 000 utilisateurs par jour.

Il existe également des miroirs-tiers de Sci-Hub qui sont apparus récemment, comme scihub.wikicn.top et bien d’autres. Lorsque vous recherchez Sci-Hub sur Google, le premier résultat est souvent un miroir-tiers de ce type. Je constate que de nombreuses personnes utilisent aujourd’hui ces miroirs-tiers, mais je n’ai pas accès à leurs statistiques. Je n’ai accès qu’aux statistiques des serveurs Sci-Hub originaux que je gère : sci-hub.se, sci-hub.st et sci-hub.ru.

Aujourd’hui, Sci-Hub a téléchargé plus de 99 % du contenu des grands éditeurs universitaires (Elsevier, Springer, Wiley, etc.), mais il reste encore de nombreux articles d’éditeurs moins connus. Il y a donc encore beaucoup de travail. L’objectif de Sci-Hub est d’avoir tous les articles scientifiques jamais publiés depuis 1665 ou même avant. Actuellement, Sci-Hub a temporairement interrompu le téléchargement de nouveaux articles en raison du procès en cours en Inde, mais cela reprendra bientôt.

Comment voyez-vous l’évolution du site ? Quel avenir voyez-vous ? Vous semblez jouer au chat et à la souris pour pouvoir donner accès au site. Combien de temps cela peut-il durer ?

Cela durera jusqu’à ce que Sci-Hub gagne et soit reconnu comme légal dans tous les pays du monde.

Voyez-vous un espoir que le site devienne légitime ?

C’est mon objectif depuis 2011. En fait, je m’attendais à ce que cela se produise rapidement, car le cas est tellement évident : les scientifiques utilisent le site Sci-Hub et ils ne sont clairement  pas des criminels, donc Sci-Hub est légitime. Mais la reconnaissance de ce fait semble prendre plus de temps que je ne l’avais initialement prévu.

Nous supposons que votre popularité dépend du pays ? Pouvez-vous nous en dire plus sur la Chine, l’Afrique et la France ?

Je peux vous donner quelques statistiques provenant du compteur Yandex. Les statistiques internes de Sci-Hub ne sont que légèrement différentes. En Chine, il y a environ 1 million d’utilisateurs par mois (en 2017, c’était un demi-million mensuel). Il y a environ 250 000 utilisateurs par mois en provenance d’Afrique et environ 1 million en provenance d’Europe.

Pour la France, c’était pendant un moment au-dessus de 100 000 utilisateurs par mois. Ce chiffre a beaucoup diminué, je crois, parce que les chercheurs accèdent à des sites miroirs.

La qualité de votre interface utilisateur est mentionnée par beaucoup de vos utilisateurs. Pensez-vous qu’elle soit une raison essentielle du succès de Sci-Hub ?

Je ne le pense pas. La principale raison de l’utilisation de Sci-Hub, dans la plupart des cas, est le manque d’accès aux articles scientifiques par d’autres moyens. Les pays qui utilisent le plus Sci-Hub sont l’Inde et la Chine, et dans ces pays, l’utilisation de Sci-Hub n’est clairement pas une question de commodité. Sci-Hub ne dispose de cette interface « pratique » que depuis 2014 ou 2015. La première version de Sci-Hub obligeait les utilisateurs à saisir l’URL, à changer de proxy et à télécharger les articles manuellement, mais le site est rapidement devenu très populaire. Avant Sci-Hub, les chercheurs avaient l’habitude de demander des articles par courrier électronique ; c’était nettement plus long et moins pratique que Sci-Hub. Il fallait souvent plusieurs jours pour obtenir une réponse et parfois, on ne recevait pas de réponse du tout.

Quelle est la taille de l’équipe qui gère le site ?

Sci-Hub n’a pas d’équipe ! Depuis le début, il s’agit simplement d’un petit script PHP que j’ai codé moi-même, basé sur un code d’anonymisation open-source. Je gère les serveurs de Sci-Hub et je fais toute la programmation moi-même. Cependant, certaines personnes fournissent des comptes que Sci-Hub peut utiliser pour télécharger de nouveaux articles. D’autres gèrent les miroirs de Sci-Hub. Mais on ne peut pas appeler cela une équipe ; ce ne sont que des collaborations.

Avez-vous des contributeurs réguliers qui apportent directement des articles en libre accès ?

Non. Je m’explique : Sci-Hub est initialement apparu comme un outil permettant de télécharger automatiquement des articles. C’était une idée centrale au cœur de Sci-Hub ! Sci-Hub n’a jamais fonctionné avec des utilisateurs contribuant aux articles. Il serait impossible d’avoir des dizaines de millions d’articles fournis par les utilisateurs, car une telle base de données devrait être modérée : sinon, elle pourrait être facilement attaquée par quelqu’un qui fournirait de faux articles.

Une telle option pourrait exister à l’avenir, car il reste beaucoup moins d’articles, et Sci-Hub en a téléchargé la majeure partie.

Quel est votre défi le plus grand : obtenir l’accès aux publications ou fournir l’accès aux publications ?

La majeure partie de mon temps et de mon travail est consacrée à l’obtention de nouveaux articles. Cela nécessite la mise en œuvre de divers scripts pour télécharger les articles de différents éditeurs, et la mise à jour de ces scripts lorsque les éditeurs effectuent des mises à jour sur leurs sites Web, rendant le téléchargement automatique de Sci-Hub plus difficile. Par exemple, Elsevier a récemment mis en place des étapes supplémentaires qui rendent le téléchargement automatique plus difficile. L’ancien moteur de Sci-Hub a cessé de fonctionner et j’ai dû mettre en œuvre une approche différente.

Fournir l’accès aux bases de données est relativement plus facile, si l’on ne tient pas compte des défis juridiques bien sûr.

Qu’est-ce qui vous a poussé à créer Sci-Hub ? Le considérez-vous comme faisant partie du mouvement des biens communs, comme un commun au sens d’Elinor Ostrom ?

J’étais membre d’un forum en ligne sur la biologie moléculaire. Il y avait une section « Full Text » où les gens demandaient de l’aide pour accéder aux articles. Cette section était assez active et de nombreuses personnes l’utilisaient. Ils postaient des demandes, et si un membre du forum avait accès à l’article, il l’envoyait par courriel.

J’ai eu l’idée de créer un site Web qui rendrait ce processus automatique, en évitant les demandes manuelles et les envois par courrier électronique : les utilisateurs pouvaient simplement se rendre sur le site Web et télécharger eux-mêmes ce dont ils avaient besoin.

Pour moi, il y a des liens entre cette idée de communisme et l’idée de gestion collective des ressources dans l’esprit d’Elenor Ostrom.

Dans la première version de Sci-Hub, il y avait un petit marteau et une faucille, et si vous pointiez un curseur de souris dessus, il était écrit « le communisme est la propriété commune des moyens de production avec un libre accès aux articles de consommation ». Donc, libre accès aux articles ! Pour moi, Sci-Hub et plus généralement le mouvement du libre accès ont toujours été liés au communisme, car les articles scientifiques devraient être communs et libres d’accès pour tous, et non payants. Aujourd’hui, les connaissances scientifiques sont devenues la propriété privée de quelques grandes entreprises. C’est dangereux pour la science.

En 2016, j’ai découvert les travaux du sociologue Robert Merton. Il propose différents idéaux pour les scientifiques. L’un d’eux qu’il appelle le communisme est la propriété commune des découvertes scientifiques, selon laquelle les scientifiques abandonnent la propriété intellectuelle en échange de la reconnaissance et de l’estime. C’est l’objectif de Sci-Hub.

Comment les gens peuvent-ils vous aider ?

Parlez de Sci-Hub, discutez-en plus souvent. Lancez une pétition pour soutenir la légalisation de Sci-Hub, et discutez-en avec les responsables gouvernementaux et les politiciens. Cela aidera à résoudre la situation.

Alexandra Elbakyan, SciHub

SciHub.ru, 2018

Pour aller plus loin

Des informations générales sur la façon dont Sci-Hub a été lancé sont disponibles ici :

et une lettre de 2015 au juge, lorsque Sci-Hub a été poursuivi en justice aux États-Unis :

(*) Note des éditeurs : un scientifique peut avoir à payer des dizaines d’euros pour lire un article si son laboratoire n’a pas souscrit à ce journal, peut-être parce que le laboratoire n’en avait pas les moyens.

Les communs numériques

 

Les cinq murs de l’IA 3/6 : la sécurité

Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ?  Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

Episode 3: le mur de la sécurité

Les questions de sécurité des systèmes d’information ne sont pas propres à l’IA, mais les systèmes d’IA ont certaines particularités qui les rendent sensibles à des problèmes de sécurité d’un autre genre, et tout aussi importants.

Si les systèmes d’IA sont, comme tous les systèmes numériques, susceptibles d’être attaqués, piratés, compromis par des méthodes « usuelles » (intrusion, déchiffrage, virus, saturation etc.), ils possèdent des caractéristiques particulières qui les rendent particulièrement fragiles à d’autres types d’attaques plus spécifiques. Les attaques antagonistes ou adverses («adversarial attacks » en anglais) consistent à injecter des variations mineures des données d’entrée, lors de la phase d’inférence, afin de modifier de manière significative la sortie du système. Depuis le célèbre exemple du panneau STOP non reconnu lorsqu’il est taggé par des étiquettes, et celui du panda confondu avec un gibbon suite à l’ajout d’une composante de bruit, on sait qu’il est assez facile de composer une attaque de sorte à modifier très fortement l’interprétation des données faite par un réseau de neurones. Et cela ne concerne pas que les images: on peut concevoir des attaques antagonistes sur du signal temporel (audio en particulier), sur du texte, etc. Les conséquences d’une telle attaque peuvent être dramatiques, une mauvaise interprétation des données d’entrée peut conduire à une prise de décision dans le mauvais sens (par exemple, accélérer au lieu de s’arrêter, pour une voiture). Le rapport du NIST sur le sujet1 établit une intéressante taxonomie des attaques et défenses correspondantes. Il montre notamment que les attaques en phase d’inférence ne sont pas les seules qui font souci. Il est notamment possible de polluer les bases d’apprentissage avec des exemples antagonistes, ce qui compromet naturellement les systèmes entraînés à partir de ces bases. Bien évidemment la communauté de recherche en intelligence artificielle s’est saisie de la question et les travaux sur la détection des attaques antagonistes sont nombreux. Il est même conseillé d’inclure de telles attaques pendant l’apprentissage de manière à augmenter la robustesse des systèmes entraînés.

Panneau stop non reconnu et panda confondu avec un gibbon, extrait de publications usuelles sur ces sujets.

Toujours est-il que des accidents – aujourd’hui inévitables – sur des systèmes à risque ou critiques, causés par ces questions de sécurité, auront des conséquences extrêmement néfastes sur le développement de l’intelligence artificielle.

Un deuxième point d’attention est la question du respect de la vie privée. Cette question prend une dimension particulière avec les systèmes d’IA qui ont une grande capacité à révéler des données confidentielles de manière non désirée: par exemple retrouver les images individuelles d’une base d’entraînement dans les paramètres d’un réseau de neurones, ou opérer des recoupements sur diverses sources pour en déduire des informations sur une personne. Ces questions sont notamment à l’origine des travaux en apprentissage réparti (federated learning)2 dont le but est de réaliser un apprentissage global à partir de sources multiples réparties sur le réseau pour composer un modèle unique contenant, d’une certaine manière, une compression de toutes les données réparties mais sans pouvoir en retrouver l’origine.

Si l’on y ajoute les questions de sécurité « habituelles », ainsi que les problèmes multiples causés par les deepfakes, ces fausses images ou vidéos très facilement créées grâce à la technologie des réseaux génératifs antagonistes (GAN: generative adversarial networks), il est clair que le mur de la sécurité de l’IA est aujourd’hui suffisamment solide et proche pour qu’il soit essentiel de s’en protéger.

​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

Notes :

1 NISTIR draft 8269, A Taxonomy and Terminology of Adversarial Machine Learning, E. Tabassi et al. , 2019, https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8269-draft.pdf

2 Advances and Open Problems in Federated Learning, P. Kairouz et al., 2019, ArXiv:1912.04977v1

Pourquoi le gouvernement russe n’a-t-il pas encore lancé une cyberattaque d’ampleur ?

Sur binaire, nous avons souvent traité du sujet des cyberattaques qui se développent de plus en plus. La sinistre actualité nous a conduit à « attendre » que de telles agressions se déroulent tant en Ukraine que dans les autres pays. Pour l’instant, il semblerait que rien de tel ne se soit encore produit.
Pour mieux comprendre cette situation, nous avons interrogé plusieurs experts dont les noms ne peuvent pas apparaitre pour des obligations de réserve et qui ont choisi Jean-Jacques Quisquater comme porte-parole. Pascal Guitton & Pierre Paradinas
Photo de Tima Miroshnichenko provenant de Pexels

Alors que tout le monde s’y attendait, il semblerait qu’à l’heure où nous publions ce texte aucune cyberattaque d’ampleur n’a eu lieu de la part de la Russie contre l’Occident, en réponse aux sanctions économiques, ni même contre l’Ukraine : à peine a-t-on relevé deux effaceurs de données (wipers  en anglais) dont on n’est même plus très sûr de l’origine offensive. Il s’agit de HermeticWiper et WhisperGate (déjà actif au moins de janvier) et IsaacWiper sans compter quelques variantes. Ils devaient s’infiltrer dans des réseaux informatiques des autorités ukrainennes, effacer le contenu des disques durs jusque dans la partie qui empêche ensuite la machine de redémarrer. HermeticWiper, lancé quelques heures avant l’attaque, se cachait derrière un rançongiciel (HermeticRansom) qui avait pour but de leurrer les victimes et de détourner leur attention. HermeticRansom s’avère de piètre qualité car des chercheurs des sociétés Crowdstrike et Avast ont pu proposer un script et un outil de déchiffrement, comme si le code avait été écrit à la va-vite sans être testé. Il n’utilisait même pas les techniques classiques de brouillages des rançongiciels. Son préfixe, Hermetic, vient du certificat numérique usurpé à une société : Hermetica Digital Ltd.  Les auteurs ont  pu se faire passer pour cette société et acquérir le certificat en tout régularité.

Aujourd’hui, l’Ukraine est toujours une cible : les sociétés qui offrent un service de blocage d’accès à des serveurs web compromis, ont vu une augmentation (d’un facteur 10) des requêtes bloquées provenant d’Ukraine : c’est la preuve qu’on clique de plus en plus souvent sur des liens d’hameçonnage ou que des malwares essaient d’établir une connexion avec un site à partir duquel ils peuvent être dirigés.

Entretemps, les certificats numériques utilisant les protocoles SSL/TLS venant de Russie ne pourront plus être renouvelés à la date d’échéance à titre d’embargo.  « Les Russes émettent maintenant leurs propres certificats que les navigateurs les plus répandus n’accepteront pas », ont déjà annoncé les Google et autres Microsoft qui les conçoivent. Ces certificats « made in Russia » posent d’ailleurs plus un problème pour les russes que pour les étrangers : c’est une porte ouverte pour mieux espionner les citoyens qui, dans leurs communications sur le web, utiliseront des certificats dont les clés de chiffrement sont connues des autorités russes….

Plus problématique est l’apparition des protestwares : il s’agit de modifications apportées dans les logiciels open source qui s’activeront si la bibliothèque est utilisée sur une machine avec des réglages russes : un message inoffensif de protestation contre la guerre s’affiche. Cette initiative n’est cependant pas innocente car elle met à mal le paradigme même de la communauté open source, à savoir la bonne volonté et la transparence, pas l’hacktivisme. A ce stade, les protestware sont anecdotiques et minimalistes mais c’est une nouvelle menace à suivre, surtout pour les développeurs

 Pourquoi lancer une cyberattaque contre l’Occident ?

Si le gouvernement russe n’a pas lancé de cyberattaque contre l’Occident, c’est peut-être par manque de prévoyance car il ne s’attendait sans doute pas à une réaction si vive des démocraties occidentales. Il a sous-estimé la cohésion de nos pays à s’opposer, sanctions à la clé en un rien de temps, à son coup de force. Peut-être pensait-il pouvoir faire un remake du printemps de Prague avec un Occident qui n’avait pas prise sur l’Union Soviétique à moins d’entrer en guerre avec elle. Mais contrairement à l’Union Soviétique, la Russie fait partie du système économique mondial.  Le président russe doit casser cette cohésion occidentale, poussée et soutenue par les opinions publiques dans tous les pays. Des attaques cyber ont ce potentiel, en perturbant le fonctionnement de l’économie via la mise à l’arrêt d’infrastructures critiques, de transports, de banques, de services de l’administration. Le but est de saper la confiance du citoyen face à ses gouvernants qui n’auraient alors plus l’assise – ni le temps du fait des « perturbations cyber » sur leurs propres économies – pour consacrer tous leurs efforts à lutter contre l’agresseur. Celui-ci peut encore lancer des attaques de déni de service (DDoS en anglais) qui inondent les réseaux de requêtes artificielles pour les saturer et rendre inaccessibles les sites web des banques ou leurs applications mobiles, et qui peuvent aussi mettre à plat les systèmes de paiement ou les réseaux de carte de crédit. Les institutions financières remarquent une augmentation des attaques de déni de service, qu’on peut sans doute attribuer à un « échauffement » des forces cyber-russes qui testent leur force de frappe au cas où.

Les institutions financières sont une cible de choix : elles sont directement reliées à Internet pour permettre à leurs clients de s’y connecter et d’y mener leurs opérations. Les attaques de déni de service sont très bien contrées mais il faut rester humbles : on ne sait pas ce que les attaquants pourraient avoir préparé. Toujours avec l’objectif de saper la confiance, le président russe pourrait ordonner de défigurer les sites des banques pour faire peur aux clients qui n’auraient alors plus confiance dans leurs banques incapables d’éviter des graffitis sur leurs sites. Avec la mise au ban des banques russes via Swift, le gouvernement russe pourrait chercher à faire œil pour œil, dent pour dent et aller un cran plus loin : pénétrer les réseaux des infrastructures de marchés financiers (Financial Market Infrastructure ou FMI en anglais). Ce sont les organisations-rouages des marchés financiers, peu connues du grand public, qui sont essentielles à leur fonctionnement. Il en va de même pour MasterCard et Visa qui, eux aussi, sont allés un cran plus loin en suspendant leurs services en Russie.

Ce sont des scénarios mais c’est ainsi qu’il faut  procéder. Ils prennent en compte le mobile du crime pour ne pas disperser ses efforts et cerner la menace. Imaginer ce que visent les autorités russes dans une éventuelle cyberattaque, c’est cibler le renforcement des défenses là où c’est nécessaire et détecter au plus vite les signes annonciateurs.

Que faire ?

Sans savoir quand viendra le coup, et même si on sait d’où il viendra et ce qu’il visera, il faut appliquer la tolérance-zéro en cyber-risque.

Toutes les entreprises, surtout celles qui administrent des infrastructures critiques ou qui opèrent des services essentiels, comme les banques, doivent doper leur threat intelligence, c’est-à-dire activer tous les canaux qui peuvent les renseigner sur les malwares qui circulent, d’où ils viennent, comment les repérer, inclure leur empreinte numérique dans les systèmes de détection interne dans le réseau IT. Il existe, heureusement, une communauté cyber efficace qui publie et relaie tout ce qu’un de ses membres trouve : ce sont les sociétés de sécurité promptes à découvrir ces malwares pour mettre à jour leurs propres produits en publiant sur leur blog leur trouvaille comme preuve de leur savoir-faire. Mentionnons également les agences de cybersécurité nationale (comme l’ANSSI en France), les CERT et les agences gouvernementales qui relaient ces informations.

Les entreprises doivent corriger (patcher) les vulnérabilités qui apparaissent dans les logiciels et composants informatiques qu’elles utilisent, dès que les constructeurs les annoncent avec un correctif à la clé. Il faudra aussi penser à prioriser ces mises à jour correctives car c’est tous les jours que des vulnérabilités sont annoncées grâce au dynamisme des scientifiques qui, jusqu’à présent, sont plus rapides que les attaquants. Cependant, soyons honnêtes, cela ne suffit pas car ces derniers ont toujours tout le loisir d’exploiter des vulnérabilités anciennes que trop d’entreprises tardent à corriger. On voit régulièrement apparaître des mises en garde sur des vulnérabilités  qui, tout à coup, sont exploitées par des hackers pour compromettre les systèmes des entreprises qui  ne les ont pas mis à jour. Il est alors  minuit moins une pour ces dernières.

Il faut par ailleurs continuer à surveiller les groupes d’activistes ou les espions étatiques, ce qui permet de savoir quel type de cible est visé au niveau des états. Aujourd’hui, c’est l’Ukraine, demain, ce sera peut-être un autre pays. On surveillera les groupes de hackers notoirement connus pour avoir des accointances en Russie. Ils vont sûrement s’exercer dans le sens d’une mission « freelance » que pourrait leur demander leur pays de tutelle.

Enfin, les entreprises doivent refaire le tour des mesures techniques qui rendent leurs réseaux étanches aux attaques, mesures qu’elles appliquent déjà certainement mais il faut contrôler qu’aucune exception qui aurait été accordée n’est restée active par mégarde. Les plus avancées parmi les entreprises auront déjà implémenté le concept de réseau zéro confiance (zero-trust network), une nouvelle manière de penser les réseaux d’entreprise. Son principe est que toute machine dans le réseau de son entreprise pourrait, à l’insu de tous, avoir été compromise. Aucune machine ne peut faire confiance à aucune machine, comme sur Internet. C’est considérer son propre réseau comme un Far-West équivalent à Internet. L’autre concept est la défense en profondeur : une défense informatique doit toujours être en tandem avec une autre défense informatique. Si l’une est compromise, l’autre fonctionnera encore et l’attaque sera un échec.

L’authentification à deux facteurs que certains activent déjà pour leurs compte Gmail est un exemple. Ne connaitre que le mot de passe et le login ne vous permet plus d’accéder à votre boite email. Il faut encore un code qui parviendra à votre smartphone par exemple. Pour vaincre ces deux couches, un voleur doit non seulement connaitre le mot de passe et login mais aussi posséder le smartphone du titulaire du login.

Plus prosaïquement, les sociétés seraient bien inspirées de jeter un coup d’œil à leurs sous-traitants et contractants qui pourraient connaitre des manquements bien pires que les leurs.

Enfin, tout cette communauté peut avoir du personnel lié aux zones de conflit, donc très affecté par la situation, qui pourrait partir protéger leur famille, aller combattre ou qui serait tenté par des actions patriotiques sur leur lieu de travail avec les ressources IT de leur employeur. Deutsche Bank en fait pour l’instant l’amère expérience : cette banque dispose d’un centre à Moscou où travaillent 1500 experts dont la banque a besoin tous les jours en support de son trading. Elle est forcée d’élaborer à toute vitesse des plans d’urgence pour « accompagner » la perte future de ce centre, soit parce que le gouvernement russe le ferme en représailles, soit parce que l’embargo occidental intense rend impossible la collaboration, soit parce Deutsche Bank n’arrive tout simplement plus à verser les salaires du fait de l’isolement financier de la Russie. Elle a par exemple mené récemment un stress test en fonctionnant trois jours sans faire appel à son centre de Moscou.

Ce qui ne manque pas de frapper, c’est le niveau inédit de coopération public-privé : on voit un Microsoft coopérer directement avec le gouvernement ukraininen. Les partenariats privé-public sont depuis des années appelés de leur vœux en cybersécurité. Les voilà mis en œuvre, enfin.

Quand la Russie attaquera-t-elle au niveau cyber ?

On se perd en conjectures sur l’absence d’attaques cyber d’ampleur pour l’instant à l’extérieur de l’Ukraine : certains analystes pensent que le président russe n’a pas averti/impliqué ses agences de renseignement à temps pour les prévenir de l’imminence de l’attaque, de sorte que ces dernières n’ont rien préparé et ont continué leurs opérations d’infiltrations/espionnages habituelles. Lancer une attaque cyber sur plusieurs pays à la fois, simultanément, cela se prépare. Ce n’est pas comme s’introduire dans une entreprise donnée à la recherche de secrets ou pour lancer un petit rançongiciel, histoire de garder la main.

Jean-Jacques Quisquater (Université de Louvain Ecole Polytechnique de Louvain).

Les ressources éducatives libres 

Dans le cadre de la rubrique autour des “communs du numérique”, un entretien avec Colin de la Higuera, professeur d’informatique à l’Université de Nantes, titulaire de la chaire Unesco en ressources éducatives libres et intelligence artificielle, ancien président de la Société Informatique de France. Il nous parle des ressources éducatives libres, des éléments essentiels des communs du numérique. C’est l’occasion pour Binaire de retrouver Colin, qui a été un temps éditeur du blog.
Colin de la Higuerra, Page perso à l’Université de Nantes

Tu es titulaire d’une chaire Unesco en ressources éducatives libres et intelligence artificielle ? En quoi est-ce que cela consiste ?

Dans ce projet, nous travaillons en partenariat avec l’Unesco afin de faire progresser les connaissances et la pratique dans ce domaine prioritaire à la fois pour Nantes Université et l’Unesco. Les ressources éducatives libres (REL) sont au cœur des préoccupations de l’Unesco qui voit en elles un moteur essentiel pour l’objectif de développement durable #4 : l’éducation pour tous. Donner un accès plus ouvert à la connaissance change la donne dans les pays en voie de développement, par exemple en Afrique ou en Inde. Il y a aujourd’hui une dizaine de chaires Unesco dont une en France ; on les trouve très répartie, par exemple au Nigéria, en Afrique du Sud ou au Mexique. Une chaire Unesco, ce n’est pas du financement, c’est de la visibilité et la possibilité de porter des idées. Aujourd’hui, le sujet des ressources éducatives libres représente le cœur de mon activité. Notamment, nous organisons une conférence internationale sur l’éducation globale à Nantes cette année.

Les ressources éducatives libres (REL) sont des matériaux d’enseignement, d’apprentissage ou de recherche appartenant au domaine public ou publiés avec une licence de propriété intellectuelle permettant leur utilisation, adaptation et distribution à titre gratuit. Unesco.
Par Jonathasmello — Travail personnel, CC BY 3.0 – Wikimedia

Pourrais-tu nous expliquer ce que sont ces Ressources Éducatives Libres ?

Les Ressources Éducatives Libres, REL pour faire court, sont des biens communs. L’idée est tout simplement que les ressources éducatives préparées par un enseignant ou un groupe d’enseignants puissent resservir à d’autres sans obstacle. Au delà d’un principe qui inclut la gratuité, pour qu’une ressource soit libre, on demande qu’elle respecte la règle des 5 “R” :

  • Retain : le droit de prendre la ressource, de la stocker, de la dupliquer,
  • Reuse : le droit d’utiliser ces ressources en particulier dans ses cours, mais aussi sur un site web, à l’intérieur d’une vidéo,
  • Revise : le droit d’adapter la ressource ou le contenu (en particulier le droit de traduction)
  • Remix : le droit de créer une nouvelle ressource en mélangeant des morceaux de ressources existantes
  • Redistribute : le droit de distribuer des copies du matériel original, le matériel modifié, le matériel remixé.

 

Qu’est-ce qui a été le catalyseur sur ce sujet ?

C’est quand même le numérique qui a rendu techniquement possible le partage et la mise en commun. Le numérique a changé a permis le décollage de cette idée. Mais le numérique peut aussi créer des obstacles, faire peur. Aujourd’hui, il s’agit d’utiliser le numérique encore plus efficacement pour permettre un meilleur partage de ces communs.

Quand a commencé le mouvement pour les REL ?

Le mouvement a débuté aux États-Unis il y a une vingtaine d’années. Au MIT plus précisément, des enseignants progressistes se sont souvenus qu’ils avaient choisi ce métier pour partager la connaissance et non la confisquer. Ils ont cherché à partager leurs cours. Les grandes universités américaines y ont rapidement vu leur intérêt et y ont adhéré. Ça a bien marché, parce que les plus prestigieuses comme Harvard et MIT s’y sont mises en premier. Aujourd’hui les Américains sont en avance sur nous sur le sujet.

Y a-t-il une communauté des ressources éducatives libres ?

Il existe bien sûr de nombreux activistes, mais le mouvement vient le plus souvent d’en haut. Ce sont des pays qui choisissent cette voie, des universités, des institutions. Par exemple l’Unesco, les États qui soutiennent financièrement les actions (comme pour d’autres communs, il y a des coûts) et en France certains acteurs comme le ministère de l’Éducation nationale. Il existe quand même des lieux pour que les acteurs et activistes se rencontrent, discutent des bonnes pratiques, échangent sur les outils créés.

Assiste-t-on à un conflit avec les grands éditeurs de manuels scolaires au sujet des ressources éducatives libres. Pourrais-tu nous expliquer la situation ?

La question est difficile ! Il convient d’abord de rappeler que les éditeurs ont accompagné l’Éducation nationale, en France, depuis très longtemps. Des partenariats forts existent et bien des disciplines sont nées ou se sont développées grâce à la création des manuels bien plus que par la publication de programmes. Il est compréhensible que nombreux voudraient voir perdurer cette coopération.

Mais aujourd’hui on assiste en France  à la concentration du monde de l’édition au sein d’un unique groupe. Comme pour toutes les situations de monopole, c’est un souci. Et dans le cas qui nous intéresse c’est un souci majeur, surtout si en plus des questions très politiques viennent ici effrayer. Imaginons un instant que vous soyez aux Etats-Unis et que toute l’édition scolaire vienne à  tomber entre les mains d’un seul groupe dirigé par une personne qui soutiendrait des idées encore plus à droite que celles de l’ancien président Donald Trump. Est-ce que vous ne seriez pas inquiet sur le devenir des textes qui seraient distribués en classe, sur le devenir de l’éducation ? Et ne nous leurrons pas sur une supposée capacité de contrôle par l’État : même si on avait envie de voir plus de contrôle de sa part, il en serait bien incapable. Il suffit de regarder du côté de l’audiovisuel pour s’en rendre compte. Cette concentration de l’édition entre trop peu d’acteurs entraîne également une moindre variété des points de vue vis-à-vis des communs.

Un autre argument à prendre en compte est que les montants financiers en question ne sont pas négligeables. On ne le voit pas au niveau des familles parce que tout est apparemment gratuit mais en réalité les enjeux économiques sont considérables. En France, le chiffre d’affaires net de l’édition scolaire représente 388 millions d’euros par an. On peut contraster ce chiffre avec celui de l’édition liée à la recherche scientifique. Cela conduit à se demander pourquoi les instances publiques exercent un vrai soutien pour l’accès libre aux publications scientifiques et pas de soutien du même ordre pour les REL.

Mais qu’y a-t-il de particulier en France ?

D’abord, la gratuité des ressources éducatives. Dans l’esprit du public, notamment des parents et des élèves, le matériel éducatif est “gratuit”. En fait, à l’école primaire, il est pris en charge par la municipalité, au collège par le département, et au lycée par la région. A l’Université, nos bibliothèques sont très bien dotées. Dans beaucoup de pays, les Etats-Unis en premier lieu, le matériel éducatif est payant. Et souvent cher. Ces coûts sont de vrais obstacles aux études. Acheter les différents textbooks en début d’année est un souci pour les familles modestes. Les familles et les étudiants eux-mêmes sont donc, assez logiquement, des avocats des REL et vont faire pression sur les établissements ou les gouvernants pour créer et utiliser des REL. Et ça fonctionne : ainsi, en avril dernier, l’état de Californie a investi en juillet dernier 115 millions de dollars pour soutenir les REL. En France, quand on parle de ressources gratuites, la première réaction est souvent : mais ça l’est déjà !

Et puis il y a une originalité française sur le “droit d’auteur” sur les cours. En France, les enseignants ne sont pas “propriétaires” du cours qu’ils font, notamment dans le primaire et dans le secondaire. Un professeur de lycée n’a pas le droit de produire un livre à partir de son cours, parce que le cours ne lui appartient pas. C’est plus complexe que ça mais il y a assez de zones d’ombre pour que les enseignants ne se sentent pas en sécurité à l’heure de partager.

Pourquoi le Ministère ne le déclare-t-il pas tout simplement ?

A vrai dire, je n’en sais rien. Il y a sans doute du lobbying pour maintenir une situation de statu quo, mais c’est bien dommage. Les enjeux sont importants.. Il suffirait pourtant de peu : d’une déclaration politique soutenant la création de REL par tous les acteurs de l’éducation.

Existe-t-il un annuaire qui permet de trouver les ressources éducatives libres ?

Non, il n’existe pas d’annuaire, ou plutôt il en existe beaucoup et ils sont peu utilisables. Là encore, les approches top-down ont prévalu. Dans le primaire et le secondaire, le ministère a mis en place un annuaire qui s’appelle Edubase. Cet annuaire est complexe à utiliser, les licences ne sont que rarement mentionnées, donc on ne sait pas si et comment on peut utiliser telle ou telle ressource. Pour l’université, il y a les UNT (Université Numérique Thématique). Les universités elles-mêmes ont constitué leurs propres catalogues, mais ces catalogues débouchent sur des ressources éparpillées. Et se pose alors le problème de la curation : les cours peuvent avoir disparu, changé d’adresse. Enfin et surtout, l’usage des licences est très approximatif. Il nous est arrivé de trouver un même cours ayant de multiples licences, contradictoires, posées par les auteurs, l’Université et l’annuaire lui-même. Ce qui en pratique rend impossible son utilisation autrement qu’en simple document à consulter : on est alors très loin des REL.

Au niveau international, c’est un peu le même désordre général. J’ai participé au projet européen X5-GON (Global Open Education Network) qui collecte les informations sur les ressources éducatives libres et qui marche bien avec un gros apport d’intelligence artificielle pour analyser en profondeur les documents. La grande difficulté étant toujours le problème des licences. On essaie de résoudre le problème dans le cadre de la Francophonie et en mettant en place du crowdsourcing.

Donc on aura besoin de l’aide de tous ?

Oui, nous espérons organiser au printemps des RELathons, c’est -à -dire des événements où chacun pourra nous aider à identifier les REL francophones. La logistique est presque prête… Nous attendons surtout de meilleures conditions sanitaires pour nous lancer.

Le mouvement des REL est-il bien accepté chez les enseignants ?

Si beaucoup d’enseignants sont ouverts à partager leurs ressources éducatives, ce n’est pas nécessairement le cas pour tous . Il n’y a pas adhésion de masse à l’idée de la mise en commun et du partage de la connaissance. Par exemple, à ce jour, il est impossible pour un étudiant qui suit un cours dans une université d’avoir des informations et de se renseigner sur le cours équivalent qui est donné dans une autre université.

Une anecdote : en Suède, le ministère à essayé de pousser les ressources éducatives libres ; ils ont eu un retour de bâton de la part des syndicats qui ne voyaient pas pourquoi le ministère voulait imposer à un enseignant de partager ses ressources avec d’autres enseignants. Le débat reste très intéressant chez eux.

Mais je pense que c’est quand même un problème culturel : poser une licence fait peur, s’exposer aussi. Mais si on rappelle aux enseignants qu’au fond, s’ils ont choisi ce métier, c’est bien pour partager la connaissance, on crée des adeptes.

Existe-t-il des groupes de militants qui représentent l’amorce d’une communauté ?

Il y a une petite communauté assez active. La Société informatique de France en fait partie par exemple. Mais c’est une communauté de convertis. Il faut arriver à convaincre les gens, en masse, au-delà de petits groupes des précurseurs.

Les REL sont un exemple de commun numérique, comment se comparent-ils d’autres communs, par exemple à la science ouverte ?

Une différence avec la science ouverte est que pour les ressources éducatives libres, il y a un droit de remix, c’est-à-dire de prendre un morceau d’un cours, le modifier, l’intégrer un autre, etc. Dans la science ouverte, une publication reste un tout que l’on ne modifie pas. Donc, les REL se rapprochent plutôt de la logique de l’Open Source.

Le ministère de l’enseignement supérieur et de la recherche a un responsable pour la science ouverte, Marin Dacos, est-ce qu’on a aussi un responsable pour les REL ?

Récemment, Alexis Kauffmann, le fondateur de Framasoft, a été nommé “chef de projet logiciels et ressources éducatives libres et mixité dans les filières du numérique” à la Direction du numérique de l’Education nationale. C’est une excellente nouvelle.

Quel type d’actions est prévu dans le cadre de ta chaire Unesco ?

Des actions à trois niveaux sont prévues. Au niveau international, on organise la conférence Open Education Global Nantes 2022. Sur le plan national, on essaie en association avec le ministère de l’éducation de mobiliser l’ensemble de la filière : cela passe par des ateliers lors de journées organisées par les rectorats, par la publication de ressources pour aider les enseignants à devenir des éducateurs ouverts… Nous publions ces informations et ressources sur notre blog. Enfin pour ce qui est du local, Nantes Université est totalement impliquée dans la démarche et ce sujet est porté par la Présidente. J’espère qu’à court terme nous pourrons servir d’exemple et de moteur pour faire progresser des ressources éducatives libres dans le contexte universitaire.

Serge Abiteboul, Inria et ENS, Paris, François Bancilhon, serial entrepreneur

Les communs numériques

 

Les cinq murs de l’IA 2/6 : l’énergie

Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ? Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes. Pascal Guitton et Thierry Viéville.

Episode 2: le mur de l’énergie

Cet épisode, consacré à la consommation énergétique des systèmes d’apprentissage profond, reprend en les approfondissant des éléments d’un billet que j’ai publié dans les pages sciences du journal Les Échos début 2020.

Le super-calculateur Jean Zay (du nom d’un fondateur du CNRS) est un des 3 sites nationaux pour le calcul haute performance. Grâce à ses milliers de processeurs de dernière génération il atteint aujourd’hui1 une puissance de 28 pétaflop/s (vingt-huit millions de milliards d’opérations arithmétiques par seconde). Refroidi par des circuits hydrauliques à eau chaude allant au cœur des processeurs, il ne consomme « que » environ deux mégawatts. Jean Zay est la première grande machine européenne « convergée » capable de fournir à la fois des services de calcul intensif (modélisation, simulation, optimisation) et des services pour l’intelligence artificielle et l’apprentissage profond. Elle va permettre des avancées majeures dans les domaines d’application du calcul intensif (climat, santé, énergie, mobilité, matériaux, astrophysique …), et de mettre au point des systèmes d’IA basés sur des très grands volumes de données. Mieux encore, la jonction de ces deux mondes (modélisation/simulation et apprentissage automatique) est porteuse de nouveaux concepts pour développer les systèmes intelligents de demain.

Oui, mais … Les chercheurs de l’université de Stanford publient annuellement l’édition du «AI Index» qui mesure la progression des technologies d’IA dans le monde. L’édition de fin 2019 présentait pour la première fois l’évolution des besoins de calcul des applications de l’IA qui ont suivi la loi de Moore (doublement tous les dix-huit mois) de 1960 à 2012. Depuis, ces besoins doublent tous les 3.5 mois ! La demande du plus gros système d’IA connu à l’époque (et qui a donc doublé plusieurs fois depuis) était de 1860 pétaflop/s*jours (un pétaflop/s pendant un jour) soit plus de deux mois de calcul s’il utilisait la totalité de la machine Jean Zay pour une consommation électrique de près de trois mille mégaWatts-heure. Pis encore, si le rythme actuel se poursuit, la demande sera encore multipliée par un facteur 1000 dans trois ans …. et un million dans six ans!

Provient de l’article de Strubell et coll cité dans le texte.

Le mur de l’énergie est bien identifié par certains chercheurs en apprentissage profond. L’article fondateur d’Emma Strubell et coll. 2 établissait que l’entraînement d’un grand réseau de neurones detraitement de la langue naturelle de type « transformer », avec optimisation de l’architecture du réseau, consommait autant d’énergie que cinq voitures particulières pendant toute leur durée de vie (ci-dessous).

`L’article de Neil Thompson et coll.3 allait plus loin en concluant que « les limites de calcul de l’apprentissage profond seront bientôt contraignantes pour toute une série d’applications, ce qui rendra impossible l’atteinte d’importantes étapes de référence si les trajectoires actuelles se maintiennent ». Encore une fois, souligné par les chiffres donnés par le AI Index qui insistait sur le facteur exponentiel correspondant. Fin 2021, Neil Thomson et coll. ont complété cette analyse4 sur l’exemple du traitement d’images (ImageNet) et abouti à estimer à 9 ce facteur entre la réduction du taux d’erreur et le besoin en calcul et données, ce qui signifie qu’une division par 2 du taux d’erreur nécessite 500 fois plus de calcul … et une division par 4 demanderait 250.000 fois plus.

On pourrait imaginer que cette croissance s’interrompra une fois que toutes les données disponibles (toutes les images, tous les textes, toutes les vidéos etc.) auront été utilisées par l’IA pour s’entraîner, mais le monde numérique n’est pas dans une phase de stabilisation du volume de données exploitables, sujet auquel vient s’ajouter, dans un autre registre, les limites en termes de stockage. Selon le cabinet IDC, la production mondiale de données atteindra 175 zettaoctets en 2025, pour une capacité de stockage limitée à une vingtaine de zettaoctets5. La croissance de la production de données est actuellement d’un ordre de grandeur plus rapide que la croissance de la capacité de stockage. Les programmes d’apprentissage automatique devront de plus en plus traiter des données en flux (et donc les oublier une fois le traitement effectué) faute de capacité de mémorisation de l’ensemble de la production.

Quoiqu’il en soit, le mur de la consommation énergétique liée aux besoins de calcul intensif des applications de l’IA basées sur l’apprentissage profond et consommatrices de très grandes quantités de données, en arrêtera inévitablement la croissance exponentielle, à terme relativement rapproché, si l’on ne fait rien pour y remédier.

​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

Notes :

1 de nouveaux investissements de l’Etat français devraient encore accroître sa puissance

2 E. Strubell, A. Ganesh, A. McCallum. Energy and Policy Considerations for Deep Learning in NL (2019), https://arxiv.org/abs/1906.02243v1

3 N. Thompson et coll. The Computational Limits of Deep Learning (2020), arXiv:2007.05558v1

4 N. Thompson et coll. Deep Learning Diminishing Returns. https://spectrum.ieee.org/deep-learning-computational-cost

5 https://www.idc.com/getdoc.jsp?containerId=prUS47560321

Pourquoi couper la Russie de SWIFT ?

Depuis plusieurs jours le réseau SWIFT est à la une de tous les médias qui décrivent les sanctions envisagées contre le gouvernement russe. Il s’agit d’un réseau auquel sont connectées les banques et qui est utilisé pour les échanges financiers internationaux. Pour aller plus loin et comprendre précisément à quoi sert SWIFT, nous avons interrogé trois experts : Jean-Jacques Quisquater, Charles Cuvelliez et Gael Hachez. Pascal Guitton & Pierre Paradinas
Photo de Life Of Pix provenant de Pexels

Depuis plusieurs jours, la coupure de l’accès de 7 grandes banques russes au système SWIFT occupe le devant de la scène comme si elle était de nature à changer le cours de la guerre. Pourquoi et surtout à quoi sert SWIFT au point d’avoir cet espoir ?

Tout d’abord, SWIFT n’a pas vraiment de concurrent et toutes les banques sont connectées à ce service qui fonctionne très bien. En effet, bien que SWIFT ne soit pas une institution financière, c’est un pilier de la finance mondiale car il permet à une banque de transférer de l’argent à toute autre banque dans le monde (11 000 banques dans 200 pays y sont connectées). Pour le commun des mortels, transférer de l’argent entre comptes semble aller tellement de soi qu’on peut se demander pourquoi il faut un système comme SWIFT. Le plus simple est d’imaginer SWIFT comme un service de messagerie très sécurisé entre banques utilisant des messages standardisés. Contrairement à un système classique d’échange d’e-mail, SWIFT garantit l’identité des banques connectées et la sécurité des messages.

Pour pouvoir transférer de l’argent entre une banque A et une banque B dans un autre pays, il faut qu’elles entretiennent une relation commerciale. Si tel est le cas et qu’elles sont toutes les deux connectées à SWIFT, le transfert va passer par des messages respectant un format spécifique (MT103) en utilisant comme identifiant le code BIC de la banque. Si A n’a pas de relation commerciale avec B, la situation se complique car il faut passer par des banques intermédiaires dites correspondantes car elles ont une relation commerciale avec A et B. Les messages SWIFT, qui donnent les ordres de transfert de proche en proche, constituent donc le fil d’Ariane du transfert d’argent entre A et B.

SWIFT transporte 40 millions de message par jour : à peine 1% implique les banques russes. C’est une coopérative dont les actionnaires sont les banques elles-mêmes. Les messages SWIFT ont aussi des fonctionnalités avancées de groupe comme l’implémentation de plafond ou l’imposition de contingences imposées par une banque centrale ….

Si SWIFT n’existait pas, le transfert de A vers B pourrait fonctionner quand même mais au prix d’une coordination sans faille, avec une synchronisation avec la/les banques intermédiaires via plusieurs systèmes de messagerie et de formats différents.

Comme nous l’avons écrit précédemment, pour que A puisse transférer de l’argent vers B, il faut qu’il existe une relation commerciale entre elles qui se traduit dans SWIFT par un système d’autorisation (B accepte de recevoir des messages de A). En d’autres termes, on aurait pu isoler les banques russes en demandant tout simplement à toutes les banques non russes de ne plus avoir de relation commerciale avec elles. C’est l’objectif de ces sanctions mais elles ne sont pas appliquées par exemple par des banques chinoises. Pour des banques, établir une relation commerciale l’une avec l’autre n’est pas innocent. La société J.P. Morgan qui est une des principales banques correspondantes dans le monde, au point d’être une plaque tournante des transferts internationaux, n’acceptera pas n’importe qui comme nouvelle banque. Dans la banque de détail, il existe un examen approfondi (screening) pour chaque  nouveau client (via la procédure dite KYC pour Know Your Customer en anglais) pour éviter d’héberger les comptes  d’un criminel ou d’un terroriste. Sachez que ce contrôle existe aussi entre banques qui acceptent de correspondre entre elles.

Les risques

Que tous les échanges entre établissements financiers reposent sur un unique système de messagerie constitue un risque systémique majeur. Si pour une raison ou une autre, SWIFT tombait en panne, c’est la finance mondiale qui s’arrêterait. Une attaque par déni de service qui arriverait à bloquer SWIFT (qui n’est pas connecté à Internet) ferait autant de dégâts.

L’autre risque majeur avec SWIFT, c’est le vol d’argent. Le Bangladesh a connu cette mésaventure : la Réserve Fédérale américaine reçut un jour plusieurs ordres de versement d’argent d’un compte détenu par la banque centrale du Bangladesh vers différents comptes dont celui d’un particulier. Cette demande particulièrement étrange (une banque centrale ne transfère pas d’argent sur le compte d’un particulier) a permis de détecter la fraude mais une partie de l’argent avait déjà été versée. Cette malversation venait à coup sûr d’un expert du système financier car il fallait détenir beaucoup de connaissances : savoir utiliser le terminal SWIFT, savoir que la banque centrale du Bangladesh possédait de l’argent dans la Réserve Fédérale, sur quel compte…. Le personnel qui manipule les terminaux SWIFT doit évidemment faire l’objet d’un examen approfondi que certaines banques vont certainement réitérer au vu des tensions entre deux pays dont les ressortissants pourraient très bien se trouver au contact de terminaux SWIFT.

Comment cela va se passer.

Concrètement, quand SWIFT, une société de droit belge, recevra l’obligation légale (sous quelle forme ?) d’exclure les 7 banques russes, elle bloquera sans doute les transactions depuis et à destination de ces établissements sur la base de leur code BIC. Elle appliquera l’article 16c de ses statuts qui mentionne que le conseil d’administration peut suspendre ou révoquer un actionnaire s’il n’a pas respecté ses engagements ou si une régulation amène à une contradiction à le garder connecté à SWIFT. Mais ce n’est pas sans risque car certaines opérations faites via SWIFT s’étalent dans le temps. Le blocage pourrait par exemple arrêter une opération commencée plus tôt. L’interrompre en plein milieu risque de provoquer des déséquilibres dans des flux de paiement et des transferts qui peuvent déboucher sur une situation chaotique.


Photo de Mohamed Almari provenant de Pexels

Pour l’éviter, il est question de créer des sauf-conduits pour garantir à une opération en cours de s’achever même sous un régime de sanctions. L’autre défi est l’immédiateté de la sanction. Lorsqu’une régulation impose un changement dans les règles, du temps est laissé à SWIFT pour s’adapter. Ici, du jour au lendemain, il faut adapter les règles de surveillance des transactions. Des opérations légitimes qui utilisent les banques russes comme intermédiaires risquent d’être stoppées sans raison et interprétées comme illégales. La décision de couper les 7 banques russes a été prise le 2 mars mais ne sera d’application que le 12 mars : 10 jours pour s’adapter, c’est peu !

Alternatives

La Russie n’a pas réussi à développer un système alternatif à SWIFT : elle a tenté de mettre sur pied le SPFS sur lequel 23 banques sont connectées en provenance de pays comme l’Arménie, le Belarus, le Kazakhstan, plus quelques pays européens et la Suisse, mais sa taille réduite le handicape. Il y a bien des plans pour interconnecter SPFS avec les systèmes de paiement en Chine, Inde et Iran. La Russie peut aussi se connecter sur le système CIPS chinois mais la Chine ne serait sans doute pas prête à subir des sanctions secondaires qui le priverait d’un accès au dollar. La Russie peut aussi se passer de SWIFT et tenter d’effectuer des paiements en direct, de gré à gré, à des banques étrangères mais celles-ci refuseront certainement.

Ce qui est sûr, c’est que la légalité de la coupure sera attaquée si la Russie prend cette peine.

Ce dont on parle moins

Comme on l’a dit plus haut, la déconnexion de SWIFT a un impact mais il est limité car le régime de sanctions impose déjà à la plupart des banques dans le monde de ne plus travailler avec ces banques russes. Via le(s) système(s) SPFS et/ou CIPS, elles pourraient toujours travailler avec des banques qui n’appliquent pas ces sanctions. SWIFT à défaut d’être l’arme économique ultime aura été une arme médiatique pour exprimer la volonté et l’unité de l’Europe. Si SWIFT n’était pas installé en Belgique, soumise à la législation européenne mais en Asie qui marque très peu d’empressement à appliquer des sanctions économiques, il n’est pas sûr que les banques russes eussent été bannies.

Jean-Jacques Quisquater (Université de Louvain Ecole Polytechnique de Louvain), Charles Cuvelliez (Université de Bruxelles, Ecole Polytechnique de Bruxelles) et Gael Hachez (expert en gestion du risque technologique dans le secteur financier)

 

 

Le syndrome de l’imposteur

En ce 8 mars 2022, quand bien même, compte tenu de l’actualité brulante, le monde ferait bien de se concentrer sur les droits des humains en général, il ne faut pas oublier cette parenthèse annuelle pendant laquelle il convient de se pencher plus particulièrement sur les droits des femmes. Anne-Marie Kermarrec nous propose aujourd’hui d’aborder le sujet du syndrome de l’imposteur. Serge Abiteboul & Marie-Agnès Enard

Un syndrome plutôt féminin

Qu’est-ce donc que ce troublant syndrome de l’imposteur, dont on entend de plus en plus parler et dont il semblerait que 70% des gens souffre à un moment ou à un autre de leur vie ?

Le terme du syndrome de l’imposteur a été introduit dès 1978 par deux psychologues Pauline Clance et Susanne Imes [1], suite à une étude qu’elles avaient mené sur 150 femmes diplômées, exerçant des métiers prestigieux et jouissant d’une excellente réputation. Pourtant ces femmes brillantes dont les compétences ne faisaient aucun doute avaient une fâcheuse tendance à se sous-estimer. Elles avaient souvent l’impression de ne pas être à leur place, de ressembler à une publicité mensongère, de ne considérer leur réussite que comme le fruit d’une accumulation de circonstances externes favorables dont le mérite ne leur revenait pas. Un état des lieux qui ne fait qu’entériner le manque de confiance en soi qu’il provoque. Il y a des degrés évidemment, et un large éventail de symptômes, qui va d’un moment de doute temporaire lié à une situation de stress, au sentiment très ancré de ne pas être à la hauteur qui relève de la vraie pathologie et peut parfois mener au surmenage, plus connu sous son nom anglo-saxon de burnout. Et les recettes courent le net pour le surmonter [2].

Puisqu’en ce 8 mars on s’intéresse aux femmes, doit-on systématiquement conjuguer le syndrome de l’imposteur au féminin ? Il se trouve que l’étude originelle ayant porté sur une cohorte exclusivement féminine, on a longtemps considéré que c’était effectivement l’apanage des femmes que d’en souffrir [3]. Pourtant, si elles en sont plus souvent victimes, beaucoup d’hommes y sont sujets également, du sportif au père de famille, de l’étudiant au dirigeant d’entreprise [4]. On peut même se tester en ligne d’ailleurs pour les amateurs. Quelle idée j’ai eu de le faire : mon score de 68% semble indiquer que j’en souffre fréquemment (à mon âge !).

Le numérique : un terrain fertile ?

Si cette exclusivité féminine est contestable, le syndrome se conjugue souvent au féminin. Et si évoluer dans le domaine du numérique augmentait significativement les risques et plus encore pour les femmes et plus encore dans le monde académique ?  Si l’on en juge par les causes souvent évoquées, tout laisse à y penser. Quelle est la probabilité d’en souffrir quand on est une femme dans ce domaine aussi convoité par les hommes qu’ils y sont nombreux ? Revenons sur les coupables. Il est difficile d’accabler le domaine du numérique pour avoir subi une enfance difficile, être victime d’un caractère névrotique, ou d’être trop perfectionniste. Autant d’éléments qui participent de la probabilité d’apparition du syndrome de l’imposteur. Il n’en reste pas moins que le numérique exhibe certaines des caractéristiques qui engendrent le syndrome.

Photo de Daria Shevtsova provenant de Pexels

– La singularité
L’une des raisons les plus fréquemment mentionnées est le fait d’avoir une caractéristique différente de la majorité dans laquelle on évolue. Les statistiques stagnantes dans le domaine du numérique nous octroient indéniablement cette singularité que l’on soit l’une des 15% d’étudiantes dans sa promo, l’une des 10% de professeures dans son université ou encore l’une des seules femmes oratrice à une conférence et la seule de sa table à un diner d’affaire, celle qu’on ne manque jamais de prendre pour l’assistante.  Si d’aucuns aiment à penser que faire partie de ces minorités est un privilège car ce statut nous rend unique et remarquable au sens littéral du terme, il est surtout souvent glaçant d’être la seule femme de l’assemblée. On sait d’ailleurs que les femmes qui ont eu la foi de s’engager dans les études d’informatique changent beaucoup plus souvent de voie que leurs homologues masculins, en partie car elles se sentent très différentes de leurs congénères. Alors, que celles qui restent persistent à penser qu’elles ne sont pas complètement à leur place, est-ce surprenant ?

– Les stéréotypes
Une autre cause souvent évoquée est celle des stéréotypes de genre solidement ancrés dans notre société. Ils multiplieraient par trois le syndrome de l’imposteur chez les femmes [3]. Les sciences dures de manière générale et l’informatique en particulier, encore malheureusement au 21ème siècle restent associés dans l’imaginaire collectif aux hommes, pire aux geeks. La société, parfois même la famille, ne voit pas la fluette Emma devenir le prochain Mark Zuckerberg. La brochette d’investisseurs qui s’apprête à octroyer quelques millions de dollars à la prochaine licorne préfèrerait les accorder à un trentenaire dynamique avec sa barbe de trois jours qui promet de révolutionner la deep tech, qu’à l’étudiante brillante qui malgré son idée de génie est une femme qui aura probablement du mal à s’affirmer, à négocier ou encore à diriger efficacement une entreprise. Celles qui se fraient un chemin dans ce monde masculin du numérique ont toujours une petite part de leur cerveau qui trouve étrange d’avoir réussi dans un domaine où elles étaient si peu attendues.

– La compétition
Un environnement professionnel très compétitif augmente indéniablement les risques de souffrir du fameux syndrome. Le domaine du numérique est en croissance exponentielle et à ce titre attire le monde entier dans ses filets. Terreau parfait pour en faire un terrain de jeu ultra-compétitif : qui aura la prochaine idée de génie pour l’application de l’année, qui va révolutionner l’intelligence artificielle, qui créera une blockchain peu gourmande en énergie ? Si on ajoute à la recette, quelques ingrédients propres au monde académique, il faut avoir un tempérament solide pour se frayer un chemin vers les sommets : la sélectivité des conférences et revues dans lesquelles nous publions nos travaux, la férocité des évaluations, la compétition internationale, le niveau indécent demandé aux jeunes docteurs pour décrocher un poste dans le monde académique, tout ça conjugué aux doutes constants auxquels les chercheurs sont soumis, eux qui passent leurs temps à s’acharner sur des problèmes que personne n’a encore résolu. Alors si un milieu très exigeant augmente les risques de succomber à ce syndrome, le numérique, qui plus est académique, coche toutes les cases.

Souffrir du syndrome de l’imposteur est un sentiment qui, dans le meilleur des cas est désagréable, handicapant dans le pire. Alors même que nous redoublons d’imagination pour attirer les femmes dans le numérique à tous les niveaux, à coup de discrimination positive, de postes fléchés, de ratios de femmes à atteindre dans les écoles, universités et entreprises, il s’agit d’être vigilant sur les messages qui accompagnent ces honorables mesures, qui pourtant commencent à porter leurs fruits. Il ne s’agirait pas que cela renforce le manque de légitimité auquel font encore trop souvent face les femmes du numérique. Plus que jamais attelons-nous à éradiquer les clichés de genre.

Anne-Marie Kermarrec (Professeur à l’EPFL)

[1] Clance, P.R., & Imes, S.A. (1978).  The Impostor Phenomenon in High Achieving Women: Dynamics and Therapeutic Interventions.  Psychotherapy: Theory Research and Practice, 15, 241‑247

[2] https://www.forbes.com/sites/kathycaprino/2020/10/22/impostor-syndrome-prevalence-in-professional-women-face-and-how-to-overcome-it/?sh=509cbf3573cb

[3] Le Syndrome d’imposture. Pourquoi les femmes manquent tant de confiance en elles ?  Élisabeth Cadoche et Anne de Montarlot, Les Arènes, 2020.

[4] Le Syndrome de l’imposteur Sandi Mann, Leduc, 2020

[5] https://www.forbes.com/sites/kathycaprino/2020/10/22/impostor-syndrome-prevalence-in-professional-women-face-and-how-to-overcome-it/?sh=509cbf3573cb

Le métavers, quels métavers ? (2/2)

En octobre 2021, Facebook a annoncé le développement d’un nouvel environnement virtuel baptisé Metaverse. Cette information a entrainé de très nombreuses réactions tant sous la forme de commentaires dans les médias que de déclarations d’intention dans les entreprises. Comme souvent face à une innovation technologique, les réactions sont très contrastées : enfer annoncé pour certains, paradis pour d’autres. Qu’en penser ? C’est pour contribuer à cette réflexion que nous donnons la parole à Pascal Guitton et Nicolas Roussel. Dans un premier article, ils nous expliquaient de quoi il s’agit et dans celui-ci ils présentent des utilisations potentielles sans oublier de dresser une liste de questions à se poser.
Binaire, le blog pour comprendre les enjeux du numérique, en collaboration avec theconversation 

Pourquoi et pour quoi des métavers ?

Comme souvent dans le domaine des technologies numériques, on entend dans les discussions sur les métavers des affirmations comme « il ne faudrait pas rater le coche » (ou le train, la course, le virage, le tournant). Il faudrait donc se lancer dans le métavers uniquement parce que d’autres l’ont fait ? Et s’ils s’y étaient lancés pour de mauvaises raisons, nous les suivrions aveuglément ? On pourrait aussi se demander si la direction qu’ils ont prise est la bonne. Autre interrogation plus ou moins avouée, mais bien présente dans beaucoup d’esprits : qu’adviendrait-il de nous si nous ne suivions pas le mouvement ? Finalement, est-ce que la principale raison qui fait démarrer le train n’est pas la peur de certains acteurs de le rater ?

Pourquoi (pour quelles raisons) et pour quoi (dans quels buts) des métavers ? Les motivations actuelles sont pour nous liées à différents espoirs.

Le métavers, c’est l’espoir pour certains que la réalité virtuelle trouve enfin son application phare grand public, que ce qu’elle permet aujourd’hui dans des contextes particuliers devienne possible à grande échelle, dans des contextes plus variés : l’appréhension de situations complexes, l’immersion dans une tâche, l’entrainement sans conséquence sur le monde réel (apprendre à tailler ses rosiers dans le métavers comme on apprend à poser un avion dans un simulateur), la préparation d’actions à venir dans le monde réel (préparation d’une visite dans un musée), etc.

C’est l’espoir pour d’autres d’une diversification des interactions sociales en ligne (au-delà des jeux vidéo, réseaux sociaux et outils collaboratifs actuels), de leur passage à une plus grande échelle, de leur intégration dans un environnement fédérateur. C’est l’espoir que ces nouvelles interactions permettront de (re)créer du lien avec des personnes aujourd’hui isolées pour des raisons diverses : maladie ou handicap (sensoriel, moteur et/ou cognitif), par exemple. Des personnes éprouvant des difficultés avec leur apparence extérieure dans le monde réel pourraient peut-être s’exprimer plus librement via un avatar configuré à leur goût. Imaginez un entretien pour une embauche ou une location dans lequel il vous serait dans un premier temps possible de ne pas dévoiler votre apparence physique.

C’est aussi l’espoir d’un nouveau web construit aussi par et pour le bénéfice de ses utilisateurs, et non pas seulement celui des plateformes commerciales. Au début du web, personne ne savait que vous étiez un chien. Sur le web d’aujourd’hui, les plateformes savent quelles sont vos croquettes préférées et combien vous en mangez par jour. Dans le métavers imaginé par certains, personne ne saura que vous n’êtes pas un chien (forme choisie pour votre avatar) et c’est vous qui vendrez les croquettes.

C’est enfin — et probablement surtout, pour ses promoteurs actuels — l’espoir de l’émergence de nouveaux comportements économiques, l’espoir d’une révolution du commerce en ligne (dans le métavers, et dans le monde réel à travers lui), l’espoir d’importants résultats financiers dans le monde réel.

Tous ces espoirs ne sont évidemment pas nécessairement portés par les mêmes personnes, et tous ne se réaliseront sans doute pas, mais leur conjonction permet à un grand nombre d’acteurs de se projeter dans un espace configuré à leur mesure, d’où l’expression d’auberge espagnole qu’utilisent certains pour qualifier les métavers

Qu’allons-nous faire dans ces métavers ?

« La prédiction est très difficile, surtout lorsqu’il s’agit de l’avenir ». A quoi servira le métavers ? Des communautés spirituelles prévoient déjà de s’y rassembler. On peut parier qu’il ne faudra pas longtemps pour que des services pour adultes s’y développent  ; on sait bien qu’« Internet est fait pour le porno », et la partie réservée aux adultes de Second Life était encore récemment active, semble-t-il. Au-delà de ces paris sans risque, essayons d’imaginer ce que pourraient permettre les métavers…

Imaginez un centre-ville ou un centre commercial virtuel dont les boutiques vous permettraient d’accéder à des biens et services du monde virtuel et du monde réel. Dans une de ces boutiques, vous pourriez par exemple acheter une tenue pour votre avatar (comme un tee-shirt de l’UBB Rugby), qu’il pourrait dès lors porter dans toutes les activités possibles dans le métavers (rencontres entre amis, activités sportives ou culturelles, mais aussi réunions professionnelles). Dans une autre boutique, vous pourriez choisir et personnaliser une vraie paire de chaussures qui vous serait ensuite livrée à domicile dans le monde réel.

Quelle différence avec les achats en ligne d’aujourd’hui ? Vous pourriez être assistés dans les boutiques du métavers par des personnages virtuels, avatars d’êtres humains ou d’intelligences artificielles. Vous pourriez vous y rendre accompagnés, pour faire du shopping à plusieurs ou vous faire conseiller par des proches. Vous pourriez aussi demander conseil à d’autres « clients » de la boutique qui la visiteraient en même temps que vous. Dans les boutiques où en passant de l’une à l’autre, il vous serait possible de croiser des personnes de votre connaissance (du monde réel ou virtuel) et interagir avec elles.

Le centre commercial évoqué proposerait les grandes enseignes habituelles, mais vous auriez la possibilité de le personnaliser en y intégrant vos artisans et petits commerçants préférés, comme cette brasserie artisanale découverte sur un marché il y a quelque temps. Quel intérêt pour vous et pour elle ? La boutique dans le métavers serait un lieu de rencontre, d’échanges et de commerce, au même titre qu’un étal sur un marché, mais sans les contraintes de jour et d’heure, sans les contraintes logistiques, sans la météo capricieuse, etc. Il y a bien sur de nombreuses choses du monde réel qu’on préfèrera voir, goûter ou essayer avant d’acheter. Il y en a aussi de nombreuses qu’on peut acheter sans discuter, « les yeux fermés », ce qui fait le succès des courses en ligne livrées en drive ou à domicile. Mais pour certaines choses, le métavers pourrait offrir une expérience plus riche que le commerce en ligne actuel et moins contraignante que les formes de commerce physiques.

Le métavers pourrait vous offrir la possibilité d’organiser vous-même vos activités collectives. Vous voulez revoir vos oncles, tantes, cousins et cousines perdus de vue depuis des lustres ? Vous ne voulez pas faire le tour de France et ne pouvez pas loger tout ce monde ? Organisez la rencontre dans le métavers, et profitez des reconstitutions de grands lieux touristiques ! Envie de voir avec eux les calanques de Marseille ou Venise ? L’expérience ne sera évidemment pas la même que dans le monde réel, mais vous pourrez avoir ces lieux rien que pour vous et vos proches, et vous pourrez les visiter de manière inédite, en les survolant par exemple. L’agence de voyage du métavers vous proposera peut-être de compléter l’expérience en dégustant un plat typique (livré chez vous et vos proches) dans une ambiance visuelle et sonore reconstituée. Alors les cousins : supions à la provençale sur le vieux port, ou cicchetti sur la place Saint-Marc ?

Photo Helena Lopez – Pexels

Comme certains jeux vidéo actuels, le metavers permettra sans doute la pratique de différents sports, seul ou à plusieurs. L’hiver, avec votre club de cyclisme, vous pourrez vous entraîner sur des parcours virtuels (avec un vrai vélo comme interface, si vous le souhaitez). Envie de lâcher le vélo pour un parcours de randonnée au départ du village dans lequel vous venez d’arriver ? Pas de problème : le métavers est un monde dans lequel on peut basculer facilement d’une activité à l’autre. De nouveaux sports pourraient être inventés par les utilisateurs du métavers, au sens « activités nécessitant un entraînement et s’exerçant suivant des règles, sur un mode coopératif ou compétitif ». La pratique d’un sport virtuel vous amènera peut-être à constituer avec d’autres une équipe, un club. Pour vous entraîner, quel que soit votre niveau, vous devriez sans problème trouver dans le métavers d’autres personnes de niveau similaire ou à peine supérieur, pour peu que les clubs se regroupent en fédérations. Le métavers pourrait aussi changer votre expérience de spectateur de compétitions sportives. Pourquoi ne pas vivre le prochain match de votre équipe de football préférée dans le métavers du point de vue de l’avatar de son avant-centre plutôt que depuis les tribunes virtuelles ?

Photo Rodnae – Pexels

Le métavers pourrait fournir l’occasion et les moyens de reconsidérer la manière dont nous organisons le travail de bureau. Un bureau virtuel peut facilement être agrandi pour accueillir une nouvelle personne, si besoin. Un étage de bureaux virtuel peut facilement placer à proximité des personnes qui travaillent dans un même service mais qui sont géographiquement réparties dans le monde réel. En combinant l’organisation spatiale de l’activité permise par le métavers avec des outils que nous utilisons déjà (messageries instantanées, suites bureautiques partagées en ligne, outils de visioconférence, etc.), peut-être pourra-t-on proposer de nouveaux environnements de travail collaboratifs permettant de (re)créer du lien entre des personnes travaillant à distance, quelle qu’en soit la raison ? Il ne s’agit pas seulement ici d’améliorer la manière dont on peut tenir des réunions. Le métavers pourrait aussi permettre des rencontres fortuites et des échanges spontanés et informels entre des personnes, à travers des espaces collectifs (couloirs entre les bureaux, salles de détente) ou des événements (afterwork virtuel).

On pourrait voir des usages du métavers se développer dans le domaine de la santé. La réalité virtuelle est déjà utilisée depuis de nombreuses années pour traiter des cas de phobie (animaux, altitude, relations sociales, etc.) et de stress post-traumatiques (accidents, agressions, guerres, etc.). Ces thérapies reposent sur une exposition graduelle et maîtrisée par un soignant à une représentation numérique de l’objet engendrant la phobie. Le fait d’agir dans un environnement virtuel, d’en maîtriser tous les paramètres et de pouvoir rapidement et facilement stopper l’exposition ont contribué au succès de ces approches, qu’on imagine facilement transposables dans un métavers où elles pourraient être complétées par d’autres activités. Les simulateurs actuellement utilisés pour la formation de professionnels de santé ou les agents conversationnels animés développés ces dernières années pour le diagnostic ou le suivi médical pourraient aussi être intégrés au métavers. De nouveaux services de téléconsultation pourraient aussi être proposés.

Le métavers pourrait servir de plateforme d’accès à des services publics. La municipalité de Séoul a ainsi annoncé qu’elle souhaitait ouvrir en 2023 une plateforme de type métavers pour « s’affranchir des contraintes spatiales, temporelles ou linguistiques ». Cette plateforme intègrera des reconstitutions des principaux sites touristiques de la ville actuelle, mais aussi des reconstitutions d’éléments architecturaux disparus. Les habitants pourront interagir avec des agents municipaux via leurs avatars et pourront ainsi accéder à une variété de services publics (économiques, culturels, touristiques, éducatifs, civils) dont certains nécessitaient jusqu’ici de se rendre en mairie. Des manifestations réelles seront dupliquées dans le métavers afin de permettre à des utilisateurs du monde entier de les suivre.

Questions ouvertes

Le métavers, par son organisation spatiale et sa dimension sociale, sera l’opportunité de développer des communautés, pratiques et cultures. Ce qui en sortira dépendra beaucoup de la capacité de ses utilisateurs à se l’approprier. Le métavers pose toutefois dès aujourd’hui un certain nombre de questions.

Qui pourra réellement y accéder ? Il faudra sans aucun doute une « bonne » connexion réseau et un terminal performant, mais au-delà, les différences entre le métavers et le web n’introduiront-elles pas de nouvelles barrières à l’entrée, ou de nouveaux freins ? Le World Wide Web Consortium (W3C) a établi pour celui-ci des règles pour l’accessibilité des contenus à l’ensemble des utilisateurs, y compris les personnes en situation de handicap (WCAG). Combien de temps faudra-t-il pour que des règles similaires soient définies et appliquées dans le métavers ? Sur le web, il n’y a pas d’emplacement privilégié pour un site, la notion d’emplacement n’ayant pas de sens. Dans un monde virtuel en partie fondé sur une métaphore spatiale, la localisation aura de l’importance. On voit déjà de grandes enseignes se précipiter pour acquérir des espaces dans les proto-métavers, et des individus payant à prix d’or des « habitations » voisines de celles de stars. Qui pourra dans le futur se payer un bon emplacement pour sa boutique virtuelle ?

Le métavers, comme nous l’avons expliqué, c’est la combinaison de la réalité virtuelle, des jeux vidéo, des réseaux sociaux et des cryptomonnaies, propices à la spéculation. En termes de risques de comportements addictifs, c’est un cocktail explosif ! L’immersion, la déconnexion du réel, l’envie de ne pas finir sur un échec ou de prolonger sa chance au jeu, la nouveauté permanente, la peur de passer à côté de quelque chose « d’important » pendant qu’on est déconnecté et l’appât du gain risquent fort de générer des comportements toxiques pour les utilisateurs du métavers et pour leur entourage. En France, l’ANSES — qui étudie depuis plusieurs années l’impact des technologies numériques sur la santé[1] — risque d’avoir du travail. De nouvelles formes de harcèlement ont aussi été signalées dans des métavers, particulièrement violentes du fait de leur caractère immersif et temps réel. En réponse, Meta a récemment mis en place dans Horizon World et Horizon Venues une mesure de protection qui empêche les avatars de s’approcher à moins d’un mètre de distance. D’autres mesures et réglementations devront-elles être mises en place ?

On a vu se développer sur le web et les réseaux sociaux des mécanismes de collecte de données personnelles, de marketing ciblé, de manipulation de contenus, de désinformation, etc.  S’il devient le lieu privilégié de nos activités en ligne et que celles-ci se diversifient, ne risquons-nous pas d’exposer une part encore plus importante de nous-même ? Si ces activités sont de plus en plus sociales, regroupées dans un univers unique et matérialisées (si on peut dire) à travers nos avatars, ne seront-elles pas observables par un plus grand nombre d’acteurs ? Faudra-t-il jongler entre différents avatars pour que nos collègues de travail ne nous reconnaissent pas lors de nos activités nocturnes ? Pourra-t-on se payer différents avatars ? Quel sera l’équivalent des contenus publicitaires aujourd’hui poussés sur le web ? Des modifications significatives et contraignantes de l’environnement virtuel ? « Ce raccourci vers votre groupe d’amis vous permettant d’échapper à un tunnel de panneaux publicitaires vous est proposé par Pizza Mario, la pizza qu’il vous faut » Les technologies chaîne de blocs (blockchain en anglais) permettront-elles au contraire de certifier l’authenticité de messages ou d’expériences et d’empêcher leur altération ?

Lors de la rédaction de ce texte, nous avons souvent hésité entre « le métavers » et « les métavers ». Dans la littérature comme dans la vidéo d’annonce de Facebook/Meta, le concept est présenté comme un objet unique en son genre, mais on imagine assez facilement des scénarios alternatifs, trois au moins, sans compter des formes hybrides. Le premier est celui d’une diversité de métavers sans passerelle entre eux et dont aucun ne s’imposera vraiment parce qu’ils occuperont des marchés différents. C’est la situation du web actuel (Google, Meta, Twitter, Tik Tok et autres sont plus complémentaires que concurrents), qui motive en partie les promoteurs du Web3. Le deuxième scénario est celui d’un métavers dominant largement les autres. Celui-ci semble peu probable à l’échelle planétaire, ne serait-ce qu’à cause de la confrontation USA – Chine (– Europe ?). Le troisième scénario est celui d’une diversité de métavers avec un certain niveau d’interopérabilité technique et existant en bonne harmonie. Il n’est pas certain que ce soit le plus probable : l’interopérabilité est souhaitable mais sera difficile à atteindre. Nous pensons plutôt que c’est le premier scénario qui s’imposera. La diversité, donc le choix entre différents métavers, est une condition nécessaire tant à l’auto-détermination individuelle qu’à la souveraineté collective.

Qui va réguler les métavers ? Dans le monde du numérique, les normes prennent parfois du temps à s’établir et n’évoluent pas nécessairement très vite. Quand il s’agit de normes techniques, ce n’est pas un problème : le protocole HTTP est resté figé à la version 1.1 de 1999 à 2014, et cela n’a pas empêché le développement du web. Quand il s’agit de réguler les usages, les comportements, ce peut être plus problématique. Jusqu’ici, on peut s’en réjouir ou s’en désoler, le secteur du web a été peu régulé. Ceux qui définissent les règles sont souvent les premiers joueurs, qui sont en fait les premiers possédant les moyens de jouer, c’est à dire les grands acteurs du web aujourd’hui. Si demain, une partie de nos activités personnelles et professionnelles se déroule dans des métavers créés par eux sur la base d’infrastructures matérielles et logicielles extra-européennes, quels seront le rôle et la pertinence dans ces mondes des états européens ? Si ces mondes sont créés par des collectifs transcontinentaux et autogérés par des individus, la situation sera-t-elle plus favorables à ces états ?

Enfin, mais ce n’est pas le moins important, d’un point de vue beaucoup plus pragmatique et à plus court terme, on peut s’interroger sur la pertinence de se lancer dans le développement de métavers au moment où nous sommes déjà tous confrontés aux conséquences de nos activités sur l’environnement. Le tourisme virtuel aidera peut-être à réduire notre empreinte carbone, mais le coût écologique lié à la mise en œuvre des métavers (réalité virtuelle, réseaux haut-débit, chaîne de blocs, etc.) ne sera-t-il pas supérieur aux économies générées ? Le bilan devra bien sur tenir compte des usages effectifs des métavers, de leur utilité et de leur impact positif sur la société.

Pour conclure

Ni enfer, ni paradis par construction, les métavers présentent des facettes tant positives que négatives, à l’image de beaucoup d’autres innovations technologiques (comme l’intelligence artificielle, par exemple). Nous avons tendance à surestimer l’impact des nouvelles technologies à court-terme et à sous-estimer leur impact à long-terme, c’est la loi d’Amara. Les métavers tels qu’on nous les décrits seront sans doute difficiles à mettre en œuvre. Rien ne dit que ceux qui essaieront y arriveront, que les environnements produits seront massivement utilisés, qu’ils le resteront dans la durée ou que nous pourrons nous le permettre (pour des raisons environnementales, par exemple). Les choses étant de toute manière lancées et les investissements annoncés se chiffrant en milliards d’euros, on peut au minimum espérer que des choses intéressantes résulteront de ces efforts et que nous saurons leur trouver une utilité.

Alors que faire ? Rester passifs, observer les tentatives de mise en œuvre de métavers par des acteurs extra-européens, puis les utiliser tels qu’ils seront peut-être livrés un jour ? S’y opposer dès à présent en considérant que les bénéfices potentiels sont bien inférieurs aux risques ? Nous proposons une voie alternative consistant à développer les réflexions sur ce sujet et à explorer de façon maîtrisée les possibles ouverts par les technologies sous-jacentes, en d’autres termes, à jouer un rôle actif pour tenter de construire des approches vertueuses, quitte à les abandonner – en expliquant publiquement pourquoi – si elles ne répondent pas à nos attentes. Nous sommes persuadés qu’une exploration menée de façon rigoureuse pour évaluer des risques et des bénéfices est nettement préférable à un rejet a priori non étayé.

Pascal Guitton (Université de Bordeaux & Inria) & Nicolas Roussel (Inria)

[1] Voir par exemple son avis récent sur les expositions aux technologies de réalité virtuelle et/ou augmentée

Références additionnelles (*)

Quelques émissions, interviews ou textes récents :

 

Deux articles de recherche illustrant des approches très différentes des environnements virtuels collaboratifs :

 

  • Solipsis: a decentralized architecture for virtual environments (D. Frey et al., 05/11/2008)
    https://hal.archives-ouvertes.fr/inria-00337057
  • Re-place-ing space: the roles of place and space in collaborative systems (S. Harrison & P. Dourish, 03/12/96)
    https://www.dourish.com/publications/1996/cscw96-place.pdf

Deux fictions dans lesquelles on parle d’onirochrone et de cyberespace :

 

Et aussi : https://estcequecestlanneedelavr.com

(*) en plus de celles pointées par des liens dans le texte de l’article

Les cinq murs de l’IA 1/6 : la confiance

Mais jusqu’où ira l’intelligence artificielle à la vitesse avec laquelle elle fonce ?  Et bien … peut-être dans le mur ! C’est l’analyse qu’en fait Bertrand Braunschweig, qui s’intéresse justement à ces aspects de confiance liés à l’IA. Donnons lui la parole pour une réflexion détaillée interactive en six épisodes.   Pascal Guitton et Thierry Viéville.

Episode 1 : introduction générale, et le premier mur.

L’intelligence artificielle progresse à un rythme très rapide tant sur le plan de la recherche que sur celui des applications et pose des questions de société auxquelles toutes les réponses sont loin d’être données. Mais en avançant rapidement, elle fonce sur ce que j’appelle les cinq murs de l’IA, des murs sur lesquels elle est susceptible de se fracasser si l’on ne prend pas de précautions. N’importe lequel de ces cinq murs est en mesure de mettre un terme à sa progression, c’est pour cette raison qu’il est essentiel d’en connaître la nature et de chercher à apporter des réponses afin d’éviter le fameux troisième hiver de l’IA, hiver qui ferait suite aux deux premiers des années 197x et 199x au cours desquels la recherche et le développement de l’IA se sont quasiment arrêtés faute de budget et d’intérêt de la communauté.

Les cinq murs sont ceux de la confiance, de l’énergie, de la sécurité, de l’interaction avec les humains et de l’inhumanité. Ils contiennent chacun un certain nombre de ramifications, et sont bien évidemment en interaction, je vais toutefois les présenter de manière séquentielle, en cinq épisodes. Le sixième épisode examinera quelques pistes pour éviter une issue fatale pour l’IA.

Ce texte se veut un outil de réflexion pour le lecteur, il est destiné à susciter des commentaires et réactions que ce soit sur la réalité de ces murs, sur la complétude de mon analyse, ou sur la manière d’échapper à l’écrasement sur l’un de ces murs. Je précise cependant qu’il y a d’autres facteurs, non technologiques, qui mettent en cause l’avenir de l’IA, et que je ne traite pas dans cette série. Ainsi, par exemple, la pénurie de chercheurs, ingénieurs, techniciens capables de développer et de mettre en oeuvre les technologies d’IA est très bien identifiée ; elle se matérialise par les salaires élevés qui sont versés à celles et ceux qui affichent l’IA comme spécialité, et par la mise en place de nombreux programmes de formation qui, à terme, devraient permettre de revenir à une situation normale en la matière, l’offre rejoignant la demande. Il ne manque pas non plus de démarches gouvernementales, collectives, associatives et autres pour réglementer et gouverner l’IA, je n’aborderai pas ces aspects ici. Je recommande plutôt de s’intéresser aux travaux du Partenariat Mondial sur l’Intelligence Artificielle (GPAI en anglais) qui rassemble nombre d’experts de disciplines, d’origines et de cultures différentes sur les sujets de société autour de l’IA.

Je reconnais également qu’il y a des avis différents à ce sujet. Par exemple, l’article « Deep learning for AI » de Yoshua Bengio, Yann LeCun et Geoffrey Hinton1, rédigé suite à leur prix Turing collectif, donne des pistes pour l’avenir de l’AI par l’apprentissage profond et les réseaux neuronaux sans aborder les mêmes sujets; le rapport d’étape 2021 de l’étude longitudinale sur cent ans de Stanford2 examine les avancées de l’IA à ce jour et présente des défis pour le futur, très complémentaires à ceux que j’aborde ici; le récent livre de César Hidalgo, chaire de l’institut 3IA ANITI à Toulouse, « How Humans Judge Machines »3 s’intéresse à la perception de l’IA (et des machines) par les humains; l’ouvrage « Human Compatible »4 de Stuart Russell, professeur à Berkeley et auteur du principal livre de cours sur l’IA depuis deux décennies, s’intéresse à la compatibilité entre machines et humains, sujet que je traite différemment quand je parle du mur de l’interaction; enfin, la publication que j’ai co-éditée en 2021 avec Malik Ghallab, « Reflections on Artificial Intelligence for Humanity »5 aborde dans ses quatorze chapitres divers aspects de l’avenir de l’IA, notamment sur le futur du travail, la prise de décision par les machines, les questions de réglementation, d’éthique, de biais etc.

Dans ce premier épisode je m’intéresse au mur de la confiance, un sujet particulièrement mis en exergue depuis quelques années.

La confiance

Dialogue entre Lonia, le chatbot de la banque et Y, qui a demandé un crédit.
Y: est-ce que mon prêt a été accordé ?
Lonia: non.
Y: peux-tu me dire pourquoi mon prêt n‘a pas été accordé?
Lonia: non
Y: mais, pourquoi ne peux-tu pas me dire pourquoi mon prêt n’a pas été accordé?
Lonia: parce que je suis une intelligence artificielle, entraînée à partir de données de crédits passés, et je ne sais pas produire d’explications.
Y: c’est bien dommage! Mais peux-tu au moins prouver que ta décision est la bonne?
Lonia: Non, on ne peut pas prouver les conclusions établies par des IA entraînées par apprentissage à partir de données.
Y: ah, bon. Mais, alors, as-tu été certifiée pour le travail que tu fais? As-tu un quelconque label de qualité?
Lonia: Non, il n’existe pas de normes pour les IA entraînées par apprentissage, il n’y a pas de certification.
Y: Merci pour tout cela. Au revoir, je change de banque.

Bien évidemment, derrière ce dialogue imaginaire, c’est la question de la confiance qui est posée. Et cela ne concerne pas que le domaine financier, par exemple le même échange pourrait avoir lieu au sujet d’un diagnostic médical pour lequel la machine ne pourrait fournir ni garanties ni explications.  Si les personnes n’ont pas confiance envers les systèmes qu’IA avec lesquels ils interagissent, ils les rejetteront. Il y a largement de quoi causer un troisième hiver de l’IA !

La confiance est une notion riche et multi-factorielle, beaucoup de sociologues et de technologues se sont intéressés aux mécanismes de son établissement. Plusieurs organismes tentent de fournir des définitions de ce qu’est la confiance envers les systèmes d’intelligence artificielle, elle a été le sujet principal du groupe d’experts mobilisés par la Commission Européenne (dont tous les travaux6 se font dans l’optique « trustworthy AI »). L’organisation internationale de normalisation, ISO, considère une vingtaine de facteurs différents, avec des ramifications.

Je résumerai ici en disant que la confiance, en particulier envers les artefacts numériques dont l’IA fait partie, est une combinaison de facteurs technologiques et sociologiques. Technologiques, comme la capacité de vérifier la justesse d’une conclusion, la robustesse à des perturbations, le traitement de l’incertitude etc. Sociologiques, comme la validation par des pairs, la réputation dans les réseaux sociaux, l’attribution d’un label par un tiers de confiance etc. Les questions d’interaction avec les utilisateurs sont intermédiaires entre ces deux types de facteurs: transparence, explicabilité, qualité des interactions de manière plus générale.

Les facteurs sociologiques ne sont pas propres à l’IA: dans un réseau de confiance entre humains, la transmission de la confiance ne fait pas nécessairement appel aux facteurs technologiques. Par contre, la base technologique de la confiance en IA est bien spécifique et pose de nombreux défis. On ne sait pas, aujourd’hui, prouver que les conclusions d’un système entraîné par apprentissage sur une base de données sont les bonnes, qu’elles sont robustes à des petites variations, qu’elles ne sont pas entachées de biais etc. Il existe de nombreux programmes de R&D à ce sujet, dont un des plus importants est l’initiative Confiance.ai7 centrée sur les systèmes critiques (transport, défense, énergie, industrie) portée par de grands groupes industriels dans le cadre du Grand Défi sur la fiabilisation et la certification de l’IA.

Tant que cette question restera ouverte, le risque pour l’IA de se heurter au mur de la confiance sera majeur. Il le sera encore plus pour les systèmes à risque (au sens de la Commission Européenne dans sa proposition de réglementation de l’IA8) et pour les systèmes critiques (au sens du programme Confiance.ai).

​Bertrand Braunschweig a été en charge pour Inria de la stratégie nationale de recherche en intelligence artificielle, il est aujourd’hui consultant indépendant et coordonnateur scientifique du programme Confiance.ai.

Notes :

1 Deep Learning for AI. Yoshua Bengio, Yann Lecun, Geoffrey Hinton Communications of the ACM, July 2021, Vol. 64 No. 7, Pages 58-65

2 Michael L. Littman, Ifeoma Ajunwa, Guy Berger, Craig Boutilier, Morgan Currie, Finale Doshi-Velez, Gillian Hadfield, Michael C. Horowitz, Charles Isbell, Hiroaki Kitano, Karen Levy, Terah Lyons, Melanie Mitchell, Julie Shah, Steven Sloman, Shannon Vallor, and Toby Walsh. Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100) 2021 Study Panel Report.Stanford University, Stanford, CA, September 2021. Doc: http://ai100.stanford.edu/2021-report. Accessed: September 16, 2021.

3 https://www.judgingmachines.com/

5 B. Braunschweig & M. Ghallab (eds.), Reflections on Artificial Intelligence for Humanity, Elsevier, 2021