Un Palais de la Découverte des Sciences du numérique

Un lieu pour comprendre l’informatique et pas juste consommer les produits numériques : c’est un rêve devenu projet, un projet devenu réalité. Voici Terra Numerica. Frédéric Havet et Dorian Mazauric vont nous expliquer en détails la démarche et partager quelques réalisations pour que nous aussi, parents, enseignant·e·s ou tout autre professionnel·le·s de l’éducation puissions profiter de ce lieu, de ces ressources en lignes, voir nous en inspirer, pour bâtir nous aussi sur sur notre territoire un tiers lieu d’accueil des sciences du numérique. Pierre Paradinas et Thierry Viéville.

Bonjour Dorian, parle-nous de Terra Numerica

Terra Numerica est un projet d’envergure et fédérateur pour la diffusion de la culture des sciences du numérique dans les Alpes-Maritimes et le Var, localisé à Sophia Antipolis. Il est porté par une centaine de membres de plus d’une dizaine de partenaires : structures de recherche (CNRS, Inria et Université Côte d’Azur), des composantes de l’Éducation Nationale, des partenaires associatifs ou socio-économiques, aux profils complémentaires afin de bénéficier des compétences scientifiques, pédagogiques, techniques et technologiques nécessaires au développement du projet.

Faire travailler toutes ces initiatives ensemble, c’est super, mais concrètement où en êtes-vous ?

Il comprend un lieu central (une sorte de Palais de la Découverte des Sciences du numérique). Ce bâtiment de plus de 500 mètres carrés est mis à disposition par la ville de Valbonne.

 Avoir un lieu central répond à deux nécessités : d’une part, avoir un lieu totem bien identifié par le grand public et les acteurs de médiation ; d’autre part, pouvoir déployer des dispositifs de médiation plus ambitieux que ceux développés habituellement, c’est-à-dire qui nécessitent beaucoup d’espace, de matériel, ou de temps d’installation et qu’il est donc impossible de mettre en place pour des événements ponctuels ou dans des endroits trop exigus.
Le 11 juin 2022 à Valbonne Sophia Antipolis, a été inauguré cet espace TerraNumerica@Sophia, rampe de lancement vers une Cité du Numérique. Une vingtaine de parcours d’ateliers ludiques et récréatifs sont proposés afin de découvrir, explorer et expérimenter les fondements mathématiques et informatique de ces sciences, les applications et les enjeux. 

Au delà de ce lieu central, différents Espaces Partenaires (médiathèques, musées, Fab’Ecoles, établissements scolaires, tiers-lieux associatifs, etc.) permettent de couvrir toute l’Académie de Nice (Alpes-Maritimes et Var). Une partie de nos activités sont aussi transportables pour aller vers le public dans ces lieux de vie, tout particulièrement les publics écartés. Ces lieux accueillent des ateliers de médiation originaux, en particulier sur la forme, pour permettre la manipulation par le public et pour expliquer de manière ludique les sciences du numérique en sortant des ordinateurs et de la feuille et du crayon où elles ont trop tendance à être cantonnées.

Tu as des exemples de tels ateliers ?

Parmi les dizaines d’ateliers Terra Numerica, je vous en détaille trois :

Trains et jeux en ligne pour comprendre les algorithmes de recommandation : expliquer les algorithmes de recommandation avec un réseau de train. L’atelier consiste à laisser un petit train se déplacer au hasard dans un réseau (marche aléatoire) et de compter le nombre de fois qu’il passe à chacun des six quartiers du réseau (à chaque sommet). Ce réseau peut représenter des pages Web connectées entre elles, un réseau de vidéos, un réseau social, etc. Un algorithme universel de recommandation consiste alors à classer les quartiers selon le nombre de visites (plus un quartier est visité, plus il sera noté comme populaire et donc recommandé). Cet atelier a aussi une version logicielle en Scratch afin d’effectuer un plus grand nombre d’étapes de l’algorithme, et aussi pour un partage à grand échelle.

Géométrie et polyèdres avec écran sphérique : un écran sphérique interactif permet d’expliquer que les ordinateurs se représentent le monde grâce à des modèles mathématiques, créés par les humains. Cette interface est intéressante car elle est par définition parfaitement adaptée pour des ateliers qui font appel à des objets « sphériques ». Dans cet atelier, les notions de polygones, polyèdres, triangulation… sont abordées avec des ballons de foot (en lien avec les coupes du monde 1970 ou 2014).

Smart City : expérimenter les économies d’énergie dans les réseaux sur une maquette d’une ville avec projection interactive. L’utilisateur doit d’abord attribuer une route dans le réseau de télécommunication pour chaque pair d’utilisateurs souhaitant communiquer. Ensuite, il s’agit de réfléchir à comment modifier les routes afin d’éteindre des routeurs et donc d’économiser de l’énergie.  Cette maquette permet le développement d’activités de nature diverse autour de la ville (modélisation des inondations, régulation du trafic routier, reconstruction de bâtiments 3D, recherche d’un patient Alzheimer perdu dans une ville etc.).

Ces ateliers ont principalement été conçus et réalisés par des partenaires locaux de Terra Numerica, mais certains l’ont été en collaboration avec des collègues ailleurs en France (Lyon, Montpellier, Nancy) et même l’étranger (Chili).

Et ce lieu commence à vivre ?

Oui, depuis son ouverture le 11 juin 2022, TerraNumerica@Sophia a déjà accueilli 4 classes de collèges, 10 classes de CM2 et des formations, pour des enseignants, des étudiants en science de l’éducation et des médiateurs stagiaires et 400 personnes sont également venues lors de l’inauguration, tandis que les activités “hors les murs” se multiplient dans les écoles et au delà (en augmentation constante depuis le lancement du projet fin 2018). Une vingtaine de demi-journées thématiques en famille, les ateliers DuoSciences, sont également proposées au grand public pendant les vacances (Robotination, Art et numérique, Informatique débranchée, Pavages et Algorithmes).

A partir de la rentrée prochaine, toutes ces actions vont s’amplifier.

Et au delà de ce lieu ?

Le réseau d’Espaces Partenaires, une vingtaine à ce jour dans les Alpes-Maritimes et le Var,  permettent de déployer des dispositifs de médiation à travers tout le territoire et en particulier dans des endroits qui en sont éloignés, que ce soit géographiquement (Haut Var, vallée de la Vésubie) ou socialement (Quartier de l’Ariane à Nice, Quartier de la Beaucaire à Toulon).

Au delà de faire circuler les dispositifs, et de mutualiser les ressources matérielles, ils sont également importants pour la création d’ateliers de médiation, car pour Terra Numerica les activités se co-construisent avec tous les partenaires, y compris le public (parents, professionnels de l’éducation, etc.). Chacun a son particularisme et enrichit les ressources, et contribue à leurs évaluation à travers de retours de terrain pour les améliorer et les adapter au fil du temps.

Tu as des exemples de co-construction ?

Par exemple, le collège Sidney Bechet d’Antibes souhaitait traiter de l’éthique des données. En collaboration avec Terra Numerica, il a donc imaginé des ateliers sur cette thématique qui ont été présentés aux élèves de ce collège. Certains d’entre eux, dont le réseau de trains pour les algorithmes de recommandation, sont maintenant en partage à TerraNumerica@Sophia et au sein du réseau.

De même, les associations Esope 21 de Rians et Apprentis Pas Sages en vallée de la Vésubie sont généralistes et, de part leur implantation géographique, très intéressées par ce qui a trait à la nature. Terra Numerica élabore avec elles tout un parcours d’ateliers autour des insectes et du numérique qui sera déployé dans leurs lieux, mais également à TerraNumerica@Sophia. Il sera ensuite disponible pour les autres Espaces Partenaires qui le souhaiteront.

Des robots pour comprendre les algorithmes des fourmis (du parcours insectes et numérique).

Au moment de la  Fête de la Science, Terra Numerica est présent sur de nombreux Villages des Sciences de la région. Ses membres interviennent également dans les classes, en particulier dans le cadre de programmes nationaux comme Chiche!, Cordées de la Réussite ou Maths en Jeans. Ces interventions sont complétées par toute une série de ressources (manuels d’activités, matériel à fabriquer soi-même ou à emprunter, jeux en ligne, etc.) qui permettent aux visiteurs de poursuivre leur visite chez eux ou en classe.

Terra Numerica propose également des formations aux enseignants et enseignantes (plus d’une centaine de personnels formés par an) pour les aider à utiliser en classe ces ressources, ainsi que du matériel pédagogique innovant que Terra Numerica met à disposition.

Illustrations d’ateliers lors de la Fête de la Science (Villeneuve-Loubet, Antibes Juan-les-Pins).

Et au delà, si Terra Numerica est un projet ancré un territoire, il est aussi en relation avec divers partenaires de médiation scientifique aussi bien au national (avec la Maison des Mathématiques et de l’Informatique de Lyon notamment), qu’à l’international (Chili, Brésil, Canada, Japon).

Et cela donne-t-il aussi envie d’étudier ces démarches de popularisation ?

Oui Terra Numerica, principalement projet de médiation scientifique, dispose aussi d’un volet recherche.

En premier lieu, il s’agit d’un outil formidable pour mettre en avant et expliquer au plus grand nombre les recherches qui sont menées au sein des laboratoires scientifiques. 

Ensuite, des recherches en Science de l’Éducation sont présentes pour évaluer et améliorer les dispositifs de médiation, mais également pour proposer des innovations en ce domaine. Elles sont notamment menées par les membres du laboratoire LINE d’Université Côte d’Azur, avec le projet de recherche ANR #Creamaker ou l’action exploratoire AIDE.

On voit, par exemple, ci-coontre une maquette de dispositif de mesure des gestes d’apprentissage pendant une activité ludique d’initiation à la pensée informatique (algorithme, codage de l’information, éléments de robotique) de façon à étudier l’apprentissage humain dans ce cas spécifique.

Le projet dit tabletop a fait l’objet d’une étude dans le cadre d’une action exploratoire, dite « AIDE ».

 

 En particulier, Terra Numerica participe à un projet de recherche ANR ASMODEE Analyse et conception de situations de médiation en informatique débranchée. 

On se rapproche aussi de démarche de sciences participatives avec de permettre au public (scolaires, enseignants, grand public…) de prendre part à la Recherche et à l’Innovation dans le domaine des sciences du numérique.

Ainsi, des dispositifs développés pour la médiation sont et seront utiles également pour la recherche. Par exemple, l’atelier « pendule inversé » a servi à valider certaines méthodes de contrôle sur un cas simple avant de s’attaquer à plus compliqué ; la maquette qui a été développée servira également pour la première phase de tests d’algorithmes de reconstruction 3D de bâtiments avant de passer à des tests sur des villes réelles.

Le mot de la fin ?

TerraNumerica@Sophia vient d’être inauguré le 11 juin 2022, rampe de lancement vers une Cité du Numérique en 2025-2026. Rejoignez-nous dans cette aventure collective.

Frédéric Havet et Dorian Mazauric.

Agriculture : biens privés d’aujourd’hui et communs de demain

 Un nouvel « Entretien autour de l’informatique ». Christian Huyghe, chercheur en agronomie, est Directeur scientifique « Agriculture » de l’Institut national de recherche pour l’agriculture, l’alimentation et l’environnement (Inrae). Il nous explique la place des communs dans son domaine. Une particularité est, qu’en agriculture, la tension autour des communs cristallise dans le temps entre les biens privés d’aujourd’hui et les communs de demain.
Christian Huyghe, www.academie-agriculture.fr

Binaire : Pourriez-vous retracer votre carrière qui vous a amené à devenir Directeur scientifique de l’Inrae ?

CH : Je suis rentré très jeune à l’Inrae et j’y ai fait toute ma carrière. J’ai commencé par une thèse sur « La polyembryonie haploïde diploïde chez le lin », un processus physiologique permettant de créer des méthodes de sélection pour avoir de nouvelles lignées en une seule génération. J’ai fait un post-doc sur les croisements interspécifiques du pois chiche, en Grande Bretagne comme volontaire scientifique du service national. J’ai participé ensuite à des programmes de recherche sur le lupin blanc, la luzerne, et les espèces fourragères. Puis, j’ai gravi les échelons jusqu’à devenir en 2016 Directeur scientifique « Agriculture », à l’Inrae. C’est un des trois piliers de l’institut, le pilier historique.

A côté de ça, j’ai d’autres activités, je préside un certain nombre de structures partenariales de l’Inrae, en particulier le Comité scientifique et technique de l’ACTA[1]. Dans le cadre des politiques publiques, je m’occupe de variétés et de semences dans un Groupement d’Intérêt Public, le GEVS, et de la protection des cultures et sur les pesticides. Il faut rajouter à cela des activités européennes. Je préside, entre autres, une alliance européenne de recherche sur les pesticides. Mon travail tourne très souvent autour des pesticides, un sujet évidemment très important. L’intensification des cultures a conduit à utiliser de plus en plus de pesticides, les systèmes agricoles se sont progressivement « verrouillés » autour de l’utilisation de ces intrants. Cela cause des problèmes de résistance à ces pesticides et de dégradation de l’environnement.

B : Les personnes que nous avons déjà interrogées sur les communs nous en donnent souvent des visions assez différentes. Que représentent les communs pour vous et en agriculture en particulier ?

CH : Je suis arrivé à me préoccuper des communs en agriculture par une voie détournée, en réalisant que la difficulté de la transition en agriculture aujourd’hui est de concilier d’une part les fonctions productives des biens alimentaires, et d’autre part, la préservation de l’environnement. L’intensification de l’agriculture avec plus d’intrants s’est réalisée au détriment de la question environnementale, qui est juste corrigée par des contraintes réglementaires. Il s’agit bien là d’une tension entre biens privés et biens publics ou biens communs. Passer du terme public au terme commun a évidemment un sens, les biens communs étant des biens rivaux, i.e. s’ils sont consommés par quelqu’un, ils ne sont pas disponibles pour d’autres. Quand on en discute avec l’ensemble des acteurs concernés, le terme de bien commun a beaucoup de sens.

Une particularité de l’agriculture est que la tension se passe souvent entre aujourd’hui et demain, un bien privé d’aujourd’hui en tension avec un bien commun de demain.

Le monde agricole tient assez peu compte de la dimension patrimoniale, c’est-à-dire du monde que nous lèguerons à nos descendants. On a souvent tendance en agriculture à s’appuyer sur le « Quoi qu’il en coûte pour demain ». Si un agriculteur a besoin pour résoudre un problème immédiat d’utiliser une solution qui a des effets négatifs à long terme, il va sans doute le faire. Mais est-ce particulier à l’agriculture ?

B : Pouvez-vous nous en donner un exemple ?

CH : Dans les pesticides très problématiques, il y a le Phosmet[2] qui est un insecticide très efficace. C’est le dernier organo-phosphoré de la pharmacopée et il est classé CMR (Cancérigène, Mutagène, Reprotoxique). Il produit notamment un effondrement de la fertilité masculine. Personne ne devrait raisonnablement utiliser un produit pareil. D’ailleurs, en 2017, il n’a même pas été évalué par anticipation parce qu’il n’était plus utilisé. Mais comme d’autres insecticides ont perdu en efficacité (pyréthrénoïdes) ou ont été interdits (néonicotinoïdes) et que celui-ci ne l’était pas, les agriculteurs se sont remis à l’utiliser. Sur plus de 50% des surfaces de colza en 2021 ! Les agriculteurs ont un problème d’insectes (grosse altise, charançon des tiges) sur leurs champs de colza et la seule solution simple est le Phosmet. Alors, tant pis pour les communs de demain !

B : Quelle est votre expérience personnelle sur les communs ?

CH : Je les ai beaucoup côtoyés avec la science ouverte, les livings labs et les territoires d’innovation. Il s’agit d’innover ensemble, de co-concevoir, de co-construire dans ces dispositifs. Les « territoires d’innovation » ont été lancés en 2019 sur différents domaines. Il y a dix territoires d’innovation en agriculture. Ce sont de gros dispositifs soutenus financièrement par la puissance publique avec un fort investissement des collectifs locaux, des acteurs économiques et des ONG. Il y a par exemple le LIT Ouesterel sur le bien-être animal, dans les régions d’élevage de l’Ouest. Ces Territoires d’Innovation en agriculture mettent tous en scène la recherche d’options pour résoudre la tension entre bien privés et bien communs.

On s’est notamment rendu compte que, dans ce cadre, un levier essentiel était le partage d’informations, ce qui conduit à donner une place particulière à la question des données et du numérique, comme levier du partage d’information. La combinaison de performance productive et performance environnementale conduit naturellement à la nécessité d’ouvrir les données, à considérer les données comme des communs numériques. Cela conduit également à regarder les données comme un bien commun. On a cherché à comprendre pourquoi les personnes avaient autant de réticence à ouvrir leurs données.

B : L’Inrae est souvent à la pointe de l’ouverture des données. Comment l’expliquez-vous ?

CH : Cela tient beaucoup à la personne et l’action de François Houlier, un ancien PDG de l’Inrae. Il a réalisé en 2016 un rapport commandé par Najat Vallaud-Belkacem (ministère de l’Éducation nationale) et Thierry Mandon (ministère de l’Enseignement supérieur et de la Recherche) sur « Les Sciences participatives en France ». Il présentait une autre façon de faire de la recherche. Cela a eu au début assez peu d’incidence sur la maison. Et puis, la science ouverte est devenue un vrai levier de la recherche à l’Inrae.

En particulier, on a compris l’importance d’impliquer le plus de monde possible à la création de connaissances, en particulier des non-scientifiques. A l’Inrae, nous avons énormément de contacts avec des partenaires, comme des acteurs économiques (coopératives, instituts techniques agricoles) et avec des ONG (des secteurs de l’environnement ou de l’alimentation). Ceux-ci apportent toute leur énergie à la science ouverte. Cela n’est pas toujours confortable pour les chercheurs qui aiment bien expliquer ou décider a priori là où il faut aller. C’est beaucoup moins confortable de le faire avec les autres. Mais, très souvent, cela conduit à beaucoup de créativité au-delà de la simple définition des défis, des enjeux. Le recherche et l’innovation ouverte impliquent des façons de faire nouvelles, conduisent à des connaissances originales. Ce qui est particulièrement intéressant c’est que tous ceux qui ont participé aux travaux sont concernés, impliqués dans l’appropriation des résultats.

B : C’est vrai pour la recherche en général. Mais pour l’agriculture ?

CH : Une particularité en agriculture est que la tension entre fonction productive et protection environnementale, que je mentionnais plus haut, est très dépendante des conditions locales. Les milieux locaux physiques, climatiques, économiques, culturels, tiennent des places essentielles. La science et l’innovation ouvertes sont donc bien adaptées au sujet de l’agriculture parce qu’on peut avoir accès à des savoir-faire locaux et à des données locales.

B : Au milieu de tout ça, quelle est la position de l’agriculteur moyen ?

CH : Le monde des agriculteurs est très hétérogène, par exemple, dans leur rapport à l’innovation. Donc parler d’agriculteur moyen n’est pas vraiment approprié. Comme dans la plupart des secteurs économiques, vous avez des créatifs, des adoptants précoces, des adoptants tardifs, et au bout les trainards. On dirait laggards en anglais pour reprendre les termes de E. Rogers qui a le premier analysé cette situation. On a une courbe de distribution assez classique. Pour booster l’innovation en agriculture, on s’appuie sur les leaders qui sont typiquement des adoptants précoces. Ce n’est pas forcément le rôle du syndicat agricole, qui est là pour protéger la majorité, qui est plutôt du côté des adoptants tardifs. Ce n’est pas une critique des agriculteurs et de leurs syndicats : ils ont des risques à gérer, une activité économique à protéger. Il faut garder tout le monde à bord. C’est essentiel.

Prenez les chambres d’agriculture qui sont des lieux de tension forte. Elles jouent un double rôle : le développement de l’agriculture et la protection des agriculteurs, mais les deux rôles proposent des réponses souvent contradictoires, en particulier quand les temps courts (biens privés et productifs) et temps longs (biens environnementaux communs) ne sont pas en syzygie. Cette situation est assez récente. L’inconfort des chambres d’agriculture et plus largement des acteurs du développement agricoles résulte de leur mise en place à la fin de la seconde guerre mondiale. Le cœur des biens communs alors, au moment où tout se met en place, c’est la sécurité alimentaire, puisque le France et l’Europe sont très loin de l’autosuffisance alimentaire. Les intérêts des biens communs et des biens privés étaient alors bien alignés sur ce même sujet de sécurité alimentaire. Aujourd’hui, ils ne sont plus alignés. D’où la difficulté aujourd’hui pour ces opérateurs.

De nombreux agriculteurs ont une énorme appétence pour l’innovation. Mais collectivement, il ne faut pas que cela aille trop vite, d’où la résistance au changement pour protéger la masse des agriculteurs.

B : Est-ce que les pouvoirs publics peuvent réduire la tension ? Peuvent-ils faire bouger les lignes ?

CH : Ils peuvent le faire sans aucun doute. La question, c’est comment ? Il faut que cela se passe à l’échelle européenne. Les biens environnementaux sont communs à l’humanité et on ne peut pas les protéger chacun dans son petit coin. Notre chance, c’est l’Union européenne, qui a proposé avec le Green Deal[3] des objectifs ambitieux en donnant des horizons et des objectifs partagés par tous les pays. Jusqu’à présent, on a cherché à produire au plus faible coût économique. On se met à considérer le coût environnemental. Cela donne du sens aux politiques qu’on suit.

Il faut réaliser ce Green Deal qui est une chance pour l’humanité. Mais on voit que toutes les excuses sont bonnes pour tergiverser : le Covid, la crise en Ukraine… On voit bien qu’on cherche à traiter les questions d’aujourd’hui avant celles du demain. Il faut un courage politique considérable pour porter les visions politiques à très long terme. Le Green Deal comme des plans américains discutés aujourd’hui font partie de ces grands choix politiques majeurs qu’on doit être capable de porter. Dans ce cadre, la Politique Agricole Commune est en deçà de ce qu’il faudrait faire, comme le souligne son analyse par le Parlement Européen.

B : Est-ce que le secteur privé a aussi une place ?

CH : Le secteur privé a bien sûr son rôle à jouer. On voit de très grands groupes qui prennent conscience de la nécessité de changer de route. Cela tient du choix de dirigeants ou de prises de considérations collectives à long terme. Pour prendre un exemple encore avec les pesticides, le groupe Kronenbourg, qui fait partie du groupe Carlsberg, a annoncé au début du mois de juin, une initiative importante. L’orge de brasserie contient des résidus de pesticides, le houblon est utilisé en moins grande quantité mais en contient beaucoup, et l’eau en contient également. Le groupe a choisi une voie très intéressante. Il s’est associé avec de gros producteurs de malt et de houblon pour accompagner, c’est-à-dire financer, une transition vers la réduction massive des pesticides chez les agriculteurs producteurs d’orge et de houblon. Un des plus grands groupes de brasserie au monde s’empare ainsi du sujet, décide d’être responsable, anticipe la réglementation. Logique publique et logique privée, il n’y a pas nécessairement d’opposition. Il faut aller dans le même sens.

B : Un mot pour conclure ?

CH : Le vrai sujet des communs est celui de la responsabilité de nos actions. Nous sommes responsables du monde que nous laisserons à nos enfants. Pour moi, les acteurs de la recherche publique ont une responsabilité particulière, celle d’imaginer des horizons lointains, d’accompagner la transition, d’encourager le développement des communs, mais aussi de montrer le chemin.

Serge Abiteboul, Inria et ENS Paris, François Bancilhon, serial entrepreneur

[1] Le Réseau des instituts techniques agricoles est un lieu d’échange et de partage, à la confluence de l’intérêt général et de missions d’intérêts spécifiques aux filières agricole, forestière et agro-industrielle. C’est une association unique en Europe pilotée par les agriculteurs depuis plus de 60 ans.

[2] Le phosmet est un insecticide organophosphoré non-systémique, dérivé du phtalimide, utilisé sur les plantes et les animaux.

[3] Le Green Deal Européen, ou Pacte vert européen, constitue un ensemble de mesures visant à faire de l’Europe un continent « climatiquement neutre » d’ici 2050.

https://www.lemonde.fr/blog/binaire/les-entretiens-de-la-sif/

https://www.lemonde.fr/blog/binaire/2021/09/28/les-communs-numeriques/

Recherche en cybersécurité et souveraineté numérique française

Les cyberattaques sont de plus en plus nombreuses, de plus en plus inquiétantes et touchent tant les entreprises, les états que les individus (1). Malgré ce constat, la cybersécurité est-elle suffisamment prise au sérieux par tous les acteurs ? Et dans ce domaine comme dans d‘autres, ne dépendons-nous pas trop de technologies venues d’ailleurs ouvrant ainsi la voie à des vulnérabilités supplémentaires ? Nous avons demandé à deux collègues, Hubert Duault et Ludovic Mé, spécialistes de cybersécurité de nous éclairer. Il semble que la France, qui avait déjà des atouts dans ce domaine, ait choisi de forcer l’allure. Cocorico !  Serge Abiteboul et Pascal Guitton.

L’actualité nous rappelle quasi-quotidiennement combien la transformation numérique des entreprises, des administrations et de l’ensemble de la société a fait de la cyber sécurité un enjeu majeur. Il est même parfois souhaitable de choisir des fournisseurs de produits ou de services de sécurité en fonction du contexte géopolitique. La guerre en Ukraine a ainsi conduit récemment nombre d’acteurs à un changement de solution antivirale. La maîtrise d’une offre nationale et européenne de technologies et services de cyber sécurité apparait donc indispensable à l’exercice de notre souveraineté numérique.

Dans ce contexte, le constat dressé en 2015 dans le cadre du plan cyber sécurité pour la nouvelle France industrielle[1] reste d’actualité : la filière industrielle française en cyber sécurité se caractérise par l’existence de quelques grands groupes, très orientés vers le marché de la défense, et de nombreuses petites ou très petites entreprises, à l’expertise parfois très grande, mais qui ne peuvent pas viser un marché très large. On peut ajouter que les solutions nationales peuvent en outre, même sur leur marché local, être ignorées au profit de celles de grands acteurs internationaux. Face à ce constat, la revue préconise en particulier d’inciter les grands industriels à davantage investir les marchés civils, de favoriser la création d’ETI à partir des PME les plus prometteuses, de multiplier le nombre de startup innovantes. Cette dernière préconisation s’appuie bien entendu sur la stimulation de l’innovation publique et privée.

Si recherche et innovation technologique sont des concepts distincts, ils sont évidemment très liés. La recherche consiste à produire des connaissances nouvelles ; le transfert de ces connaissances vers le monde économique participe à l’innovation. Dans certains domaines, les connaissances produites sont plus directement exploitables. C’est le cas de la cyber sécurité, domaine pour lequel la composante technologique est essentielle puisqu’il faut tenir compte pour la sécuriser efficacement de la réalité des machines existantes : leurs bases matérielles (hardware), leurs systèmes d’exploitation, leurs logiciels, les technologies réseau qui permettent de les faire communiquer.

On sait cependant que le transfert technologique, qui implique de passer d’un prototype de recherche prouvant la validité d’un concept à un produit minimal, demande un travail important. Pour soutenir ce transfert, les interactions entre les entreprises et les équipes de recherche doivent être facilitées et renforcées, afin de rendre plus aisée l’identification de problèmes industriels intéressant les chercheurs, dont les travaux seront alors susceptibles d’apporter des réponses à des besoins concrets dans le cadre de cas d’usage réels.

Le Campus Cyber

Dans le cadre de France 2030[2], une « stratégie d’accélération[3] Cybersécurité[4] » a été définie, dont une des priorités est précisément de renforcer les liens entre les acteurs de la filière, comprise ici au sens large d’un écosystème d’innovation intégrant chercheurs, start-up, PME, grands industriels, utilisateurs, services de l’État, acteurs de la formation, capital-risqueurs. Cette stratégie d’accélération repose sur la conviction que la réponse aux enjeux de la cyber sécurité passe par une implication équilibrée et sans exclusive de l’ensemble des acteurs cet écosystème. Une opération majeure concrétisant cette vision a été la création, début 2022, du « Campus Cyber » localisé à la Défense près de Paris. Ce campus regroupe d’ores et déjà près d’un millier de personnes dans un espace commun d’environ vingt mille mètres-carrés. Cette logique est en outre déclinée dans certaines régions, où des « campus cyber territoriaux » sont en cours de création.

Cette image montre le bâtiment du campus Cyber : il s'agit d'une tour éclairée la nuit.
Campus Cyber

Le Campus Cyber ambitionne de fédérer les acteurs industriels et de la recherche en multipliant les échanges et en développant une dynamique collective dépassant les clivages habituels. Il vise à apporter à chacun de ses membres des avantages en termes de performances et de compétitivité. A cette fin, il propose un accès à des moyens communs, comme le partage d’information sur les menaces cyber. Il permet de colocaliser des équipes et de jouer sur l’effet de proximité pour développer des partenariats entre elles. Il offre à ses membres une visibilité et une capacité de communication visant à les rendre plus visibles sur la carte de la cyber sécurité européenne et mondiale. Enfin, il entend aussi favoriser la formation initiale et continue en cyber sécurité, action essentielle quand le recrutement de talents est une difficulté majeure pour tous les acteurs de la filière, quel que soit leur type. Le Campus Cyber se positionne ainsi très clairement sur le triptyque Formation-Recherche-Innovation et Entrepreneuriat.

Programme de Transfert du Campus Cyber

La communauté académique française en cyber sécurité est constituée de chercheurs d’organismes de recherche (principalement le CEA, le CNRS et Inria) et d’enseignants-chercheurs d’universités et d’écoles d’ingénieurs. La majorité de ces personnels sont en fait souvent regroupées dans des équipes communes à plusieurs institutions, par exemple dans le cadre d’Unités Mixte de Recherche (UMR) du CNRS ou d’équipe-projet Inria. En outre, cette communauté est animée globalement sur le plan scientifique dans le cadre du groupement de recherche (GDR) en sécurité informatique, auquel participent tous les acteurs. L’implication de ces mêmes acteurs dans le Campus Cyber passe par un programme spécifique piloté par Inria, baptisé Programme de Transfert du Campus Cyber (PTCC). Doté de quarante millions d’euros, ce programme permet en particulier, en cohérence avec les objectifs du Campus Cyber, de susciter et d’assurer la mise en œuvre de projets de recherche cherchant à lever des verrous technologiques actuels et considérés comme importants par des industriels et des organismes étatiques telle que l’Agence Nationale pour la Sécurité des Système d’Information (ANSSI). Plusieurs projets de ce type sont d’ores et déjà en cours de montage pour un lancement avant la fin 2022. Ces projets disposeront d’espaces et de facilités (plateformes numériques, Fab Lab) installées sur le Campus Cyber. Le PTCC va aussi permettre de soutenir la création et le développement d’entreprises innovantes, tout particulièrement en continuité des projets qui auront été réalisés. Enfin, le PTCC va également inclure un volet formation, répondant au besoin des entreprises en exploitant l’expertise de la communauté académique.

Programmes et Équipements Prioritaires de Recherche

La stratégie nationale d’accélération en cyber sécurité intègre aussi un programme spécifique destinée au monde académique, via une action baptisée « Programmes et Équipements Prioritaires de Recherche » (PEPR). Il s’agit de susciter et mettre en œuvre des projets de recherche sur des sujets estimés prioritaires, projets qui devront chercher à produire de nouvelles connaissances (on pourrait parler de recherche amont), même si l’objectif de transfert à terme est souhaité.

La communauté académique française est internationalement reconnue pour son excellence dans certains sous-domaines de la cyber sécurité, tels que la cryptographie et les méthodes formelles. En revanche, d’autres sous-domaines sont moins clairement perçus au niveau international et demandent à être renforcés. Doté de soixante-cinq million d’euros et piloté conjointement par le CEA, le CNRS et Inria, le PEPR Cybersécurité vise donc à maintenir et développer l’excellence de la recherche française en cyber sécurité dans ses sous-domaines forts, tout en en renforçant son impact là où elle est actuellement moins présente. Au final, le souhait est clairement de créer les conditions permettant à terme de produire des produits et services de sécurité souverains dans les différents sous-domaines.

Cette photo montre l'amphi où s'est déroulée la réunion de lancement du PEPER Cybersécurité - Crédit photo : Inria - E. Marcadé
Réunion de lancement du PEPR Cybersécurité – Crédit photo : Inria – E. Marcadé

Pour identifier les thématiques des projets des PEPR, l’état a mis en œuvre une démarche à mi-chemin entre financement pérenne et appels à projets ouverts. Ainsi, en consultant des instances jugées représentatives de la communauté de recherche en cyber sécurité, ont été identifiés des sujets d’importance, pour lesquels il pouvait exister une recherche nationale forte ou bien pour lesquels cette recherche demandait à être renforcée. Chacun de ces sujets a ensuite été confié à un ou une scientifique reconnue pour ses travaux antérieurs sur ce sujet et, sur la base de sa connaissance du milieu scientifique national, cette personne a rassemblé un groupe de chercheurs qui a proposé des travaux précis à réaliser dans les 6 ans à venir.

Cette démarche, jugée insuffisamment ouverte par une partie de la communauté, a bousculé les habitudes du monde académique. Son objectif était de répondre à certaines imperfections des modes de financement usuels. Les financements pérennes ne facilitent pas toujours l’émergence spontanée et rapide de compétences dans des thématiques jusque-là peu explorées. Les financements par appels à projets, qui impliquent la constitution de consortium soumettant une réponse qui sera jugée à priori par un comité de sélection constitué de pairs, et qui entrainent le rejet de nombreuses propositions et par là-même le gâchis d’une part importante du travail réalisé par les soumissionnaires.

Au final, sept projets ont ainsi été construits ces derniers mois. Ils impliquent environ 200 chercheurs et enseignants-chercheurs permanents spécialistes de plusieurs disciplines (mathématiques, informatique, électronique, traitement du signal). Ils permettront en outre à près de cent cinquante doctorants de réaliser une thèse dans le domaine de la cyber sécurité. Enfin, des postdoctorants et des ingénieurs de recherche seront aussi financés. Le rôle de ces derniers est particulièrement important dans l’optique du transfert technologique à moyen terme qui est recherché.

Ces sept projets du PEPR visent à étudier la sécurisation du matériel, du logiciel et des données. Lancés en juin 2022, ils portent sur la protection des données personnelles (solutions théoriques et techniques compatibles avec la réglementation française et européenne et tenant compte des contraintes d’acceptabilité), la sécurité des calculs (mécanismes cryptographiques permettant d’assurer la sécurité des données y compris lors du traitement de ces données en environnement non maîtrisé comme dans le Cloud), la vérification des protocoles de sécurité permettant de prouver une identité ou de voter à distance, par exemple (vérification tant au niveau des spécifications de ces protocoles que de leurs implémentations), la défense contre les programmes malveillants (virus comme les rançongiciels, botnet, etc.), la supervision de la sécurité (détection et réponse aux attaques informatiques), la sécurisation des processeurs (RISC-V 32 bits utilisés pour le objets de « l’internet des objets » et à sécuriser contre des attaques physiques ; RISC-V 64 bits utilisés pour des applications plus riches et à sécuriser contre les attaques logicielles exploitant des failles matérielles), la recherche de vulnérabilités (ou la preuve d’absence de telles vulnérabilités). En outre, trois autres projets seront financés prochainement, mais cette fois sur la base d’un appel à projets ouvert opéré par l’Agence Nationale de la Recherche (ANR). Les thématiques retenues pour cet appel à projets sont la protection des données multimédias (marquage vidéo, biométrie, sécurité des systèmes à base d’intelligence artificielle), les techniques d’exploitation des vulnérabilités, la cryptanalyse (recherche de problème dans les primitives cryptographiques et donc l’évaluation de leur sécurité).

On le voit, l’ensemble des projets couvrent largement le domaine de la cyber sécurité, sans toutefois prétendre à l’exhaustivité. Il faut noter également que tout ce qui touche au « risque quantique » est traité dans un autre PEPR, précisément dédié aux techniques quantiques.

Nous avons présenté dans cet article deux actions lancées récemment qui visent à renforcer la production de connaissances et de mécanismes technologiques innovants dans divers sous-domaines relevant de la cyber sécurité : le Programme de Transfert du Campus Cyber et le PEPR Cyber Sécurité. Ces actions cherchent à favoriser le transfert des connaissances et innovations issue du monde académique vers le milieu industriel, contribuant ainsi à créer ou enrichir des produits et services de sécurité souverains, sans lesquels notre souveraineté numérique resterait illusoire. La recherche académique en cyber sécurité souhaite ainsi se montrer en mesure d’apporter sa contribution à la construction de la souveraineté numérique française.

Hubert Duault et Ludovic Mé (Inria)

(1) pour vous en convaincre ;), vous pouvez par exemple saisir le mot Cybersécurité dans notre moteur de recherche (à droite de l’écran) et constater le nombre d’articles de binaire consacré à ce sujet.

Pour aller plus loin

Livre blanc Inria sur la cybersécurité

[1] https://www.ssi.gouv.fr/uploads/2015/01/Plan_cybersecurite_FR.pdf

[2] Nom donné au quatrième Plan d’Investissement d’Avenir (PIA 4), qui vise à rattraper le retard de la France dans certains secteurs et la création de nouvelles filières industrielles et technologiques.

[3] D’autre stratégies d’accélérations ont aussi été définies : cloud, 5G, quantique, IA, mais aussi santé numérique, systèmes agricoles durables, ou développement de l’hydrogène décarboné. Pour plus de détail, voir https://www.gouvernement.fr/strategies-d-acceleration-pour-l-innovation

[4] https://minefi.hosting.augure.com/Augure_Minefi/r/ContenuEnLigne/Download?id=2A6148DF-BF21-4A64-BDF8-79BACE2AE255&filename=686%20-DP%20cyber.pdf

 

Recommandés pour vous… ou presque 3/3

La série d’articles « Recommandés pour vous… ou presque » a pour but d’expliquer les grands principes et les risques soulevés par les systèmes de recommandation, une famille d’algorithmes omniprésente pour les internautes. Après avoir couvert les principes élémentaires ainsi que certains types de biais, Eliot Moll montre dans ce troisième article que la complexité et l’opacité des algorithmes peut aussi cacher des biais que l’on peut considérer comme volontaires. De quoi s’agit-il exactement et quels sont les risques ? Jill-Jênn Vie.
Un biais volontaire, si l’on reprend la définition du second article, serait une dégradation volontaire des résultats obtenus par rapport aux résultats théoriques attendus, généralement en faveur de la plateforme hébergeant le système de recommandation et donc au détriment des utilisateurs.

L’illusion du choix

Dans quelle situation une dégradation des résultats peut-elle être bénéfique à la plateforme ? Quand les intérêts de la plateforme et ceux des utilisateurs divergent. On pourrait rapprocher cette situation du concept de « l’illusion du choix ».

La croyance populaire voudrait que le profit de la plateforme soit directement lié à la précision du système de recommandation. En simplifiant, nous pourrions supposer que si la plateforme met en avant les éléments qui nous correspondent le plus (films, objets, articles, etc.) alors nous les consommerons plus (ou plus rapidement) et la plateforme en tirera plus de profits. Ce raisonnement pourrait être vrai à la condition que chaque produit génère le même niveau de revenu pour la plateforme. Cette hypothèse est malheureusement très rarement vérifiée : marges et plus-values des produits différentes, commissions négociées au cas par cas, etc.

On commence ainsi à entrevoir le risque de biais lorsque les produits engendrant les plus gros revenus ne sont pas ceux qui correspondent le plus aux utilisateurs. Utilisons un exemple pour illustrer et démontrer ce point.

Supposons une plateforme de réservation d’hôtels qui se rémunère en prélevant une commission sur le montant de la chambre réservée. Ce montant ayant été négocié au cas par cas avec chaque hôtel. Dans notre exemple, la plateforme ne peut recommander que 2 hôtels.

Un client cherche une nuit à Toulouse sur la plateforme. Il y a 3 hôtels en stock sur cette destination et les chambres sont au même prix (100 € / nuit) pour simplifier les calculs.

  • Le premier hôtel semble très bien correspondre aux goûts du client qui a une de probabilité de réservation (estimée par la plateforme) de 95 % et la commission prélevée pour cet hôtel est de 5 %
  • Le second hôtel semble correspondre plutôt bien aux goûts du client avec 85 % de probabilité de réservation (estimée par la plateforme) mais la commission prélevée pour cet hôtel est de 15 %.
  • Le dernier hôtel semble également correspondre plutôt bien aux goûts du client avec 80 % de probabilité de réservation (estimée par la plateforme) mais la commission prélevée pour cet hôtel est de 10 %.

L’espérance de revenu faite sur le premier hôtel est de 4,75 €. Cela provient de la formule suivante : 100 € (prix de la chambre) × 5 % (commission prélevée pour cet hôtel) × 95 % (probabilité estimée que le client réserve). Le même calcul donne sur le second hôtel 12,75 € (100 € × 15 % × 85 %) et 8 € (100 € × 10 % × 80 %) sur le troisième.

Dans une optique de maximisation des revenus, la plateforme a tout intérêt à recommander les hôtels 2 et 3. Ils ne sont pas les meilleurs choix pour le client mais ils le sont pour la plateforme. On se retrouve dans l’illusion du choix car l’ensemble des recommandations (ici deux hôtels) est avant tout bénéfique pour l’offreur (la plateforme) et le client y choisira ce qui lui convient le plus en pensant être libre de son choix (dans le cas présent, faire son choix entre l’hôtel 2 et l’hôtel 3).

Indépendamment de l’exemple, il est intéressant de noter que nous ne connaissons pas avec précision le pourcentage d’adéquation entre nos goûts et un produit donné. Le raisonnement est beaucoup plus flou et arbitraire : nous préférons un produit A à un produit B sans pouvoir mesurer à quel point (de 1 % ? de 7 % ? ou bien de 11 % ?). Cette imprécision offre donc des marges de manœuvre aux plateformes pour pouvoir altérer les recommandations en leur faveur.

Comment savoir et comment contrôler ?

Aujourd’hui, il est pratiquement impossible de savoir comment les recommandations sont réalisées. Ces algorithmes font en grande partie la réussite des entreprises les développant et sont donc très jalousement gardés par ces dernières.

Dans ce contexte de boîte noire, il est difficile d’identifier la cause de certaines recommandations pas tout à fait adaptées. La cause de ces erreurs pouvant être due à un manque d’information du système de recommandation pour cerner l’utilisateur, un biais algorithmique, une optimisation n’étant pas dans l’intérêt de l’utilisateur ou encore une ligne éditoriale souhaitant amener une certaine diversité.

En tant qu’utilisateur il est toujours bon de réfléchir au business model de la plateforme sur laquelle nous sommes car cela peut être révélateur de stratégies pouvant être mises en place pour nous influencer. Attention, les stratégies sont souvent le résultat d’algorithmes d’optimisation des revenus et ne relèvent pas de la décision d’une personne souhaitant spécifiquement modifier la recommandation qui nous est faite. Voici quelques exemples de stratégies :

  • Un site de réservations/locations fonctionnant à la commission pourrait avoir tendance à utiliser la commission reçue comme élément principal de la recommandation.
  • Un site de streaming de films devant payer des droits à chaque visionnage aura tout intérêt à nous inciter à regarder les films pour lesquels il paie le moins de droits d’auteur. Il aura même intérêt à nous pousser vers les films qu’il produit (car il possède les droits d’auteur) plutôt que ceux pour lesquels il est seulement une plateforme de diffusion.
  • Un site se rémunérant avec des publicités peut avoir tendance à mettre en avant des contenus clivants ou à nous conserver dans une bulle dont nous apprécions l’entièreté du contenu (sujets complotistes, idéologies politiques, etc.). Plus nous restons connectés (car nous débattons ou car nous nous sentons dans notre communauté) plus nous sommes exposés aux publicités et mieux le site se porte financièrement.

Sur une note plus positive, les sites commerciaux doivent dorénavant informer si des contreparties financières peuvent entrer en compte dans l’ordre des recommandations sans avoir d’obligation de précision quant aux montants ou impacts réels. Ainsi on retrouve la mention « Le montant de la commission payée et d’autres facteurs peuvent affecter le classement d’un hébergement. » sur les recommandations de Booking.com ou « Le pourcentage de rémunération que nous percevons influence le classement des établissements » sur les recommandations de Hotels.com.

Quelles solutions peuvent être apportées à ces influences trompeuses ?

D’un point de vue technique, nous observons depuis plusieurs années l’émergence d’un nouveau pan de l’analyse des données : la « fairness (in machine learning) », parfois appelée justesse en français. Les travaux en lien avec la fairness ont pour but de limiter, voire annihiler, les biais involontaires. Les solutions possibles interviennent à tous les niveaux comme par exemple mieux échantillonner les données d’apprentissage, intégrer de nouvelles contraintes directement dans les algorithmes ou encore appliquer des traitements correctifs aux résultats.

D’un point de vue législatif, l’Union européenne commence à légiférer et cherche à contrôler les biais volontaires et autres manipulations. Après avoir appliqué de lourdes régulations sur l’utilisation des données personnelles (RGPD), les législateurs européens se penchent à présent sur la régulation des mastodontes du numérique grâce aux textes du DMA (Digital Markets Act) et du DSA (Digital Services Act). Au programme, plus de régulations et d’audits sur les sujets numériques et algorithmiques tels que l’enfermement des clients, la modération, le manque de transparence algorithmique, etc.

Les sujets de régulation algorithmique sont assez récents pour les états y compris pour la France bien qu’elle soit parmi les pionniers au niveau européen. De nombreuses administrations (DGCCRF, PEReN, etc.), autorités indépendantes (CNIL, Arcom, Défenseur des Droits, etc.) et centres de recherche (Inria, CNRS, etc.), pour ne citer qu’eux, s’attellent à chercher des solutions légales et technologiques afin de réguler, contrôler ou auditer les acteurs du numérique.

Par exemple, le PEReN a réussi en 2021 à faire voter un amendement légalisant le scraping (la collecte de données publiquement disponible de manière automatisée) par des services de l’État français à des fins de tests et d’études. Cela permet donc à l’État de pouvoir mener ses expérimentations sans obstruction possible des plateformes numériques. Il faut savoir que jusqu’à présent les Conditions Générales d’Utilisation (CGU) de ces sites interdisaient le scraping aux personnes physiques et morales à l’exception de la recherche académique.

En conclusion

La complexité des algorithmes peut cacher des injustices pour les internautes et il est malheureusement presque impossible pour ces internautes de comprendre les causes des recommandations qui leur sont faites afin de savoir s’ils sont incités à tort vers certains choix.

Plateformes et régulateurs suivent les évolutions technologiques comme celles réalisées dans le domaine de la fairness. Les premières, pour fournir de meilleurs services et éviter des problèmes d’image ou d’éthique (discriminations, etc.), les seconds, pour contrôler et surveiller l’absence de manipulations involontaires et/ou volontaires.

Côté régulateur, sur les aspects légaux, les réponses à ces nouvelles problématiques arrivent. Les textes du DSA et du DMA, pris en exemple dans cet article, ont été votés parle Palement européen en juillet 2022 et marqueront un changement important pour le web européen dès 2023. D’autres projets et initiatives suivront, qu’ils soient pilotés par des organes français ou européens… patience donc !

N. B. – Pour les plus impatients (et amateurs de textes juridiques), vous pouvez lire les dernières versions des textes du DSA/DMA sur le site de la Commission Européenne :

  • Règlement sur les marchés numériques (Digital Markets Act, DMA), voté par le Parlement européen le 5 juillet 2022, approuvé par le Conseil de l’UE le 18 juillet 2022, entrera en application en 2023 ;
  • Règlement sur les services numériques (Digital Services Act, DSA), voté par le Parlement européen le 5 juillet 2022, doit être adopté par le Conseil de l’UE en ce mois de septembre, pour une mise en application en 2024 ou plus tôt.

Eliot Moll, Ingénieur Data Science, Inria.

Petit binaire : des cerises de mon jardin à l’énergie de mes algorithmes

Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », nous explorons aujourd’hui le futur de la consommation énergétique du numérique. Nous donnons pour cela la parole à Emmanuel Faure, chercheur à Montpellier et chargé de mission pour la coordination du Green Lirmm. Antoine Rousseau

 

E : Papi, viens nous aider à cueillir des cerises !
P : Je finis de préparer mon JOB et j’arrive.
E : Papi tu as déjà un JOB ! Tu es chercheur en Énergie Artificielle !
P : Eh oui c’est vrai ! Mais ici un JOB, c’est un calcul que j’envoie sur d’autres ordinateurs.
E : Pourquoi ne fais-tu pas directement les calculs sur ton propre ordinateur ?
P : Car mes calculs nécessitent beaucoup de ressources énergétiques et cela nous priverait de notre quota d’électricité pour le reste du mois !
E : Je croyais que l’objectif de tes recherches était justement de concevoir des systèmes qui consomment moins d’énergie, et pas de vider toutes nos batteries !
P : Oui, tu as tout à fait raison, cela peut paraître un peu absurde, mais il faut que j’utilise tout de même un peu d’énergie afin d’explorer des pistes alternatives d’autres énergies.
E : Tu consommes plus pour consommer moins. Ton métier est un peu schizophrène ! Comment sais-tu que tes potentielles découvertes sur de nouvelles sources énergétiques compenseront ta consommation actuelle ? Ne vaudrait-il mieux pas ne rien faire du tout ?
P : C’est une très bonne question ma petite fille ! C’est exactement celle qu’un petit groupe de scientifiques s’est posée en 2030. A cette époque, compte tenu des conséquences du réchauffement climatique, ils ont proposé un nouveau paradigme de consommation au sein du milieu académique. Ce nouveau concept a ensuite été adopté par beaucoup de citoyens et il est aujourd’hui, en 2050, appliqué à l’échelle de la planète entière !
E : Le paradigme du concept de quoi ? Papi, tu peux être un peu plus clair ?
P : Oui, pardon. Prenons un exemple de ta vie quotidienne. Si tu casses ton téléphone aujourd’hui, que vas-tu faire ?
E : Je vais essayer de le réparer moi-même ! Et si je ne peux pas, j’irai sûrement dans la petite boutique en bas de la rue, il parait que le réparateur y est très doué !
P : Oui exactement. Et s’il n’arrive pas à le réparer ?
E : Je devrai peut-être racheter quelques nouvelles petites pièces.
P : Mais tu ne voudras pas un nouveau téléphone ?
E : Pourquoi faire ? Le mien est très bien !
P : Il n’y aurait pas de nouvelles fonctionnalités qui t’intéressent sur les nouveaux téléphones ?
E : Oh il y a sûrement plein de super nouveaux trucs, mais je peux m’en passer ! Papi, pourquoi veux-tu casser mon téléphone ?
P : Je ne veux rien casser ! Je voulais juste te prendre cet exemple pour t’expliquer que ton comportement aujourd’hui est totalement différent d’il y a 30 ans. Autrefois, si son téléphone était cassé ou simplement s’il ne nous plaisait plus trop, on en achetait un nouveau !
E : Ah bon ? Et vous faisiez quoi de l’ancien ?
P : Parfois on les recyclait, mais le plus souvent on les gardait dans un placard et finalement on finissait par les jeter.
E : Mais quel gâchis ! Y avait-il assez de téléphone sur la terre pour tout le monde ?
P : Au début oui, mais leur processus de fabrication a un fort coût énergétique et a considérablement affaibli certaines ressources naturelles.
E: Beurrk , quelle idée de changer tout le temps de téléphone, ça me dégoûte. J’ai l’impression que c’est comme si j’allais cueillir plein de cerises, que j’en mangeais 2 ou 3 et qu’ensuite je jetais tout le reste !

P : Oui, exactement, pour vous les nouvelles générations, le principe de consommation justifiée est heureusement bien ancré dans votre éducation.
E : Ce principe a-t-il un rapport avec le paradigme du concept dont tu parlais ?
P : Il en découle ! Si tu veux bien, remontons quelque temps en arrière… Le système de consommation mis en place durant l’époque du capitalisme nous a fait croire que nous avions tous les jours besoin d’acheter, de nous déplacer, bref de consommer de l’énergie. Et quand tout le monde s’y est mis, il a fallu beaucoup d’énergie ! A l’époque elle provenait surtout de ressources fossiles que nous consommions sans regarder ce qu’il restait et sans vérifier l’impact que cela avait sur la planète. Puis est arrivé en premier le réchauffement climatique, la pollution des océans, l’épuisement de certaines ressources, et puis tout le reste…
E : C’est dingue. Tout le monde fonctionnait vraiment comme ça ?
P : La consommation était tellement ancrée dans notre système que presque toutes les couches des sociétés fonctionnaient de la même façon. Les chercheurs ne faisaient pas non plus exception. Par exemple, à l’époque j’étais spécialisé en ce que l’on appelait l’intelligence artificielle.
E: Ah ah ah !!! L’intelligence Artificielle ?
P : Oui c’est aujourd’hui assez drôle ! L’idée était d’être capable de reproduire une machine ayant des capacités similaires à l’intelligence humaine. Et pour cela nous avions des modèles très simples de réseaux de neurones, qui s’avéraient incapables d’effectuer des tâches quotidiennes comme faire la vaisselle Et ils fonctionnaient sur des cartes électroniques qui consommaient énormément d’énergie !
E : Mais pourquoi reproduire l’intelligence humaine électroniquement ?
P : A l’époque, nous n’étions pas capable d’utiliser des neurones biologiques pour effectuer des tâches. Il nous fallait déployer de gigantesques datacenter que l’on hébergeait au Groenland car ils chauffaient beaucoup trop … Et nous les avions introduits presque partout, pour, par exemple, prendre des milliers de photos augmentées avec nos téléphones que nous ne regardions finalement jamais.
E : Mais j’aime bien prendre des photos avec mon téléphone !
P : Bien-sûr ! Moi aussi j’adore ! Mais aujourd’hui tu fais régulièrement le tri pour ne garder que les plus belles, que tu vas ensuite conserver à la maison sur un support fiable. Autrefois, personne ne faisait réellement le tri et tout était envoyé un peu partout, notamment au Groenland où plusieurs machines soi-disant intelligentes consommaient beaucoup de ressources pour améliorer des photos que personne ne regardait jamais plus.
E : Mais Papi, pourquoi mes photos iraient au Groenland ?
P : Exactement ! Et c’est cela un des fondements du nouveau principe de la consommation actuelle .
E : Je comprends ! Et il y a d’autres fondements ?
P : Oui, plusieurs, notamment le fondement de ne pas consommer l’énergie que nous n’avons pas.
E : Mais Papi, kesaco ?
P : Par exemple, est-ce que cela te viendrait à l’esprit de manger des cerises que tu n’as pas ?
E : Quelle question ! Bien-sûr que non !
P : Aujourd’hui, si tu veux de l’électricité pour faire marcher ton téléphone, il faut que tu produises de l’électricité, non ?
E : Bien sûr ! Notamment lorsque je pédale sur mon vélo pour aller à l’école !
P : Oui exactement. Et si ce n’est pas toi directement, c’est ta maison avec le système de tuiles à photons couplé aux batteries à calcaire, ou bien les systèmes énergétiques que ton village a installés ou à la limite des centrales à vent régionales. Mais tu consommes uniquement l’énergie qui est produite pas loin de chez toi ; et s’il n’y en a plus, que fais-tu ?
E : Ben, j’éteins mon téléphone. C’est comme quand il n’y a plus de cerises sur l’arbre, je ne vais plus en manger.
P : Exactement ! Nous consommons simplement l’énergie que nous avons. Et si malgré tout nous avons besoin de plus d’électricité, il nous faudra acheter des nouvelles tuiles à photons, et pour cela il n’est pas question d’économiser de l’argent, mais d’économiser notre électricité afin d’avoir assez d’énergie pour en fabriquer de nouvelles.
E : Mais comment pourrait-on faire autrement ?
P : Autrefois, nous puisions énormément dans les ressources naturelles, et nous consommions tellement d’énergie que cela a rehaussé la température sur la terre, et a engendré de grandes catastrophes naturelles comme celle de 2030.
E : Oui, quelle horreur, je l’ai apprise en histoire, la montée de l’eau aux Etangs-Unis.
P : C’est à la suite de cela que nous avons vu les choses différemment, et que nous nous sommes posé la question de notre réel intérêt du progrès par rapport à son impact.
E : Parce que nous ne progressons plus aujourd’hui ?
P : Si bien-sûr ! Nous faisons toujours de grandes découvertes scientifiques et technologiques. Elles servent toujours grandement à l’amélioration de notre société, mais nous ne cherchons plus à faire croire aux gens qu’ils en ont besoin en les transformant en produit à acheter. Nous savons aujourd’hui qu’un nouveau téléphone ne te donnera pas plus d’amis, et ainsi ne te rendra pas fondamentalement plus heureux.
E : Oui c’est sûr, nous avons des amis pour ce que nous sommes, pas à cause de nos objets ! P : A l’époque, nous avons parlé de phénomène de décroissance en prônant la réduction de la consommation. Aujourd’hui nous avons plus simplement une consommation adaptée aux besoins et aux ressources.
E : Mais comment peut-on réellement consommer ce que l’on a pas ?
P: Il suffit d’aller prendre ailleurs ! Nous avons ainsi considérablement endetté les biocapacités de la terre. Et les citoyens se justifiaient de leur mauvais bilan énergétique en reposant la faute à des couches supérieures de la société, comme les pouvoirs politiques, les grosses entreprises ou simplement leur patron ! Ainsi, en 2020, les gens faisaient des efforts écologiques chez eux mais dès qu’ils étaient au travail, ils estimaient que ce n’était plus de leur ressort, mais celui de leur employeur. C’est face à cela qu’au sein par exemple du milieu de la recherche, les chercheurs se sont emparés eux-mêmes des questions environnementales au travail sans attendre des actions tant promises par leurs institutions.
E : Mais chacun est responsable de ce qu’il fait, même au boulot !
P : Oui, la notion de responsabilité a énormément évolué depuis et nous avons tous conscience aujourd’hui de notre propre responsabilité. Mais ce qui a fondamentalement changé c’est la vitesse du temps !
E : Quoi ? Avant le temps ne passait pas à la même vitesse ?
P : Bien-sûr que si ! Mais c’est la perception qui a changé, les sociétés ne se rendaient pas compte qu’elles voulaient évoluer à toute allure !
E : Oui et quand ça va trop vite, on ne voit pas bien le paysage.
P : Tout à fait et même parfois on se prend un mur ! Nous avons simplement arrêté de courir et adapté la vitesse de notre progrès au temps du besoin.
E : Bon Papi, je ne comprends plus rien, on va les cueillir ces cerises ?

Emmanuel FAURE est chercheur au CNRS, au laboratoire LIRMM de Montpellier, chargé de mission pour le Green Lirmm

Recommandés pour vous… ou presque 2/3

La série d’articles « Recommandés pour vous… ou presque » a pour but d’expliquer les grands principes et les risques soulevés par les systèmes de recommandation, une famille d’algorithmes omniprésente pour les internautes. Après avoir présenté leur but et leur fonctionnement général, Eliot Moll se concentre sur les biais que peuvent présenter ces algorithmes, notamment ceux dits « naturels ». Jill-Jênn Vie.

Qu’est-ce qu’un biais ?

Commençons par définir la notion de « biais » dans le contexte des algorithmes et de l’intelligence artificielle. Un biais est une erreur systématique entre les résultats obtenus et les résultats théoriques attendus. Les biais ont tendance à engendrer de l’imprécision, des erreurs d’analyse, des différences de traitement voire des injustices. Les biais dans les résultats d’algorithmes proviennent essentiellement des données utilisées en entrée et émanent de biais cognitifs humains ou d’erreurs de mesures. Cependant, la construction algorithmique (i.e. l’imbrication des règles) de certains algorithmes, comme ceux des systèmes de recommandation, génèrent également des biais.

Ces dernières années, nous avons pu constater les répercussions néfastes d’algorithmes biaisés sur les individus, qu’il s’agisse d’un outil de recrutement s’avérant être sexiste ou encore d’un algorithme d’analyse d’image particulièrement raciste. Ces comportements, s’ils n’ont typiquement pas été créés volontairement par les concepteurs de ces modèles, auraient dû être envisagés et évités. Cependant, nous constatons que des biais dans les données (surreprésentation d’hommes dans une entreprise, ou sous-représentation de personnes noires dans la labellisation d’humains) sont toujours possibles, avec des conséquences dramatiques.

Cet article se concentrera sur 3 dérives algorithmiques spécifiques aux systèmes de recommandation.

Le biais de popularité

Ce biais se caractérise par le fait que les objets les plus populaires (les plus notés, les plus regardés, les plus achetés, etc.) reçoivent beaucoup plus d’exposition et apparaissent plus fréquemment dans les recommandations que les objets peu populaires ou de niche.

Le biais de popularité n’est pas qu’un biais lié à la qualification des données (s’assurer d’utiliser des données non biaisées). Certes, on retrouve évidemment un biais sociétal lorsque certains objets sont uniformément plus présents à travers les utilisateurs (par exemple, une culture populaire cinématographique mondialisée). Cependant le problème provient aussi du traitement statistique en lui-même. Plus un objet A est coprésent avec d’autres objets (dans l’historique d’un utilisateur) plus il est statistiquement possible de lier cet objet A à d’autres objets. De la même manière, si un objet B n’a été vu que par une poignée d’utilisateurs on comprend qu’il soit plus difficile de trouver des liens robustes entre cet objet B et le reste des objets possibles.

Le biais d’exposition

Le second biais qu’il faut avoir à l’esprit est le biais d’exposition car il est au cœur de l’interaction entre l’utilisateur et le système de recommandation. Ce biais se caractérise par le fait que les choix des utilisateurs ne sont pas des choix libres mais sous contrainte de ce qui leur est proposé (i.e. recommandé). Bien que ce postulat semble évident, il implique quelques risques lorsqu’il s’agit de prendre en compte les actions des utilisateurs (achats, vues, clics, ajouts au panier, etc.). Il est compliqué d’intégrer la notion de choix contraint dans l’entraînement d’un modèle. Ce manque d’information fait donc confondre la situation « parmi les objets présentés, l’utilisateur a préféré celui-ci » et « l’utilisateur voulait cet objet ».

Ainsi, pour les cas où les choix proposés ne sont pas parfaitement alignés avec les goûts de l’utilisateur, ce dernier choisira « le plus proche » de ses goûts réels. Cependant ce choix de l’utilisateur peut être interprété par le système comme étant parfaitement représentatif de ses goûts et donc mener à un apprentissage biaisé. Cela conduira à des futures recommandations ne couvrant qu’une partie de ses goûts.

Le biais d’amplification

Le dernier biais présenté dans cet article est un effet de boucle que l’on va appeler, par abus de langage, biais d’amplification. Chaque nouvelle interaction entre un utilisateur et le système de recommandation représente de nouvelles informations permettant de mieux cibler les prochaines recommandations pour cet utilisateur, pour les autres utilisateurs ainsi que pour les produits concernés (nouveaux liens entre les produits, entre les clients, etc.). Contrairement à beaucoup d’algorithmes qui sont entraînés puis déployés, les systèmes de recommandation s’adaptent en prenant en compte les interactions passées.

Les boucles recommandations-choix-entraînement peuvent reporter des biais (comme ceux vus précédemment) d’itération en itération. L’effet le plus connu de cette amplification a été observé sur les réseaux sociaux. Nommé « bulle de filtre » (filter bubble en anglais), il désigne ce phénomène au cours duquel l’internaute se retrouve petit à petit dans une bulle, exposé uniquement à certains types de contenus. Un biais d’amplification n’est pas aussi palpable que les autres biais présentés précédemment mais peut seulement s’observer sur le long terme.

Pour expliquer l’effet potentiel d’une amplification combinée aux biais d’exposition et de popularité, prenons l’exemple d’un internaute amateur de 3 genres de films : « action », « épouvante » et « science-fiction ». Lors de la première recommandation, le genre « épouvante » est malencontreusement absent car aucun film d’épouvante n’est suffisamment populaire pour être recommandé par défaut à cet utilisateur encore inconnu du système de recommandation. L’utilisateur y trouve son compte car les deux autres genres qu’il apprécie sont présents et il choisira des films parmi ceux présentés. Le nouvel entraînement du modèle prendra en compte ce qu’aura sélectionné l’utilisateur lors de ses interactions précédentes. Dans le meilleur des cas, s’il a choisi les 2 autres genres, ils seront probablement tous deux présents dans les recommandations suivantes. Dans le pire des cas, s’il n’a consommé qu’un seul de ses genres préférés présentés (« action » ou « science-fiction »), il se peut qu’il ne retrouve que ce genre aux prochaines recommandations.

L’exemple présenté est simpliste et très radical à chaque étape. Un système de recommandation réel convergera de la même manière, cela nécessitera seulement plus d’itérations moins radicales. Cela permettra, dans de nombreux cas, à l’internaute de ne pas se faire enfermer dans une bulle de filtre, mais pourra en « piéger » quelques-uns.

En conclusion

Ces 3 biais naturels présentés sont les plus connus mais cela ne signifie pas qu’ils sont les seuls à impacter les résultats. Ils peuvent être considérés comme indépendants de la volonté de la plateforme car ils dégradent les recommandations sans apporter d’intérêt pour la plateforme.
Le prochain article expliquera comment il est possible pour une plateforme de dégrader la pertinence des recommandations afin d’en tirer profit aux dépens des utilisateurs. Nous verrons ensuite des embryons de solutions permettant de lutter contre ces situations.

Pour les plus curieux, vous pouvez vous rendre sur la page Wikipédia des biais cognitifs afin de prendre connaissance des biais que nous pouvons porter. Même s’ils ne sont pas tous en lien avec les biais dans les algorithmes, vous n’aurez pas de mal à en identifier certains qui pourraient être néfastes !
Pour rester dans le domaine des biais algorithmiques, l’article Wikipédia Algorithmic bias (en anglais) sur le sujet est très détaillé et fournit, entre autres, de nombreux exemples réels observés ces dernières années.

Eliot Moll, Ingénieur Data Science, Inria.

Elle simule des supercondensateurs avec un simple ordi

Un nouvel entretien autour de l’informatique. Céline Merlet est une chimiste, chercheuse CNRS au Centre Inter-universitaire de Recherche et d’Ingénierie des Matériaux (CIRIMAT) de Toulouse. C’est une spécialiste des modèles multi-échelles pour décrire les matériaux de stockage d’énergie. Nous n’avons pas le choix, il va nous falloir faire sans les énergies fossiles qui s’épuisent. Le stockage d’énergie (solaire ou éolienne par exemple) devient un défi scientifique majeur.  Céline Merlet nous parle des supercondensateurs, une technologie pleine de promesses.
Céline Merlet ©Françoise Viala (IPBS-Toulouse/CNRS-UT3)

Binaire : Pourrais-tu nous raconter brièvement la carrière qui t’a conduite à être chercheuse en chimie et médaille de bronze du CNRS 2021

Céline Merlet : Au départ je n’étais pas partie pour faire de la chimie mais de la biologie. J’ai fait une prépa et je voulais devenir vétérinaire, mais pendant la prépa, je me suis rendue compte que je m’intéressais de plus en plus à la chimie. J’ai aussi fait un projet de programmation et j’y ai trouvé beaucoup de plaisir. Je suis rentrée, dans une école d’ingénieur, Chimie ParisTech. En 2e année, j’ai fait un stage de trois semaines sur la modélisation de sels fondus, des sels qui deviennent liquides à très hautes températures. J’y ai découvert la simulation numérique de phénomènes du monde réel, j’ai compris que j’avais trouvé ma voie. Après l’école de chimie, je suis retournée faire un doctorat dans ce même labo où j’avais réalisé le stage. Un postdoctorat en Angleterre, et j’ai été recrutée au CNRS en 2017.

B : Pourquoi n’es-tu pas restée en Angleterre ?

CM : Avec la difficulté d’obtenir un poste en France et le fait que j’étais bien installée en Angleterre, j’ai aussi candidaté là-bas. Mais, il y a eu le Brexit et cela a confirmé ma volonté de rentrer en France.

B : Tu es chimiste, spécialiste des systèmes de stockage électrochimique de l’énergie qui impliquent des matériaux complexes. Pourrais-tu expliquer aux lecteurs de binaire ce que cela veut dire ?

CM : Le stockage électrochimique de l’énergie concerne l’utilisation de réactions électrochimiques pour stocker de l’énergie. Les systèmes qu’on connaît qui font ça sont les batteries dans les téléphones et les ordinateurs portables, et les voitures. Les batteries utilisent des matériaux complexes avec certains éléments comme le lithium, le cobalt, et le nickel. On charge et décharge le dispositif en le connectant à un circuit électrique. Les matériaux sont modifiés au cours des charges et décharges. C’est ça qui leur permet de stocker de l’énergie.

Schéma d’un supercondensateur déchargé. Crédit Céline Merlet
Schéma d’un supercondensateur chargé. Crédit Schéma Céline Merlet

Ma recherche porte sur les supercondensateurs. Dans ces systèmes-là, on a deux matériaux poreux qui sont des électrodes qu’on connecte entre elles via un circuit extérieur. Quand on charge (ou décharge), des molécules chargées vont se placer dans des trous ou au contraire en sortent. Un stockage de charge au sein du matériau en résulte. Mais d’une manière très différente de celle des batteries. Il n’y a pas de réaction chimique. C’est une simple adsorption des molécules chargées.

B : Tu travailles sur la modélisation moléculaire, en quoi est-ce que cela consiste ?

CM : J’ai parlé des deux électrodes qui sont en contact avec cette solution d’ions chargés. Souvent pour les supercondensateurs, ce sont des carbones nanoporeux. Les pores font à peu près la taille du nanomètre (1 millionième de millimètre) : c’est quelque chose qu’on ne peut pas observer à l’œil nu. Pour comprendre comment les ions entrent et sortent de ces pores de carbone, au lieu de faire des expériences physiques, des mélanges dans un laboratoire, je fais des expériences numériques, des mélanges dans l’ordinateur. J’essaie de comprendre comment les ions bougent et ce qui se passe, à une échelle qu’on ne peut pas atteindre expérimentalement.

B : Ça exige de bien comprendre les propriétés physiques ?

CM : Oui pour modéliser la trajectoire des ions, la façon dont ils se déplacent, il faut bien comprendre ce qui se passe. Quand on lance une balle, si on donne les forces qu’on applique au départ, on peut en déduire la trajectoire. Pour les ions c’est pareil. On choisit le point de départ. On sait quelles forces s’appliquent, les forces d’attraction et de répulsion. On a des contraintes comme le fait qu’une molécule ne peut pas pénétrer à l’intérieur d’une autre. Cela nous permet de calculer l’évolution du système de molécules au cours du temps. Parfois, on n’a même pas besoin de représenter ça de manière très précise. Si une modélisation même grossière est validée par des expériences, on a le résultat qu’on recherchait. Dans mon labo, le CIRIMAT, il y a principalement des expérimentateurs. Nous sommes juste 4 ou 5 théoriciens sur postes permanents. Dans mon équipe, des chercheurs travaillent directement sur des systèmes chimiques réels et on apprend beaucoup des échanges théorie/expérience.

B : Typiquement, combien d’atomes sont-ils impliqués par ces simulations ?

CM : Dans ces simulations numériques, on considère de quelques centaines à quelques milliers d’atomes. Dans une expérience réelle, c’est au moins 1024 atomes. (Un millilitre d’eau contient déjà 1022 molécules.)

B : Et malgré cela, vous arrivez à comprendre ce qui se passe pour de vrai…

CM : On utilise des astuces de simulation pour retrouver ce qui se passe dans la réalité. Une partie de mon travail consiste à développer des modèles pour faire le lien entre l’échelle moléculaire et l’échelle expérimentale. Quand on change d’échelle, ça permet d’intégrer certains éléments mais on perd d’autres informations de l’échelle moléculaire.

B : Dans ces simulations des électrodes de carbone au sein de supercondensateurs modèles en fonctionnement, quels sont les verrous que tu as dû affronter ?

CM : Au niveau moléculaire, il y a encore des progrès à faire, et des ordinateurs plus puissants pourraient aider. Les matériaux conduisent l’électricité, les modèles considèrent que les carbones sont parfaitement conducteurs, mais en réalité ils ne le sont pas. Pour une meilleure représentation, il faudrait tenir compte du caractère semi-conducteur de ces matériaux et certains chercheurs travaillent sur cet aspect en ce moment.

Pour obtenir des matériaux qui permettraient de stocker plus d’énergie il nous faudrait mieux comprendre les propriétés microscopiques qui ont de l’influence sur ce qui nous intéresse, analyser des résultats moléculaires pour essayer d’en extraire des tendances générales. Par exemple, si on a deux liquides qui ont des ions différents, on fait des mélanges ; on peut essayer brutalement plein de mélanges et réaliser des simulations pour chacun, ou on peut en faire quelques-unes seulement et essayer de comprendre d’un mélange à un autre pourquoi le coefficient de diffusion par exemple est différent et prédire ainsi ce qui se passera pour n’importe quel mélange. Mieux on comprend ce qui se passe, moins il est nécessaire de faire des modélisations moléculaires sur un nombre massif d’exemples.

Configuration extraite de la simulation d’un supercondensateur modèle par dynamique moléculaire. Les électrodes de carbone sont en bleu, les anions en vert et les cations en violet. Crédit Céline Merlet

B : Tu as reçu le prix « 2021 Prace Ada Lovelace » de calcul haute performance (HPC). Est-ce que tu te présentes plutôt comme chimiste, ou comme une spécialiste du HPC ?

CM : Je ne me présente pas comme une spécialiste du calcul HPC mais mes activités nécessitent un accès à des ordinateurs puissants et des compétences importantes dans ce domaine. Une partie de mon travail a consisté en des améliorations de certains programmes pour pouvoir les utiliser sur les supercalculateurs. Rendre des calculs possibles sur les supercalculateurs, cela ouvre des perspectives de recherche, et c’est une contribution en calcul HPC.

B : Quelles sont les grandes applications de ton domaine ?

CM : Concernant les supercondensateurs, c’est déjà utilisé dans les systèmes start-and-stop des voitures. C’est aussi utilisé dans les bus hybrides : on met des supercondensateurs sur le toit du bus, et à chaque fois qu’il s’arrête, on charge ces supercondensateurs et on s’en sert pour faire redémarrer le bus. On peut ainsi économiser jusqu’à 30 % de carburant. Des questions qui se posent : Est-ce qu’on pourrait stocker plus d’énergie ? Est-ce qu’on pourrait utiliser d’autres matériaux ?

Bus hybride utilisant des supercondensateurs, Muséum de Toulouse

B : On sait que les batteries de nos téléphones faiblissent assez vite. Pourrait-on les remplacer par des supercondensateurs ?

CM : Si les batteries stockent plus d’énergie que les supercondensateurs, elles se dégradent davantage avec le temps. Au bout d’un moment le téléphone portable n’a plus la même autonomie que quand on a acheté le téléphone. Un supercondensateur peut être chargé et déchargé très vite un très grand nombre de fois sans qu’il soit détérioré. Pourtant, comme les quantités d’énergie qu’ils peuvent stocker sont bien plus faibles, on n’imagine pas que les supercondensateurs standards puissent remplacer les batteries. On voit plutôt les deux technologies comme complémentaires. Et puis, la limite entre supercondensateur et batterie peut être un peu floue.

B : Tu es active dans « Femmes et Sciences ». Est-ce que tu peux nous dire ce que tu y fais et pourquoi tu le fais ?

CM : J’observe qu’on est encore loin de l’égalité femme-homme. En chimie, nous avons une assez bonne représentativité des femmes. Dans mon laboratoire, qui correspond bien aux observations nationales, il y a 40% de femmes. Mais en sciences en général, elles sont peu nombreuses.

Un but de « Femmes et Sciences » est d’inciter les jeunes, et particulièrement les filles, à s’engager dans des carrières scientifiques. Je suis au conseil d’administration, en charge du site web, et je coordonne avec d’autres personnes les activités en région toulousaine. Je suis pas mal impliquée dans les interventions avec les scolaires, dans des classes de lycée ou de collège : on parle de nos parcours ou on fait des ateliers sur les stéréotypes, de petits ateliers pour sensibiliser les jeunes aux stéréotypes, pour comprendre ce que c’est et ce que ça peut impliquer dans les choix d’orientation.

Nous avons développé en 2019 un jeu, Mendeleieva, pour la célébration des 150 ans de la classification périodique des éléments par Mendeleiev. Nous l’utilisons pour mettre en avant des femmes scientifiques historiques ou contemporaines : on a un tableau et on découvre à la fois l’utilité des éléments et les femmes scientifiques qui ont travaillé sur ces éléments. Nous sommes en train de numériser ce jeu.

L’association mène encore beaucoup d’autres actions comme des expos, des livrets, etc…

B : La programmation est un élément clé de ton travail ; est-ce que tu programmes toi-même ?

CM : J’adore programmer. Mais comme je passe pas mal de temps à faire de l’encadrement, à voyage et à participer à des réunions, j’ai moins de temps pour le faire moi-même. Je suis les doctorants qui font ça. Suivant leur compétence et leur appétence, je programme plus où moins.

B : D’où viennent les doctorants qui passent dans ton équipe ? Sont-ils des chimistes au départ ?

CM : Ils viennent beaucoup du monde entier : Maroc, Grèce, Inde. Ils sont physiciens ou chimistes. J’ai même une étudiante en licence d’informatique en L3 qui fait un stage avec moi.

B : Est-ce que certains thèmes de recherche en informatique sont particulièrement importants pour vous ?

CM : En ce moment, on s’interroge sur ce que pourrait apporter l’apprentissage automatique à notre domaine de recherche.  Par exemple, pour modéliser, on a besoin de connaitre les interactions entre les particules. Des collègues essaient de voir si on pourrait faire de l’apprentissage automatique des champs de force. Nous ne sommes pas armés pour attaquer ces problèmes, alors nous collaborons avec des informaticiens.

Serge Abiteboul, Inria et ENS, et Claire Mathieu, CNRS et Université Paris-Cité

 Pour aller plus loin

Les supercondensateurs à la loupe ou comment l’écorce de noix de coco est utilisée pour stocker l’énergie, Céline Merlet, Muséum de Toulouse, 2019

https://cirimat.cnrs.fr/?lang=fr

https://www.femmesetsciences.fr/

Les entretiens autour de l’informatique

Recommandés pour vous… ou presque 1/3

La série d’articles « Recommandés pour vous… ou presque » a pour but d’expliquer les grands principes et les risques soulevés par les systèmes de recommandation, une famille d’algorithmes omniprésente pour les internautes. Ce premier article, écrit par Eliot Moll, portera sur une présentation générale des systèmes de recommandation et de leur utilité. Les deux articles suivants porteront sur les biais et les risques de ces algorithmes ainsi que les solutions qui s’offrent aux internautes. Jill-Jênn Vie.

Des recommandations, partout !

De nos jours les systèmes de recommandation sont omniprésents dans le quotidien de tout internaute. On les retrouve dès notre première requête dans un moteur de recherche, et dans la plupart des sites que nous consultons ensuite : streaming musical et vidéo, réservation de logements ou de vols, achats sur n’importe quel site de e-commerce, fils d’actualités, etc. Ce sont ces recommandations qui nous guident et nous influencent sans même que nous nous en rendions compte. Avez-vous déjà essayé de comprendre ce qui se trouve derrière ces listes personnalisées aux noms équivoques tels que « recommandés pour vous », « selon vos goûts » ou bien « susceptibles de vous plaire » ?

Les recommandations sont-elles nécessaires ?

La première question que nous sommes en droit de nous poser est celle du bien-fondé de l’utilisation de ces systèmes sur les sites. Y-a-t-il un intérêt à leur utilisation ou bien est-ce un simple gadget algorithmique qui amuse les spécialistes des données et les développeurs de site web ?
Techniquement et en des termes simples, un système de recommandation est une combinaison de règles mathématiques ayant pour but d’identifier et présenter les éléments (comme des objets, films, actualités, etc.) les plus susceptibles d’intéresser un internaute.
Que l’on souhaite acheter une cafetière, consulter une vidéo ou bien se faire livrer un repas, nous faisons face en permanence dans nos recherches sur le web à de multiples choix possibles. Face à cette situation, les moteurs de recommandation sont des points d’entrée nécessaires pour trier ces éléments, et ne nous présenter qu’une partie de ce qu’on appellera « le catalogue des possibles ». Le filtre réalisé par un moteur de recommandation nous propose un échantillon de biens de taille humainement accessible et classé selon l’intérêt.
Dans un premier temps, prenons un peu de recul vis-à-vis des recommandations numériques et revenons aux recommandations classiques telles que pratiquées dans le commerce depuis bien longtemps.
Lorsque nous nous rendons dans un supermarché pour acheter un shampoing, le rayon contenant des dizaines de shampoings différents est le résultat d’une sélection déjà effectuée par le magasin par rapport à l’ensemble des produits qu’il aurait pu acheter. Ensuite, la position des produits dans le rayon représente l’ordre de la recommandation faite par le magasin : la tête de gondole ainsi que les rangées à hauteur des yeux sont pour les produits que l’on veut nous vendre en priorité et les autres espaces (tout en bas, tout en haut) sont destinés aux produits les moins prioritaires.
Le même principe peut s’appliquer à l’agence de voyage qui utilise un prospectus des voyages qu’elle propose, l’office de tourisme qui fournit des brochures de certaines activités de la région, etc.
Bien que le supermarché, avec ses shampoings déjà en rayon, et l’agence de voyage, avec son prospectus, offrent un sous-catalogue standardisé grâce auquel tous les clients accèdent aux mêmes produits aux mêmes endroits, l’office du tourisme peut apporter une couche de personnalisation via son chargé de clientèle. En effet, il peut amener de l’intelligence relationnelle et essayer d’adapter ses propositions en discutant avec les touristes décrivant leurs envies.
Le rôle d’un système de recommandation est d’être un point d’entrée du catalogue des possibles afin de nous présenter un sous-catalogue « humainement absorbable », c’est-à-dire nous prenant un temps raisonnable à parcourir pour y trouver notre bonheur. La plus-value d’un « bon » système de recommandation est de savoir réaliser une action de personnalisation, telle qu’on la retrouve dans le cas de l’office du tourisme. Cela signifie qu’il nous offre un sous-contenu personnalisé filtrant le catalogue des possibles et réduisant ainsi le temps de consultation de chacun d’entre nous.

Comment sont réalisées les recommandations aujourd’hui ?

Sans rentrer dans les détails algorithmiques et l’état de l’art de ces algorithmes, on peut distinguer 3 grandes familles d’approches sur lesquelles se basent les systèmes de recommandation.

    • La recommandation basée sur les produits (item-based en anglais) venant comparer les caractéristiques de l’ensemble des produits disponibles (taille, prix, couleurs, volumes, descriptions, etc.) afin de calculer une ressemblance entre tous les couples de produits possibles et recommander un produit similaire à un produit déjà consommé ou en cours de consultation. Si un internaute aime un produit A et que ce produit A est très proche d’un produit B alors il semble naturel de lui recommander le produit B. Ce genre d’approche fonctionne plutôt bien avec des films, des musiques, des livres, etc.
    • La recommandation basée sur les utilisateurs (user-based en anglais) venant comparer les caractéristiques des utilisateurs (via les informations renseignées sur leur compte client ou les cookies informatiques) afin de calculer une ressemblance entre les utilisateurs et recommander les mêmes produits que ceux consommés par les utilisateurs les plus proches. Ce genre d’approche peut fonctionner pour de la publicité : les gens de d’une catégorie d’âge regardent des skateboards (alors que les autres catégories regardent des voitures ou des déambulateurs) on va donc leur proposer des skateboards plutôt que des voitures ou des déambulateurs.
    • Enfin, le filtrage collaboratif (collaborative filtering en anglais) étant parmi les méthodes les plus à l’état de l’art et s’avère être particulièrement efficace. Le principe est de se baser uniquement sur l’historique de consommation afin de créer des regroupements d’utilisateurs consommant approximativement les mêmes produits indépendamment des caractéristiques des dits produits ou consommateurs. Si un internaute a apprécié les produits A et D et qu’une dizaine d’autres consommateurs ont apprécié les produits A, D et G, on va recommander à l’internaute le produit G que cette dizaine de personnes a également apprécié.

En conclusion

Avec les évolutions technologiques des dernières années (puissance de calcul, capacité de stockage), il est maintenant possible d’entraîner des algorithmes de plus en plus complexes. Malheureusement, cette complexité engendre un manque de lisibilité des prises de décision des algorithmes.
Les systèmes de recommandation affichent des niveaux de personnalisation de plus en plus impressionnants mais ne semblent pas encore omniscients. Il nous est déjà tous arrivé de se faire recommander des publicités, des articles ou des produits qui étaient loin de nous correspondre. Cependant, derrière ce flou algorithmique il devient difficile de comprendre l’origine de ces recommandations erronées. Est-ce uniquement notre unicité que les systèmes n’arrivent pas à saisir ou est-ce que d’autres facteurs entrent en ligne de compte ? Dans les prochains articles nous apporterons des éclaircissements sur les autres facteurs potentiels tels que « les biais », volontaires ou non, présents dans les systèmes de recommandation.

Pour ceux souhaitant approfondir leurs notions sur les systèmes de recommandation (et entrer un peu dans les détails algorithmiques) vous pouvez retrouver un ancien article sur binaire traitant du sujet (article de Raphaël Fournier-S’niehotta).

Eliot Moll, Ingénieur Data Science, Inria.

La réalité virtuelle ? Des effets bien réels sur notre cerveau !

Comment notre cerveau réagit et s’adapte aux nouvelles technologies ?  La réalité virtuelle permet de vivre des expériences sensorielles très puissantes … et si elle se mettait dès maintenant au service de votre cerveau ? Anatole Lécuyer nous partage tout cela dans un talk TEDx. Pascal Guitton et Thierry Viéville

Au-delà des jeux vidéos, ces nouvelles technologies ouvrent la voie à des applications radicalement innovantes dans le domaine médical, notamment pour les thérapies et la rééducation. Anatole Lécuyer nous parle de nouvelles manières d’interagir avec les univers virtuels.

En savoir plus : https://www.tedxrennes.com/project/anatole-lecuyer

La conférence TED est une importante rencontre annuelle qui depuis 33 ans  rassemble des esprits brillants dans leur domaine, et on a voulu permettre à la communauté élargie de ses fans de diffuser l’esprit TED autour du monde. Les organisateurs souhaitent que les échanges entre locuteurs et participants soient variés, inspirés, apolitiques dans un esprit visionnaire et bienveillant. Les sujets traités sont très vastes : économie, société, culture, éducation, écologie, arts, technologie, multimédia, design, marketing…

Le texte de la conférence :

Et si .. nous partagions ensemble une expérience de réalité virtuelle? Imaginez-vous, en train d’enfiler un visio-casque de réalité virtuelle comme celui-là, avec des écrans intégrés juste devant les yeux, que l’on enfile un peu comme un masque de ski ou de plongée, avec le petit élastique là, comme ça…
Et .. voilà ! vous voilà « immergé » dans un monde virtuel très réaliste. Dans une pièce qui évoque un bureau, qui ressemble peut-être au vôtre, avec une table située juste devant vous, une plante verte posée dans un coin, et un poster accroché sur le mur à côté de vous.

Maintenant, j’entre dans la scène .. et je vous demande de regarder votre main. Vous baissez la tête et voyez une main virtuelle, très réaliste aussi, parfaitement superposée à la vôtre et qui suit fidèlement les mouvements de vos doigts.
Par contre, il y a un détail qui vous gêne, quelque-chose de vraiment bizarre avec cette main ..
Vous mettez un peu de temps avant de remarquer.. ah, ça y est : un sixième doigt est apparu, comme par magie, là, entre votre petit doigt et votre annulaire .. !
Je vous demande ensuite de poser la main sur la table, et de ne plus bouger. Avec un pinceau, Je viens brosser successivement et délicatement vos doigts dans un ordre aléatoire. Vous regardez le pinceau passer sur l’un ou l’autre de vos doigts, et lorsqu’il arrive sur le sixième doigt, vous êtes sur vos gardes .. mais là, incroyable, vous ressentez parfaitement la caresse et les poils du pinceaux passer sur votre peau. Vous ressentez physiquement ce doigt en plus…
En quelques minutes, votre cerveau a donc assimilé un membre artificiel !

Et voilà tout l’enjeu des expériences que nous menons dans mon laboratoire : Réussir à vous faire croire à des chimères, à des choses impossibles.
Entre nous, je peux vous confier notre « truc » de magicien : en fait, lorsque vous voyez le pinceau passer sur le sixième doigt, en réalité moi je passe au même moment avec mon pinceau sur votre annulaire. Et votre cerveau va projeter cette sensation tactile au niveau du sixième doigt .. et ça marche très bien !
Mais le plus incroyable dans cette expérience, c’est quand, à la fin, j’appuie sur un bouton pour restaurer une apparence « normale » à votre main virtuelle, qui redevient donc, instantanément, une main à cinq doigts. Tout est rentré dans l’ordre, et pourtant vous ressentez cette fois comme un manque… Comme si .. on vous avait coupé un doigt ! Une impression d’ « amputation » qui montre à quel point votre cerveau s’était habitué profondément à un doigt qui n’existait pourtant pas quelques instants auparavant !

Les effets de la réalité virtuelle peuvent donc être extrêmement puissants. Et c’est bien parce-que ces effets sont si puissants, que je vous conseille de faire attention au moment de choisir votre avatar.. vous savez, ce personnage qui vous représente sur internet ou dans le monde virtuel. Quelle apparence, et quel corps virtuel allez-vous choisir ? Le choix est en théorie infini. Vous pouvez adopter un corps plus petit ou plus grand ? Sinon plus corpulent, plus mince, plus ou moins musclé ? Vous pouvez même virtuellement essayer de changer de genre, ou de couleur de peau. C’est l’occasion.
Mais attention il faut bien choisir. Car l’apparence de cet avatar, et ses caractéristiques, vont ensuite influencer considérablement votre comportement dans le monde virtuel.
Par exemple, des chercheurs ont montré que si l’on s’incarne pendant quelques temps dans l’avatar d’un enfant de 6 ans, et bien nous allons progressivement nous comporter de manière plus enfantine, en se mettant à parler avec une voie à la tonalité un peu plus aigüe. Un peu comme si l’on régressait, ou si l’on vivait une cure de jouvence éclair. Dans une autre étude, des participants s’incarnaient dans un avatar ressemblant fortement à Albert Einstein, le célèbre physicien. Et on leur demandait de réaliser des casse-têtes, des tests cognitifs. Et bien le simple fait de se retrouver dans la peau d’Einstein permet d’améliorer ses résultats de manière significative ! Comme si cette fois on devenait plus intelligent en réalité virtuelle. Cela peut donc aller très loin…
On appelle ça l’effet « Protéus » en hommage à une divinité de la mythologie Grecque appelée « Protée » qui aurait le pouvoir de changer de forme. Cela évoque l’influence de cet avatar sur votre comportement et votre identité, qui deviennent « malléables », « changeants » dans le monde virtuel, mais aussi dans le monde réel, car cet effet peut même persister quelques temps après l’immersion, lorsque vous retirez votre casque.

Bon, c’est très bien tout cela, vous allez me dire ..mais .. à quoi ça sert ? Pour moi, les applications les plus prometteuses de ces technologies, en tout cas celles sur lesquelles nous travaillons d’arrache-pied dans notre laboratoire, concernent le domaine médical. En particulier, les thérapies et la « rééducation ».
Par exemple, si nous évoquons la crise sanitaire de la covid19, nous avons tous été affectés, plus ou moins durement. Nous avons tous une connaissance qui a contracté la maladie sous une forme grave, qui a parfois nécessité une hospitalisation et un séjour en réanimation, avec une intubation, dans le coma.
Lorsque l’on se réveille, on se retrouve très affaibli, notre masse musculaire a complètement fondu. Il est devenu impossible de marcher ou de s’alimenter tout seul. Il va donc falloir réapprendre tous ces gestes du quotidien…
D’ailleurs cette situation est vécue pas seulement dans le cas de la covid19, mais par près de la moitié des patients intubés en réanimation

Le problème … c’est qu’il existe actuellement peu de moyens pour se rééduquer et faire de l’exercice dans cet état. Notamment parce que si vous commencez à pratiquer un exercice physique, simplement vous mettre debout, votre cœur n’est plus habitué et vous risquez de faire un malaise/syncope !
C’est pourquoi, avec mes collègues chercheurs, nous avons mis au point une application très innovante qui est justement basée sur la réalité virtuelle et les avatars.
Je vous propose de vous mettre un instant à la place d’un des patients. Vous vous êtes réveillé il y a quelques jours, dans un lit d’hôpital, perfusé, relié à une machine qui surveille en permanence votre état. Vous êtes encore sous le choc, très fatigué, vous ne pouvez plus bouger. Les heures sont longues.. Aujourd’hui on vous propose de tester notre dispositif. Vous enfilez donc un casque de réalité virtuelle, directement depuis votre lit. Dans la simulation, vous êtes représenté par un avatar, qui vous ressemble. Vous êtes assis sur une chaise virtuelle, dans une chambre d’hôpital virtuelle, relativement similaire à celle où vous vous trouvez en vrai.
Lorsque vous êtes prêt, le soignant lance la simulation et .. votre avatar se lève et fait quelques pas. C’est alors une sensation très puissante, un peu comme si vous regardiez un film en étant vraiment dans la peau de l’acteur, en voyant tout ce qu’il fait à travers ses propres yeux. Vous vous voyez donc vous mettre debout et marcher… pour la première fois depuis bien longtemps !
Ensuite, l’aventure continue de plus belle : l’avatar ouvre une porte et sort de la chambre. Un ponton en bois s’étend devant vous sur plusieurs centaines de mètres, et vous avancez tranquillement dessus, pour parcourir un paysage magnifique, tantôt une plage, tantôt une prairie, tantôt une forêt. Dépaysement garanti !
Pendant tout ce temps, vous vous voyez donc à l’intérieur d’un « corps en mouvement », « un corps qui marche », qui « re-marche » et se promène, alors que, en réalité, vous êtes toujours resté allongé dans votre lit d’hôpital.

Cette séance de marche virtuelle « par procuration », nous allons la répéter tous les jours, pendant 9 jours, à raison de 10 minutes par session.
Notre hypothèse est que, en se voyant ainsi tous les jours en train de marcher, et en imaginant que l’on est en train de le faire, le cerveau va réactiver certains circuits liés à la locomotion, et va d’une certaine manière démarrer en avance son processus de rééducation.
Et nous espérons que, grâce à cela, les patients vont ensuite se remettre à marcher plus vite et récupérer plus efficacement ; en améliorant par la même occasion leur moral et leur confiance dans l’avenir.
Les essais cliniques ont démarré depuis quelques mois au CHU de Rennes. Comme dans tout travail de recherche médicale on ne connaîtra les résultats qu’à la toute fin de l’étude, dans six à douze mois. Mais ce que nous savons déjà, à l’heure où je vous parle, le 25 Septembre 2021, c’est que pratiquement tous les patients et les soignants qui ont utilisé cet outil en sont ravis, et qu’ils souhaitent même pouvoir continuer de l’utiliser après les essais.

Alors, le principe d’une hypothèse c’est que l’on ne maîtrise pas le résultat final, mais moi .. j’y crois. Et je suis persuadé que cette technologie permettra d’obtenir des thérapies différentes, plus rapides, plus efficaces, et surtout plus accessibles demain pour de très nombreux patients à travers le monde.
Mais vous maintenant, comment réagirez-vous, demain, dans quelques années, lorsque vous irez voir votre médecin, votre kiné, ou même simplement votre prof de sport ou de danse, lorsqu’elle vous tendra un visiocasque, et vous dira « alors, vous êtes prêt pour votre petite séance ? Et aujourd’hui, quel avatar voulez-vous choisir ? ».
Ce sera donc à votre tour de choisir.. Et en faisant ce choix, vous détenez les clés, vous devenez acteur de votre propre transformation dans le virtuel et peut-être aussi dans le réel. Alors souvenez-vous, choisissez bien, car maintenant, vous savez les effets profonds et les pouvoirs bien réels de la réalité virtuelle sur votre cerveau.

 Anatole Lécuyer, Chercheur Inria.