L’intuition du robot

Crédits : Antoine Cully

Il était une fois… la thèse d’Antoine Cully, effectuée à l’ISIR à l’Université Pierre et Marie Curie, et récompensée par un accessit du prix SIF / Gilles Kahn. Antoine a travaillé sur des robots autonomes, qui peuvent se déplacer dans un environnement non contrôlé. Il nous raconte comment il a réussi à les doter d’une sorte d’intuition comme peuvent en avoir les humains. Charlotte Truchet

Les robots ont profondément transformé l’industrie et peuvent être très utiles à notre société, par exemple en intervenant sur des lieux de catastrophes naturelles, lors de secours à la personne ou dans le cadre de la santé et des transports. Cependant, l’un des obstacles majeurs à leur utilisation, en dehors des environnements parfaitement contrôlés des usines, est leur fragilité. Les robots actuels ont des difficultés dès qu’ils doivent surmonter un problème inattendu : ils sont limités aux capteurs qu’ils embarquent et ne peuvent diagnostiquer que les situations qui ont été anticipées par leur concepteurs.

Contrairement aux robots, les êtres vivants ont une impressionnante capacité d’adaptation aux blessures. Ainsi, un enfant qui se foule la cheville n’a besoin que de quelques minutes pour trouver une manière de boiter. Cela s’explique du fait qu’ils ne partent pas de zéro pour s’en sortir : ils ont de bonnes intuitions sur les différentes manières de réagir. Ces intuitions leur permettent de choisir intelligemment quelques comportements à essayer et, après quelques tests, ils arrivent en général à en trouver un qui fonctionne malgré la blessure.

Pendant ma thèse, j’ai travaillé sur des méthodes permettant de fournir aux robots les mêmes capacités d’adaptation que les êtres vivants, en leur permettant d’apprendre par eux-mêmes un comportement palliant la panne subie. Cependant, les méthodes actuelles d’apprentissage sont trop lentes car elles partent le plus souvent de zéro. Pour changer cela et permettre une adaptation rapide et créative, j’ai développé un algorithme basé sur l’évolution artificielle permettant de créer une « carte » contenant des milliers de manières différentes de réaliser une tâche : cette carte représente les intuitions du robot concernant les comportements intéressants. Si le robot est endommagé, il utilise ses intuitions pour guider un algorithme d’apprentissage, qui fait des essais afin de découvrir rapidement un comportement de compensation. Nous avons baptisé ce nouvel algorithme «Intelligent Trial and Error» (essai-erreur intelligent).

Test d’un robot hexapode endommagé sur le terrain. Crédits : Antoine Cully.

Les résultats expérimentaux montrent comment des robots peuvent automatiquement s’adapter à la plupart des dommages en moins de deux minutes. Par exemple, un robot à 6 pattes ré-apprend à marcher avec une patte abimée ou une patte manquante et un bras robot apprend à correctement placer un objet malgré plusieurs moteurs coincés.

Cette nouvelle technique pourra contribuer à développer des robots autonomes plus robustes et plus efficaces qui pourront par exemple aider des secouristes sans nécessiter leur attention en permanence ou continuer à être utiles même quand une pièce est cassée.

Antoine Cully, @CULLYAntoine

Pour aller plus loin : photos et vidéos sur la page d’Antoine Cully

Le logiciel, on le garde ou on le jette ?

Le 23 mars 2017, de 14 à 17h30, à Paris, Inria Alumni organise une Jam Session  sur ce sujet en partenariat avec la Société informatique de France.

Les logiciels sont construits à partir du savoir et des connaissances des personnes, souvent des informaticiens, qui les conçoivent.  Ils ont, comme les objets scientifiques, techniques, comme les objets du quotidien, une durée de vie limitée. A chaque disparition, c’est un peu de l’humanité et de son savoir qui disparait. En cela, les logiciels font partie de notre patrimoine, et les préserver est devenu un enjeu à la fois technique et épistémologique.

Cette Jam Session a pour but, avec le concours de professionnels impliqués dans le “patrimoine logiciel”, de discuter différentes approches et problématiques de la sauvegarde du logiciel.

Information et inscriptions

Le processeur qui spéculait plus qu’un trader

portraitNous retrouvons aujourd’hui, Arthur Pérais un des lauréats du prix de thèse Gilles Kahn 2016, décerné par la SiF et patronné par l’Académie des Sciences. Son travail a pour titre  « Increasing the Performance of Superscalar Processors through Value Prediction », il a été soutenu à l’Université de Rennes 1, et préparé dans l’équipe-projet Inria ALF de l’IRISA, sous la direction d’André Seznec. Arthur pour Binaire, nous explique comment on peut revisiter d’anciennes techniques (du milieu des années 90) pour les nouvelles générations de processeurs comme ceux de votre téléphone mobile pour augmenter les performances. Pierre Paradinas

« Avec deux fois plus de cœurs dans le processeur, l’appareil est deux fois plus performant. » Cet argument de vente est souvent avancé pour vanter les capacités d’un smartphone ou d’un ordinateur.

Le processeur est le cerveau de la machine, et chacun de ses cœurs a pour rôle de suivre une liste d’instructions : un programme (par exemple, un navigateur web ou un jeu vidéo). Pour accélérer leurs calculs, certains programmes peuvent être divisés en sous-programmes qui vont s’exécuter sur les différents cœurs du processeur en parallèle, tout comme il est possible de faire plusieurs crêpes à la fois quand on dispose de plusieurs crêpières.

Cependant, si on veut faire une seule crêpe, avoir plusieurs crêpières est inutile. Ainsi, de nombreux programmes ne peuvent pas être divisés en sous-programmes parallèles car les calculs qu’ils effectuent ne s’y prêtent pas.. Dans ce cas, un seul cœur exécute tout le programme.

Lors de ma thèse, j’ai donc travaillé à améliorer la performance d’un seul cœur grâce à la prédiction de valeurs. La prédiction de valeurs, c’est comme monter une étagère sans lire le manuel, en spéculant sur la position des pièces, des vis et chevilles. Par exemple, au lieu de passer 15 minutes à lire le manuel et 45 minutes à monter l’étagère, on peut gagner 15 minutes en passant directement au montage. La tâche achevée, il faut vérifier qu’on ne s’est pas trompé, mais cela n’empêche pas de commencer à ranger des livres dans l’étagère après 45 minutes, et non 60. Naturellement, si on a fait une erreur lors du montage, il faut tout recommencer.

illustration-perais

C’est comme ça que se comporte la prédiction de valeurs : on gagne peu lorsque l’on prédit bien, et on perd beaucoup lorsque l’on prédit mal. Heureusement, les calculs effectués par les programmes sont souvent redondants, et de nombreux résultats peuvent donc être prédits correctement.

Pour ce faire, un prédicteur de valeurs est ajouté à chaque cœur. Il mémorise les derniers résultats produits par les différentes instructions, et tente d’identifier des motifs qui se répèteraient. Par exemple, une instruction qui dans le passé a produit 1, 2 puis 1 produira sans doute 2 lorsqu’elle sera exécutée à nouveau. Le résultat prédit est utilisé pour exécuter la prochaine instruction sans attendre le « vrai » résultat, ce qui accélère l’exécution du programme.

Au cours de mon doctorat, j’ai développé des algorithmes de prédictions permettant d’identifier des motifs complexes dans les résultats produits, et j’ai montré comment les implanter dans un processeur de façon réaliste.

Finalement, afin d’estimer le gain  de performance, j’ai utilisé un programme simulant un processeur moderne. Ce simulateur lit les instructions d’un autre programme (par exemple un navigateur), et l’exécute comme il serait exécuté sur une vraie puce, tout en comptant le temps nécessaire à l’exécution du programme. Par ce procédé, et suivant le programme accéléré, j’ai pu mesurer des gains de performance allant du négligeable jusqu’à plus de 30%, ce qui peut paraître peu mais est très encourageant dans ce domaine.

Arthur Pérais

Faire parler les murs

Hélène Dessales, archeo.ens.fr

Un nouvel « Entretien autour de l’informatique  ». Serge Abiteboul  et Claire Mathieu interviewent Hélène Dessales Maître de conférences en archéologie à l’École Normale Supérieure à Paris. Hélène Dessales est notamment spécialiste de la distribution de l’eau dans l’architecture domestique de l’Occident romain.  Elle nous explique comment l’informatique est en train de révolutionner l’archéologie.

Cet article est publié en collaboration avec TheConversation.

B : Tu es archéologue. Ça sert à quoi l’archéologie ?

HD : L’archéologue écrit l’histoire en interrogeant les objets, explore la matérialité pour découvrir ce que les textes ne peuvent pas apprendre.

Dans ma thèse, j’ai travaillé sur le rapport entre l’adduction d’eau et l’évolution de l’habitat, illustrant comment les techniques ont transformé l’architecture et la manière de vivre. Maintenant je travaille sur les techniques de chantier à l’époque romaine. Comment construit-on ? Qui sont les bâtisseurs ? Quel est l’environnement, la géologie ? D’où viennent les matériaux utilisés ? J’ai élargi l’horizon de l’architecture à celui de la construction.

Il y a une lecture dynamique du bâtiment ; nous essayons de voir comment il a été construit, d’évaluer ce qu’il a coûté, de saisir les gestes du constructeur et de l’artisan. C’est un domaine nouveau qui se développe fortement depuis une vingtaine d’années, autour du réseau international d’histoire de la construction.

Même si les techniques de construction romaines sont relativement bien connues, elles restent encore à explorer sous ce nouvel angle de vue. La maçonnerie n’a pas énormément changé entre l’époque romaine et le XIXe siècle. C’est pourquoi je collabore notamment avec des médiévistes qui, eux, disposent de nombreuses sources écrites. Par exemple, pour le palais des papes à Avignon, ils savent comment le bâtiment a été construit, pratiquement au jour le jour. Nous croisons nos méthodes et c’est passionnant.

B : Tu participes à un projet qui fait intervenir beaucoup l’informatique ?

HD : Oui. L’informatique est en train de révolutionner l’archéologie.  Le cœur de l’archéologie, c’est le traitement de l’information. L’informatique est parfaite pour cela.

Je travaille avec Jean Ponce du département d’informatique de l’ENS. Nos deux projets de recherche se sont rencontrés. D’un côté, le sien, la vision par ordinateur, appliquée à l’étude des bâtiments. De l’autre, le mien, l’archéologie de l’architecture.

La vision par ordinateur a totalement transformé notre façon d’enregistrer et de traiter les informations, depuis le relevé sur le terrain où nous « capturons » des données, jusqu’à la restitution au laboratoire, en trois dimensions. C’est toute la chaîne opératoire qui a été  bouleversée. Désormais nous arrivons sur le terrain avec des appareils photo pour faire un relevé numérique complet. Nous le faisions auparavant avec un scanner, mais c’était lourd à utiliser et assez coûteux, alors que maintenant nous n’avons qu’à prendre des photos, cas extrême, avec notre téléphone… puis à utiliser le logiciel de Jean Ponce. Nous l’avons appliqué à un bâtiment de 3500 m (2). Pour cette superficie, il nous a fallu environ 25 000 photos. Ensuite, la reconstruction s’est faite en deux phases, un premier programme, nommé PMVS, assemble automatiquement les photos, un second, Blender, construit, à partir de cet assemblage, un modèle 3D. C’était la première fois que cette technologie était testée sur un aussi grand bâtiment, et cela a très bien fonctionné, produisant une maquette d’une précision excellente, inférieure à 1cm. Une telle précision, c’était nouveau.

En archéologie, quand nous parlions d’informatique, nous imaginions un ordinateur et une base de données ; là nous sommes dans des algorithmes complexes qui alignent les données et reconstruisent le bâtiment en trois dimensions.

Maintenant, pour ces nouvelles utilisations de l’informatique, il nous manque des métiers dans les laboratoires. Nous avons d’un côté des informaticiens et de l’autre côté des archéologues de la vieille école, avec des compétences techniques comme dessinateurs, infographistes, jusqu’alors habitués à travailler surtout en deux dimensions. Les processus pour former des personnes qui maîtrisent ces reconstructions en trois dimensions sont en cours.

B : Vous gagnez du temps avec les relevés. Mais ces nouvelles techniques ouvrent-elles vraiment de nouvelles possibilités à l’archéologie ?

HD : En archéologie, quand nous dessinons, nous faisons déjà une interprétation, en sélectionnant ce que nous représentons. Le dessin d’un bâtiment est une étape de compréhension très importante. Les modèles informatiques héritent en esprit de cette pratique du dessin. Une fois la reconstruction 3D par les programmes terminée, nous disposons d’une maquette du bâtiment qui, pour nous, est aussi un outil d’analyse et d’interrogation exceptionnel : nous l’utilisons avec des filtres de lecture permettant de voir des choses que nous ne verrions pas avec les yeux. Surtout, nous y intégrons une notion de temps, qui introduit une quatrième dimension. Ainsi, d’une part, nous incorporons par exemple des anciens dessins datant du XIXe, témoignant d’un bâtiment à un état donné, que nous « projetons » en trois dimensions dans la maquette numérique. D’autre part, nous pouvons aussi intégrer au modèle nos données archéologiques actuelles, qui retracent les différentes phases du bâtiment. Le modèle restitue ainsi toute l’évolution du bâtiment, de sa création à l’époque romaine, jusqu’aux restaurations de l’époque contemporaine.

Opération d’étude et de relevé d’une portion de mur (stage de formation à l’archéologie de la construction romaine, Pompéi, Villa de Diomède, mai 2014). © Villa Diomedes Project. Photographie Thomas Crognier.
Opération d’étude et de relevé d’une portion de mur (stage de formation à l’archéologie de la construction romaine, Pompéi, Villa de Diomède, mai 2014). © Villa Diomedes Project. Photographie Thomas Crognier.

Pour cela, l’archéologue, sur place, devant le mur, établit par exemple une classification des types de maçonnerie qui caractérisent les chantiers d’un même bâtiment au fil du temps. Il prend des mesures, annote une photo à la main, en y intégrant son analyse du mur. Traitant ensuite cette photographie, sur ordinateur, il y ajoute une série de calques de couleurs, chacun correspond à une série d’informations – types de techniques observé, phases de construction.  Puis cette information est projetée en 3D et nous pouvons l’intégrer aux données d’ensemble sur le bâtiment. Ainsi, le modèle 3D nous permet de stocker toute une série d’informations disparates et de les croiser. Il sert donc à la fois de filtre et d’outil d’analyse.

© INRIA/WILLOW-CNRS-ENS-MSR-Iconem

En appliquant ces méthodes, j’ai la chance de coordonner un gros projet collectif sur la villa de Diomède à Pompéi (1). Nous avons pu produire une restitution virtuelle de la villa au moment de sa fouille à la fin du XVIIIe siècle, lorsqu’on enlève les cendres de l’éruption du Vésuve de 79 ap. J.-C., et ce sur la base des dessins très précis réalisés peu après la découverte. Nous travaillons actuellement à une autre restitution, celle de l’état de la villa avant l’éruption de 79 – sur lequel il faut mobiliser toutes nos observations (sachant que des survivants sont revenus sur les lieux de la catastrophe pour prélever des matériaux ; d’autres spoliations ont lieu à l’époque moderne, lorsque Pompéi, la cité alors oubliée, n’est plus qu’un grand terrain agricole).  La première image est donc historique, celle du bâtiment tel qu’il est vu à l’époque moderne. La seconde est archéologique, celle qui tente de recomposer un état que l’on ne perçoit plus que de façon fragmentaire et dégradé, et pour lequel il faut remonter presque 2000 ans…

Modèles 3D ? Vérifier des hypothèses, restaurer sans détruire, éduquer le public, préserver la mémoire

B : Ces modèles 3D vous apportent-ils donc de nouvelles compréhensions ?

HD : La visualisation en 3D facilite l’analyse. En archéologie, nous travaillons parfois sur des structures très arasées. Nous essayons de restituer les structures comme elles étaient dans leur état originel, avec leurs élévations, leurs toitures. Ce n’est qu’en visualisant le bâtiment en trois dimensions que nous pouvons vérifier si nos hypothèses résistent d’un point de vue architectural, si le toit a une chance de tenir…

Et puis, cela va changer la visite des sites archéologiques. La 3D nous permet de proposer des visites virtuelles avec des restaurations numériques, tout en conservant l’existant sur le terrain. Elle nous offre la possibilité de restaurer virtuellement sans détruire. Plutôt que des reconstructions plus ou moins hypothétiques « à la manière de… », elle permet de considérer véritablement des alternatives. Les monuments historiques sont tous en train de développer cet aspect des choses, et c’est toute la transition entre l’archéologie et la diffusion vers le public qui change.

B : Cela change-t-il aussi votre façon de fouiller ?

HD : Fouiller c’est souvent détruire. Quand nous fouillons, nous détruisons des strates. Maintenant, nous pouvons tout de suite avoir une maquette en 3D de l’état de la fouille, ce qui permet de sauvegarder les informations avec une maquette évolutive. Cela conserve l’historique, et donne une mémoire des fouilles. Les images, entre autres, nous permettent de garder cette mémoire.

B : N’y a-t-il pas un risque de se perdre dans cette masse d’images ?

HD : Oui, nous avons trop de données, tant d’images que nous ne savons plus comment les classer et les stocker efficacement. Pour le moment, nous ne disposons pas d’ordinateurs assez puissants pour les traiter toutes.

Et puis, nous avons un vrai souci d’archivage. Auparavant, nous tenions ce que dans le métier nous appelons un « carnet de fouilles ».  Comme cela se faisait déjà au XIXe siècle, il s’agit de reporter au jour le jour ce que nous trouvons, quoi, quand, où. Ce carnet (maintenant une tablette) s’est complexifié en devenant un ensemble de fiches d’observations, de photographies, de relevés. C’est ce qui forme les sources primaires, la base des travaux de recherche. Pour la villa de Diomède, les relevés et toutes ces données sont archivés et déposés auprès de la Surintendance archéologique de Pompéi.

Mais, pour les étapes ultérieures du traitement des données ? Nous produisons des quantités considérables d’images qui donnent des modèles photogrammétriques (2). Les images sont stockées par deux entreprises qui travaillent avec nous dans le cadre d’un projet de l’ANR (3). Elles nous seront restituées à la fin du projet. Toutes ces images font partie de notre patrimoine. Il nous faudra les archiver pour garantir qu’elles seront accessibles dans cinquante ans. Comment ? Je ne sais pas. Il va falloir choisir ce que l’on garde… Comment ? Archiviste numérique, c’est un métier dont nous avons besoin pour accompagner nos recherches.

B : Quelles sont les avancées les plus marquantes de l’archéologie de ces dix dernières années ?

HD : Les nouvelles technologies et pratiques de relevés et de restitution, le développement de plus en plus important de l’ « archéométrie » (ce qu’on mesure avec des instruments, pour obtenir des données quantifiées, par exemple les analyses chimiques), les techniques de datation de plus en plus poussées, tout cela modifie la pratique de l’archéologie et fait intervenir chimie, physique, biologie, géologie, informatique. Par exemple, la datation en fonction des pollens fixés dans le mortier lors de la construction des bâtiments peut permettre de reconstruire le fil des saisons et induit une nouvelle précision dans la restitution d’un bâtiment, un changement d’échelle qui change les pratiques de l’archéologie. Nous enseignons maintenant toutes ces méthodes archéométriques, ainsi que la photogrammétrie. Nous sommes en pleine mutation de l’enseignement et de la recherche.

B : Du coup, l’archéologie ne s’est-elle pas rapprochée des sciences et éloignée des sciences humaines ?

HD : C’est vrai, maintenant il y a plus de techniques à apprendre. Nous avons de plus en plus de disciplines à solliciter, mais en archéologie il y a toujours eu cet angle qui n’était pas purement celui des sciences humaines : nous allons sur le terrain, comme des géologues nous suivons la stratigraphie ; nous croisons les données avec d’autres sciences. L’histoire de l’Antiquité ne se découvre pas seulement à partir des textes mais aussi par les monuments, et il en a été ainsi dès le XVe siècle, lorsqu’Alberti (4) invite à considérer les édifices de la Rome antique pour mieux comprendre les auteurs de l’Antiquité. Il faut, par exemple, une formation en dessin, ce qui nous fait sortir complètement des sciences humaines. Mes étudiants apprennent toujours à dessiner. Le dessin c’est le premier travail de filtre et de sélection, ça change le regard, et c’est en dessinant que nous comprenons. Nous utilisons de plus en plus de statistiques. Nous quantifions de plus en plus nos résultats.

Quelque chose n’a pas changé. Nous examinons les objets. Nous les interrogeons. Nous faisons parler les murs.

Entretien recueilli par Serge Abiteboul et Claire Mathieu

Notes :

(1) – Le programme Villa Diomède

(2) – Photogrammétrie : La photogrammétrie est une technique qui consiste à effectuer des mesures dans une scène, en utilisant la parallaxe obtenue entre des images acquises selon des points de vue différents. (Wikipédia).

(3) – RECAP, Projet soutenu par l’Agence Nationale de la Recherche.

(4) – Leon Battista Alberti, 1404-1472, constructeur, ingénieur et écrivain de la Renaissance italienne. Il est l’auteur du De re ædificatoria (en français, L’Art d’édifier).

 Villa de Diomède à Pompéi, état de 2013 : modèle photogrammétrique* du bâtiment (vue isométrique du secteur sud-est du bâtiment). © Villa Diomedes Project. Infographie 3D :  Alban-Brice Pimpaud (archeo3d.net) | Yves Ubelmann & Philippe Barthelemy (iconem).
Villa de Diomède à Pompéi, état de 2013 : modèle photogrammétrique* du bâtiment (vue isométrique du secteur sud-est du bâtiment). © Villa Diomedes Project. Infographie 3D :  Alban-Brice Pimpaud (archeo3d.net) | Yves Ubelmann & Philippe Barthelemy (iconem).
La Villa de Diomède à Pompéi, état du début du XIXe siècle, peu après les fouilles : modèle intégrant les relevés exécutés dans les années 1780-1810, qui reproduisent les décors sur les murs et les sols, très érodés aujourd'hui ou disparus (vue isométrique du secteur sud-est du bâtiment). © Villa Diomedes Project. Infographie 3D :  Alban-Brice Pimpaud (archeo3d.net) | Yves Ubelmann & Philippe Barthelemy (iconem).
La Villa de Diomède à Pompéi, état du début du XIXe siècle, peu après les fouilles : modèle intégrant les relevés exécutés dans les années 1780-1810, qui reproduisent les décors sur les murs et les sols, très érodés aujourd’hui ou disparus (vue isométrique du secteur sud-est du bâtiment). © Villa Diomedes Project. Infographie 3D :  Alban-Brice Pimpaud (archeo3d.net) | Yves Ubelmann & Philippe Barthelemy (iconem).
La Villa de Diomède à Pompéi, analyse archéologique en cours : modèle intégrant les relevés de terrain et interprétations ; chaque couleur correspond à une phase de construction du bâtiment à l’époque romaine, entre le IIe siècle av. J.-C. et 79 ap. J.-C. ; la couleur grise indique les restaurations modernes et contemporaines (vue isométrique du secteur sud-est du bâtiment). © Villa Diomedes Project. Infographie 3D :  Alban-Brice Pimpaud (archeo3dt) | Yves Ubelmann & Philippe Barthelemy (iconem).
La Villa de Diomède à Pompéi, analyse archéologique en cours : modèle intégrant les relevés de terrain et interprétations ; chaque couleur correspond à une phase de construction du bâtiment à l’époque romaine, entre le IIe siècle av. J.-C. et 79 ap. J.-C. ; la couleur grise indique les restaurations modernes et contemporaines (vue isométrique du secteur sud-est du bâtiment). © Villa Diomedes Project. Infographie 3D :  Alban-Brice Pimpaud (archeo3dt) | Yves Ubelmann & Philippe Barthelemy (iconem).

Elle commande les machines par la pensée

Nataliya Kosmyna vient d’être récompensée par le prix « Génération Jeunes Chercheuses » de L’Oréal-UNESCO pour les femmes et les sciences. Franck Tarpin-Bernard, qui a encadré sa thèse, nous parle de ses travaux passionnants et des nouvelles formes d’interactions homme machine. Nataliya est aujourd’hui en post-doc à Inria Rennes où elle étudie les interfaces cerveau-ordinateur. Anne-Marie Kermarrec.

Nataliya Kosmyna ©NataliaBogdanovska
Nataliya Kosmyna ©NataliaBogdanovska

Depuis que l’informatique existe, les chercheurs s’interrogent sur les différentes façons d’interagir avec les ordinateurs et par extension les nouveaux dispositifs numériques. Cette réflexion et les innovations qui l’ont accompagnées ont très largement contribué à la démocratisation de leurs usages. Depuis les cartes perforées de l’après-guerre jusqu’à la commande vocale des téléphones mobiles, que de chemin a été parcouru ! Avec l’avènement des interfaces graphiques des années 80 puis plus tard des interfaces tactiles dans les années 2000, il est devenu de plus en plus naturel d’interagir avec le monde numérique.

img_9561Après les progrès considérables dans le domaine de la reconnaissance du mouvement et de la parole, on peut se demander quel sera le prochain mode de communication avec les machines qui nous entourent ?

Si vous êtes fan comme moi de Clint Eastwood et avez vu son film Firefox, l’arme absolue, dans les années 80, l’idée que l’on puisse interagir avec les machines par la pensée vous fascine. C’est ce défi qui anime Nataliya Kosmyna, prix « Génération Jeunes Chercheuses » de L’Oréal-UNESCO pour les femmes et les sciences.

img_0985Lorsque Nataliya arrive d’Ukraine au Laboratoire d’Informatique de Grenoble pour son Master en 2011, peu de chercheurs s’intéressent à ce domaine. En effet, les performances des systèmes de reconnaissance sont encore modestes et les usages se restreignent principalement à l’emploi de dispositifs de captation très onéreux en vue d’offrir un moyen d’interaction à des personnes fortement handicapées et ne disposant pas d’autres canaux de communication (locked in syndrom par exemple). Pourtant, nous entrevoyons alors que les progrès réalisés par l’électronique et le traitement du signal devaient permettre de franchir un grand pas et démocratiser les usages des interfaces cerveau-ordinateur.

Sur le principe, l’approche est assez simple. Lorsque nous réalisons des tâches cognitives ou motrices diverses, les neurones situés dans des zones spécifiques du cerveau sont activés et des signaux électriques se propagent à travers les synapses. Avec les progrès de l’électronique, il est aujourd’hui possible de capter un signal électrique à la surface du crâne avec un casque plus ou moins fourni en électrodes, similaires à ceux utilisés en milieu médical pour faire des électro-encéphalogrammes. Bien sûr, si la résolution temporelle des mesures est très performante, il n’en est pas de même pour la résolution spatiale et chaque électrode capte un signal résultant de l’activation de millions de neurones. Grâce aux progrès réalisés par les chercheurs en traitement du signal et en particulier l’équipe du Gipsa-lab avec laquelle Nataliya a travaillé, il est cependant possible aujourd’hui d’extraire du flux des données des marqueurs qu’on peut associer à certaines formes de pensée.

img_0004Compte tenu du très faible rapport signal sur bruit, ces systèmes nécessitent des temps d’apprentissage très longs afin que la machine soit capable de discriminer quelques pensées, rarement plus de quatre simultanément.

Dès lors, au sein de l’équipe Ingénierie de l’Interaction Homme-Machine (IIHM) sous ma direction puis aujourd’hui de Inria avec Anatole Lécuyer, Nataliya a cherché à imaginer des moyens de réduire drastiquement les temps d’apprentissage en couplant aux techniques issues du traitement du signal des concepts venant de l’IHM. Sa thèse de doctorat, intitulée « Co-apprentissage pour les interfaces cerveau-ordinateur », fourmille d’approches innovantes pour aider le sujet à maitriser la technologie et participer à l’apprentissage. La tentation du traitement du signal est assez naturellement de construire une boite noire qui reconnait les pensées de commande sans que le sujet n’ait rien à faire. Pourtant, se priver de l’implication du sujet est regrettable, car il est très difficile pour quelqu’un de structurer sa pensée pour faciliter la reconnaissance s’il n’a pas une certaine compréhension de ce que la machine reconnait et pourquoi elle le reconnait. Ainsi si vous souhaitez déclencher une commande de zoom, quelle pensée ou image mentale allez-vous construire et quelle stabilité a cette image dans le temps ? En impliquant le sujet et en construisant une situation de co-apprentissage entre le sujet et la machine, il est possible de grandement améliorer le temps d’apprentissage.  En scénarisant les phases d’apprentissage, Nataliya est arrivée à motiver les sujets à investir le temps nécessaire pour obtenir des résultats satisfaisants.

Nataliya est guidée par une idée : démocratiser l’usage des interfaces cerveau-ordinateur. Si on écoute les centaines de quidams qui ont eu l’occasion de piloter un drone par la pensée en utilisant sa technologie lors de conférences ou d’événements grand public, on comprend qu’elle est sur le bon chemin.

Bien sûr les défis sont encore nombreux et le domaine des interfaces cérébrales est encore jeune, un peu là où en était la reconnaissance vocale il y a trente ans. Les taux de reconnaissance qui sont plus souvent autour de 80-85% que 95% restent insuffisants pour être utilisables seuls en pratique, et les temps de latence pour reconnaitre une pensée se chiffrent encore en secondes. Mais il suffit de voir un sujet se prendre pour un jedi lorsqu’il fait décoller le drone par la pensée pour comprendre qu’il s’agit là d’une innovation majeure qui va mobiliser beaucoup d’intelligence collective dans les prochaines années.

Franck Tarpin-Bernard, Université Grenoble Alpes, SBT

@francktarpin @nataliyakosmyna

L’informatique se conjugue au féminin

infoaufeminin-avatarEn ce 11 février, journée internationale des femmes et des filles de science, binaire a souhaité mettre en lumière une initiative lilloise dont l’objectif principal est de  promouvoir l’informatique auprès de jeunes femmes. Laetitia Jourdan et Philippe Marquet, tous deux enseignants-chercheurs au laboratoire d’informatique de l’université de Lille – sciences et technologies, nous présentent les différentes actions qu’ils portent et les résultats prometteurs qu’ils obtiennent autour de l’ « Informatique au féminin« . Marie-Agnès Enard.

Les entreprises du domaine de l’informatique déplorent l’absence de candidates féminines alors qu’elles cherchent à augmenter la mixité dans leurs équipes. Cette difficulté est directement liée au faible pourcentage d’étudiantes dans les formations en informatique (10% de filles parmi les étudiant-e-s de licence et master d’informatique à l’université Lille 1). Pourtant dans les années 80, on comptait 20% de filles dans les filières informatiques. Isabelle Collet, informaticienne de formation, chercheuse en sciences de l’éducation à l’université de Genève, s’est penchée sur la question et a fait émerger les représentations liées aux métiers de l’informatique et pourquoi elles en éloignent les femmes [ref : http://archive-ouverte.unige.ch/unige:18794 par exemple]. En particulier, depuis l’avènement du micro-ordinateur dans les années 80, l’informaticien est en effet souvent considéré comme un être solitaire et asocial passant sa journée à faire des tâches répétitives et de la programmation. Pourtant les métiers de l’informatique sont très nombreux et font appel à de multiples compétences.

Informatique un métier d’homme ? Bien sûr que non !

Le projet lillois “Informatique au féminin” est né d’une réunion en novembre 2013 organisée par IBM France sur le site d’EuraTechnologies à Lille qui questionnait la gestion de la diversité. IBM s’interrogeait sur la difficulté à féminiser son effectif. Les entreprises et les organismes de formation présents ont tous fait le même constat : cette difficulté était due à l’absence de candidates et l’absence d’étudiantes. De là, avec plusieurs collègues, nous avons monté un groupe de réflexion sur les femmes et l’informatique en vue de faire changer les choses. Le groupe est transverse sur l’université Lille  sciences et technologies et implique les composantes IUT, école d’ingénieurs et UFR. Via le service relations entreprises de l’université, nous avons réussi à entrainer des entreprises “marraines” pour financer des actions : Absys-Cyborg, Adéo, AFG, Capgemini, CGI, Décathlon, DSI-Auchan, IBM services center, Leroy-Merlin, OVH.com, Sopra Steria, SII, SPIE.

Agissons pour une informatique au féminin

La conjonction du financement des entreprises partenaires et de la volonté des enseignants-chercheurs du groupe “Informatique au féminin” permet donc de mener des actions variées d’observation de la place des jeunes filles dans nos formations, d’information sur les métiers de l’informatique, de soutien aux jeunes femmes qui s’engagent dans des études d’informatique, et de vulgarisation autour de l’informatique.

Informaticien, un métier d’homme ? Parlons-en !

Le groupe “Informatique au féminin” organise chaque année des tables rondes avec pour objectif de présenter les métiers et de combattre les préjugés en mettant en avant des femmes travaillant dans l’informatique. Cette organisation est aidée par des étudiants de 2e année de master informatique dans le cadre de leur projet de communication.

Ouvertes à toutes et à tous, les annonces de ces tables rondes sont diffusées aux étudiant-e-s de premier cycle et dans les établissements d’enseignement secondaire. Sept tables rondes ont été réalisées depuis  2014 dont une durant la soirée des partenaires du projet.

Informaticiennes, nos métiers

Afin de diffuser plus largement les témoignages de femmes travaillant dans l’informatique, nous réalisons de courtes vidéos de 3 à 4 minutes. Ces vidéos disponibles sur le site web “Informatique au féminin” sont librement accessibles. Douze portraits vidéos sont déjà en ligne, trois autres portraits en post-traitement. Les CIO, centres d’information et d’orientation, s’appuient sur ces portraits pour montrer à de jeunes lycéen-ne-s intéressé-e-s ce que peuvent être les métiers de l’informatique.

Bourses pour étudier l’informatique

crédit photo Informatique au féminin

L’attribution de bourses d’études est l’action phare de notre groupe. Ces bourses d’étude ont été mises en place pour palier au manque de jeunes filles dans les filières d’étude en informatique, et favoriser ainsi la parité en amont du marché du travail. Cette opération ambitieuse est aussi un élément fort de communication assurant globalement une bonne visibilité à notre démarche.

Ces bourses sont attribuées aux bachelières, étudiantes de Licence 1, ou de 1re année de DUT qui s’engagent à suivre un cursus de trois ans en vue de l’obtention d’un diplôme BAC+3 en informatique à Université Lille 1 ou Polytech’Lille. Ces bourses d’un montant annuel de 4000€ sont financées par le mécénat d’entreprises.

Depuis 2015, 31 bourses ont été allouées. Cette année 2016-2017, 21 étudiantes sur l’université Lille – sciences et technologies sont bénéficiaires de la bourse. Les lauréates sont étudiantes à l’IUT, à Polytech’Lille ou en licence informatique.

Au delà du mécénat, les entreprises assurent un rôle de marraine auprès des étudiantes et les accompagnent tout au long de lors scolarité, que ce soit sous la forme d’un suivi régulier pendant les études, de découverte de l’entreprise, de mini-stage… Les étudiantes sont elles les ambassadrices de l’entreprise.

Découvrir l’informatique, ses métiers

Une meilleure sensibilisation à  l’informatique et au numérique passe certainement par une action très en amont, dès le plus jeune âge afin de combattre les apriori. Nous avons donc la volonté de nous investir au sein d’Informatique au féminin dans des activités de médiation scientifique de l’informatique spécialement vers un public de filles. C’est ainsi qu’en novembre 2016, nous avons participé à “Numériqu’ELLEs” organisée par IBM, le CORIF – Conseil recherche ingénierie formation pour l’égalité femmes-hommes –, la Direction régionale aux droits des femmes et à l’égalité Hauts-de-France, et l’Académie de Lille. Plus de 400 jeunes collégiennes et lycéennes ont été sensibilisées aux métiers du numérique via des stands présentant les formations, le recrutement et les métiers du numérique. Nous avons animé des stands de découverte de concepts de la science informatique à l’aide d’activités d’informatique débranchée. Les sondages réalisés à l’issue de la journée montrent l’apparition d’un changement de mentalité chez les participantes et font  même état de vocations !

Elles codent, elles créent dès le collège

Le support des entreprises nous permet également de financer des actions de médiation dans les collèges. Ainsi l’action « L codent, L créent » qui débute ces jours-ci propose d’établir un lien direct entre des élèves (filles uniquement) de collège et des étudiantes en informatique de différentes formations de l’université de Lille via des ateliers de création d’œuvres numériques et de programmation créative.

Cette action est portée par des enseignants-chercheurs de l’université qui développent un support de formation ad hoc. Les étudiantes, formées à la médiation et rémunérées via le programme “Informatique au féminin”, vont intervenir sur 8 séances de 45 minutes les midis dans trois collèges de Villeneuve d’Ascq. “L codent, L créent” se conclura par une exposition en présence des parents, de toutes les intervenantes, mais aussi de créateurs d’art numérique, encore une occasion de communiquer sur nos actions.

Des formations en informatique qui se féminisent

Notre première action a été de collecter et observer les proportions de filles dans les effectifs des formations en informatique de l’université, à savoir l’IUT informatique, la filière GIS – Génie informatique et statistiques – de l’école Polytech Lille, et les licences et masters informatique et MIAGE regroupés à l’UFR au sein du FIL – Formation en informatique de Lille. La  répartition femmes/hommes était et reste différente selon les formations. Ainsi, le manque d’effectif féminin au début de l’action se faisait moins ressentir au sein de Polytech Lille qu’au sein de l’IUT informatique.

Pour la première année d’IUT, le pourcentage de femmes a progressé de 5,34% en 2010-11 à 12,12% en 2016-17 (sur 132 étudiants). Pour la 2e année, le pourcentage de femmes est passé de 2,38% à 12,87% (sur 101 étudiants).

Au niveau des licences et masters, la progression est globalement de 11,59% à 18,41% sur 666 étudiants. Cette hausse est plus significative sur les premières années, puisque de 10% nous sommes passés à plus de 24,87% en 2e année de licence informatique (la 1re année de licence est commune à d’autres disciplines).

Nos actions semblent donc avoir un impact sur les formations en entrée des cursus ce qui est très prometteur pour la suite. D’autres éléments peuvent aussi expliquer cette féminisation de nos effectifs. L’introduction progressive de l’informatique dans les cursus du lycée, en particulier la création de la spécialité ISN, a permis à de jeunes filles de découvrir de multiples facettes de l’informatique, élément indispensable à un choix positif d’orientation pour leurs études supérieures.

L’informatique peut se conjuguer au féminin !

crédit photo Informatique au féminin

Grâce à l’implication des enseignants-chercheurs et de l’environnement socio-économique, de nombreuses actions diversifiées ont pu être mises en place pour combattre les idées reçues que l’informatique c’est pour les garçons. Les mentalités évoluent rapidement quand on médiatise le sujet.

En relativement peu de temps, la répartition homme/femme dans nos formations s’est fortement améliorée pour toutes les formations.  Nos actions semblent porter leurs fruits et nous espérons que dans peu de temps, il ne faudra plus convaincre que l’informatique c’est pour tout le monde !

Laetitia Jourdan et Philippe Marquet

Internet sans crainte et sans reproche

sid2017_logo_frCe 7 février, jour du Safer Internet Day et tout au long du mois, Internet sans Crainte mobilise tous les acteurs de la communauté éducative autour de la mise en place d’actions de sensibilisation sur deux thèmes : la citoyenneté numérique et le cyberharcèlement.

La citoyenneté numérique pour toutes et tous.

En ces temps d’explosion des usages des réseaux sociaux par la jeune génération, mais aussi par leurs parents et grands-parents, l’accent est mis sur la citoyenneté numérique : si le fait de posséder des équipements est la condition matérielle sinequanone pour surfer et socialiser sur les réseaux, celle d’acquérir des compétences pour s’en servir avec recul est la clé pour participer en “citoyenne ou citoyen éclairé” à la société numérique.

La compréhension des enjeux de l’Internet, du fonctionnement des réseaux sociaux, du partage de l’information, de sa vérification, et de l’importance des données qu’on consent à partager sont autant de savoir-faire et de savoir-être à transmettre. La culture numérique n’est pas un acquis généralisé et le Safer Internet Day donne l’occasion à tout un chacun de participer à sa diffusion.

Du développement de l’esprit critique, au partage des superbes opportunités (par exemple pour développer un projet), de nombreuses ressources d’éducation critique sont  disponibles pour aider.

Des cyberviolences à leur résilience.

Le risque est réel, un des plus importants auxquels peuvent être confrontés les jeunes internautes aujourd’hui. Si les observateurs ont constaté une baisse du harcèlement scolaire dans sa forme traditionnelle cette année, les cyberviolences, et notamment le cyberharcèlement, est un phénomène en pleine augmentation (de 7 à 12 % entre 2010 et 2014, ref : Eukidsonline) tout comme le cybersexisme (20% des filles affirment avoir été insultées en ligne sur leur apparence physique en 2016, ref : Centre Hubertine Auclert).

De telles cyberviolences prennent racine dans la violence banalisée du quotidien, et peuvent souvent échapper aux adultes, se situant dans la sphère numérique. Elles rendent encore plus indispensable le travail d’éducation aux médias et aux usages du numérique.

Reconnaître les signes de ce harcèlement chez nos enfants (à travers une série de vidéos destinées aux parents et aux éducateurs), dénoncer pour faire réaliser aux jeunes harceleurs le mal qu’il font sans en prendre la pleine mesure, sanctionner aussi, former au numérique dans ses usages et ses fondements, ici on dépasse le constat, on offre des solutions.

Comment se mobiliser ?

C’est le moment de revisiter les ressources proposées, d’ouvrir le dialogue sur ces sujets en famille, au bureau ou dans notre entourage, d’organiser des actions de sensibilisation à ces sujets.

C’est aussi le moment de se former pour initier les jeunes à la pensée informatique pour que tout cela prenne du sens pour eux et qu’au fur et à mesure de l’évolution des usages, elles et ils puissent acquérir les fondamentaux qui leur permettront de maîtriser le numérique.

Nous, partenaires de Class´Code, avec le Blog binaire, soutenons avec enthousiasme cette initiative.

Émilie Peinchaud et Thierry Viéville.

Le Safer Internet Day est un événement mondial annuel organisé dans plus de 110 pays par le réseau européen Insafe/inhope pour la Commission européenne au mois de février pour promouvoir un Internet meilleur pour les jeunes. En France, le Safer Internet Day est organisé par Internet Sans Crainte, le programme national de sensibilisation des jeunes aux risques et enjeux de l’Internet opéré par Tralalere , au sein du Centre Safer Internet France.

internet-safer-day-logos

Quelques ressources

internet-sans-crainte-vinzetlou  

Aborder le thème de l’utilisation de ses données personnelles sur les téléphones portables et celui du cyberharcèlement avec les 7 à 12 ans. >>>

internet-sans-crainte-data-decode  

Initier aux données grâce à une application ludique, comprendre la data pour mieux comprendre comment tout le monde s’informe en ligne, partage ses données et crée des contenus numériques, pour les 9 à 14 ans. >>>

internet-sans-crainte-isoloir  

Découvrir des grands enjeux de la citoyenneté numérique:  liberté d’expression, identité numérique, éducation au numérique, gouvernance d’internet, géolocalisation, sous forme d’un jeu en ligne, pour les 12 à 16 ans. >>>

 

Former toutes personnes désireuses d’initier les jeunes de 8 à 14 ans aux fondements du numérique. Le module #4 de Class’Code (Web, Internet, site, adresse, serveur) permet de faire découvrir la face cachée des réseaux, pour les éducateurs. >>>

Démontrer sans donner la preuve !

2012-08-fabriceAujourd’hui nous retrouvons, Fabrice Benhamouda le lauréat du prix de thèse Gilles Kahn 2016, décerné par la SiF et patronné par l’Académie des Sciences. Son travail a pour titre  « Diverse modules and zero-knowledge », il a été soutenu à l’Université de recherche Paris Sciences et Lettres, et préparé à l’ENS dans l’équipe-projet Inria Cascade, sous la direction de Michel Abdalla et David Pointcheval. Fabrice nous fait découvrir des utilisations moins courante de la cryptographie moderne. Pierre Paradinas

L’agent secret est-il un vrai ou un faux ? Pas grave, seul un vrai comprendra mon message !

Imaginez que vous ayez des informations importantes que vous souhaiteriez ne dévoiler qu’à un agent secret. Mais aucun véritable agent secret ne vous révélera son appartenance à la DGSE -ou à une autre agence-, et a fortiori ne vous montrera une carte ou un certificat d’agent secret.

Comment sortir de cette situation d’apparence inextricable ? Aussi contre-intuitif que cela puisse paraître, il existe un outil cryptographique capable de résoudre ce problème. Cet outil permet de chiffrer* des messages que seules les personnes connaissant une preuve d’un certain fait peuvent déchiffrer. Pour tous les autres, ces messages chiffrés demeurent inintelligibles.

Je le sais, j’en ai la preuve, je peux vous en convaincre… mais vous n’apprendrez rien au sujet de la preuve !

C’est sur cet outil surprenant, que ma thèse a essentiellement porté. Son analyse a notamment permis de révéler des liens étroits avec un autre outil cryptographique étonnant : les arguments à divulgation nulle de connaissance.

Ces arguments permettent de prouver à quelqu’un la véracité d’un fait, par exemple le théorème de Pythagore ou la possession d’un certificat d’agent secret, sans révéler la moindre information sur la preuve (ou le certificat). En quelque sorte, c’est l’exact opposé d’une preuve dans un cours pédagogique.

Mais, si de tels arguments sont peu utiles dans le monde éducatif, ils sont fondamentaux en cryptographie, et il est même probable que vous en ayez utilisés sans le savoir. Par exemple, le système de vote électronique Helios utilise de tels arguments pour s’assurer que les électeurs votent correctement (notamment, ne votent pas pour plusieurs candidats) sans qu’ils n’aient besoin de révéler le contenu de leur bulletin de vote.

Plus généralement ces arguments permettent de garantir l’anonymat dans de nombreuses circonstances. Prenons l’exemple d’un abonné au site lemonde.fr. Pour accéder aux articles, il doit d’abord se connecter en fournissant son e-mail et son mot de passe, ce qui permet au site de vérifier qu’il a effectivement payé son abonnement. Mais grâce à ces informations, le site peut aussi traquer les habitudes de l’utilisateur et connaître ses préférences de lecture par exemple. Que faire si l’abonné souhaiterait cacher le fait qu’il ne lit que des faits divers ? À nouveau, la cryptographie propose une solution à ce problème d’apparence insoluble. L’utilisation d’un argument à divulgation nulle de connaissance permet de prouver la possession d’un compte avec un abonnement valide, sans que le site n’apprenne de quel utilisateur il s’agit.

Fabrice BenhamoudaENS & post doc à IBM T. J. Watson Research Center

(*) dans la langue courante, les termes « crypter » et  « encoder » sont souvent improprement employés à la place de  « chiffrer ».