À la découverte du cerveau

Un nouvel « Entretien autour de l’informatique ». Michel Thiebaut de Schotten est directeur de recherche au CNRS en neuropsychologie et en neuroimagerie de la connectivité cérébrale. Il travaille notamment sur l’anatomie des connexions cérébrales et leur déconnexion suite à des accidents vasculaires cérébraux ainsi que sur l’évolution du cerveau en comparant les espèces. Il a rejoint récemment l’Institut des Maladies Neurodégénératives à Bordeaux et continue à travailler avec l’Institut du cerveau et de la moelle épinière à Paris. Il est médaille de bronze du CNRS et lauréat d’un contrat prestigieux de l’European Research Council. Il fait partager à binaire sa passion pour les neurosciences. Cet article est publié en collaboration avec The Conversation.
Michel Thiebaut de Schotten © CNRS/Délégation PMA

B – Tu peux nous parler un peu de ton parcours ?

MT – Je viens de la psychologie. J’ai choisi de faire un doctorat en neuroscience à la Salpêtrière (Université Pierre et Marie Curie) en 2007. Puis j’ai fait un post-doc à Londres sur la cartographie des réseaux cérébraux. Je suis depuis 2012 au CNRS. Nous utilisons beaucoup l’imagerie numérique. Nous faisons aussi un peu d’analyse postmortem pour vérifier que ce que nous avons vu dans les images correspond à une réalité.

 

B – Il nous faudrait partir un peu de la base. Qu’est-ce que c’est l’imagerie du cerveau pour les neurosciences ?

MT – À l’aide de l’Imagerie par résonance magnétique, on peut étudier soit la forme et le volume des organes (IRM anatomique), soit ce qui se passe dans le cerveau quand on réalise certaines activités mentales (IRM fonctionnelle). À partir des données d’IRM, on peut dessiner les réseaux du cerveau humain. Les axones des neurones sont des petits câbles de 1 à 5 micromètres, avec autour une gaine de myéline pour que l’électricité ne se perde pas, ils se regroupent en grand faisceaux de plusieurs milliers d’axones (Figure 1). C’est ce qui construit dans le cerveau des autoroutes de l’information. On peut faire une analogie avec un réseau informatique : les neurones sont les processeurs tandis que les axones des neurones forment les connexions.

Fig. 1 Les autoroutes du cerveau. Exemple de connexions cérébrales liant les régions de l’avant du cerveau avec celles de l’arrière du cerveau. @ Michel Thiebaut de Schotten

B – Et ces connexions sont importantes ?

MT – Super importantes ! Un de mes premiers travaux a été de réaliser un atlas des connexions cérébrales afin de savoir quelles structures étaient reliées entre elles par ces autoroutes. En effet, pour chaque traitement cognitif, plusieurs régions doivent fonctionner en collaboration et s’échanger des informations (exactement comme différents processeurs dans nos ordinateurs). On voit aussi l’importance des connexions cérébrales quand certaines sont rompues suite à une maladie, un AVC, un accident. Cela conduit à des incapacités parfois très lourdes pour la personne.

On estime que la vitesse de transmission de l’information dans ces réseaux est comprise entre 300 et 350 km/h ; la même que celle du TGV qui me transporte de Bordeaux à Paris mais bien loin de la vitesse de transmission de l’information dans une fibre optique. Heureusement, les distances sont petites.

B – Ça  a l’air un peu magique. Comment est-ce qu’on met en évidence les connexions entre des régions du cerveau ?

MT – Tout d’abord il faut préciser qu’on doit faire des mesures sur plusieurs personnes car, même si nos cerveaux possèdent des similarités, il existe des différences notables entre individus. Il faut faire une moyenne des résultats obtenus pour chaque sujet pour obtenir une cartographie en moyenne.

L’IRM est en mesure de détecter les mouvements de particules d’eau et grâce à la myéline autour des axones qui joue le rôle de l’isolant d’un fil électrique, les mouvements de particules d’eau sont contraints dans la direction de l’axone. Ainsi en suivant cette direction on peut reconstruire les grandes connexions cérébrales. On obtient alors une carte des connexions qui ressemble à un plat de nouilles. Imaginez qu’à un millimètre de résolution, on détecte environ 1 million de connexions cérébrales qui sont repliées sur elles-mêmes dans un volume d’environ 1,5 litre ; c’est très dense !

Il faut donc ensuite démêler ces connexions pour pouvoir les analyser finement. Au début, on partait des atlas anatomiques dessinés au 19e siècle et on essayait de reconnaître (d’apparier) les réseaux détectés avec les structures connues. Puis, on a essayé d’obtenir ces connexions en les extrayant manuellement à l’aide de requêtes comme « afficher les connexions qui relient les zones A et B sans passer par la zone C ». Aujourd’hui, on utilise des algorithmes d’extraction automatique qui détectent des composantes principales (des tendances) pour construire des faisceaux de connexion. Ces systèmes s’inscrivent dans ce qui s’appelle les neurosciences computationnelles.

Le cerveau : neuroscience et numérique © Saint-Oma

B – Ces réseaux ne sont pas rigides. Ils évoluent dans le temps.

MT – Oui. Un bébé naît avec beaucoup plus de connexions que nécessaire. Puis, pendant toute l’adolescence, ça fait un peu peur, on perd des connexions en masse ; on avance le chiffre de 300 000 connexions perdues par seconde. Mais dans la même période, on spécialise et on renforce celles qui nous sont utiles ; leur utilisation augmente le diamètre et donc le débit de la connexion.

On considère que le cerveau atteint sa maturité autour de 20 ans ; après, il est plus difficile de changer notre réseau de connexions, on se contente d’ajuster le « câblage ». Il est donc fondamental d’acquérir de nombreux apprentissages dans sa jeunesse afin d’arriver au plus haut potentiel cérébral au moment où commence le déclin cognitif.

Il est aussi clairement démontré que l’activité cérébrale aide à mieux vieillir. Un neurone qui ne reçoit pas d’information via ses connexions avec d’autres neurones réduit sa taille et peut finir par mourir. On peut faire une analogie avec les muscles qui s’atrophient s’ils ne sont pas sollicités. En utilisant son cerveau, on développe sa plasticité.

Enfin, si à la suite d’un traumatisme, la voie directe entre deux régions du cerveau est endommagée, le cerveau s’adaptera progressivement. L’information prendra un autre chemin, moins direct, même à l’âge adulte. Mais la transmission d’information sera souvent plus lente et plus limitée.

B – Est-ce que nous avons tous des cerveaux différents ? De naissance ? Parce que nous les faisons évoluer différemment ?

MT – On observe une grande variabilité entre les cerveaux. Leurs anatomies présentent de fortes différences. Leurs fonctionnements aussi. On travaille pour mieux comprendre la part de l’inné et de l’acquis dans ces différences. On a comparé les cerveaux de chefs cuisiniers et de pilotes de F1. On a aussi analysé les cerveaux d’individus avant et après avoir développé une grande expertise dans un domaine comme le jonglage ou le jeu vidéo. On avance mais on ignore encore presque tout dans ce domaine.

B – Tu peux nous parler un peu des sciences que vous utilisez ?

MT – Nous utilisons beaucoup de statistiques pour modéliser les propriétés de régions du cerveau. Nous utilisons aussi l’apprentissage automatique pour comprendre quelque chose aux masses de données que nous récoltons. Comme dans d’autres sciences, il s’agit de diminuer les dimensions de nos données pour pouvoir explorer la structure de la nature.

Plus récemment, nous avons commencé à utiliser des réseaux de neurones profonds. D’un point de vue médical, cela nous pose des problèmes. Nous voulons comprendre et une proposition de diagnostic non étayé ne nous apprend pas grand-chose et pose des problèmes d’éthique fondamentaux.

B – Est-ce que l’utilisation de ce genre de techniques affaiblit le caractère scientifique de vos travaux ?

MT – Il y a bien sûr un risque si on fait n’importe quoi. Le cerveau, c’est un machin hyper compliqué et on ne s’en sortira pas sans l’aide de machines et d’intelligence artificielle : certains fonctionnements sont beaucoup trop complexes pour être explicitement détectés et compris par les neuroscientifiques. Mais il ne faut surtout pas se contenter de prendre un superbe algorithme et de le faire calculer sur une grande masse de données. Si les données ne sont pas bonnes, le résultat ne veut sans doute rien dire. Ce genre de comportement n’est pas scientifique.

B – On a surtout parlé des humains. Mais les animaux ont aussi des cerveaux ? Les singes, par exemple, ont-ils des cerveaux très différents de ceux des humains ?

MT – Je vous ai parlé de la très grande variabilité du cerveau entre les individus. On a cru pendant un temps que les cerveaux des singes ne présentaient pas une telle variabilité. Pour vérifier cela, on est parti d’un modèle de déformation. Et en réalité non, selon les régions, la variabilité est relativement comparable chez le singe et chez l’humain. Ce qui est passionnant c’est qu’on s’aperçoit que les régions qui présentent plus de variabilité chez l’humain sont des régions comme celles du langage ou de la sociabilité alors que c’est la gestion de l’espace pour les singes. Pour des régions comme celles de la vision qui sont apparues plus tôt dans l’évolution des espèces, le singe et l’humain présentent des variabilités semblables et plus faibles.

Fig.2  L’évolution du cerveau. Comparer les connexions cérébrales entre les espèces nous permet de mieux comprendre les mécanismes sous-jacents à l’évolution des espèces. @ Michel Thiebaut de Schotten

B – Tu vois comment faire avancer plus vite la recherche ?

Il faudrait que les chercheurs apprennent à travailler moins en compétition et beaucoup plus en collaboration y compris au niveau international car la complexité du problème est telle qu’il serait illusoire d’imaginer qu’une équipe seule parvienne à le résoudre. Avec l’open data et l’open science, on progresse. Certains freinent des deux pieds, il faut qu’ils comprennent que c’est la condition pour réussir. Il faut par exemple transformer la plateforme de diffusion des résultats en neurosciences, lancer des revues sur BioRxiv, l’archive de dépôt de preprints dédiée aux sciences biologiques.

B – On a quand même l’impression, vu de l’extérieur, que ton domaine a avancé sur l’observation mais peu sur l’action. Nous comprenons mieux le fonctionnement du cerveau. Mais peut-on espérer réparer un jour les cerveaux qui présentent des problèmes ?

MT – Vous avez raison. On voit arriver des masses d’articles explicatifs mais quand on arrive aux applications, il n’y a presque plus personne. Si une connexion cérébrale est coupée, ça ne fonctionne plus ; que faire ? La solution peut sembler simple : reconstruire des connexions par exemple avec un traitement médicamenteux. Sauf qu’on ne sait pas le faire.

Dans un tel contexte, il est indispensable de prendre des risques, ce qui pour un scientifique signifie ne pas publier d’articles présentant des résultats positifs pendant « un certain temps ». En France, nous avons, encore pour l’instant, une grande chance, celle d’offrir à des chercheurs la stabilité de leur poste, ce qui nous permet de mener des projets ambitieux et nous autorise à prendre des risques sur du plus long terme. Ce n’est pas le cas dans la plupart des autres pays.

On répare bien le cœur pourquoi ne pas espérer un jour faire de même pour le cerveau ? C’est un énorme défi et c’est celui de ma vie scientifique !

Serge Abiteboul (Inria, ENS Paris) et Pascal Guitton (Inria, Université de Bordeaux)

@MichelTdS

Il y a 50 ans : back in the USSR

Les logiciels que nous utilisons viennent très souvent des États-Unis. C’est là-bas que l’informatique s’est épanouie, le reste du monde un peu à la traine pour un temps. Pour ne pas prendre de retard, l’URSS s’est lancée dans une  entreprise de piratage informatique d’un niveau exceptionnel dans les années 60’s. C’est l’histoire que nous raconte Pierre Mounier-Kuhn. Serge Abiteboul

Fin 1969, à l’initiative des autorités soviétiques, la plupart des pays du bloc socialiste européen ont mis en œuvre un vaste projet : réaliser ensemble une gamme unifiée d’ordinateurs compatibles, en copiant les IBM/360 qui dominaient alors le marché occidental. Cette gamme EC fut laborieusement mise en chantier, subissant des retards de mise au point similaires à ceux des constructeurs occidentaux quelques années plus tôt[1]. Cependant, avec ses défauts, la gamme EC allait finalement déboucher sur deux générations d’ordinateurs qui équipèrent les pays du bloc soviétique, constituant l’un des plus grands développements informatiques multinationaux de l’époque. C’est aussi, en un sens, la plus grande opération de piraterie de l’histoire de l’informatique.

Des ordinateurs sous tensions

Les débuts de l’informatique en URSS avaient subi de fortes tensions. D’un côté, des ingénieurs et des scientifiques de grand talent s’intéressaient à l’automation, aux calculateurs électroniques et à la théorie des algorithmes, répondant aux besoins d’un complexe militaro-industriel engagé à fond dans la course à l’arme nucléaire et à la conquête spatiale. De plus, l’économie socialiste planifiée s’accommodait bien des grands systèmes d’information centralisés comme les informaticiens les concevaient à l’époque.

En revanche, jusqu’au milieu des années 1950, la politique idéologique du parti communiste proscrivait les « sciences bourgeoises », la cybernétique tout comme la génétique : un chercheur qui s’y référait risquait le camp de concentration ! D’autre part, la planification entravait l’innovation et la mobilité des investissements vers une technologie imprévue mais prometteuse. Et l’absence de marché ne favorisait pas la diffusion massive d’ordinateurs, seule capable de justifier la mise en production de composants nouveaux. D’où un retard technique permanent, à côté d’une grande créativité en matière d’architectures et de mathématiques appliquées.

Le premier ordinateur d’Europe continentale fut pourtant bel et bien construit en URSS. Dès 1948, l’ingénieur soviétique Sergueï Alexeïevitch Lebedev (1902-1974) s’était attaqué à la construction d’un calculateur électronique à programme enregistré. Malgré un manque de soutien des autorités et avec un accès parcellaire aux informations sur les progrès effectués aux États-Unis et en Europe occidentale, il mit en service sa première machine, MESM (petit calculateur électronique), fin 1951 à Kiev (Ukraine). Ce prototype contenait 6 000 tubes à vide – ce qui n’était pas si « petit » – et pouvait effectuer environ 50 instructions par seconde. Des mathématiciens de toute l’URSS firent le voyage à Kiev pour l’utiliser – voire pour s’en inspirer. Ses principales applications concernaient la balistique et les fusées, ainsi que le problème qui préoccupait initialement Lebedev, le calcul de lignes de transmission téléphoniques. Lebedev s’installe bientôt à Moscou, où il dirige la conception d’une longue lignée d’ordinateurs puissants, les BESM sous l’égide de l’Académie des Sciences.

En concurrence avec Lebedev, une équipe de l’Institut d’électrotechnique de l’Académie des Sciences conçoit de petits ordinateurs ‘M’. Des variantes sont réalisées à la fin des années 1950 dans divers centres de recherche de pays satellites ou annexés : Hongrie, Pologne, Arménie, Biélorussie, ainsi qu’en Chine. Un laboratoire dépendant du Ministère de la Mécanique construit Strela (flèche), prototype d’une première série d’ordinateurs soviétiques ; les mémoires sont à tubes cathodiques, comme dans le Mk1 de l’université de Manchester[2]. D’autres séries d’ordinateurs (Ural, etc.) seront développées jusqu’en 1968 dans divers laboratoires de recherche publique.

L’une des architectures les plus originales est le calculateur en base ternaire, concept imaginé dès le XIXe siècle par l’Anglais Fowler, redécouvert et développé à l’université de Moscou par l’équipe de N.P. Brusentsov. Son ordinateur Setun entre en service en 1958 et démontre ses avantages : la logique ternaire (oui / non / incertain), inspirée d’Aristote, correspond bien à la pensée humaine et facilite la programmation. Du point de vue électronique, le système ternaire permet de traiter plus d’informations que le binaire, donc réduit le nombre de composants et par conséquent la consommation électrique. Réalisé en technologie à noyaux magnétiques, cet ordinateur petit et fiable entre en service en 1958 et sera construit à une cinquantaine d’exemplaires.

Vers 1960, l’existence d’ordinateurs de plus en plus nombreux dans les usines et les administrations inspire même au jeune colonel Kitov, passionné de cybernétique qui dirige un centre de calcul militaire, l’idée de les interconnecter pour constituer un réseau de données à l’échelle de l’URSS. Ce système permettrait, à travers un tableau de bord électronique, de connaître et de piloter presque en temps réel l’économie de l’Union, en optimisant le processus de planification centralisée. Le mathématicien Viktor Glushkov, fondateur de l’Institut de Cybernétique de Kiev, imagine dans le même sens un vaste plan national d’informatisation destiné à rendre l’économie plus efficace. Ce projet rencontre une préoccupation émergente des économistes soviétiques, qui voient dans l’ordinateur un moyen de fixer les prix rationnellement en se substituant au marché par des simulations. Il est toutefois mis au panier par la direction du Parti Communiste, et son auteur relégué à des postes où il ne sera plus tenté de suggérer que des machines pourraient être plus rationnelles que les dirigeants politiques. Si la Cybernétique a été réhabilitée sous Khrouchtchev, c’est comme pensée technique, mais certainement pas comme pensée socio-politique susceptible de concurrencer le marxisme. Plus concrètement, l’informatisation de l’économie risquerait de faire apparaître des écarts embarrassants entre les statistiques officielles et les données réelles…

 

Fig. 1. L’ordinateur soviétique BESM-6 (1965). Puissance : 1 MIPS (crédit photo: Archives Boris Malynovsky)

Remédier à la sous-informatisation

Au milieu des années 1960 les autorités prennent conscience d’un déficit d’informatisation, par comparaison avec le monde capitaliste que l’URSS s’acharne à « rattraper » : à population équivalente, l’URSS a dix fois moins d’ordinateurs que les États-Unis. Si les savants des pays socialistes ont développé de bons calculateurs scientifiques ou militaires, le gouvernement soviétique s’inquiète du retard en systèmes de gestion, indispensables à une économie planifiée. Par ailleurs l’industrialisation, le transfert des expériences de laboratoire aux fabricants de matériels est difficile. Ainsi le BESM-6, machine pipeline très performante (10 MHz, 1 MFlops) développée à l’Institut de mécanique de précision et de calcul électronique de Moscou en 1965, n’est mis en production qu’en 1968 – il totalisera 355 exemplaires livrés jusqu’en 1987.

La situation du software est encore pire que celle du hardware : les constructeurs livrent généralement les ordinateurs « nus », à charge pour les clients de développer leurs logiciels. Ça ne pose guère de difficultés pour les utilisateurs scientifiques, qui dans le monde entier sont habitués à concevoir leurs applications, voire leurs systèmes d’exploitation. Mais cette pratique est rédhibitoire dans les administrations et les entreprises. Or il n’existe pratiquement aucune industrie du logiciel dans les pays socialistes, alors qu’elle a éclot en Occident dès les années 1950. Et la diversité des modèles d’ordinateurs incompatibles découragerait toute tentative de développer des produits logiciels standard.

Dans la seconde moitié des années 1960, les autorités soviétiques cherchent à remédier à cette situation. Elles envisagent trois solutions :

  • Confier à leurs savants le soin de développer une famille d’ordinateurs et de périphériques compatibles, comme celle qu’IBM a annoncée en avril 1964, la gamme IBM System/360. Mais une première tentative en ce sens a déjà été faite avec le lancement d’une série « Ural » de trois modèles : leur compatibilité laisse autant à désirer que leur fiabilité et, avec environ 400 exemplaires produits, ils restent très en-dessous de ce qui serait nécessaire.
  • Acheter une licence d’un des constructeurs ouest-européens, notamment Siemens ou ICL, qui eux-mêmes dérivent leurs ordinateurs de la série RCA Spectra, elle-même réplique compatible de la gamme IBM/360 utilisant des circuits intégrés plus avancés. C’est ce que font d’ailleurs les Polonais avec leur série Odra sous licence britannique ICL. L’avantage de l’acquisition d’une licence est qu’elle donne accès légalement à l’ensemble des technologies et du software du bailleur.
  • Copier la gamme IBM System/360 en se passant de licence. C’est faisable car l’essentiel de la technologie et des codes sources sont alors facilement accessibles. Les services de renseignement soviétiques ont vraisemblablement fait valoir qu’ils pourraient obtenir ce qui n’était pas en accès libre. L’avantage est qu’une fois les machines construites, on pourra profiter de la masse de software – systèmes d’exploitation et applications – disponible gratuitement. Pour parler crûment, l’URSS imagine ainsi la plus grande opération de piraterie de l’histoire de l’informatique (IBM commencera à facturer ses logiciels à partir de 1970 en annonçant l’unbundling, le dégroupage).

Une longue suite de délibérations conduit les autorités soviétiques à choisir la troisième option, à abandonner les développements originaux d’ordinateurs de leurs centres de recherche – sauf les super-calculateurs – et à définir un « Système Unifié » copié sur les IBM/360 : la gamme (ryad) EC. Cela sans trop se préoccuper des droits de propriété industrielle.

L’historiographie de l’informatique dans l’ex-URSS reflète le choc qu’a entraîné cette décision[3] : la plupart des mémorialistes sont des scientifiques qui ont participé aux aventures technologiques des BESM, Setun et autres Ural, et qui en détaillent fièrement les innovations au fil de leurs publications ; ils profitent de la liberté de parole conquise depuis 1989 pour dénoncer amèrement l’abandon des développements nationaux, par des politiciens ignorants, au profit de machines américaines. 1969, année noire pour la créativité informatique russe. Ce qui est advenu ensuite, l’histoire de la ryad EC, reste donc dans le brouillard historiographique où se morfondent les âmes des ordinateurs maudits, not invented here.

C’est pourtant une histoire bien intéressante, à la fois du point de vue de la gestion d’un grand projet technique et du point de vue des relations internationales – des relations Est-Ouest comme des relations au sein du bloc soviétique. Elle reste à écrire en grande partie. Ce qui suit résume ce que l’on sait par diverses publications occidentales ou russes, et le travail préparatoire d’un historien des sciences hongrois, Máté Szabó, qui entreprend d’y consacrer sa thèse.

Fig. 2 Ordinateur Soviétique BESM-6, 1965. Crédit photos : Vera Bigdan, archives Boris Malynovsky

Informaticiens de tous les pays, unissez-vous !

En janvier 1968, Kossyguine, président du conseil des ministres d’URSS, invite les « pays frères » membres du Comecon à participer au projet[4]. Il faut encore près de deux ans de pourparlers avant que la plupart des pays satellites acceptent officiellement, en décembre 1969, de coopérer avec Moscou qui a réparti la réalisation de ces clones compatibles en fonction des aptitudes de ces pays.

Ceux-ci ont en commun deux motivations. Ils ne parviennent pas à répondre à la demande de leurs propres organisations en matière d’ordinateurs, les machines occidentales étant souvent trop chères pour leurs économies. Et l’URSS leur promet un soutien financier conséquent s’ils participent.

Derrière l’enthousiasme de façade, leurs attitudes varient en fonction de leurs intérêts, de leurs ressources et de leurs relations avec l’URSS. L’Allemagne de l’Est adhère d’emblée au projet : d’une part elle dispose de compétences sérieuses en informatique, qui lui assurent d’être chargée de responsabilités importantes dans le projet, juste derrière l’URSS qui s’attribue évidemment le développement des plus gros modèles ; d’autre part, la RDA possède déjà quelques exemplaires d’IBM/360 acquis plus ou moins officiellement via l’Allemagne de l’Ouest, ce qui facilitera le retro-engineering. La Bulgarie adhère aussi sans réserve, mais pour des raisons opposées : ce petit pays agricole a peu de compétences en la matière et aura tout à gagner à participer au projet.

La Pologne est moins enthousiaste, car elle produit déjà une gamme d’ordinateurs sous licence britannique ICL. La Tchécoslovaquie, encore sous le coup de la répression du Printemps de Prague, garde ses distances vis-à-vis du « grand frère », et a d’ailleurs commencé à produire sous licence une ligne d’ordinateurs conçus à Paris, chez Bull, donc incompatibles avec ceux d’IBM. La Hongrie s’est, elle aussi, lancée dans la production de machines conçues dans les pays capitalistes : des mini-ordinateurs copiés sur le PDP-8 de Digital Equipment, ou construit sous licence française CII. La Roumanie de Ceaucescu reste hors jeu, voulant marquer son autonomie et ayant passé un accord avec la France pour construire des ordinateurs de gestion CII. Cuba est inclus pour la forme, plutôt comme un futur client privilégié que comme un contributeur.

La gamme EC est ensuite laborieusement mise en chantier, subissant des retards de mise au point et de production qui rappellent ceux des constructeurs occidentaux quelques années plus tôt[5]. En décidant de cloner les machines IBM, les dirigeants soviétiques espéraient gagner du temps de développement, mais l’expérience démontre qu’il n’en est rien : le retard sur l’Occident ne sera pas comblé.

En mai 1973, date de l’annonce commerciale officielle prévue de longue date dans le plan quinquennal, la plupart des ordinateurs de la gamme sont, soit encore loin de la mise au point, soit non compatibles car issus des constructions sous licences britanniques ou françaises. L’Allemagne de l’Est présente triomphalement un ordinateur clignotant de tous ses voyants, tandis que les Soviétiques ne savent pas encore quand leur haut de gamme EC-1060 sera terminé. Leur modèle moyen est en revanche entré en production. Beaucoup de périphériques laissent à désirer. L’industrie des composants est loin de fournir des semi-conducteurs aussi performants qu’en Europe occidentale et en Amérique, où le Cocom contrôle sévèrement les transferts technologiques qui pourraient renforcer les capacités militaires soviétiques.

Ce qui est le moins transféré, ce sont les soft skills. L’adoption des machines IBM ne s’accompagne pas de l’adoption des méthodes commerciales IBM. Les constructeurs en Europe de l’Est se contentent d’installer les ordinateurs chez les clients, et repartent sans trop se soucier de la maintenance : ils ont rempli leur part d’objectifs du Plan. La programmation relève entièrement des clients, qui s’associent en clubs d’utilisateurs pour partager expériences, techniques de codage, voire logiciels. Si un effort sérieux est mené pour développer des systèmes d’exploitation, indépendamment d’IBM, aucune industrie significative du software n’en émerge.

Avec ses défauts, la gamme EC va finalement déboucher sur deux générations d’ordinateurs équipant les pays du bloc soviétique, assurant à leur secteur informatique une croissance annuelle de 15 à 20 %, du même ordre qu’en Occident. Dirigée par une agence intergouvernementale ad hoc, l’opération constitue l’un des plus grands développements informatiques multinationaux de l’époque, comparable à ce que mènent en Occident Honeywell ou Unidata à la même époque. Elle mobilise beaucoup plus de monde : de l’ordre de 20 000 scientifiques et ingénieurs, 300 000 techniciens et ouvriers dans 70 établissements de R&D et de production. Par exception, ce n’est pas un projet soviétique imposé aux subordonnés. Comme les pays satellites l’espéraient, l’URSS leur distribue des moyens financiers ou techniques à la hauteur des responsabilités qui leur sont déléguées, pour étoffer leurs laboratoires et leurs entreprises. Chaque pays est financièrement responsable de sa part du projet. Mais comme l’œuvre commune est une priorité politique, les subsides provenant d’URSS ne tarissent pas. De plus elle favorise la coopération sous forme de rencontres, de voyages d’études, de tout ce qui permet une meilleure intégration. L’industrie informatique de ces pays y gagne un vaste marché commun et une expérience professionnelle durable qui se maintiendra après la chute du communisme.

C’est d’ailleurs le seul projet collaboratif d’envergure mené par les « pays de l’Est ». Autant qu’on le sache il n’a pratiquement pas eu de volet militaire : les calculateurs spéciaux destinés à la Défense, comme au Spatial, ont continué à être conçus dans des laboratoires soviétiques bien protégés. Utilisation courante de technologies venus du monde capitaliste, mais souci permanent de souveraineté numérique : peut-être une origine lointaine de la tendance russe actuelle à constituer un internet autonome ?

Pierre Mounier-Kuhn
, CNRS & Université Paris-Sorbonne
@MounierKuhn

Fig. 3. Ordinateur soviétique ES-1030 au service du recensement, à Moscou (1979).
(crédit photo: Archives Boris Malynovsky)

Fig. 4. Ordinateur moyen soviétique ES-1035 dans un centre de traitement en URSS (vers 1983).
La ressemblance avec les mainframes IBM est frappante. Mais seul un esprit malveillant imaginerait un parallèle entre le portrait de Youri Andropov, accroché au-dessus de la console, et celui du président-fondateur d’IBM, Watson, omniprésent jadis dans les établissements de sa firme. (crédit photo: Máté Szabó)

Pour aller plus loin :

[1] W. B. Holland, « Unified System Compendium », Soviet Cybernetics Review, May-June 1974, vol. 4, no 3, p. 2–58.

[2] P. Mounier-Kuhn, « 70e anniversaire de l’ordinateur : La naissance du “numérique” », Le Monde-Binaire, 16/07/2018, publié simultanément dans The Conversation France.

[3] Sur les discussions soviétiques autour du choix de la gamme EC, voir notamment B. Malinovsky et alii, Pioneers of Soviet Computing, Electronic Book, 2010, ch. 6. Pour un historique d’ensemble, voir aussi Y. Logé, « Les ordinateurs soviétiques », Revue d’études comparatives Est-Ouest, 1987, vol. 18, no 4, p. 53–75. Et Victor V. Przhijalkovskiy, « Historic Review on the ES Computers Family » (trad. Alexander Nitussov), http://www.computer-museum.ru/articles/?article=904.

[4] Comecon : Conseil d’assistance économique mutuelle, rassemblant l’URSS et ses pays satellites.

[5] W. B. Holland, « Unified System Compendium », Soviet Cybernetics Review, May-June 1974, vol. 4, no 3, p. 2–3.

[6] Il en va de même pour les petits calculateurs programmables, produits et diffusés en masse par l’industrie électronique soviétique, et qui ont fait l’objet d’une véritable culture geek en URSS dans les années 1970 et 1980 (Ksénia Tatarchenko, « “The Man with a Micro-calculator”: Digital Modernity and Late Soviet Computing Practices », dans T. Haigh (dir.) Exploring the Early Digital. History of Computing. Springer, 2019, p. 179-200).

Le numérique pour apprendre le numérique ?

Présentée par le ministre de l’Éducation nationale comme une innovation majeure pour notre pays  [6], l’introduction de l’enseignement « Sciences numériques et technologie » (SNT) dès la classe de seconde est une des nouveautés de la dernière  rentrée scolaire. En attendant la mise en place prochaine du CAPES Informatique, la question de la formation des enseignant·e·s est cruciale. Et malheureusement une approche uniquement basée sur des formations classiques (cours en présentiel) ne suffit pas pour des raisons de nombre de personnes et de temps disponible. Aussi  des enseignant·e·s-chercheur·e·s ont imaginé pouvoir contribuer à les former en ligne [4] et un élan s’est créé. Nous aimerions partager avec vous cette aventure. Pascal Guitton et Thierry Viéville.

Ça y est, nos enfants vont enfin  commencer à maîtriser le numérique

Oui, il a fallu  beaucoup d’attentes et de tergiversations, mais notre pays a enfin enclenché depuis quelques années un mouvement pour enseigner l’informatique à nos enfants, afin de maîtriser et pas uniquement consommer le numérique. Rappelons juste les toutes dernières étapes :

  • 2012 : Un enseignement de spécialité d’Informatique et sciences du numérique (ISN) offre de manière optionnelle aux élèves de terminale de découvrir l’informatique à travers une démarche de projet.
  • 2015 : Un enseignement d’exploration d’Informatique et création numérique (ICN) pour les élèves volontaires de début de lycée là où c’est possible, s’initient de manière créative au numérique et à ses fondements [1].
  • 2019 : Suite à ces réussites, un enseignement en Sciences numériques et technologie  (SNT) se met en place en seconde pour toutes et tous.

Publié le 4 novembre 2018, le programme de ce dernier enseignement se compose de trois parties principales :  cf. le programme [2] et une analyse de la SIF [3].

  • S : donne une culture scientifique et technique de base en informatique, pour que, par exemple, la notion d’algorithme, le codage de l’information ou le fonctionnement des réseaux prennent du sens ;
  • N : offre à travers sept thématiques (les données, le Web, Internet, la photo numérique, les réseaux sociaux, les objets connectés, la géo-localisation) de comprendre comment ça marche, pour que la technologie prenne du sens, non sans aborder aussi les aspects sociétaux qui sont liés ;
  • T : propose de travailler sur des activités concrètes, de manipulation et de programmation d’objets numériques pour apprendre par le faire, en manipulant l’implémentation de ces notions.

Et les profs dans tout ça ?

Mais comme pour toute création d’enseignement, la question de la formation des futur·e·s enseignant·e·s est centrale : apprendre les bases, apprendre comment apprendre ces bases, fournir des ressources (définitions, explications), des exemples de mise de œuvre, et surtout mettre à disposition les outils pour les  échanges et partages entre elles et eux.

Depuis plus de cinq ans, des dizaines d’enseignant·e·s du secondaire en sciences fondamentales (maths, physique…) ou technologie et bien au-delà (sciences de la vie et de la terre, lettres, économie…) se sont initié·e·s à cette nouvelle discipline et ont commencé à l’enseigner au fil des étapes de la mise en place,  ielles se sont formé·e·s avec les enseignant·e·s-chercheur·e·s des universités et organismes de recherche, et forment aujourd’hui une vraie communauté professionnelle.

Des ressources aux formations en ligne 

©https://classcode.fr/snt une formation en ligne avec des ressources libres et gratuites et réutilisables.

Pour contribuer à développer ces enseignements dans de bonnes conditions, des communautés enseignant·e·s-chercheur·e·s se sont mobilisées de façon spontanée en plus de leurs missions initiales depuis plusieurs années. Cette mobilisation a pris des formes variées : lobbying amont auprès des décideurs politiques, participation à l’élaboration des programmes, rédaction de manuels, sans oublier bien entendu la question récurrente de la formation des professeur·e·s. Sur ce dernier point, le choix d’une mise à disposition en ligne et d’un accès gratuit à des ressources pédagogiques s’est vite imposé. En effet, on parle de plusieurs milliers de professeur·e·s à aider et organiser des cours en présentiel était hors de portée, tant pour des raisons d’emploi du temps que de financement des déplacements. Par ailleurs, les outils de type plate-forme en ligne offrent des capacités de mise en réseau et de dialogue entre participants sans équivalent avec des « modalités classiques ». Enfin, ces systèmes autorisent une gestion fine du temps consacré à l’apprentissage : disponible 24 h sur 24, ils autorisent un suivi à la carte en fonction des besoins pédagogiques et des disponibilités des enseignant·e·s.

C’est d’abord une plate-forme documentaire, regroupant des ressources baptisées « grains », qui fut développée en 2012 pour l’option ISN. Ces grains, aux formats divers (cours, articles, textes officiels, livres, ouvrages numériques, logiciels, références historiques ou culturelles…), permettent à l’enseignant·e de parfaire sa formation. Ces ressources sont gardées en archive avec un mécanisme de recherche avancée. Puis, en 2016, le projet Class´Code, grâce à un grand financement public, a permis de faire passer à l’échelle ces efforts divers. Fort de cette expérience, menée avec succès aux dires des acteurs de terrain, des services de type MOOC ont été développés, pour le primaire et le secondaire, pour l’option ICN puis pour l’enseignement SNT.

Se former de manière hybride tout en travaillant

Des professeur·e·s pionnier·re·s de l’initiation à l’informatique ©classcode.fr

Dans quelle mesure peut-on se former en ligne ? L’accès à la formation est gratuite, les ressources sont librement partageables, mais… la ressource rare et très coûteuse est le temps de l’apprenant·e. On constate que si le nombre d’inscrits à un MOOC est en croissance depuis leur apparition en 2011, le pourcentage de personnes allant jusqu’au bout de l’enseignement est assez faible (cf. encadré sur les MOOC).

Afin d’éviter cet écueil , nous avons abordé le problème autrement en rendant totalement modulaires ces formations en ligne : toutes les ressources sont réutilisables avec les élèves sans attendre que l’enseignant ait terminé de suivre tous les cours. Par ailleurs, ces formations en ligne étaient complétées de temps présentiels en collaboration avec les formations académiques auxquels participaient les enseignant·e·s-chercheur·e·s, qui restaient ensuite au contact, en ligne, pour continuer d’accompagner. Enfin les enseignant·e·s ont pris elles et eux-mêmes en main la création de ressources, coécrit les formations, et ont in fine construit une  communauté, à la fois à travers les plate-formes institutionnelles proposées par l’Éducation nationale et des initiatives tierces de ces collègues.

Du lycée à la citée : un besoin de formation citoyenne

Class´Code, formation ICN, une formation citoyenne aux fondements du numérique.

À ce jour, plus de 28 000 personnes se sont inscrites à la formation ICN [4]. Au-delà des  enseignant·e·s (34 % des inscrit.e.s parmi lesquel·le·s environ 30 % ne sont prédestiné·e·s à enseigner l’option ICN), cette formation très ouverte a touché des salarié·e·s d’une entreprise (14 %) ou de la fonction publique (10 %), des étudiant·e·s (14 %) et des personnes en recherche d’emploi (13 %). Ces chiffres peuvent s’expliquer par le déficit et donc le besoin de culture scientifique et technologique du numérique de notre société.

La formation SNT était plus spécifique, comme le détaille l’analyse publiée à ce sujet [4].  Plus de 18 000 inscrits après la rentrée (novembre 2019) où la grande majorité des inscrit·e·s appartient au monde de l’enseignement secondaire, et plus de 20 % (quatre fois plus que la moyenne usuelle) d’attestations délivrées, pour former ensuite nos enfants (il est important de rappeler que le nombre d’inscrits à un MOOC ne correspond pas au nombre de personnes ayant accédé, même partiellement, au cours. Environ 20 % à 50 % en moyenne regardent vraiment le contenu, et 1 à 5 % le finissent [5]).

Et qu’en est-il de nous qui n’avons pas la chance de passer par le lycée d’aujourd’hui, parce que en formation professionnelle ou déjà plus âgé·e·s ? Comme dans cette proposition d’université citoyenne [7], le besoin de formation aux fondements du numérique est probablement une nécessité, tout au long de la vie.

Les MOOCs

Ils offrent aux apprenant·e·s une série de contenus, le plus souvent architecturés autour de vidéos d’enseignant·e·s, accompagnés de transparents, ainsi que différentes modalités d’évaluation des connaissances (quizz, questionnaires, exercices…). Par ailleurs, et c’est un des points forts des MOOC, les apprenant·e·s peuvent dialoguer entre elles ou eux, et/ou avec les enseignant·e·s via des forums de discussion ouverts à tout le monde.

Apparus en 2011 à l’université de Stanford, ces systèmes d’enseignement à distance ont connu une croissance importante. Fin 2018, on dénombrait plus de 100 millions d’inscrits à près de 11 000 cours produits par 900 universités [8].

Décriés par les uns, encensés par les autres, il n’est aujourd’hui pas possible de les ignorer mais plutôt préférable de les utiliser de façon maîtrisée pour certains types d’enseignement. Parmi leurs principaux avantages, rappelons qu’ils sont accessibles en ligne à tout moment, ce qui ouvre l’accès à des connaissances pour des personnes qui ne sont pas (ou plus) insérées dans un cursus de formation ou bien qui souhaitent suivre des cours construits dans une ville ou un pays où ils ne résident pas. Par ailleurs, leur gratuité renforce la facilité de cet accès. Enfin, ces systèmes sont suffisamment souples pour accueillir différentes approches pédagogiques.

 

Conclusion

Pour apprendre à enseigner le numérique, les outils numériques sont vraiment utiles quand ils sont accompagnés, en aval, par des expert.e.s qui se mobilisent pour créer des ressources et, en amont, par des enseignant·e·s qui se mobilisent pour s’en emparer et les vivre collectivement.

Et si vous enseignez l’informatique aujourd’hui on continue de vous accompagner.

Pascal Guitton et Thierry Viéville.

Références :

[1] Programme ICN

[2] Programme SNT

[3] Analyse du programme SNT par la SIF

[4] Peut-on former des enseignants en un rien de temps ?

[5] By the numbers: MOOC in 2018, ClassCentral

[6] Science informatique et numérique : quelle est cette nouvelle discipline  » innovation majeure pour la France » selon Jean-Michel Blanquer ?

[7] Apprentissage de la pensée informatique : de la formation des enseignant.e.s à la formation de tou.te.s les citoyen.ne.s

[8] Mooc year in review 2018

De quelles façons l’intelligence artificielle se sert-elle des neurosciences ?

L’Intelligence Artificielle (IA) s’est construite sur une opposition entre connaissances et données. Les neurosciences ont fourni des éléments confortant cette vision mais ont aussi révélé que des propriétés importantes de notre cognition reposent sur des interdépendances fortes entre ces deux concepts. Cependant l’IA reste bloquée sur ses conceptions initiales et ne pourra plus participer à cette dynamique vertueuse tant qu’elle n’aura pas intégré cette vision différenciée. Frédéric Alexandre nous l’explique. Thierry Viéville.

IA symbolique et numérique

La quête pour l’IA s’est toujours faite sur la base d’une polarité entre deux approches exclusives, symbolique ou numérique. Cette polarité fut déclarée dès ses origines, avec certains de ses pères fondateurs comme J. von Neumann ou N. Wiener proposant de modéliser le cerveau et le calcul des neurones pour émuler une intelligence, et d’autres comme H. Newell ou J. McCarthy soulignant que, tout comme notre esprit, les ordinateurs manipulent des symboles et peuvent donc construire des représentations du monde et les manipulations caractérisques de l’intelligence. Cette dualité est illustrée par l’expression des frères Dreyfus « Making a Mind versus Modelling the Brain », dans un article (Dreyfus & Dreyfus, 1991) où ils expliquent que, par leur construction même, ces deux paradigmes de l’intelligence sont faits pour s’opposer : Le paradigme symbolique met l’accent sur la résolution de problèmes et utilise la logique en suivant une approche réductionniste et le paradigme numérique se focalise sur l’apprentissage et utilise les statistiques selon une approche holistique.

On connaît la suite de l’histoire avec, tour à tour, chaque approche écrasant l’autre à l’occasion du succès éclatant d’une technique particulière, suivi de désillusions entraînant ce que l’on appelle un hiver de l’IA. Aujourd’hui, l’IA a fait des progrès indéniables, mais nous subissons toujours cette dualité, même si le vocabulaire a un peu évolué et que l’on parle maintenant d’IA basée sur les connaissances (pour le web sémantique) ou sur les données (et les data sciences). Nous sommes actuellement sans conteste dans une période numérique où tout le monde n’a que le Deep Learning à la bouche, même si des voix commencent à s’élever pour prédire une chute proche si l’on n’est pas capable d’associer ces techniques numériques à une interprétabilité (Lipton, 2017), permettant transparence et explications, deux notions du monde des connaissances.

Sommes-nous encore partis pour un cycle, à toujours nous demander laquelle de ces deux approches finira par démontrer qu’elle était la bonne solution, ou saurons-nous sortir du cadre et trancher le nœud gordien ? C’est dans cette dernière perspective que je propose de revenir aux fondamentaux. Puisque les deux approches s’accordent au moins sur le fait qu’elles cherchent à reproduire nos fonctions cognitives supérieures, ne devrait-on pas commencer par se demander si notre cognition est symbolique ou numérique ?

Mémoires implicite et explicite dans le cerveau

A cette question, les Sciences Cognitives répondent d’abord « les deux » et soulignent (Squire, 2004) que notre mémoire à long terme est soit explicite soit implicite. D’une part nous pouvons nous souvenir de notre repas d’hier soir (mémoire épisodique) ou avoir la connaissance que le ciel est bleu (mémoire sémantique) ; d’autre part nous avons appris notre langue maternelle et nous pouvons apprendre à faire du vélo (mémoire procédurale). Nous savons que (et nous en sommes conscients, nous savons l’expliquer) ou nous savons faire (et nous pouvons en faire la démonstration, sans être capable de ramener cette connaissance au niveau conscient). On retrouve ici les principes décrits respectivement en IA par la manipulation explicite de connaissances ou implicite de données.

Les neurosciences ont identifié des circuits cérébraux correspondants, avec en particulier les boucles entre les ganglions de la base et le cortex plutôt impliquées dans la mémoire implicite, et l’hippocampe et ses relations avec l’ensemble du lobe temporal médial, essentiel pour la mémoire explicite. Les deux modes d’apprentissage sont à l’œuvre dans deux phénomènes : La consolidation et la formation des habitudes.

Les mécanismes de la consolidation

Ces mémoires complémentaires sont construites avec un apprentissage lent et procédural dans le cortex et la formation rapide d’associations arbitraires dans l’hippocampe (McClelland et al., 1995). Prenons un exemple : allant toujours faire mes achats dans le même supermarché, je vais former, après de nombreuses visites, une représentation de son parking, mais à chaque visite, je dois aussi me souvenir de l’endroit précis où j’ai laissé ma voiture. Les modèles computationnels permettent de mieux comprendre ce qui est à l’œuvre ici. Les modèles d’apprentissage procédural implicite, généralement en couches, montrent que des régularités sont extraites statistiquement, à partir de nombreux exemples dont les représentations doivent se recouvrir pour pouvoir généraliser. Mais si l’on souhaite apprendre ensuite des données avec d’autres régularités, on va observer l’oubli catastrophique des premières relations apprises.

Inversement, dans un modèle d’apprentissage explicite de cas particuliers, généralement avec des réseaux récurrents, on va privilégier le codage de ce qui est spécifique plutôt que de ce qui est régulier dans l’information (pour retrouver ma voiture, je ne dois pas généraliser sur plusieurs exemples mais me souvenir du cas précis). Cet apprentissage sera plus rapide, puisqu’on ne cherchera pas à se confronter à d’autres exemples mais à apprendre par cœur un cas particulier. Mais l’expérimentation avec ce type de modèles montre des risques d’interférence si on apprend trop d’exemples proches, ainsi qu’un coût élevé pour le stockage des informations (ce qui n’est pas le cas pour l’apprentissage implicite). Il est donc impératif de limiter le nombre d’exemples stockés dans l’hippocampe.

Des transferts de l’hippocampe vers le cortex (que l’on appelle consolidation, se produisant principalement lors des phases de sommeil) traitent les deux problèmes évoqués plus haut. D’une part, lorsque des cas particuliers proches sont stockés dans l’hippocampe, leurs points communs sont extraits et transférés dans le cortex. D’autre part, l’hippocampe, en renvoyant vers le cortex des cas particuliers, lui permet de s’entrainer de façon progressive, en alternant cas anciens et nouveaux et lui évite l’oubli catastrophique.

La région colorée en violet foncé est le cortex cérébral. brainmaps.org, CC BY-SA

Les mécanismes de la formation des habitudes

La prise de décision peut se faire selon deux modes, réflexif et réflectif (Dolan & Dayan, 2013), tel que proposé historiquement par les behavioristes pour qui le comportement émergeait implicitement d’un ensemble d’associations Stimulus-Réponse et par les cognitivistes qui imaginaient plutôt la construction de cartes cognitives où des représentations intermédiaires explicites étaient exploitées. Là aussi, les apprentissages implicite et explicite sont à l’œuvre. Pour prendre une décision, une représentation explicite du monde permettra de façon prospective d’anticiper les conséquences que pourraient avoir nos actions et de choisir la plus intéressante. Avec sa capacité à former rapidement des associations arbitraires, l’hippocampe semble massivement impliqué dans la construction de ces cartes cognitives explicites.

Ensuite, après avoir longuement utilisé cette approche dirigée par les buts, on peut se rendre compte, par une analyse rétrospective portant sur de nombreux cas, que dans telle situation la même action est toujours sélectionnée, et se former une association situation-action dans le cortex par apprentissage lent, sans se représenter explicitement le but qui motive ce choix. On appelle cela la formation des habitudes.

Mais que fait l’IA ?

La dualité implicite/explicite a conforté l’IA dans ses aspects numériques/symboliques ou basés sur les données et sur les connaissances. L’IA n’a cependant pas intégré un ensemble de résultats qui montrent que, au delà d’une simple dualité, les mémoires implicites et explicites interagissent subtilement pour former notre cognition.

Concernant la consolidation, l’hippocampe est en fait alimenté presque exclusivement par des représentations provenant du cortex, donc correspondant à l’état courant de la mémoire implicite, ce qui indique que ces deux mémoires sont interdépendantes et co-construites. Comment ces échanges se réalisent entre le cortex et l’hippocampe et comment ils évoluent mutuellement restent des mécanismes très peu décrits et très peu connus en neurosciences.

Concernant la formation des habitudes, cette automatisation de notre comportement n’est pas à sens unique et nous savons figer un comportement puis le réviser par une remise en cause explicite quand il n’est plus efficace puis le reprendre si besoin. Là aussi, ces mécanismes sont très peu compris en neurosciences.

La modélisation a été une source d’inspiration pour aider les neurosciences à formaliser et à décrire les mécanismes de traitement de l’information à l’œuvre dans notre cerveau. Pourtant, concernant ces modalités d’associations flexibles entre nos mémoires implicites et explicites, l’IA ne joue pas son rôle d’aiguillon pour aider les neurosciences à avancer sur ces questions, car elle reste bloquée sur cette dualité rigide et stérile entre données et connaissances, alors que les relations entre connaissances et données devraient être au cœur des préoccupations d’une IA soucieuse de résoudre ses points de blocage. Il est donc temps d’exposer au grand jour ce hiatus et de demander à l’IA de jouer son rôle d’inspiration.

Frédéric Alexandre, Directeur de Recherche Inria en Neurosc iences Computationnelles, Équipe Mnemosyne.


Cet article est publié dans le cadre de l’évènement « Le procès de l’IA », un projet Arts & Science de l’Université de Bordeaux, en partenariat avec Primesautier Théâtre,  et est repris de theconversation.com.

Réferences:
Dreyfus H.L., Dreyfus S.E. (1991) Making a Mind Versus Modelling the Brain: Artificial Intelligence Back at the Branchpoint. In: Negrotti M. (eds) Understanding the Artificial: On the Future Shape of Artificial Intelligence. Artificial Intelligence and Society. Springer, London.
Lipton, Z. C. (2017). The Mythos of Model Interpretability. http://arxiv.org/abs/1606.03490
Squire, L. R. (2004). Memory systems of the brain : a brief history and current perspective. Neurobiology of Learning and Memory, 82, 171–177.
McClelland, J. L., McNaughton, B. L., & O’Reilly, R. C. (1995). Why there are complementary learning systems in the hippocampus and neocortex: Insights from the successes and failures of connectionist models of learning and memory. Psychological Review, 102(3), 419–457.
Dolan, R. J., & Dayan, P. (2013). Goals and Habits in the Brain. Neuron, 80(2), 312–325. https://doi.org/10.1016/j.neuron.2013.09.007

Le testing algorithmique de la discrimination à l’embauche (2)

De nombreuses plateformes numériques mettent en contact employeurs et employés sur internet. Elles sont de plus en plus utilisées pour proposer des  emplois et par les chercheurs d’emploi. Sihem Amer-Yahia et Philippe Mulhem nous ont expliqué le concept du testing algorithmique dans un article précédent. Ils expliquent ici comment le testing algorithmique sert pour vérifier des discriminations possibles voire en détecter. Il s’agit de comprendre sa complémentarité avec un testing plus classique. Serge Abiteboul

Les plateformes numériques d’emploi utilisent des algorithmes pour l’appariement entre pourvoyeurs et demandeurs d’emploi. Ces plateformes se doivent de respecter les lois sur la discrimination à l’embauche (code du travail (article L 1132-1) et le code pénal (articles 225-1 à 225-4)). Dans le cas de la recherche d’emploi « classique » (c’est-à-dire hors de ces plateformes), des propositions de testing classique existent pour mesurer les potentielles discriminations. L’étude de la discrimination dans ces plateformes doit intégrer le fait qu’elles opèrent sur de grandes quantités de données (offres d’emploi et/ou profils de chercheurs d’emploi)  ;  nous proposons pour cela le testing algorithmique (voir l’article précédent sur Binaire). Contrairement au testing classique comme celui présenté par la DARES (Direction de l’animation de la recherche, des études et des statistiques), le testing algorithmique automatise la vérification du comportement discriminatoire d’un algorithme d’appariement entre les pourvoyeurs et les demandeurs d’emploi. Le testing algorithmique permet de manipuler rapidement de grandes quantités de données décrivant les demandeurs et pourvoyeurs d’emploi, ce qui est une opportunité pour tester plusieurs critères de discrimination.

Nous explorons ici les apports attendus du testing algorithmique au travers du traitement de deux variantes de questions-type en nous plaçant dans un contexte d’utilisation précis. Dans la première, il s’agit de vérifier une hypothèse de discrimination (ou de la quantifier), alors que la deuxième variante est davantage utilisée pour générer des hypothèses de discrimination. Comme illustration, nous considérons le travail de Jeanne Dupond chargée par une instance régulatrice européenne de tester les discriminations éventuelles pour une plateforme imaginaire d’offres d’emploi en ligne, appelée BestTaf. Jeanne utilise un outil de testing algorithmique.
Nous rapportons des résultats préliminaires obtenus sur la plateforme d’offres d’emploi TaskRabbit. Nos tests ont porté sur 5 300 demandes d’embauche dans plus de 50 villes américaines et quelques villes anglaises, sur 113 catégories d’emplois différentes.

Vérification d’hypothèses de discrimination

Dans un premier temps, Jeanne étudie si certaines discriminations déjà rencontrées dans d’autres études existent aussi sur BestTaf. Par exemple, elle veut vérifier deux hypothèses : la première selon laquelle les femmes sont plus discriminées que les hommes pour les postes de cadre dans la maintenance de machine-outil dans la région de Grenoble, la seconde selon laquelle les hommes entre 55 et 62 ans sont plus discriminés que les hommes entre 20 et 30 ans pour des postes de développeur informatique dans la région de Berlin. Le système de testing doit vérifier si les groupes de personnes sont traités de la même manière en comparant les classements des chercheurs d’emploi sur la plateforme.

Contrairement au testing classique qui repose typiquement sur quelques centaines d’utilisateurs, le testing algorithmique peut prendre en compte sans difficulté des milliers de personnes. Par exemple, la plateforme de recherche d’emploi TaskRabbit inclut plus de 140 000 demandeurs d’emploi. Le testing algorithmique peut ainsi être utilisé pour vérifier des hypothèses sur un très grand nombre de personnes. Il peut également être utilisé pour affiner les résultats suivant une dimension ou une autre. Par exemple, Jeanne pourra tester si les offres dans le quartier de Neuköln à Berlin sont moins discriminatoires que celles de Pankow à Berlin.

L’analyse des offres d’emploi de TaskRabbit a permis de montrer que l’origine ethnique est une source de discrimination à l’embauche aux États-Unis, tous emplois confondus. Une telle observation a déjà été faite par un testing classique réalisé en France sur le groupe CASINO. Plus précisément, nous avons trouvé que les personnes d’origine asiatique étaient plus discriminées que les personnes caucasiennes.

Génération d’hypothèses de discrimination

Dans un second temps, Jeanne se pose des questions plus générales, pour lesquelles elle n’a pas toutes les « cartes en main ». Elle veut par exemple obtenir les groupes de personnes (femmes dans certaines tranches d’âge, hommes) par rapport auxquels un groupe de référence, par exemple les femmes entre 40 et 50 ans, sont les plus discriminées à Paris. Dans ce cas, le testing algorithmique doit explorer les groupes qu’il va comparer au groupe de référence. C’est-à-dire, qu’il peut générer des hypothèses qui n’ont pas été exprimées par Jeanne. Cela permet alors à Jeanne d’identifier rapidement des comportements non-attendus afin, dans un second temps, de les explorer plus finement par un autre testing algorithmique ou même par un testing classique.

Par exemple, sur les données de TaskRabbit, notre testing algorithmique a trouvé que les emplois les plus discriminés sont les travaux de bricolage et les postes dans l’événementiel, et les moins discriminés sont l’aide à l’assemblage de meubles, et l’aide pour les courses. Nous avons également observé que, pour la seconde question de génération d’hypothèses portant sur des villes, pour tout travail confondu, les villes de Birmingham au Royaume Uni et d’Oklahoma City aux États-Unis sont les plus discriminatoires, alors que San Francisco et Chicago le sont le moins.

Les testings algorithmique et testing sont complémentaires selon plusieurs dimensions :

  • Quantité. Habituellement, le testing classique étudie les offres pour quelques dizaines ou centaines de personnes. Le testing algorithmique est lui capable de traiter rapidement des milliers d’emplois, de personnes, de zones géographiques. Le testing algorithmique peut venir étayer des résultats du testing classique sur un grand nombre de données (vérification d’hypothèses). Avec la génération d’hypothèse, il peut aussi réduire le coût de déploiement du testing classique. De son côté, le testing algorithmique peut aussi être utilisé pour développer une meilleure « intuition » des discriminations et réduire le nombre de tests à vérifier par le second.
  • Dynamicité. Le testing algorithmique a la capacité de proposer l’exploration interactive de discriminations potentielles, en jouant sur la granularité des paramètres présents (âges, localisation, catégorie d’emploi, …). Il peut aussi, grâce à la vitesse de ses calculs, permettre d’explorer les évolutions des discriminations dans le temps, en se basant sur des acquisitions de données périodiques. Un tel atout permet, à la suite d’un testing classique ou algorithmique, de vérifier rapidement si une discrimination perdure.
  • Démocratisation. Les testing classiques pour les offres d’emploi sont l’œuvre d’experts, qu’ils soient réalisés à l’insu d’une entreprise ou parce que cette dernière les sollicite. Dans tous les cas, les personnes qui cherchent ou qui pourvoient un emploi n’y sont pas associées. Le testing algorithmique peut complémenter le testing classique en permettant à davantage d’individus d’être acteurs dans la mise au jour de discriminations dont ils font potentiellement l’objet, en offrant la possibilité de transmettre directement des alertes à la plateforme. Cette démocratisation, pour être réellement effective, devra passer par des algorithmes de testing algorithmique transparents. De tels algorithmes devront être capables d’expliquer leurs résultats de manière claire, tout en conservant un niveau de détail garantissant la protection des données personnelles.

Les limites du testing algorithmique

Les questions à résoudre pour le testing algorithmique sont nombreuses. Elles sont d‘abord philosophiques : peut-on se satisfaire de laisser un algorithme, celui de détection de discrimination, évaluer un autre algorithme, celui de la plateforme ? Quels sont les biais des données et comment les intégrer ? Peut-on accepter de « rater » des discriminations réelles et les fausses alarmes ? Comment garantir la protection des données personnelles ? Elles sont également d’ordre opérationnel : la définition de critères pour calculer les discriminations, des formules de calcul des discriminations, le développement d’une logique algorithmique permettant de détecter les angles d’analyse (groupes, régions, type de travail, période de temps), la présentation lisible des calculs et des résultats.

Il ne nous semble pas souhaitable de favoriser une automatisation à outrance du testing. Le testing algorithmique ne doit pas avoir pour vocation de remplacer, ni le testing classique, ni l’apport indispensable de l’être humain lors de tâches d’audit qui réclament une grande expertise. Par contre, il propose à l’expert un outil pour l’aider à trouver, dans de grandes quantités d’informations relatives à l’offre et à la recherche d’emploi sur internet, les signaux qui méritent une attention particulière pour une exploration des discriminations de manière dynamique et démocratisée.

Sihem Amer-Yahia et Philippe Mulhem (CNRS, Univ. Grenoble Alpes)

Sciences & Médias 2020 : Femmes scientifiques à la Une !

Nous partageons avec vous cette invitation à la prochaine journée Sciences & Médias, qui se tiendra à la Bibliothèque nationale de France le 16 janvier 2020 sur le thème « Femmes scientifiques à la Une ! »
En raison des mouvements sociaux, la journée Sciences et Médias,
initialement prévue le 16 janvier, est reportée à une date ultérieure.
Nous vous prions de nous excuser ce report de dernière minute et vous
tiendrons informé de la nouvelle date pour cet événement.

Sciences & Médias 2020 : Femmes scientifiques à la Une !

Femmes et Sciences : il faut un effort mondial ©theconversation.com

Le thème abordé cette année concerne les femmes scientifiques, peu présentes dans les médias. Cette absence n’est pas seulement due à la
faible proportion de femmes dans certaines disciplines scientifiques,
mais à d’autres ressorts propres au fonctionnement des médias et de la
communauté scientifique. La journée s’articulera autour d’exposés et de
tables rondes, réunissant journalistes, scientifiques et médiateurs, qui
feront un état des lieux et proposeront des solutions :

  • Quelle est la représentation des femmes scientifiques dans les médias ?
  • Quel rôle joue le vocabulaire utilisé pour les noms de métier, et au-delà ?
  • Quelles bonnes pratiques peuvent être mises en œuvre par les institutions
    scientifiques ? Et par les médias ?

Programme complet

Inscription (gratuite mais obligatoire)

À noter que cet événement sera également diffusé en direct sur la
chaîne YouTube de la BnF.

Cet événement est organisé par la Société Française de Physique (SFP),
la Société Chimique de France (SCF), la Société Mathématique de France
(SMF), la Société Française de Statistique (SFdS), la Société Informatique de France (SIF), la Société de Mathématiques Appliquées et Industrielles
(SMAI), l’Association des Journalistes Scientifiques de la
Presse d’Information (AJSPI) et la Bibliothèque nationale de France (BnF).

La SFP, la SCF, la SMF, la SIF, la SMAI, la SFdS, la BnF et l’AJSPI, a.b.s. Fabien Tarissan.

Références:

Femmes en sciences: il faut un effort mondial, dit une chercheure.

Femmes & Sciences, une association pour promouvoir les sciences et techniques auprès des jeunes, filles et garçons et pour promouvoir les femmes dans les sciences et techniques.

Femmes et Sciences : et si c’était une affaire de mecs ? Binaire

Raconte-moi un algorithme : pas besoin d’être Euclide !

En 2020, chaque mois, Charlotte Truchet et Serge Abiteboul nous racontent des histoires d’algorithmes. Des blockchains aux algorithmes de tri en passant par le web, retrouvez tous leurs textes, ainsi que des petits défis mathématiques, dans le Calendrier Mathématique 2020 et dans la série binaire associée… Antoine Rousseau

Janvier : D’al-Khuwārizmī à Gödel

 

Un algorithme est un procédé qui permet de résoudre un problème sans avoir besoin d’inventer une solution à chaque fois. Par exemple, quand on a appris un algorithme pour faire un nœud de cravate, on ne se pose plus de question quand il s’agit d’en faire un. Les mathématiciens s’intéressent aux algorithmes depuis toujours, en particulier quand ils traitent de symboles comme les nombres. D’ailleurs, le mot « algorithme » vient du mathématicien perse, de langue arabe, Muhammad Mūsā al-Khuwārizmī, qui vécut au IXe siècle.
Pour décrire abstraitement un algorithme, on utilise une mémoire, c’est-à-dire un endroit où stocker des symboles. On dispose aussi d’un jeu d’instructions étonnamment simples : (i) aller chercher des symboles déjà stockés dans la mémoire, les modifier et faire des opérations dessus (ii) tester le contenu d’un endroit particulier de la mémoire, ou (iii) répéter une séquence d’opérations tant que certaines conditions restent vraies. Un algorithme est constitué d’une suite de telles instructions.

Pour illustrer cette notion, considérons une méthode attribuée à Euclide (vers 300 avant notre ère) qui permet de calculer le plus grand diviseur commun de deux nombres entiers, leur PGCD. (Par exemple, le PGCD de 6 et 15 est 3, car 3 divise ces deux nombres, et aucun nombre plus grand que 3 ne le fait.)
On commence par regarder les deux nombres. Si l’un divise l’autre, c’est gagné : le plus petit est le PGCD. Sinon, l’algorithme préconise d’ôter au plus grand nombre, disons a, le plus petit, disons b. On se retrouve, comme au départ, avec deux nombres : b et le résultat de la soustraction a-b. On reproduit alors la même opération, encore et encore, jusqu’à ce que l’un des deux divise l’autre. Quels que soient les nombres de départ, un jour l’algorithme s’arrêtera avec un des deux nombres qui divise exactement l’autre. Alors, le PGCD des deux nombres de départ est ce nombre-là.
Pas besoin d’être Euclide ! Il suffit de suivre cet algorithme sans réfléchir pour obtenir le PGCD. Encore plus fort, on peut écrire un programme informatique qui réalise cet algorithme.
Si vous connaissez un minimum d’informatique, vous pouvez d’ailleurs programmer cet algorithme. Avec un peu de connaissances en maths, vous pouvez aussi vérifier qu’il calcule vraiment le PGCD de deux nombres.
Nous rencontrerons dans ce calendrier des exemples d’algorithmes qui permettent de résoudre un grand nombre de problèmes pratiques. Peut-on, quel que soit le problème, toujours trouver un algorithme qui le résolve ? Non ! Les travaux de mathématiciens des années 1930, notamment Kurt Gödel, ont montré que, pour certains problèmes, il n’existait pas d’algorithme pour les résoudre.

Serge Abiteboul et Charlotte Truchet

Bonne année 11111100100

Tu aimeras ton robot comme toi-même, Serge A.

Toute l’équipe de binaire vous souhaite une année 2020 :

  • Pleine de 😂 🤩🥰🤗

  • Avec aussi beaucoup de 👏💪🏾👍💃 🕺🙌🏽🤙🏾 🥂

  • Et encore 🥰😍 😘🙏🏾 pour tout !