You are under arrest

Les objets connectés envahissent notre monde, téléphones, montres, voitures et autres moyens de transports, domotique, etc. Ils ont pour but d’améliorer nos vies. Toutes les données qu’ils captent dévoilent nos vies privées si elles ne sont pas protégées. Notre sécurité est aussi en question. Une nouvelle de Serge Abiteboul qui essaie d’imaginer ce qui pourrait se produire dans le futur si, aujourd’hui, nous n’accordons pas au sujet de la sécurité, toute l’importance qu’il mérite. Thierry Viéville

You are under arrest, ©© Bétise à bloguer

La Mustang fonce silencieusement dans le petit matin, à quelques mètres au dessus de la chaussée. Les truands savent depuis longtemps trafiquer le contrôleur de vitesse. La Peugeot de la police les course dans le 20ème arrondis­se­ment encore quasi désert.

Clyde interroge Bonnie :

  • Le braquage du chinois devait être finger in the nose. Il fallait vraiment que t’aies besoin de passer aux gogues?
  • Ça se commande pas.
  • Et que tu vois pas le détecteur d’intrusion ? Mon amour de pied nickelé.
  • Qui met un détecteur d’intrusion aux chiottes. Pourquoi pas des caméras ?

Ça paraissait un plan tranquille. Évidemment, il ne s’agissait pas de cambrioler un coffre-fort : depuis longtemps, il n’y a plus de cash ou même de bijoux dans les coffres qui sont devenus numériques. Bonnie et Clyde voulaient juste s’introduire dans le réseau d’un galeriste pour y réaliser quelques transactions juteuses.

Silence dans la voiture. Clyde trouve que cette poursuite s’éternise :

  • Tu nous débarrasses des morpions ?
  • Donne-moi une minute. Leur voiture est équipée du dernier système android. C’est une passoire de sécurité, explique-t-elle.
  • Tu as eu le temps d’imprimer ceux qui nous coursent ?
  • Oui. Un robot dans le siège du conducteur et une keuflette qui pianote sur un laptop dans celui de la morte.

Ça faire rire Clyde :

  • Si on en arrive à la baston, tu prends la meuffe et moi le robot. J’ai toujours rêvé de péter la gueule d’un robocop.

Rue Oberkampf à fond la caisse. Virage dans un crissement de pneus de la Mustang, rue de Belleville. C’est au tour de Bonnie de rire :

  • Trop vrais les crissements de pneu. On se croirait dans un vieux Fast and Furious.
  • Je les ai trouvés dans un truc encore plus vieux. Bullit, précise Clyde.
  • Vintage !

Dans la voiture de police, la « keuflette » essaie l’injonction d’arrêt de la Mustang ; sans succès : les deux truands ont bloqué tous les systèmes officiels qui permettent à la police de prendre le contrôle de voitures pour éviter un accident, empêcher de perpétrer un attentat terroriste, ou juste parce que la tronche du conducteur ne leur revient pas.  Comme rien ne marche, elle se plonge sur le site d’Europol. Elle résume les pedigrees des deux braqueurs :

  • Bonnie Nguyen, 29 ans, parisienne, ingénieure en informatique, condamnée plusieurs fois pour violation de la loi Anti Piratage Numérique.
  • Clyde Martin-Adjani, son compagnon, 27 ans, pur produit de la partie sombre du 9-3, un peu dealer et beaucoup black hat. Un casier judiciaire long comme un jour de tafe, qui culmine avec deux ans de prison pour usurpation d’identité sur le net. Ce con se faisait passer pour le fils du roi du Maroc.

Les deux voitures roulent l’une derrière l’autre. Les policiers se rapprochent et n’ont plus qu’une centaine de mètres de retard sur les truands… quand le moteur de la Peugeot s’éteint. Ils continuent sur l’élan mais la Mustang s’éloigne.

La policière questionne :

  • Qu’est-ce que tu nous fais Starsky ?
  • Rien ! Les suspects ont pris le contrôle de la batterie. Elle indiquait 95% il y a quelques secondes. Maintenant 0%. Je ne comprends pas. Qu’est-ce qu’on fait ?
  • Celui qu’a fait ça est pas la moitié d’un mulot, reconnaît la policière. Putain. Je vais te bloquer ces connards.

Il s’appelle Starsky et elle, Hutch. Starsky et Hutch étaient deux policiers d’une série culte du siècle dernier. Deux hommes, pas un robot et une femme. Les temps changent.

Dans la Mustang, Bonnie commente sobrement :

  • Dans le cul, les keufles.

Leurs rires s’éteignent quand leur voiture freine brutalement et s’immobilise.

  • Que passa ? interroge Clyde.
  • Jamais vu, répond Bonnie. La Mustang reçoit chaque seconde une mise-à-jour de Waze qui lui indique que la route devant est fermée, puis rouverte, puis fermée… Ça gèle le sélecteur de trajet. La keuflette est une sacrée hackeuse.`
  • On peut faire quelque chose ?
  • Courir ?

Bonnie et Clyde abandonnent la Mustang et partent en courant dans les petites rues de Ménilmontant, Hutch et son robot Starsky à leurs trousses. Finalement, flics et voyous se retrouvent dans un ballet vieux comme le monde.

Bonnie et Clyde ne sont pas sportifs alors que Hutch est championne régionale de badminton, et que Starsky peut rouler à près de vingt kilomètres heure pendant des heures, tant qu’il n’a pas vidé sa batterie. Les escaliers le ralentissent bien un peu mais il est équipé du nouveau système Jumpy-quadruped de l’armée chinoise qui lui permet de grimper des marches, peut-être sans élégance, mais à une vitesse raisonnable.

C’était prévisible, les deux truands se font rattraper. Ils n’avaient pas la moindre chance de s’en tirer, surtout avec un drone de la police maintenant au-dessus d’eux, collé à leurs basques.

Bonnie se rend sans résister à Hutch. Clyde tente une manœuvre :

  • On ne va pas se laisser arrêter comme cela.
    Téléportation bleue !

La téléportation, une technique révolutionnaire pour transférer son corps dans l’espace en le numérisant et en utilisant des communications quantiques. Vous y croyez, vous ?

Starsky commente sobrement :

  • Monsieur, il ne faut pas croire tout ce qu’on trouve sur Internet.

Bonnie, qui n’aime pas qu’on se moque de son mec, se venge à sa façon :

  • Tu feras moins la maline, petite quincaille, dans quelques jours quand tu seras terminée. Tu ne sais peut-être pas qu’Hutch a commandé un modèle tout neuf.
  • Je ne savais pas, reconnait Starsky à voix douce. Mais c’est la life des robots.

Comme Clyde ne se laisse pas menotter, le robot lui balance un coup de taser de plusieurs dizaines de milliers de volts, en contradiction avec la convention de Romorantin qui interdit aux robots les actes de violence sur les humains. Puis, satisfait de la victoire des bons sur les méchants, Starsky chantonne une vieille chanson de Gainsbourg : You’re under arrest, Cause you are the best…

On rencontre même des robots heureux.

Serge Abiteboul, Inria et ENS, Paris

Inria : 50 ans et l’ambition du numérique pour la France

Dans le paysage numérique français au cœur de l’intérêt de Binaire, Inria, l’institut français en science du numérique, tient une place singulière, voire essentielle. A l’occasion des 50 ans d’Inria, nous avons demandé à son président, Antoine Petit, de nous parler du passé de l’institut et surtout de nous dire comment il voit le futur de la recherche dans ce domaine en France. Binaire profite de cette occasion pour souhaiter à Inria : Bon anniversaire et tous nos vœux de succès pour les années à venir ! Serge Abiteboul

Antoine Petit, PDG d’Inria © Inria / Photo G. Scagnelli

Le Plan Calcul voulu par le Général de Gaulle a conduit à la création en 1967 de l’IRIA et de la CII devenue par la suite CII Honeywell Bull puis Bull. L’idée originelle était de doter la France des capacités, tant sur le plan recherche que sur le plan industriel, de concurrencer les américains qui venaient de refuser de nous vendre le plus gros ordinateur de l’époque (d’une puissance bien moindre que les smartphones que la plupart d’entre nous ont dans leur poche). Ce n’est qu’en 1979 que l’IRIA devient national et se transforme en INRIA – Institut National de Recherche en Informatique et en Automatique. C’est la même année qu’est créé le deuxième centre Inria, à Rennes. Puis les centres de Sophia-Antipolis (1983), Grenoble (1986), Nancy (1992), Bordeaux, Lille et Saclay (tous les trois en 2008) voient successivement le jour. Et en 2011, INRIA décide de ne plus être un acronyme mais un nom, Inria, celui de l’institut français en charge des sciences du numérique.

Voilà donc 50 ans qu’Inria met son excellence scientifique au service du transfert technologique et de la société. Inria est aujourd’hui un des instituts les plus performants à travers le monde dans ses domaines de compétences, attractif et très international, près de 100 nationalités sont présentes dans nos équipes-projets. Il faut souligner qu’une grande partie des succès d’Inria ont été construits dans le cadre de partenariats avec des universités ou grandes écoles, ou d’autres organismes de recherche, le CNRS bien sûr et aussi le CEA, l’Inra ou l’Inserm pour ne citer que les principaux.

En 50 ans le monde est devenu numérique, belle formule souvent attribuée à Gérard Berry. Inria a accompagné cette transformation et la montée en puissance, et la reconnaissance de la science informatique qui s’en sont suivies dans notre pays.

L’évolution a été très forte en un demi-siècle. En schématisant et en simplifiant, hier, informaticiens et mathématiciens travaillaient un peu de leur côté, pour eux mêmes. Aujourd’hui, ils collaborent de plus en plus avec les autres sciences, que ce soient les sciences de la vie, les sciences de l’environnement, les sciences humaines et sociales, etc. Une autre évolution très perceptible concerne la transformation numérique des activités socio-économiques et la présence de plus en plus importante du numérique dans la vie de tous les jours.

Pour autant, nous sommes convaincus que cette transformation numérique du monde n’en est qu’à ses débuts, presque à ses balbutiements. Si le futur de notre société sera numérique, ce futur n’est pour autant pas écrit. Dans 50 ans, le monde dans lequel nous vivrons sera celui que nous aurons choisi de construire en fonction de nos valeurs, de nos cultures et de nos choix de sociétés. Nous devrons savoir prendre en compte des questions scientifiques et technologiques bien sûr mais aussi  des questions de formation, d’éthique et même de choix de société

Nous devons aussi décider quelle place nous voulons que la France occupe dans ce futur numérique. La France a tous les atouts pour y jouer un rôle de premier plan, pour autant qu’elle en fasse une réelle priorité. Nous devons investir aujourd’hui pour que demain des emplois et de la valeur soient créés dans notre pays. Mais, il ne faut pas se voiler la face, la compétition est internationale et féroce.

Si la France décide de participer à cette compétition, elle doit faire les choix nécessaires pour y figurer dignement.

N’en déplaise à quelques esprits rétrogrades qui ne comprennent pas le monde nouveau qui est le nôtre,  il est totalement anormal et contreproductif qu’une lycéenne ou un lycéen puisse entrer à l’Université sans savoir coder et s’être construit une pensée algorithmique, et ce quel que soit le métier auquel elle ou il se destine.

Il faut également revoir l’éducation et la formation tout au long de la vie, et donner à chacune et chacun les clés de compréhension du monde numérique dans lequel nous vivons. La faible culture, voire même parfois l’inculture, de la société en général, des décideurs en particulier – même s’il y a bien sûr des exceptions – est un handicap pour notre pays.

Inria essaye à son niveau de faire bouger les choses en prenant une part active à des opérations aussi diverses  que le portage de l’opération Class Code, programme de formation de formateurs en informatique ou encore la conception, en liaison étroite avec le Conseil National du Numérique de la plateforme TransAlgo qui vise à étudier la transparence et la loyauté des algorithmes, tout en faisant réfléchir à ces notions. Mais toutes ces initiatives ne passent pas à l’échelle et font courir le risque d’éloigner Inria de son cœur de métier. C’est à d’autres de prendre le relais et de permettre au plus grand nombre de bénéficier de sensibilisations ou de formations comparables.

Il faut aussi que notre pays sache investir massivement s’il veut jouer un rôle de premier plan, s’il veut tirer parti des investissements déjà réalisés et s’il veut que les citoyens, bien formés, trouvent des emplois adaptés à leurs compétences dans ce nouvel ordre économique.

Nous attendons avec impatience le rapport de Cédric Villani sur l’intelligence artificielle. Mais il sera essentiel que ce rapport ne reste pas lettre morte, cela arrive parfois dans notre pays. Il appartiendra au Gouvernement d’en tirer un plan d’actions et d’y consacrer une enveloppe budgétaire d’un niveau donnant l’ambition à la France d’être un acteur de premier plan au niveau international. Bien sûr, nous savons tous que la France a des marges de manœuvre financière limitées.  C’est justement pour cela qu’il faut faire des vrais choix, définir des priorités et donc savoir aussi renoncer.

L’enjeu est de taille, c’est tout simplement la France, celle que nous voulons construire pour nos enfants et petits-enfants, une France attractive où il y aura des emplois, du bien-être et des richesses pour le plus grand nombre, idéalement pour toutes et tous, une France qui aura à cœur que les progrès liés au numérique bénéficient au plus grand nombre et ne soient pas accaparés par quelques-uns, individus, grandes firmes internationales ou nations, pour leur seul profit.

Antoine Petit, Président d’Inria

Algorithmes : au-delà de la transparence, la redevabilité

Les algorithmes envahissent nos vies, et en cela ils se doivent de respecter les lois, et les valeurs éthiques de notre société. Pour coexister avec eux, il est important de comprendre ce qu’ils font. C’est en cela que leur transparence prend toute son importance. Pour traiter ce sujet pour Binaire, nous avons un tandem ; un informaticien et une juriste. Il faut bien cela pour un sujet qui, s’il parle d’informatique, implique les sciences humaines de manière essentielle. Serge Abiteboul.

              

Les algorithmes d’aide à la décision sont désormais omniprésents. Ils influencent notre vie quotidienne, par les informations qui nous sont transmises ou par les suggestions qui nous sont adressées en ligne. Ils facilitent nos actions individuelles au jour le jour, mais sont aussi susceptibles d’apporter de grands bénéfices collectifs, dans des domaines aussi variés que la médecine, la justice ou la sécurité par exemple. Toutefois, leur développement suscite également des craintes importantes. Elles concernent notamment les risques de discriminations, de traitements déloyaux, voire de manipulations. Ces éventuels mésusages méritent d’être débattus, et le sont dans des cadres variés depuis l’adoption de la Loi pour une République numérique : cycle de débats sur l’éthique et le numérique lancé par la CNIL en janvier 2017, consultation sur les plateformes initiée par CNNum en octobre 2017, ou encore projet TransAlgo piloté par Inria. La France n’est évidemment pas seule à se mobiliser sur ces questions et on ne compte plus les rapports, recommandations et livres blancs sur l’éthique du numérique ou de l’intelligence artificielle (IA) publiés en Europe et aux Etats-Unis.

Soyons redevable

La première source d’inquiétude concernant les algorithmes étant leur opacité, la transparence est généralement mise en avant comme le premier remède. Cependant le terme de « transparence » n’est pas lui-même dénué d’ambiguïté. Par exemple, la seule publication du texte d’un algorithme ou du code source d’un logiciel n’est pas la panacée car ceux-ci peuvent demeurer tout à fait opaques pour le commun des citoyens (et même parfois pour des experts). Par ailleurs, le fonctionnement de certains types d’algorithmes, qui reposent sur l’apprentissage automatique, ne peut être appréhendé indépendamment des jeux de données utilisés pour l’apprentissage. En effet, ces données peuvent intégrer des biais qui seront « appris » puis reproduits par l’algorithme. Plus que la transparence, c’est la « redevabilité » entendue comme « devoir de rendre compte », qui nous paraît le véritable enjeu. Ce devoir inclut deux composantes : le respect de règles, notamment juridiques ou éthiques, d’une part ; la nécessité de rendre intelligible la logique sous-jacente au traitement, d’autre part. Il se décline de différentes manières selon les publics visés. Pour le citoyen sans compétence technique particulière, il peut s’agir de comprendre les critères déterminants qui ont conduit à un résultat qui le concerne (classement d’information, recommandation, envoi de publicité ciblée, etc.) ou la justification d’une décision particulière (affectation dans une université, refus de prêt, etc.). Un expert pourra être intéressé par des mesures plus globales, comme des explications sous forme d’arbres de décision ou d’autres représentations graphiques mettant en lumière les données prises en compte par l’algorithme et leur influence sur les résultats. Un organisme de certification peut se voir confier une mission de vérification qu’un algorithme satisfait certains critères de qualité (non-discrimination, correction, etc.), sans pour autant que celui-ci ne soit rendu public.

Cette exigence de « redevabilité » représente un défi majeur pour les juristes comme pour les informaticiens. D’une part, certains algorithmes reposent sur des techniques, comme l’apprentissage profond qui sont intrinsèquement difficiles à appréhender pour des humains. D’autre part, qu’ils reposent sur l’IA ou pas, les quantités importantes de facteurs (données d’entrée) pris en compte et les multiples manières de les combiner sont parfois des obstacles à l’intelligibilité. Enfin, certains algorithmes sont fréquemment modifiés, ce qui ajoute encore un niveau de difficulté.

La question de l’explication n’est pas un sujet de recherche complètement nouveau en informatique. Elle a été étudiée en particulier dans les domaines du logiciel et de l’IA, et elle suscite depuis quelques années un regain d’intérêt. De nombreux défis restent à relever cependant. En particulier, comment marier la précision d’une explication et son intelligibilité, garantir sa fiabilité, mesurer son intelligibilité envers différents publics (qu’est-ce qu’une bonne explication ?). En sus des travaux visant à reconstituer a posteriori une forme d’intelligibilité aux traitements algorithmiques, l’idéal serait de prendre en compte cette exigence dès la phase de conception, et de concevoir ainsi « par construction » des algorithmes produisant, en plus de leurs résultats nominaux, les justifications associées.

Même si les solutions en la matière reposent forcément sur les techniques disponibles, la technologie ne peut prétendre répondre seule aux questions posées par l’usage des algorithmes d’aide à la décision. Avec l’adoption de la Loi pour une République numérique, la France a introduit de nouvelles obligations pour les administrations et les plateformes numériques.

Le décret d’application du 16 mars 2017 dispose notamment que « l’administration communique à la personne faisant l’objet d’une décision individuelle prise sur le fondement d’un traitement algorithmique, à la demande de celle-ci, sous une forme intelligible et sous réserve de ne pas porter atteinte à des secrets protégés par la loi, les informations suivantes :

– Le degré et le mode de contribution du traitement algorithmique à la prise de décision
– Les données traitées et leurs sources ;
– Les paramètres de traitement et, le cas échéant, leur pondération, appliqués à la situation de l’intéressé ;
– Les opérations effectuées par le traitement. »

Ces exigences réglementaires sont assez précises, et peuvent être difficiles à mettre en œuvre pour certains algorithmes, mais elles ont un champ délimité, puisqu’elles ne concernent que les décisions des administrations. D’autres visent les opérateurs de plateforme en ligne, mais leur objet est « de délivrer au consommateur une information loyale, claire et transparente sur :

Les conditions générales d’utilisation du service d’intermédiation qu’il propose et sur les modalités de référencement, de classement et de déréférencement des contenus, des biens ou des services auxquels ce service permet d’accéder ;

L’existence d’une relation contractuelle, d’un lien capitalistique ou d’une rémunération à son profit, dès lors qu’ils influencent le classement ou le référencement des contenus, des biens ou des services proposés ou mis en ligne.

Au-delà de ces activités précises, il faut se tourner vers le droit des données personnelles.

La loi Informatique et Liberté et le nouveau règlement européen sur les données personnelles encadrent précisément les « décisions individuelles automatisées » (art. 22), avec notamment le « droit de la personne concernée d’obtenir une intervention humaine de la part du responsable du traitement, d’exprimer son point de vue et de contester la décision ». Cependant ces dispositions sont sujettes à interprétation et comportent des restrictions majeures. En particulier, elles ne concernent que les décisions fondées exclusivement sur un traitement automatisé et produisant des effets juridiques ou affectant de manière significative le sujet. De ce fait, il reste encore du travail à faire pour garantir que les outils d’aide à la décision répondent à l’exigence de redevabilité, vis-à-vis de leurs utilisateurs-décideurs comme des personnes destinataires de la décision.

Au-delà de leur grande variété, les algorithmes partagent un point commun : leur fonctionnement repose sur l’exploitation de données, souvent à grande échelle, et ces données sont souvent des données personnelles. Dès lors, l’exigence de redevabilité s’applique également à la collecte des données et cette phase pose aussi de nouveaux défis à une époque où des données de plus en plus nombreuses sont collectées de multiples façons et dans des contextes variés. C’est le cas en particulier de ce qu’on appelle les métadonnées (ou « données sur les données ») qui sont transmises implicitement avec les données principales, par exemple lors d’une communication. Ces métadonnées (en particulier les données de connexion ou de géolocalisation) sont parfois plus intrusives que les données auxquelles elles se rapportent. Le droit français et européen a ainsi été amené à étendre le champ de la protection des données personnelles, par exemple pour intégrer les adresses IP. Par ailleurs, la divulgation de données même anodines en apparence devient problématique.  En effet, ces données peuvent souvent être recoupées pour inférer des informations précises ou constituer des profils. La CNIL en est très consciente et alerte depuis plusieurs années sur les risques induits en la matière. En informatique, de nombreux travaux ont également été réalisés ces dernières années pour améliorer les connaissances sur les collectes de données personnelles. A titre d’exemple, le projet Mobilitics, fruit d’une collaboration entre l’équipe-projet Inria Privatics et la CNIL, a permis de mettre au jour certaines pratiques opaques, déloyales, et même parfois illégales en matière de collecte de données personnelles sur les téléphones mobiles.

Pour conclure, au-delà des enjeux techniques et juridiques, il est clair que la généralisation de l’usage des algorithmes pose d’abord des questions d’éthique et de choix de société. Ces choix doivent être mis au débat, comme on l’a entrepris récemment en France et dans de nombreux autres pays. Pour dépasser les positionnements idéologiques, ces débats doivent être autant que possible alimentés par la connaissance scientifique et informés par une meilleure diffusion de la culture informatique. Pour ce qui concerne la technique elle-même, il faut admettre que de grand progrès sont encore à réaliser pour rendre possible la « redevabilité des algorithmes ». Ce courant de recherche devrait connaître un fort développement au cours des années à venir. On peut espérer que cet effort sera conduit de manière interdisciplinaire car il doit mobiliser des compétences variées aussi bien dans le domaine informatique au sens large (intelligence artificielle, logiciels, interaction homme-machine, etc.), qu’en sciences humaines (juridiques, éthiques, sociales, politiques, etc.).

Daniel Le Métayer, Inria, Université de Lyon, et Sonia Desmoulin-Canselier, CNRS, Université de Nantes.

Cinquante nuances de matière grise

À l’heure où nous commençons à déléguer à des algorithmes le soin de prendre certaines décisions humaines,  et confions aux machines de plus en plus de tâches qui réalisées par un humain auraient été qualifiées d’intelligentes, si nous nous tournions vers ce que nous comprenons aujourd’hui de notre cerveau ? Comment nous « fait-il prendre » des décisions ? Nous avons demandé à un collègue des neurosciences, Thomas Boraud, de nous éclairer sur ces sujets. Thomas Boraud dirige une équipe de recherche à l’Institut des maladies neurodégénératives à Bordeaux dont les travaux portent sur l’identification des substrats neurobiologiques des processus de prise de décision. Serge Abiteboul et Thierry Viéville. Cet article est publié en collaboration avec The Conversation.

Bienvenu dans l’ère du neuro-essentialisme

L’IRM de diffusion et la magnéto- et l’électro-encéphalographie permettent d’explorer la géographie du cerveau pour en comprendre le fonctionnement. © Inria / Photo C. Morel / ATHENA

Les neurosciences sont de plus en plus sollicitées par la société civile pour fournir une explication sur le fonctionnement de l’individu et son rapport à la société moderne. Heureux qu’on ait peu à peu laissé tomber les explications génétiques et la psychanalyse pour s’intéresser à leur discipline favorite, les neuroscientifiques se prêtent volontiers au jeu et apportent des explications sur les bases neurobiologiques de tel comportement (conduites à risque, procrastination, comportements criminels), de telle pathologie (addiction, autisme, trouble du déficit de l’attention avec ou sans hyperactivité, stress post-traumatique) ou de tel fait de société (théorie des genres, racisme, réussite sociale). Ils sont aidés par le développement de l’imagerie fonctionnelle qui fournit des supports visuels intelligibles par toutes et tous où s’allument comme par magie les zones cérébrales impliquées. S’il est indéniable que tout ce qui concerne le comportement humain a son origine dans le cerveau, il peut être utile néanmoins de tempérer cet engouement et d’en souligner les limites. Mieux appréhender ce que les neurosciences peuvent apporter comme éléments de réponse à des questions sociétales permettra de ne pas retomber dans les travers scientistes des deux siècles précédents qui se sont développés sur les paradigmes essentialistes (je donnerais comme exemples non exhaustifs la dérive suprématiste qui s’est développée à partir de la théorie de l’évolution, ou bien les tendances eugénistes inspirées par la génétique).

Tout d’abord, il peut être utile de rappeler que le cerveau ne fonctionne pas tout seul lorsqu’il génère un comportement, mais qu’il est en symbiose avec un corps lui-même en interaction avec un environnement. Cela engendre un certain nombre de contraintes physico-chimiques et temporelles qui doivent être prises en compte dans l’explication des origines du comportement. Deuxièmement, le cerveau est un objet complexe au sens mathématique du terme. Pour comprendre son fonctionnement, il est indispensable d’utiliser une formalisation adaptée à la manipulation d’un nombre à priori indénombrable de paramètres. C’est l’adoption de ce cadre conceptuel qui a permis par exemple à la physique, d’effectuer sa révolution à la charnière du 19ème et du 20ème siècle. C’est encore loin d’être le cas dans notre domaine il faut donc rester très prudent en ce qui concerne la portée de notre compréhension des mécanismes neuronaux à l’origine des comportements (Voir « Neurosciences, les limites de la méthode« , Le Monde, 2/10/2013). Enfin, il faut éviter de tomber dans un travers de déresponsabilisation de l’individu (ce n’est pas de ma faute, mais celle de mon cerveau). La question du libre-arbitre, nécessite un dialogue avec des philosophes, des juristes, des sociologues, etc. et le neuroscientifique ne peut fournir à lui seul qu’une réponse plus  simpliste.

Aux frontières de la rationalité

La neuro-économie a émergé dans ce contexte neuro-essentialiste. Tout commence par le constat effectué au milieu du 20ème siècle que la rationalité est souvent prise en défaut lorsqu’il s’agit de prendre des décisions. Cette découverte remettant en question les fondements même de l’économie capitaliste (la prospérité émerge de l’interaction entre des agents économiques rationnels qui œuvrent pour leurs propres intérêts), les économistes furent d’abord déstabilisés. Ils se sont rapidement ressaisis et l’étude des contours de la rationalité est devenue leur nouvelle frontière. Il en est ressorti un certain nombre de théories (rationalité limitées, théorie des perspectives, paternalisme libéral) dont plusieurs ont été consacrées par des prix « Nobel »[1] d’économie (Kahneman en 2002 ou Thaler en 2017 pour ne citer que les deux plus récents). On pourrait résumer ces travaux par 5 grands axes.

1. La rationalité de l’agent est limitée par ses capacités cognitives et la quantité d’informations à sa disposition.
2. Les agents ont tendance à présenter un certain nombre de biais cognitifs qui influencent leurs décisions.
3. Ils ont une mauvaise estimation des probabilités.
4. À partir d’un cadre initial, ils auront tendance à éviter les risques en ce qui concerne les gains et au contraire à les rechercher en ce qui concerne les pertes.
5. La connaissance de ces différents aspects de la décision peut être mise à profit pour influencer les individus pour leur propre profit et celui de la société (ce qu’on appelle le paternalisme libéral).

Longtemps frileux en ce qui concerne l’étude des corrélats neuronaux des processus cognitifs, l’apparition de l’imagerie cérébrale et le développement d’autres méthodes d’observation de l’activité cérébrale  ont poussé les neuroscientifiques à se pencher finalement sur la question au début des années 2000. S’ils ne sont pas encore autorisés à dire grand-chose sur le paternalisme libéral (heureusement !), ils ont largement investi les autres axes de l’étude des frontières de la rationalité. Ils en ont aussi profité pour tenter d’étudier de façon plus générale les mécanismes neuronaux de la prise de décision et ont nommé cette discipline émergente neuro-économie pour bien marquer son individualité par rapport au reste des neurosciences.

Plus que d’autres, ce domaine engendre des inquiétudes car il semble toucher aux fondements de notre société. D’autant plus que souvent confondu avec le neuro-marketing (sur l’intérêt duquel il y aurait beaucoup à dire), il fait suspecter une volonté d’influencer les comportements des acteurs économiques et/ou des consommateurs. Il convient donc de ramener à leur juste valeur les grands apports de cette discipline.

La neuro-économie pour les nuls

CeCe Comprendre le lien entre notre cerveaux et nos fonctions cognitives, site de vulgarisation scientifique http://lecerveau.mcgill.ca

Comme toujours, quand une nouvelle discipline émerge, ses premières années ont été consacrées à en définir les contours et à en affiner les outils. Schématiquement, les méthodes se résument à 3 grandes étapes :

1.Définir un cadre théorique ou axiomatique pour poser une question précise (le système d’attribution de valeurs, les aires cérébrales impliquées dans le doute, le risque, le jugement moral) ;
2. Opérationnaliser cette question avec un paradigme emprunté à l’économie expérimentale ;
3. Etudier les corrélats neuronaux avec des méthodes d’imagerie fonctionnelle (chez l’homme) ou des enregistrements électrophysiologiques (sur les modèles animaux).

Ces méthodes ont agi comme une prophétie auto-réalisatrice : des corrélats neuronaux des choix effectués dans les divers paradigmes utilisés ont été mis en évidences dans de nombreuses aires corticales, ou sous-corticales, validant les cadres théoriques qui ont été proposés. Cependant, ces méthodes descendantes (top-down) ont fini par atteindre les limites de leurs cadres conceptuels. Nous possédons maintenant un catalogue de fonctions unitaires associées à différentes aires cérébrales, mais l’articulation entre les différentes sous-parties et la façon dont le tissu cérébral génère ces fonctions échappent encore à l’entendement.

Matière à décision

Depuis une dizaine d’années, une approche ascendante (bottom-up) se développe. Il s’agit cette fois de chercher à comprendre ce qu’est la décision au niveau neuronal : un processus de compétition entre plusieurs populations de neurones. Une fois ce cadre conceptuel posé, les adeptes de cette méthode ont cherché quelles sont les structures cérébrales capables de générer ces processus de compétition. Deux candidats sérieux ont émergé dans la littérature : le cortex et les noyaux gris centraux. Une véritable querelle de clocher s’est donc développée entre deux sous-communautés qui défendent chacune la prépondérance d’une des deux structures sur la seconde dans les processus de prise de décision.

L’anatomie comparée apporte une solution élégante à cette opposition apparente.  Elle propose que les noyaux gris centraux étaient seuls à l’origine de ces processus chez les vertébrés les plus anciens. Leur plasticité, sensible à des mécanismes d’apprentissage par renforcement dont la dopamine est un des éléments clef, confère aux organismes qui en sont dotés des capacités d’apprentissage. Dans ces structures, le mécanisme qui préside à la décision repose sur des processus stochastiques c’est à dire qu’ils utilisent le hasard pour choisir entre différentes options possibles. Au fur et à mesure des essais et des erreurs, l’expérience acquise facilite le choix de l’option la plus intéressante en terme de renforcement (accès à de la nourriture, à un abri, etc.), sans que ce soit complétement automatique.  Ces processus  permettent de comprendre un certain nombre de comportements aberrants sur le plan économique, mais qui font sens sur le plan évolutif (tels que l’équilibre entre les comportements d’exploration et d’exploitation). Sur ces mécanismes, au fil de l’évolution, s’est greffée  une couche corticale. Cette dernière est supervisée par les noyaux gris centraux pour apprendre de nouvelles compétences, mais fonctionne de façon autonome une fois que ces dernières sont automatisées.  Le développement des aires corticales et leur organisation de plus en plus hiérarchisée seraient à l’origine de l’extension du nombre et de la complexité des comportements observés au fur et à mesure de l’évolution, mais aussi à l’apparition de comportements plus stéréotypés donc plus résistants aux changements.

Cette approche propose en outre que ces processus se sont développés en parallèle dans plusieurs taxa[2] de vertébrés puisque des mécanismes comparables sont observés chez les mammifères (avec les cas notables des primates mais aussi des mammifères marins et des éléphants), chez les oiseaux dont le développement et la spécialisation du pallium (qui est l’équivalent du cortex chez ces espèces) est corrélé à l’utilisation d’outils chez certains corvidés et peut être aussi chez certains poissons. Pour les batraciens et les reptiles, nous manquons encore de données expérimentales.

L’imbrication entre un tel processus sous-cortical dont l’apprentissage se fait par renforcement (c’est à dire en vue de maximiser une récompense) et un processus cortical plus rigide une fois automatisé, permet en outre de fournir un substrat organique à l’opposition entre un système rapide-système lent  pour expliquer les mécanismes qui sous-tendent sa théorie des perspectives [3].

Il faut néanmoins demeurer prudent dans nos interprétations. Cette hypothèse élégante et riche d’une forte valeur heuristique, est supportée par un certain nombre de données expérimentales, mais de nombreuses zones d’ombres doivent encore être explorées. Sa richesse est aussi une faiblesse, puisque la nécessité de la tester à différentes étapes de l’évolution des vertébrés laisse présager qu’il faudra encore un certain nombre d’années avant qu’elle ne soit totalement confirmée… ou définitivement infirmée.

Thomas Boraud, Directeur de recherche au CNRS

Publication commune avec The conversation .

Pour en savoir plus : Comment fonctionne notre cerveau et comment s’opèrent nos choix ? Thomas Boraud, Biblis, 2017 :

Et si notre faculté à prendre des décisions relevait plus du hasard que d’un processus rationnel ? On a longtemps admis que l’esprit décide, le corps obéit. Or, c’est l’inverse : le mécanisme décisionnel est produit par la matière cérébrale. C’est un phénomène aléatoire qui résulte de processus de compétitions au sein d’un réseau dont l’architecture a peu évolué depuis les premiers vertébrés.
Malgré l’extraordinaire développement du cortex humain, le processus conserve sa nature aléatoire. Ainsi, lorsqu’un individu pèse le pour et le contre, il ne fait que de s’en remettre au hasard de dés virtuels. Apprendre consiste dès lors à piper ces dés… Mais ce qui n’est qu’une rationalité limitée est peut-être le prix à payer pour conserver notre grande capacité d’adaptation.


[1] Rappelons qu’Alfred Nobel n’a pas prévu de prix pour l’économie dans son testament et que ce que nous appelons abusivement prix Nobel d’économie est en réalité le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel institué en 1968.

[2] Un taxon (pluriel taxa) est une entité conceptuelle qui regroupe des organismes vivants possédant en commun certains caractères au sein de l’arbre phylogénétique.

[3] On pourra citer l’opposition entre système rapide-système lent proposé par Daniel Kahneman pour expliquer les mécanismes qui sous-tendent sa théorie des perspectives. Il est à noter que cette explication est à l’opposé de celle fournie traditionnellement par les psychologues expérimentaux, imprégnés de la vieille théorie du cerveaux triunique de MacLean qui reposent sur un présupposé finaliste.

Maman ! Papa ! J’veux devenir informaticien.ne !!

C’est une bonne idée mon enfant, tu maîtriseras le numérique, tu verras si les métiers en lien avec l’informatique peuvent te plaîre et écoute ça ; tu peux le faire dès maintenant.

La découverte : le Concours Castor.

 Découvrir ce qu’est l’informatique et ne pas uniquement l’utiliser ?

Le concours Castor Informatique se déroule en ce moment et jusqu’au 8 décembre. Plus de 500 000 élèves du CM1 à la terminale y participent.

Les défis du concours Castor permettent de découvrir des éléments introductifs aux bases du codage de l’information, de l’algorithmique, des graphes, des bases de données, de la programmation, de la logique …

Il n’est pas trop tard pour participer ! Parlez-en aux enseignants, ceux sont eux qui inscrivent les classes, en créant un compte sur la plateforme de coordination.

Témoignages :

«Merci pour ce concours, 3 ans que je le fais passer aux élèves. La plupart prennent beaucoup de plaisir et certains se découvrent même des capacités et prennent de la confiance en eux pour le reste de l’année. — Antoine, enseignant au collège dans l’académie de Nantes.

Permettez-moi avant tout de vous remercier pour tout le travail que vous faites, c’est stimulant pour nos élèves et ça leur donne goût aux mathématiques et à la programmation. — Éric, enseignant dans l’académie de Paris. »

Le concours Castor : comment ça marche ?

Lors du concours Castor, les participant.e.s ont 45 minutes pour résoudre, seul.e.s ou en binômes, 12 défis interactifs en ligne. Chaque défi est décliné en trois versions, de difficulté progressive. La navigation dans les défis s’adapte automatiquement selon la réussite et le temps passé.

Pour visualiser à quoi ressemble un défi, vous pouvez rejouer les défis de l’année dernière !

Notez que le concours est entièrement gratuit et ouvert à toutes les filières (générales, technologiques, professionnelles, SEGPA, ULIS, …).

Après le Castor : découvrir la programmation avec Algoréa !

 Découvrir si l’informatique ça me plaît  ?

Algoréa propose des défis pour s’initier à la programmation de manière ludique et à son rythme. Il s’agit, par exemple, de programmer les actions d’un robot qui doit ramasser des objets ou peindre des cases.

Le retour visuel interactif permet aux élèves de facilement comprendre leurs erreurs. Il motive les élèves et leur permet une progression rapide. Comme pour le Castor, la difficulté est progressive, permettant de bien maîtriser les concepts fondamentaux. Les défis Algoréa peuvent être programmés avec des langages visuels (Blockly ou Scratch). Le langage Python, enseigné au lycée, peut également être utilisé. Les notions abordées correspondent aux contenus des programmes d’enseignement.

Afin de proposer des défis adaptés au niveau de chacun.e, Algoréa est organisé* en 3 tours. À chaque tour, il est possible de participer dans l’un des 5 niveaux, et de passer ainsi au niveau suivant.

Le premier tour se déroule en janvier. Les élèves peuvent participer soit en classe avec leur enseignant, soit en individuel à la maison, en s’inscrivant sur le site d’Algoréa. Les tours suivants ont lieu en mars puis en mai. Ensuite, les meilleurs de chaque niveau scolaire sont invités à participer à la demi-finale organisée en juin, et éventuellement se qualifier pour la finale qui se déroule pendant l’été. Pour ces étapes, il est également possible participer en programmant en C, C++ ou Java.

Tous les participants à Algoréa pourront repartir l’année suivante directement du niveau atteint cette année, l’objectif étant d’accompagner les élèves dans leur progression d’année en année.

L´équipe du Castor et de Algoréa, Arthur Charguéraud, Françoise Tort et Mathias Hiron de France IOI, L’ENS Paris Saclay et Inria.

(*) Le niveau blanc permet de se familiariser avec le principe des séquences d’instructions, des répétitions simples, et des appels de fonctions simples; le niveau jaune permet de découvrir et pratiquer les notions d’instructions conditionnelles, de boucles répéter simples, et l’imbrication de boucles et d’instructions conditionnelles ; le niveau orange permet d’apprendre à manipuler des variables, les opérateurs arithmétiques et booléens, et les boucles « tant que » ; le niveau vert permet d’apprendre à créer ses propres fonctions, manipuler des tableaux, listes et chaînes de caractères ; enfin, le niveau bleu introduit des concepts plus avancés comme les fonctions récursives.

T’as pas cent balles (ransomware) ?

Nous avons demandé à Hélène Le Bouder et Aurélien Palisse chercheur.e.s rennais de nous parler d’un sujet d’actualité : les ransomware. Ces nouveaux logiciels à la propagation virale, qui vous réclament de l’argent pour ne pas détruire vos données… De quoi s’agit-il ? Pierre Paradinas.

À propos de Ransomware

Les ransomware (logiciels de rançon) ne cessent de se développer. Ils représentent l’une des plus grandes menaces du monde informatique d’aujourd’hui; mais que sont-ils exactement ? Un ransomware chiffre les données d’un ordinateur, puis demande à son propriétaire d’envoyer une somme d’argent en échange de la clé cryptographique permettant de les déchiffrer. Les ransomware infectent les ordinateurs via internet et attendent un signal pour s’activer. Ainsi 80% d’entre eux parviennent à chiffrer toutes les données d’un utilisateur en moins d’une minute. Les autorités conseillent de ne pas payer, afin de ne pas encourager des activités criminelles. Il est important de noter que le paiement d’une rançon ne garantit pas la récupération de ses données.

Une étude, estime que plus de 25 millions de dollars ont été payés ces dernières années. Le prix des rançons varie de 50 à 300 euros. La rançon peut atteindre plusieurs milliers d’euros comme en juin 2017 pour un groupe industriel.

Les cybercriminels souhaitent être payés en utilisant une monnaie virtuelle difficilement traçable, comme le bitcoin. Des moyens de paiement plus hétéroclites ont déjà été utilisés dans le passé comme des cartes cadeaux Amazon, ou des SMS surtaxés.

Certains anti-virus permettent de détecter un ransomware avec des résultats plus ou moins efficaces. Notons que Windows 10 inclut une protection contre les ransomware.

Les chercheur.e.s ne connaissant pas à ce jour de solutions acceptables [3, 1] principalement pour des raisons de performance. En effet, la détection se base sur le comportement des applications vis à vis du système de fichiers. Par exemple, un grand nombre de fichiers renommés ou de dossiers/fichiers explorés peuvent être liés au comportement d’un ransomware. L’apprentissage automatique (machine learning) est très utilisé, notamment par ShieldFS un outil développé par des chercheurs italiens. Le principal problème des solutions académiques est le déclenchement intempestif de fausses alertes : de nombreux programmes sont suspectés d’être malveillants à tort.

© Inria / Photo C. Morel

Au Laboratoire de Haute Sécurité d’Inria à Rennes, une plateforme (Malware’O’Matic) constituée de plusieurs ordinateurs est dédiée à ce thème de recherche. Le but est de développer une contre-mesure plus performante qu’un antivirus traditionnel en termes de taux de détection (99% de ransomware détectés) et de rapidité d’exécution.

Des données chiffrées ont une répartition proche d’une répartition aléatoire. Aussi nous utilisons des tests statistiques de détection d’aléa pour détecter le processus de chiffrement. Une version plus aboutie, permettant de limiter le nombre de fausses alertes est actuellement en cours de développement avec un effort particulier pour limiter l’impact sur les performances de l’ordinateur.

Aujourd’hui la plupart des études se focalisent sur les menaces courantes et ne se projettent pas sur les menaces futures. Les ransomware actuels sont assez frustres mais ils risquent d’évoluer d’une part en complexité et d’autre part vers de nouvelles cibles comme les téléphones. Des travaux récents [2] montrent que des techniques d’apprentissage supervisé utilisées pour détecter les logiciels malveillants peuvent aussi être utilisées pour concevoir des logiciels furtifs et les rendre ainsi indétectables par les antivirus actuels. Il est important pour le monde de la recherche de ne pas se cantonner aux problèmes actuels et d’anticiper des solutions pour l’avenir.

Hélène Le Bouder (MdC à l’IMT-Atlantique), et Aurélien Palisse (doctorant chez Inria)

Pour aller plus loin, écoutez le Podcast d’Aurélien sur le sujet des ransomware sur )i(nterstices

Références

  1. A. Continella, A. Guagnelli, G. Zingaro, G. De Pasquale, A. Barenghi, S. Zanero, and F. Maggi. ShieldFS : A self-healing, ransomware-aware filesystem. In Proceedings of the 32nd Annual Com- puter Security Applications Conference. ACM.
  2. I. Rosenberg. Improvements in Obfuscation and Detection Techniques of Malicious Code. PhDthesis, The Open University, 2016.
  3. N. Scaife, H. Carter, P. Traynor, and K. R. Butler. Cryptolock (and drop it) : stopping ransomware attacks on user data. In Distributed Computing Systems (ICDCS), 2016 IEEE 36th International Conference on, pages 303–312. IEEE, 2016.

Pour les filles et la science

En octobre dernier, le colloque « Casser les codes. Femmes, genre et informatique » co-organisé à l’Institut des sciences de la communication par la SIF et Inria a donné lieu à des débats riches. C’était l’occasion de faire le point sur la situation et de parler de propositions concrètes pour changer les choses. Une des présentatrices, Diane Baras, nous a parlé du travail de la Fondation L’Oréal. Binaire l’a invitée à prendre la plume ici pour nous raconter ce qu’ils font. Serge Abiteboul

Je m’appelle Diane, j’ai 36 ans.  Je suis ingénieure et je suis engagée pour la cause des femmes de science, et plus particulièrement en faveur des jeunes filles.

Je rêve qu’au plus vite, les jeunes filles puissent choisir librement d’exercer un métier scientifique. Aujourd’hui ce n’est pas le cas : en France, moins de 30% des étudiants en sciences fondamentales sont des filles, alors qu’elles composent près de la moitié des classes de Terminale S. C’est à l’âge de 15 ans en moyenne que les jeunes filles se détournent des sciences. Or 15 ans, c’est l’âge des choix d’orientation. On pourrait invoquer comme cause la méconnaissance des métiers scientifiques. Ma conviction est que le problème est bien plus profond. Notre société véhicule encore et toujours des préjugés à l’égard des sciences et des femmes scientifiques : les métiers seraient difficiles, monotones, solitaires, élitistes et difficiles d’accès. Si cela vous paraît caricatural, interrogez les jeunes autour de vous. Les réponses sont parfois sans appel.

Je les entends régulièrement dans les classes où j’interviens depuis 2 ans comme ambassadrice du programme Pour les Filles et la Science de la Fondation L’Oréal. Demandez à des jeunes de 15 ans de décrire un scientifique : vous obtiendrez quasi systématiquement la description du savant fou ! Instaurez le dialogue avec les jeunes et vous verrez se dessiner un manque de confiance chez de très nombreuses jeunes filles, persuadées de ne pas avoir les prédispositions pour ces « métiers d’hommes ».

C’est pour toutes ces raisons que je me suis engagée dans ce programme. Créé en 2014, en partenariat avec le Ministère de l’Éducation Nationale, il est destiné à améliorer l’attractivité des métiers scientifiques et à susciter plus de vocations scientifiques, en particulier chez les jeunes filles. Il est basé sur le role model. 200 femmes scientifiques partent régulièrement, comme moi, à la rencontre des jeunes de la 4ème à la terminale. Ce programme a la particularité d’être épaulé par une agence spécialisée dans le changement comportemental. L’ensemble des ambassadrices est entrainé à créer le lien avec les jeunes, à engager la discussion, à ébranler les préjugés, à redonner confiance, et surtout… à inspirer ! Au travers de notre propre parcours personnel et professionnel, nous devenons avec modestie des role models.

Une éducatrice spécialisée, Elsa Lorthe, forme les futures ambassadrices

Depuis son lancement, plus de 45 000 élèves, garçons et filles, ont été sensibilisés aux filières scientifiques partout en France. Parmi ces jeunes, j’ai vu des visages s’illuminer, des yeux s’écarquiller, de l’espoir émerger. Ce programme marche. Je l’ai vu de mes yeux !

Changer la donne est possible. Cela nécessitera l’investissement de tous. C’est une mission de la Fondation L’Oréal. Au-delà des interventions en classe, la Fondation a bousculé les codes en créant un show innovant en collaboration avec la Cité des Sciences et de l’Industrie de la Villette. Imaginez sur la scène de l’auditorium, un maître de cérémonie ancien GO du club Med et 3 Ambassadrices de la science aux parcours variés (IUT, DUT, école d’ingénieur, doctorat, etc.) ; dans la salle et en visioconférence dans toute la France, des jeunes connectés avec leur téléphone portable pour répondre à des sondages en live et chatter en direct avec les  femmes scientifiques. Le style est décalé et étonnant mais il est profondément humain et moderne. Je suis convaincue que c’est ce type d’actions qui aidera les jeunes à changer leur regard sur les sciences.

Une autre action de la Fondation : une campagne YouTube à suivre avec le hashtag #NowYouKnow. Le principe : 6 influenceuses de Youtube rencontrent, au cours de 6 vidéos, 6 scientifiques pour discuter d’une question qui les taraude chacune. C’est ainsi, par exemple, que Lola Dubini (actuellement sur M6 pour A la Recherche de la Nouvelle Star) rencontre Jimena Royo Letellier, une scientifique travaillant pour la plateforme musicale Deezer. La discussion s’enclenche pour comprendre comment les plateformes musicales parviennent à nous proposer, comme par magie, des play lists qui nous séduisent. Et bien sûr, ce n’est pas de la magie, c’est de la science ! 2 vidéos sont actuellement accessibles avec déjà 170 000 vues.

La science peut séduire les jeunes garçons et les jeunes filles. Preuve en est !

Diane Baras, L’Oréal, @DianeBaras