Prenez bien soin de vous ce mois d’août…

En août, binaire prend ses quartiers d’été
et vous retrouve à la rentrée.

 

Après une année chargée pour tout le monde, binaire se met en pause estivale mais vous accompagne en vous proposant quelques relectures. Nous avons pour cela sélectionné les articles les plus consultés et il est amusant de constater que leurs sujets « collent » très fidèlement aux thématiques centrales traitées par binaire : cybersécurité, environnement, mécanismes d’apprentissage, Internet…

Profitez des vacances pour les redécouvrir et les partager avec votre entourage !

  • Des codes malveillants jusque dans la poche : une question majeure. De quoi s’agit-il ? Comment fonctionnent-ils ? Comment les détecter et s’en protéger ? Partons à leur découverte.
  • Les modèles mathématiques : miracle ou supercherie ? :  nous sommes souvent confrontés à une avalanche de chiffres, basés sur des modèles mathématiques, voici les bénéfices mais aussi les limites de telles approches.
  • Impacts environnementaux du numérique : de quoi parle-t-on ? L’émergence du numérique est aussi un choc environnemental pour la planète, certes, mais de combien ? Et surtout, quelles sont nos alternatives ?
  • Les algorithmes de recommandation   comment marchent-ils, eux qui nous disent ce qu’ont acheté les autres acteurs ou nous enferment dans une bulle informationnelle ? Décryptage en nous expliquant le « comment ça marche ».
  • Apprendre sans le savoir ? Les algorithmes d’intelligence artificielle sont basés sur des apprentissages et des connaissances issus de plusieurs domaines dont les sciences cognitives, comparons ici avec l’apprentissage humain.

Et puis, profitez des vacances pour lire ou relire les Entretiens autour de l’informatique comme celui ci :

  • Le numérique, l’individu, et le défi du vivre-ensemble.   Ancien banquier entré chez les Dominicains , Éric Salobir, prêtre, est un expert officiel de l’Église catholique en nouvelles technologies et favorise le dialogue entre les tenants de l’intelligence artificielle et l’Église, alors lisons le.

Bonnes vacances et surtout prenez bien soin de vous et des autres en cette période compliquée.

Rendez vous à la rentrée !

Éducation et la diversité de l’informatique à l’école

 Télétravail,  visioconférence, école à la maison, et  classes virtuelles pendant le confinement.  Nous avons tous eu besoin de faire appel aux outils numériques, avons-nous eu la culture nécessaire pour affronter la situation? Quelle est la mission de l’école par rapport à l’informatique dans le monde d’aujourd’hui?

Jean-Pierre Archambault,  président de l’association Enseignement Public et Informatique (EPI), nous parle -dans un texte extrait de la revue Terminal– de l’informatique à l’école, son importance, les différents approches pédagogiques et son histoire en France. Tamara Rezk

Le paysage de l’informatique et des TIC éducatives s’est transformé d’une manière notable à la rentrée scolaire 2012 avec la création en Terminale S d’un enseignement de spécialité « Informatique et Sciences du numérique » . L’informatique est ainsi (re)devenue une discipline scolaire d’enseignement général au lycée, un statut qu’elle avait perdu. C’est important car l’expérience des années 1980 et 1990 avait montré que l’informatique « objet d’enseignement » et l’informatique « outil pédagogique » étaient complémentaires et se renforçaient mutuellement. L’informatique est à la fois un élément de la culture générale scientifique scolaire au XXIème siècle et un instrument qui, bien utilisé, enrichit la panoplie pédagogique des enseignants.
En France, à l’instar de ce que l’on a pu constater notamment dans un certain nombre de pays européens, la discipline informatique a connu sur la durée une émergence chaotique, avec des avancées et des reculs, un mouvement de balancier. Dans les années 1980 et 1990, il y avait dans les lycées une option informatique d’enseignement général qui donnait satisfaction. Ce qui n’a pas empêché qu’on la supprime, pour de mauvaises raisons, une première fois en 1992 (alors qu’elle était en voie de généralisation) et une seconde fois en 1998 après qu’elle eut été rétablie en 1995.
Crédits : Compassionate Eye Foundation/Chris Ryan – Getty
Selon une première approche pédagogique, les apprentissages doivent se faire exclusivement à travers les usages de l’outil informatique dans les différentes matières scolaires existantes : pas de discipline informatique. Une autre approche pédagogique existe pour laquelle, l’informatique étant partout, elle doit être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle. Pour les uns, l’utilisation des TIC suffit. Pour les autres, l’utilisation d’un outil, matériel, logiciel, conceptuel, ne suffit pas pour le maîtriser.
Correspondant à l’approche par les seules utilisations, le « B2i » a vu le jour en 2001. Il s’est révélé être un échec. Cet échec était prévisible : imaginons que l’on supprime le cours de mathématiques et qu’on décide de traiter les entiers relatifs en histoire, à l’occasion de l’étude de la période avant-après J.-C., ou encore les coordonnées en géographie quand on parle de longitude et de latitude. Cela ne fonctionnerait évidemment pas. Pourtant, c’est ce que l’on a fait avec l’informatique.

Depuis longtemps, d’une manière générale, nous savons qu’il est indispensable que tous les jeunes soient initiés aux notions fondamentales de nombre et d’opération, de vitesse et de force, d’atome et de molécule, de microbe et de virus, de genre et de nombre, d’événement et de chronologie etc., sous la forme de disciplines scolaires. Pour différentes raisons.

La thermodynamique, la mécanique, l’électricité, la chimie sous-tendent les réalisations de la société industrielle. Cela concerne effectivement les futurs spécialistes. Mais tout le monde ne sera pas technicien ou ingénieur. En revanche, tout le monde a besoin d’une culture de base en la matière. Au travail mais aussi dans le quotidien car il faut connaître l’environnement moderne. Se connaître aussi, savoir de quoi est fait l’être humain et comment son corps fonctionne, même si tout le monde n’est pas médecin ou infirmier ou infirmière. Et il y a les débats de société, portant par exemple sur le nucléaire ou les OGM, auxquels le citoyen doit pouvoir participer et pour cela savoir ce dont il est question. Il peut alors s’appuyer sur les connaissances scientifiques qu’il a acquises grâce aux cours de sciences physiques et de SVT qui sont de fait des conditions d’un exercice plein de la citoyenneté. Il s’agit donc des trois missions traditionnelles et fondamentales de l’école, à savoir former l’homme, le travailleur et le citoyen.

Pourquoi et comment l’informatique à l’école ?

Pour les mêmes raisons que précédemment. En effet, on parle beaucoup de la place occupée par le numérique, de plus en plus d’activités et de réalisations reposant sur la numérisation de l’information. Or, au cœur du numérique, il y a la science informatique car elle est la science du traitement et de la représentation de l’information numérisée. Elle sous-tend le numérique comme la biologie sous-tend le vivant et les sciences physiques l’industrie de l’énergie.

L’informatique est la forme contemporaine de l’industrialisation. Elle intervient dans l’économie de trois façons essentielles :

  • Au niveau de la production de biens manufacturés ou agricoles par l’automatisation de plus en plus poussée des processus de production, automatisation partielle ou de plus en plus souvent totale (robotisation) et contrôle permanent du bon déroulement des processus.

  • Au niveau de la création de nouveaux produits ou de l’amélioration de produits anciens par l’introduction, dans la plupart des objets ou machines vendus, de puces qui assurent des fonctions de plus en plus nombreuses avec plus de précision et de fiabilité que ne pouvaient le faire l’utilisateur humain ou des mécanismes anciens. Les exemples paradigmatiques en sont la carburation et le freinage des voitures automobiles ; le vaste chantier des économies d’énergie dans la construction et l’habitat repose aussi sur leur informatisation.

  • Au niveau de la gestion des entreprises comme des administrations, les programmes informatiques, qui ont dès le début de celle-ci remplacé les méthodes traditionnelles de comptabilité et de gestion des stocks ou des commandes, font place désormais à des « systèmes d’information » qui gèrent tous les flux de données nécessaires à chaque acteur, du directeur au plus modeste employé, aussi bien ceux dont il doit disposer venus d’ailleurs que ceux qu’engendre son activité quotidienne. En ce sens le système d’information devient le cœur même de l’entreprise, qui en irrigue toutes les parties et permet de savoir, donc de contrôler et rationaliser, tout ce qui s’y passe : il est l’outil stratégique par excellence sur lequel reposent toutes les décisions à prendre concernant les diverses composantes de l’entreprise.

Les débats de société suscités par l’informatique se multiplient. La neutralité du Net, le vote électronique, les libertés numériques font la Une de l’actualité. L’année 2009 a vu le vote de la loi Création et Internet dite loi Hadopi. En 2006, la transposition par le Parlement de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI) avait été l’occasion de débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique.

En effet, s’il fut abondamment question de copie privée, de propriété intellectuelle, de modèles économiques… ce fut sur fond d’interopérabilité, de DRM, de code source, de logiciels en tant que tels. Dans un cas comme dans l’autre, on a constaté un sérieux déficit global de culture du numérique, largement partagé. La question se pose bien de savoir quelles sont les représentations mentales opérationnelles, les connaissances scientifiques et techniques qui permettent à tout un chacun d’exercer pleinement sa citoyenneté. « Cliquer sur une souris » et utiliser les fonctions simples d’un logiciel ne suffisent pas à les acquérir, loin de là.

Il y a d’autres débats sociétaux qui requièrent, eux aussi, une culture informatique. Dans les colonnes du Monde diplomatique, en décembre 2002, John Sulston, prix Nobel de médecine, évoquant les risques de privatisation du génome humain, indiquait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Open source, logiciels libres, code source… C’est quoi le code source pour quelqu’un qui n’a jamais écrit une ligne de programme ? Le libre est aussi un outil conceptuel qui aide à appréhender les problématiques de l’immatériel. Il suppose une culture générale informatique.

Et tout un chacun rencontre le numérique et l’informatique dans la vie de tous les jours. De l’utilisation de l’ordinateur à celui de son smartphone en passant par la feuille d’impôts remplie sur le Web et le contrat avec son fournisseur d’accès.

Or, concernant l’enseignement de l’informatique, le rapport Stratégie nationale de recherche et d’innovation, SNRI, faisait le constat en 2009 que, d’une façon générale, « le système éducatif ne lui avait pas donné une place suffisante en regard des enjeux futurs, industriels et d’innovation pour l’ensemble de l’économie nationale, et de participation à la vie sociale et politique de la part des citoyens. Absent aux niveaux primaire et secondaire, il est inexistant ou trop limité dans les classes préparatoires aux grandes écoles. La majorité des ingénieurs et chercheurs non informaticiens n’acquièrent pendant leur cursus qu’un bagage limité au regard de ce que l’on observe dans les autres disciplines. Pourtant, ils utiliseront ou pourront avoir à décider de l’utilisation d’outils informatiques sophistiqués. Il est à craindre qu’ils ne le fassent pas avec un rendement optimal ou que, en position de responsabilité, ils sous-estimeront l’importance du secteur ».

Comment l’école doit-elle faire pour donner à tous l’indispensable culture informatique ? C’est simple ! Il convient que l’école fasse ce qu’elle fait avec les autres domaines de la connaissance : offrir à tous les élèves un cadre disciplinaire. Tous les enseignements se font en français (même pour une petite part l’apprentissage des langues étrangères). Pour autant, il y a un cours de français. Il est indispensable aujourd’hui d’initier les élèves aux notions centrales de l’informatique, devenues incontournables : celles d’algorithme, de langage et de programme, de machine et d’architecture, de réseau et de protocole, d’information et de communication, de données et de formats, etc. Cela ne peut se faire qu’au sein d’une vraie discipline informatique.

Jean-Pierre Archambault

Référence:  voir article complet ici

Les cyberattaques ne sont plus ce qu’elles étaient

Tous les ans, la société Verizon publie un rapport décrivant les faits saillants de l’année écoulée en termes de sécurité des données. Nos amis Jean-Jacques Quisquater et Charles Cuvelliez ont lu ce document et nous livrent leur analyse. Parfois surprenant ! Pascal Guitton

A lire le dernier Data Breach Investigation Report de Verizon 2020 [1], un monument dans la communauté cyber, 13 éditions au compteur, il y a quelques idées reçues bien ancrées qui doivent être remises en question. Ce ne sont pas moins de 30 000 incidents de sécurité sur l’année 2019 qui ont été analysés à partir des contributions d’à peu près 80 organismes dans autant de pays qui collaborent désormais à ce rapport. 10 % de ces incidents ont mené à une fuite de données. Pour 2/3 d’entre elles, il n’a même pas fallu mobiliser des moyens techniques sophistiqués : il a suffi aux criminels d’utiliser des mots de passe volés, devinés ou de mettre en œuvre du hameçonnage quand ce ne fut pas tout simplement une erreur humaine : un envoi des données de l’entreprise à une mauvaise personne, par email par exemple (comme le fameux Autofill de Outlook qui vous propose par défaut les dernières adresses email utilisées qui commencent par les mêmes lettres que celle à qui vous destinez vraiment le mail…et si facilement acceptées par distraction).

Les données qui fuitent sont à 58 % à caractère privé (adresses mails, numéros de téléphone, adresses…) qui se trouvent dans des emails ou des bases de données mal protégées. Des données plus sensibles encore comme les données bancaires ou de paiement ou bien les données médicales s’y retrouvent moins. Ce n’est pas illogique : ces données ont toujours été sensibles et sont très protégées depuis longtemps. La mise en place il y a 2 ans du RGPD européen a permis d’attacher plus d’importance aux données personnelles et donc à leur protection.

Les attaques contre les applications web (à 43 %) et le hameçonnage sont les causes premières de brèches de données. Là non plus, rien d’étonnant : les applications web sont une porte extérieure qui donne accès à l’entreprise, certes fermée mais accessible à tous. Il s’en trouve bien quelques-uns pour réussir à l’ouvrir. Avec l’utilisation grandissante du cloud, où tous les logiciels, les bases données sont accessibles via une interface web, cette tendance ne fera que croitre. Attention aussi, dit Verizon, aux infrastructures et autres serveurs qui sont connectés au web : s’ils sont oubliés, pas mis à jour, ils seront repérés automatiquement par des hackers qui en prendront le contrôle comme relais de leurs attaques.

Stachledraht DDos Attack
Attaque par déni de service – Crédit : Everaldo Coelho and YellowIcon / LGPL

Les attaques par déni de service et les rançongiciels sont les formes les plus prévalentes pour les incidents de sécurité : les premiers inondent les systèmes de l’entreprise d’un déluge de requêtes et les étouffent en saturant leurs capacités de traitement. Les deuxièmes chiffrent les contenus qu’ils trouvent sur leur chemin une fois introduit dans les ordinateurs de l’entreprise. Les rançongiciels ne provoquent pas (encore) de brèche de données : leurs auteurs exigent une rançon en échange d’une clé de déchiffrement mais ils n’hésitent plus à exfiltrer d’abord les données (ce qui exige plus d’efforts de leur part et les expose aussi). Ils peuvent alors menacer de les publier si l’entreprise refuse de payer quand elle estime pouvoir s’en sortir avec les copies de sauvegarde. La part des rançongiciels dans les incidents de sécurité provoqué par un malware s’élève cette année à 27 % et ne fait que croître (en troisième position des malwares). 18 % des organisations ont eu à bloquer un malware en 2019. Par contre les chevaux de Troie comme variété de malware diminuent à la cinquième position. Ils restent cependant un maître-choix pour les attaques sophistiquées par lesquelles le criminel peut avoir accès à distance aux systèmes infectés via une porte dérobée. Sans doute, explique Verizon, les versions les plus simples de ces chevaux de Troie sont mieux stoppées mais les plus élaborées restent bel et bien actives. Les malwares semblent être principalement délivrés par mail (peu par le web) sous forme de documents Office ou sous forme d’applications Windows, compte-tenu de leur large déploiement dans monde de l’entreprise.

Les plus courtes sont les meilleures

Autre constat : les attaques doivent être courtes dans la durée pour être efficaces. L’époque où le hacker pouvait pénétrer dans le réseau et prendre son temps pour trouver les joyaux de la couronne semble révolue, sinon le criminel finit par être découvert. Si l’attaque a besoin de plus de 5 étapes (pénétrer dans le réseau cible, y obtenir des droits suffisants, se diriger vers les zones sensibles…) avant d’être effective, elle échouera. Une attaque ne débute jamais de manière très sophistiquée : hameçonnage, utilisation de login/mot de passe volé, etc… Il est amusant de constater d’ailleurs, dit Verizon, qu’une fuite d’une base de données de login/mot de passe ne génère aucune excitation, aucun effet d’aubaine. On ne voit pas d’augmentation d’activité en la matière. Non, ces fuites alimentent simplement le corpus, la documentation utilisée pour tenter d’accéder aux systèmes. Un fois dans le réseau, le criminel y installe des malwares ou fait appel à des techniques plus sophistiquées pour prendre possession des lieux.

70 % des brèches de données proviennent d’acteurs extérieurs à l’entreprise et 86 % d’entre elles, quand ce ne sont pas des accidents, reposent sur des motivations financières : l’employé qui cherche à se venger est donc plus rare tandis que le cyber-espionnage n’est à l’origine que de 1/5 de ces attaques. L’erreur humaine est la seule cause de brèche de données qui augmente alors que toutes les autres (malware, hameçonnage, intrusion physique) diminuent. C’est un mauvais signe résultant certainement de la pression grandissante sur les équipes de sécurité qui doivent suivre les logiques de DevOps : développer (vite), mettre en production (vite) dans un cycle qui se répète sans fin. A quand le SecureDevOps ? Parmi ces erreurs, une mention spéciale pour les erreurs de configuration qui amènent, par exemple, des chercheurs à découvrir des bases de données accessibles facilement sur le web. Si les erreurs humaines progressent, c’est aussi, dit Verizon, dû au RGPD qui exige de donner les causes des brèches de données : on ne peut plus cacher le côté humain de nombreuses erreurs. La décroissance des autres formes d’attaques est, par contre, une bonne nouvelle : s’il y a moins d’hameçonnage, c’est grâce à la formation du personnel à le reconnaitre. S’il y a moins de malwares, c’est le signe que les entreprises se protègent mieux et investissent dans les technologies pour les contrer. Mais il ne faut pas croire que les malwares ont disparu.

By ja:User:ゐ – Transferred from ja.wikipedia to Commons by Maksim., Public Domain, https://commons.wikimedia.org/w/index.php?curid=515217

Vos appareils sont tracés

Si vous l’ignoriez, sachez que vos adresses IP sont constamment scannées (toutes les quelques secondes ) à la recherche de portes ouvertes vers votre réseau. Les chercheurs de Verizon ont cherché à savoir quelles portes les criminels testaient aujourd’hui : Telnet et ssh arrivent toujours en tête (ces deux services permettent de se connecter au système et de le contrôler comme un utilisateur normal enregistré sur la machine). Mais en positions 3, 4 et 5 on trouve les caméras connectées, les routeurs domestiques et les portes d’entrées pour débogger Android. Il faut dire que ces appareils sont en général moins bien sécurisés, y compris le mode débogage des smartphones : qui connait le mot de passe du routeur de son domicile, qui ne s’est jamais préoccupé du mot de passe de la caméra de surveillance qu’il a installé, ou encore de son éclairage intelligent (surtout quand le même mot de passe initial est partout le même).

Les vulnérabilités, la partie émergée de l’iceberg

Moins de 5 % des incidents de sécurité sont le résultat de l’exploitation d’une vulnérabilité. On le sait peu mais il y a énormément de vulnérabilités découvertes et les organisations en découvrent tout autant sur leurs réseaux. Mais en fait, seul un faible pourcentage est utilisé pour des fuites de données. Dans leurs systèmes SIEM, les organisations ont moins de 2.5 % d’alertes qui sont liées à l’exploitation d’une vulnérabilité. Pour Verizon, ceci signifie que les entreprises colmatent les vulnérabilités de manière rapide mais ce qui pose problème, c’est la méconnaissance de ce qu’il faut colmater. Verizon a fait un test : des adresses IP qui se trouvent être sujettes à une vulnérabilité récente le sont pour de vieilles vulnérabilités. C’est le signe d’un asset oublié dans le réseau …
Les cyberattaques ont encore de beaux jours devant elles.

Jean-Jacques Quisquater (Université de Louvain, Ecole Polytechnique de Louvain et MIT) & Charles Cuvelliez (Université de Bruxelles, Ecole Polytechnique de Bruxelles)

Pour en savoir plus

[1] Data Breach Investigation Report 2020, https://enterprise.verizon.com/resources/reports/2020-data-breach-investigations-report.pdf

Les véhicules Autonomes

L’avènement des véhicules autonomes (VA) et des VA communicants (VAC) pose des questions de sécurité routière, de cybersécurité et de protection de la vie privée des passagers. Binaire publiait en 2018 une contribution Sécurité routière et cybersécurité qui nous alertait sur les risques encourus. Nathalie Nevejans et Gérard Le Lann reviennent sur ce sujet pour en donner un rapide éclairage scientifique, technologique, et juridique. Une première partie est consacrée aux véhicules autonomes. Une seconde, à venir, traitera des VA communicants. Serge Abiteboul

Les contes de fées des années 2010 ont vécu :
• Sécurité : Les VA ont parcouru des millions de miles/km sans accident : Faux. Le premier accident impliquant un VA s’est produit en 2011 devant le quartier général de Google en Californie.
• Efficacité : Les véhicules totalement autonomes seront disponibles en 2020 : Faux, à l’évidence.

Six niveaux d’autonomie ont été définis par la Society of Automotive Engineers, de 0 (conduite humaine) à 5 (conduite totalement automatisée, en tous lieux). Certains constructeurs affirment à présent qu’il n’y aura pas de VA de niveau supérieur à 3 tandis que d’autres, en coopération avec les meilleurs laboratoires du monde académique, verrouillent les droits de propriété intellectuelle et les brevets relatifs aux véhicules de niveau 5.

Les VA disponibles à l’achat, de niveaux 2, rarement 3, circulent sous le contrôle de conducteurs, aidés de systèmes ADASS (Advanced Driver-Assistance Systems), certains nécessitant un récepteur GNSS (Global Navigation Satellite System comme GPS, Galileo, Glonass, ou Beidou). En mode autonome, le comportement d’un VA est déterminé par un système de bord qui exécute des logiciels alimentés par des données provenant de divers capteurs (radars, lidars, caméras, etc.), de cartes numériques et d’algorithmes de reconnaissance environnementale exploitant l’apprentissage automatique.

 

Les six niveaux d’autonomie. Source : ResearchGate

Cockpit de VA (vue synthétique). Source : LinkedIn

Sécurité et efficacité. En 2017, aux États-Unis, on dénombrait 34 247 morts sur les routes, environ 10 fois moins en France. Les objectifs avec les VA sont
• sécurité : approcher 0 accident mortel et 0 blessure grave irréversible, et
• efficacité : réduire les temps de trajets.

Il est quasiment trivial de réaliser au moins en partie les objectifs sécuritaires en imposant de grandes séparations inter-véhiculaires et/ou de faibles vitesses. L’exigence d’efficacité, trop souvent ignorée, est donc essentielle. Outre des dizaines d’hospitalisations, six accidents mortels ont été causés à ce jour par des VA en mode autonome, cinq aux États-Unis et un en Chine. Les échantillons disponibles sont trop petits pour pouvoir conclure. Néanmoins, rien ne permet d’affirmer que le taux de mortalité avec les VA est ou sera inférieur à 1,13 par 100 millions de véhicules miles (le fatality rate en 2018 aux États-Unis pour des véhicules actuels conduits par des humains). Ce constat est conforté par une étude publiée par le IIHS [i] en juin 2020. Parmi les principales faiblesses, on trouve la faillibilité des capteurs et des techniques IA actuelles (les faux négatifs), le manque de communications explicites (cf. l’article à venir sur les VA communicants), ainsi que le partage d’autorité entre humain et système de bord. Ce problème, bien connu en transport aérien, n’a pas de solution générale. Partant du diagnostic selon lequel « The human is the bug », l’un des pionniers des Google cars choisit à l’époque de viser d’emblée la conduite automatisée.

Accident mortel d’un VA, 2018, Highway 101, CA, États-Unis. Source : Paloalto Online

 

La question des responsabilités. Tous les VA sont équipés d’enregistreurs infalsifiables – de boîtes noires. L’examen de l’historique des événements datés qui précèdent un accident permet de déterminer, dans chaque véhicule impliqué, le ou les événements qui a/ont causé l’accident. Donc, contrairement à ce qu’on lit parfois, il est possible d’identifier ce qui est à l’origine d’un accident : un conducteur, un équipement, un logiciel, etc. Ce travail d’enquête destiné à réunir des faits est mené par des experts mandatés par des tribunaux, des compagnies d’assurance, etc. Les tribunaux peuvent alors attribuer les responsabilités civiles (les dommages et intérêts) et/ou pénales en déterminant qui doit répondre des conséquences de l’accident.

Quel que soit le pays, un conducteur de VA est censé aujourd’hui être prêt à intervenir, si nécessaire, sous peine d’être tenu responsable en cas d’accident. Cette obligation est ambiguë. En conditions accidentogènes, en mode autonome, il n’y a que deux possibilités. Ou bien le système de bord fonctionne correctement : il émet une alerte sur désengagement. Les expérimentations [ii] démontrent que les délais de réaction des humains vont de 2 à 8 secondes, trop élevés pour éviter des collisions, mais suffisants pour en créer. Ainsi, un conducteur qui reprend la conduite sur alerte ne peut être systématiquement tenu responsable, sauf à imaginer qu’il est doté de capacités surhumaines. Ou bien le système de bord est défaillant : il reste muet et ne signale pas d’alerte. Afin de parer à des silences injustifiés, un humain doit donc surveiller son VA quasiment continuellement. De facto, cet humain conduit tout le temps ; avec certains modèles, il y est d’ailleurs contraint, voir plus loin. La contradiction avec les promesses liées aux VA est flagrante. Bien évidemment, un conducteur ne peut être tenu responsable des dysfonctionnements d’un système de bord.

Des législations nationales évoluent significativement pour tenir compte des réalités technologiques [iii]. Concepteurs, développeurs, intégrateurs, certificateurs, sont à l’origine des VA ou sont impliqués dans leur mise en service. Dans tous les cas des niveaux 1 à 4, leur responsabilité peut donc être engagée. Elle l’est obligatoirement en niveau 5, les conducteurs n’existant pas. Dans le cycle qui va de la conception d’un VA à son autorisation de commercialisation, puis à ses utilisations, il y a toujours in fine un ou des humains sur qui faire peser la responsabilité. Il ne sert donc à rien d’inventer une personnalité juridique des robots [iv] sur roues, dans le cas des VA.

Cybersécurité. Les capteurs extérieurs des VA peuvent défaillir et faire l’objet d’attaques comme des aveuglements visuels, des radars brouillés ou des signaux GNSS falsifiés, destinées à créer des collisions. La redondance des capteurs et les VA communicants permettent de gérer de telles défaillances ou attaques.

Protection des données personnelles. Traçage et collecte de données personnelles sont inévitables avec les applications de navigation payantes ou gratuites (Google Maps, Waze, Here WeGo, etc.). Mais leur activation est optionnelle, soumise au choix des passagers. Par contre, des capteurs intérieurs (caméras, micros, etc.) des VA actuels collectent en permanence des données sur les occupants. Au nom de la sécurité, il est pertinent de surveiller l’état de vigilance d’un conducteur. Par exemple, avec les Cadillac CT6, si le conducteur cesse de regarder la route plus de 5 secondes, une alarme est déclenchée par une caméra qui surveille en permanence le point focal de ses pupilles. Pour la recherche des responsabilités, il est légitime d’enregistrer dans une boîte noire les données de suivi de conducteur. Mais il n’est pas indispensable d’enregistrer aussi des données à caractère personnel comme qui voyage avec qui, à quelle heure, ou les conversations entre passagers. Au regard du RGPD et de la position récente de la Commission européenne sur la reconnaissance faciale, de tels enregistrements sont illégaux sans le consentement préalable des personnes concernées. Comment manifester un tel consentement ? Cette question, qui reste ouverte, a une réponse : offrir une option intimité intérieure, dont l’activation entraîne la désactivation des capteurs, sauf ceux dédiés au suivi du conducteur. À l’exception des VA professionnels (flottes d’entreprises, transport public, etc.), le choix d’activer ou de ne pas activer cette option est laissé aux occupants d’un VA, qui n’ont pas nécessairement envie que des données personnelles soient enregistrées dans des serveurs inconnus, éventuellement revendues ou piratées. L’activation de cette option doit être aussi simple et intuitive que pour l’option « start/stop » moteur, exprimable via une commande tactile ou vocale.

Un article à venir est consacré aux VA communicants.

Nathalie Nevejans, Directrice de la Chaire IA Responsable (Université d’Artois) et Membre du Comité d’éthique du CNRS (COMETS), nathalie.nevejans@univ-artois.fr et Gérard Le Lann, Directeur de Recherche Émérite, INRIA Paris-Rocquencourt, gerard.le_lann@inria.fr

[i] Insurance Institute for Highway Safety  https://www.iihs.org/news/detail/self-driving-vehicles-could-struggle-to-eliminate-most-crashes

[ii] Par exemple, Stanford University et Robert Bosch, Conférence ITS 2015, pages 2458-2464

[iii] “Autonomous vehicles: Driving regulatory and liability challenges”, Automotive World, 7 avril 2020

[iv] Parlement Européen, 2017, dans une résolution sur les règles de droit civil en robotique. Le Groupe d’experts de haut niveau de la Commission Européenne s’est opposé à cette dérive

Quand les objets connectés ont besoin d’intelligence artificielle

 L’informatisation des objets de notre quotidien est en marche, cette invasion des pucerons comme le dit Gérard Berry, à savoir plusieurs dizaines de milliards bientôt probablement d’objets, qui de nos véhicules à nos frigos nous permettent d’automatiser notre quotidien. Pourquoi l’intelligence artificielle est-elle indispensable pour exploiter efficacement les données recueillies ? Laissons la parole à Emmanuel Frenod pour nous expliquer tout cela. Antoine Rousseau et Thierry Viéville.

Mais qu’est ce que l’IoT ? 

C’est l’Internet of Things, ou l’Internet des objets en français. Cela consiste à utiliser les données issues d’objets connectés pour les piloter ou les aider à se piloter. On conçoit le concept d’objet connecté de manière très large au sens où c’est quelque chose ou quelqu’un sur lequel sont placés des capteurs qui remontent des données vers une application qui les utilise. L’objet connecté peut être une machine-outil dans un atelier, ou une usine,  une voiture, une personne portant un smartphone,  un fruit, un champ de céréales, etc. Il est prévu qu’à relativement court terme il y aura 40 milliards d’objets connectés.

Et qu’est ce qu’une application ?

Ici, le concept d’application est vu de manière large. Cela peut être un logiciel qui tourne sur une machine juste à côté des capteurs comme pour le GPS de votre smartphone (qui sont en l’occurrence les récepteurs des signaux satellites, l’accéléromètre et le gyromètre, et se trouvent sur le même appareil que le programme qui les traite) ou dans votre voiture. Ce logiciel peut aussi s’exécuter sur un ordinateur distant (comme c’est souvent le cas pour des machines-outils) ou très distant (les voitures vendues par la firme Tesla par exemple remontent en permanence de l’information sur leur état vers des data centers).  L’application peut également être distribuée avec une partie s’exécutant à côté des capteurs (cette partie est désignée comme étant « l’Edge Computing ») et une partie distante. Enfin, et c’est par exemple le cas pour de futurs dispositifs médicaux pour  l’aide à la réalisation d’actes médicaux à distance, l’application peut inclure une collaboration entre des experts humains et des « bases de connaissances  intelligentes » permettant de traiter de colossaux historiques de réalisations d’opérations passées. 

Que signifie « IA » dans le cadre du présent article ?

Tentons une brève définition de ce qu’est une IA, comme un « programme Informatique » qui peut mimer une compétence humaine de haut niveau (analyse d’image ou de parole par exemple) ou qui peut faire mieux qu’un humain en matière de gestion de la complexité pour l’aider à décider en utilisant des données et avec des capacités d’apprentissage. Cette capacité d’apprentissage est souvent expliquée comme une capacité du programme à se réécrire tout seul. Il est plus conforme à la réalité de dire que le programme dépend de paramètres (éventuellement en grand nombre) qui peuvent être appris et se mettre à jour en fonction des données qui remontent du terrain.

Document de travail sur un algorithme d’IA pour traiter des données d’IoT. ©emmanuel.frenod

En fait les données de l’IoT ne peuvent et surtout ne pourront de plus en plus être traitées qu’à l’aide d’IA spécialisées.  Cela peut sembler étrange. En effet, il est légitime de se poser la question de « Pourquoi utiliser des IA pour traiter les données issues de capteurs »  alors que simplement les recevoir et les mettre dans des tableaux de bord parlant pour les utilisateurs semblerait largement suffisant. Cependant, ne faire que cela ne permet pas de tirer la quintessence de l’IoT, et seules des IA ont la capacité à synthétiser en temps réel l’information que les flux de données de capteurs contiennent. Les trois raisons profondes de cela sont maintenant détaillées.

Traiter des données aléatoires non stationnaires

En premier lieu, disposer d’une suite de mesures brutes d’une grandeur faite par des capteurs ne présente pas ou que peu d’intérêt pour un humain. En effet, ces mesures sont entachées d’erreurs. En fait, elles sont précises en moyenne, mais sont très bruitées autour de cette moyenne. Lorsque l’on souhaite mesurer une grandeur qui n’évolue pas (ou peu), il est possible de pallier ce problème : il suffit de répéter la mesure plusieurs fois puis de faire une moyenne sur les mesures obtenues pour obtenir une estimation raisonnable de la valeur de la grandeur.

En revanche, si on souhaite mesurer une grandeur qui évolue rapidement, ce qui est souvent la problématique de l’IoT, il est indispensable de faire appel à une IA qui, avec ses capacités d’apprentissage, saura tirer profit de la précision « en moyenne » des capteurs en démêlant ce qui est du ressort de l’évolution de la grandeur d’intérêt et ce qui est du ressort de l’erraticité des mesures issues des capteurs.

Tableau blanc d’un mathématicien. ©emmanuel.frenod

Relier des données à une mesure utilisable

Une deuxième raison pour utiliser des IA est que dans certains cas, les capteurs ne donnent pas directement une information sur la grandeur à laquelle on s’intéresse, mais sur sa variation. Par exemple, l’accéléromètre de votre smartphone ne donne pas d’information directe sur votre position (mais bien sur sa variation). Pourtant votre appli GPS y fait appel. Un autre exemple : la température extérieure et l’ensoleillement ne donnent pas une information sur la maturité d’un fruit, mais elles contribuent à son mûrissement. Donc  les connaître au cours du temps permet d’en déduire une information sur le niveau de maturité du fruit suivi. Ainsi, dans le contexte de l’IoT, il est nécessaire de pouvoir traduire l’information sur la variation observée en une information sur la grandeur d’intérêt.

C’est une IA qui se charge de ça en synthétisant à la volée les informations issues des capteurs qui donnent de l’information sur la grandeur et ceux qui donnent de l’information sur ses variations.

Gérer la multitude des capteurs et de leurs données.

La troisième raison est que la prévision pour un nombre massif d’objets connectés rend inopérante l’approche pure « tableaux de bord ». Il est indispensable que des IA traitent les tâches de pilotage les plus courantes à l’aide des données qui remontent, et, que d’autres IA sollicitent les humains quand une intelligence humaine est vraiment nécessaire pour une phase donnée de pilotage de l’objet connecté. 

En conclusion

Une vocation principale de l’IA, au sens où c’est ce qui occupera le plus de temps de calcul demandés par des IA dans le futur, sera de gérer et valoriser les objets connectés. Cela démystifie sans doute un peu l’IA, car elle sera dans cette fonction finalement assez peu visible. Mais, elle aura là une très grande utilité et une très grande pertinence..

Emmanuel Frenod, mathématicien, Professeur à l’Université Bretagne Sud, au sein du Laboratoire de Mathématiques de Bretagne Atlantique,  fondateur et directeur scientifique de See-d (*).

(*) See-d accompagne les entreprises pour l’intégration de l’IA dans leurs processus et qui développe pour elles des IA d’aide à la décision sur mesure.

Le numérique va révolutionner l’éducation … vraiment ?

Nous entendons ou lisons très souvent – notamment dans binaire – que le numérique bouleverse à peu près toutes les facettes de nos vies. Que ce soit la médecine, le transport, l’industrie, le divertissement, quasiment tous les secteurs d’activité connaissent de profondes évolutions dues à l’informatique et ses applications. A première vue, l’éducation ne semble pas échapper à la règle si l’on croit les analyses les plus répandues. Gérard Giraudon et Margarida Romero, deux experts du numérique pour l’éducation, décryptent pour nous une vidéo de Derek Muller expliquant pourquoi ce n’est pas si simple. Pascal Guitton & Thierry Viéville

Depuis le début du 20ième siècle, nos sociétés ont connu nombre de révolutions technologiques (thermodynamique, nucléaire, informatique…) qui ont impacté la plupart des domaines (industrie, transports, commerce, agriculture, média…). Mises à part quelques exceptions, l’éducation n’en fait pas partie et les cours sont toujours donnés par un·e seul·e enseignant·e à des groupes d’élèves réunis dans une salle de classe. Certains pourraient reprocher cet état … à l’inertie de l’institution. Mais l’une des raisons pour laquelle la technologie n’a pas révolutionné l’éducation est au coeur même de ce qui est son rôle spécifique  : créer un contexte social et relationnel adapté pour accompagner dans l’apprentissage des savoirs scolaires et des compétences nécessaires. Les apprentissages scolaires ne se produisent pas spontanément par la simple socialisation de l’enfant (Tricot, 2014) : il est nécessaire d’organiser les situations d’apprentissage. A l’école, ces savoirs se développent dans un contexte scolaire et social avec d’autres apprenant·e·s et des enseignant·e·s  attentionné·e·s. Dans une vidéo publiée en 2014,  Derek Muller de Veritasium démystifie ces “révolutions” technologiques et place l’enseignant·e au coeur d’une relation éducative essentielle pour engager les élèves dans les activités d’apprentissage. Au delà de l’engagement et l’autonomisation de l’apprenant·e soulignés par Muller, nous devons également considérer le rôle des enseignant·e·s au niveau de l’ingénierie des activités d’apprentissage et de leur orchestration, sans oublier les précieuses rétroactions qui contribuent, plus généralement, aux apprentissages.

Au delà de la vidéo

Oui  « le rôle fondamental d’un enseignant n’est pas de fournir des informations, mais de guider le processus social d’apprentissage ; le travail d’un enseignant est d’inspirer, de mettre au défi, de motiver ses élèves à vouloir apprendre ». Et l’enseignant n’est pas qu’un animateur charismatique, il doit aussi avoir un rôle d’ingénieur pédagogique et de régulateur externe des processus d’apprentissage pendant l’activité et apporter des rétroactions permettant l’évaluation formative.

Comme l’explique très bien André Tricot en partageant les études sur les innovations pédagogiques et apprendre avec le numérique (voir par exemple cette présentation vidéo), le numérique est souvent un outil de plus, qui n’apporte pas en soi, d’innovation pédagogique. L’innovation technologique apportée par des technologies  comme la réalité augmentée (RA), réalité virtuelle (RV) ou encore la robotique pédagogique et les approches de fabrication numérique (maker) changent la médiation des échanges mais ne sont pas en tant que telles des innovations pédagogiques. Tout comme les outils technologiques historiques (tableau blanc, crayon, matériel de construction…), c’est le type de médiatisation des activités qui peut donner lieu, dans certains cas, à une innovation pédagogique.

Le numérique ne révolutionne pas les apprentissages, mais, est-ce que le numérique peut contribuer à comprendre les processus d’apprentissage ? Au delà du rôle de la technologie comme outil de médiation dans ces processus, le numérique nous permet de générer des traces de certains comportements de l’apprenant tant dans le cadre d’environnements informatiques d’apprentissage humain (EIAH) que par l’analyse automatique (vidéo ou via des objets connectés) des activités d’apprentissage non médiatisées par la technologie. Certains EIAH sont conçus pour générer des traces d’apprentissage pertinentes afin de permettre un retour d’information servant à la régulation des apprentissages, ou encore, à leur évaluation, dans une perspective de recherche. Nous pouvons même envisager l’émergence d’une approche computationnelle en éducation, qui applique des méthodes d’apprentissage automatique (machine learning) à l’ensemble de ces données générées.

L’utilisation de telles approches nous permet de rendre davantage visible et traçable les comportements d’élèves ou groupes d’élèves liés à certains processus d’apprentissage.

Sans le support du numérique, les traces liées à ces processus doivent être générées par des  processus de codification coûteux en ressources humaines. Prenons l’exemple de l’analyse de la résolution de problème dans une tâche type Tour de Hanoï. Pour son analyse, nous pouvons enregistrer la vidéo, puis ensuite codifier manuellement les opérations réalisées pendant l’activité. Une autre option serait de faire de chacun des disques un objet connecté permettant de générer les traces du comportement des élèves qui sont ensuite exploitées pour  analyser l’activité réalisée par un grand nombre de participants à cette tâche, ce qui, après l’effort de codification, permet de générer sans coût supplémentaire des traces massives pour un modèle de problème bien défini. Cette deuxième approche ouvre la porte à l’application des approches d’apprentissage machine à des tâches d’apprentissage concrètes : analyser les processus avec des approches data science obtenues avec des  traces pertinentes et offrir à un apprenant des aides personnalisées à partir d’un modèle développé sur un nombre important de participants.

Nous développons cette approche dans le contexte du projet AIDE mené à la suite du projet ANR CreaMaker qui a permis de développer des modèles de trace et des modèles en neurosciences computationnelles de l’équipe Mnemosyne. Dans ce projet, l’usage du numérique est au service de la génération de traces permettant de comprendre l’apprentissage humain dans une tâche concrète de résolution de problèmes.

La technologie ne révolutionne l’apprentissage mais peut permettre de l’étudier avec des nouvelles approches d’exploration et d’expérimentation dans des contextes spécifiés (Le numérique ne peut pas être utilisé sans tenir compte de la tâche et du contexte) fondées sur de l’acquisition de données. L’exploitation des approches computationnelles pour des tâches très formelles par exemple en mathématiques ou en grammaire est plus simple que pour des activités engageant des débats philosophiques ou des controverses environnementales, qui nécessitent davantage d’accompagnement humain dans le déroulement du débat. Par ailleurs, le contexte de coprésence ou distance est également à prendre en compte, des enseignant.e.s pouvant engager des élèves dans le contexte d’une classe, rencontrent davantage de difficultés dans des contextes de distance comme celles que nous vivons en confinement. D’ailleurs, la technologie peut-elle pallier (en partie) l’absence de coprésence entre l’enseignant.e et ses élèves ?  La réponse à cette question reste complexe, mais nous pouvons observer que les réseaux formels et informels des apprenant.es qui s’entraident, tout comme la mutualisation de ressources et le détournement pédagogique de certains outils, initialement non prévus pour un usage scolaire, ont permis de co-construire des solutions dans des situations d’urgence. Les compétences numériques des enseignant.e.s, tout comme celles des élèves et des familles doivent pouvoir être soutenues pour pouvoir faire des choix éclairés dans ces contextes nouveaux. Mais ce n’est pas tant une question d’outil ou de technologie qu’un enjeu de pédagogie, de compétences et de communauté éducative travaillant ensemble envers la réussite de tou.te.s et chacun.e. Ainsi, l’apprentissage de l’informatique  y compris sans utiliser d’écran, sans technologie numérique donc, s’avère aussi une opportunité pour des élèves n’ayant pas le même niveau de réussite dans un contexte éducatif traditionnel, et dans certains cas, permet aux jeunes de se réengager dans leur éducation.

Gérard Giraudon (Inria) & Margarida Romero (Université Côte d’azur, Directrice du Laboratoire d’innovation et numérique pour l’éducation)

 

Image extraite de la vidéo de Derek Muller.

Traduction du texte de la vidéo (avec l’autorisation de Derek Muller)

Tous les épisodes d’une non-révolution.

“Ça” va révolutionner l’éducation … aucune prédiction n’a été faite aussi souvent et aussi incorrectement que celle-ci.

En 1922, Thomas Edison déclarait que : « Le film est destiné à révolutionner notre système éducatif et dans quelques années, il va supplanter largement, voire entièrement, l’utilisation des livres. » Oui. Et vous savez comment ça a tourné ?

Dans les années 1930, c’était la radio. L’idée était que vous pouviez diffuser les cours d’experts directement dans les classes, augmentant la qualité de l’éducation pour plus d’étudiants à moindre coût. Et ça voulait dire avoir besoin de moins de professeurs expérimentés, un thème commun à toutes les révolutions proposées de l’éducation, comme celle de la télévision éducative dans les années 1950 et 1960. Des études ont été menées pour déterminer si les étudiants préféraient regarder un cours en direct ou être assis dans une salle à côté, où la même leçon était diffusée via une télévision. Que préférez-vous ?

Dans les années 1980 il n’y avait pas débat. Les ordinateurs étaient la solution révolutionnaire à nos problèmes éducatifs. Ils étaient multimédia, interactifs, et pouvaient être programmés pour faire pratiquement tout ce que vous vouliez. Leur potentiel était évident.  Les chercheurs avaient l’intuition que s’ils pouvaient apprendre à des enfants à programmer, disons comment faire bouger une tortue sur un écran, alors leur capacité à faire des raisonnements procéduraux s’améliorerait. Et comment ça a marché ? Et bien disons que les étudiants sont devenus meilleurs à programmer la tortue, …

Même dans les années 1990 nous n’avions pas appris de l’échec de nos précédentes prédictions, et je cite, « L’utilisation des vidéodisques dans les classes s’accroît chaque année et promet de révolutionner ce qui se passera dans les classes de demain ». Vidéodisques? Oui, ces énormes CD surdimensionnés. Vous vous souvenez quand ils ont révolutionné l’éducation?

Depuis les annés 2000 des tas de choses sont sur le point de révolutionner l’éducation comme les tableaux intelligents, les smartphones, et les MOOCs. Ceux-ci sont des cours en ligne ouverts à tou·te·s («massive open online courses» en anglais). Et certains croient que nous nous rapprochons de la machine à enseigner universelle, un ordinateur si rapide et si bien programmé que ce serait quasiment comme avoir votre propre robot tuteur.

Un étudiant pourrait travailler avec des cours bien structurés adaptés à leur propre rythme et un avis personnellement adapté, et le tout sans qu’un enseignant, tatillon et coûteux pour la société, s’en mêle.

Mieux comprendre le processus d’apprentissage avec des outils technologiques.

Prenons le processus d’apprentissage. Disons que vous voulez enseigner à quelqu’un comment le coeur humain pompe le sang. Quel support éducatif serait à votre avis le plus efficace, cette animation avec explication ou cette série d’images statiques avec texte ? Évidemment l’animation est meilleure. Ne serait-ce que parce qu’elle montre exactement ce que le coeur fait. Pendant des dizaines d’années, les recherches sur l’éducation se sont concentrées sur des questions comme celle-là. Est-ce qu’une vidéo encourage l’apprentissage mieux qu’un livre ? Est-ce que les cours en direct sont plus efficaces que des cours télévisés ? Les animations sont-elles meilleures que des images statiques ? Dans toute étude bien contrôlée, le résultat est : aucune différence significative. Tant que le contenu est équivalent entre les deux traitements le résultat en termes d’apprentissage est le même quel que soit le média.  Comment est-ce possible ? Comment quelque chose qui a l’air aussi performant que l’animation peut-il ne pas être meilleur que des images statiques ? Et bien premièrement  les animations bougent rapidement et vous pouvez rater quelque chose. De plus, comme les éléments sont animés pour vous,  vous ne visualisez pas mentalement  comment les éléments s’articulent. Donc vous n’avez pas à investir un effort mental important, ce qui le rendrait marquant. En fait, des fois les images statiques sont plus efficaces que les animations.  Nous ne sommes pas limités par les supports que nous pouvons fournir aux étudiants. Ce qui limite l’apprentissage c’est ce qui se passe dans la tête de l’étudiant. C’est là que se passe la partie importante de  l’apprentissage. Aucune technologie n’est intrinsèquement supérieure à une autre. Les chercheurs ont passé tellement de temps à analyser si une technologie ou un média était plus efficace qu’un autre, qu’ils n’ont [parfois] pas cherché comment utiliser la technologie pour promouvoir des processus de pensée efficaces. Donc la question est en fait : quelles expériences engendrent le mode de pensée nécessaire à l’apprentissage ? Il y a peu, ce type de recherche a été lancé et nous apprenons des choses importantes. Ça peut paraître évident, mais il apparaît qu’apprendre avec des images et du texte ensemble, que ce soit des animations avec narration ou des images statiques avec du texte, est mieux que d’apprendre avec du texte seul. Aussi, nous observons que tout ce qui est superflu doit être éliminé d’une leçon. Par exemple, le texte à l’écran entre en concurrence avec les visuels, donc les étudiants apprennent mieux quand il est absent que lorsqu’il est présent. Maintenant que nous savons comment faire de meilleures vidéos éducatives, et comme toute expérience peut être simulée en vidéo, YouTube devrait être la plateforme qui va révolutionner l’éducation. Le nombre de vidéos éducatives sur YouTube augmente chaque jour.

Donc pourquoi avons nous besoin d’enseignants ?

Et bien, si vous pensez que le  travail principal d’un enseignant est de transmettre l’information de son cerveau à celui de ses étudiants, alors c’est vrai, il est devenu obsolète. Vous imaginez probablement une classe où l’enseignant déverse des connaissances à un rythme qui est trop rapide  pour la moitié, et trop lent pour le reste et donc adapté à personne. Heureusement le rôle fondamental d’un enseignant n’est pas de fournir l’information. C’est de guider le processus social d’apprentissage. Le travail d’un enseignant est  d’intéresser et de mettre au défi les élèves qui veulent apprendre et de motiver ceux pour qui c’est plus difficile. Oui, il explique et démontre et montre des choses, mais en réalité ce n’est pas son but. Le rôle le plus important d’un enseignant c’est de faire en sorte que chaque étudiant se sente important, pour qu’il se sente responsable de faire l’effort d’apprendre. Tout cela ne veut pas dire que la technologie n’a pas eu d’impact sur l’éducation. Les élèves et les enseignants travaillent et communiquent avec des ordinateurs. Et des vidéos  sont utilisées en dehors et pendant les cours. Mais tout cela est mieux caractérisé comme étant une évolution, pas une révolution. Les fondements de l’éducation sont toujours l’interaction sociale entre enseignants et élèves. Aussi avancée que chaque nouvelle technologie semble être, comme les vidéos ou les ordinateurs ou les tableaux intelligents, ce qui est vraiment important c’est ce que qui se passe dans la tête de l’apprenant.e. Et faire réfléchir un élève s’obtient de façon optimale dans un contexte social avec d’autres élèves et un enseignant  attentionné et bienveillant.

 

La découverte scientifique … qui mérite le mérite ?

La génèse d’une idée scientifique n’est jamais facile à retracer. En partant d’un exemple concret, Jean Claude Derniame, nous fait parcourir un processus de découverte scientifique qui montre que ce n’est pas simple de dire qui est à l’origine de quoi. Pauline Bolignano et Thierry Viéville.

Bonjour Jean-Claude, qui es-tu ?

Bonjour, je suis un ancien… ancien professeur d’informatique à l’Université de Nancy 1, puis à l’INPL et chercheur au CRIN, puis au LORIA, professeur émérite de l’Université de Lorraine, spécialiste de génie logiciel, plateformes de développement, modèles de procédés de développement de logiciel ou software process.

Tu vas parler du cheminement d’une idée nouvelle, laquelle ?

C’est le cheminement d’une idée (plusieurs fois) nouvelle à propos … du cheminement dans un graphe. Un graphe est un objet mathématique composé d’un ensemble de points reliés entre eux. Il peut représenter des personnes qui se connaissent, un arbre généalogique, un réseau électrique ou encore un réseau routier, ou même la planification d’une tâche complexe, et bien d’autres. On s’en sert pour exprimer des problèmes, comme trouver ses ancêtres, ou trouver le meilleur (le plus court) chemin pour aller à une destination.

Graphes montrant l’évolution des contacts entre élèves de classes différentes (en rouge); le matin et le midi. © Laurent VIENNOT – Source: https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0023176

Les problèmes de cheminement consistent à associer à un ensemble de chemins joignant un couple de points d’un graphe, une information, comme par exemple une valeur logique (existence d’un chemin), un nombre (distance entre deux points), ou un chemin (ex: le plus court ou le plus long entre deux points). Voir cet article d’Interstices pour en savoir plus.

Bien entendu, ce serait du gaspillage que de construire d’abord l’ensemble des chemins, qui peut être très vaste et occuper beaucoup de place mémoire, pour en déduire ensuite l’information cherchée, d’où notre réflexion en 1967.

Quelle est l’idée nouvelle ici ?

Illustration des opérations algébriques sur les chemins ©Jean-Claude Derniame.

L’idée originale des chercheurs de Nancy consiste à travailler sur les algorithmes et transformer celui qui construit l’ensemble de chemins en celui qui donne l’information [7 , 9] grâce à des transformations algébriques : pour obtenir un algorithme donnant une des informations (valeur logique, nombre entier, distance, probabilité, chemin vérifiant une condition, etc…), il suffit d’interpréter autrement les opérations usuelles qui correspondent à la réunion ou au produit d’ensembles de chemins.

L’algèbre mise au service de l’algorithmique alors ?

Plus précisément il s’agit de créer une transformation réversible et continue de l’ensemble des ensembles de chemins vers celui des informations, tous deux étant structurés de la même manière (on parle de semi-anneaux unitaires).

On a pu proposer une vingtaine d’algorithmes de construction d’ensemble de chemins et de nombreuses variantes qui permettent aussi de retrouver les algorithmes bien connus de recherche du plus court chemin comme ceux de Dantzig, Warshall, Ford et autres. Y figurent également des algorithmes plus performants utilisant une structure informatique correspondant à une pile d’objets.

Un exemple de problème difficile sur les graphes, rechercher un chemin hamiltonien fermé sur lui même qui passe par tous les points une et une seule fois. Voir https://interstices.info/le-defi-des-1001-graphes pour détails © Inria / Photo C. Morel

Tout ça date d’avant internet ! Comment travailliez vous alors ?

Les ordinateurs sont rares alors et les échanges entre chercheur.ses sont beaucoup moins abondants qu’aujourd’hui. La recherche bibliographique se fait sans moteur, en lisant les livres papiers et les rares revues. Les chercheur.ses se rencontrent q vraies uelquefois et s’envoient des lettres manuscrites, sur papier. Le bouche à oreille est efficace mais ne traverse guère l’Atlantique.

En France, les échanges sont possibles mais limités, le plus souvent en français, grâce aux séminaires, congrès, ainsi qu’à la revue d’une association qui s’est appelée AFCAL, AFIRO, AFCET et précédant la SIF d’aujourd’hui.

Au début de l’année 1966, Claude Pair, qui venait de soutenir sa thèse d’Etat [5], me propose de traiter le sujet du cheminement dans un graphe au cours d’une thèse de troisième cycle. Le travail commun donnera lieu à cinq publications dont une communication de Claude [6] pour un congrès à Rome, un article de Claude dans la revue RIRO [8] et un livre chez Dunod, à paraître en 1968, comme annoncé dans l’article ci-dessus, Le manuscrit transmis à Jacques Arsac, directeur de la Collection, a disparu de son bureau en mai 1968, ce que nous n’apprîmes que fin 1969. Nous n’étions pas encore à l’époque des photocopieuses à foison et nous n’en avions aucune sauvegarde. Il a fallu recommencer : la seconde version est parue en 1971 [9].

Cette idée va être la source d’un nombre important de publications, certaines allant plus loin que le travail nancéien, d’autres pas. La plupart ont été publiées en français, souvent dans la revue de l’AFCET, comme les travaux nancéiens (voir annexe).

Plus de trois ans de retard, à cause d���un manuscrit papier !

Oui et entre-temps, en 1970, la théorie des graphes est bien connue, particulièrement en France grâce entre autres à Claude Berge [3].

Comme expliqué précédemment, les échanges entre chercheur.ses étaient limités, ce qui peut expliquer, voire excuser, les redécouvertes et l’absence de citation, comme ce fut le cas à propos des travaux ci-dessus.

Que conclure de cette histoire, alors ?

Tout d’abord rappelons que ce cas est très loin d’être exceptionnel. L’informatique, tout comme les autres sciences n’a pas été créée dans les trois dernières années : cette histoire illustre aussi l’importance du travail bibliographique avant toute création scientifique, qui doit questionner les travaux … y compris du millénaire précédent.

Et ce qui est formidable après-tout c’est que peu importe ces aléas et peu importe finalement d’attribuer le mérite à telle ou telle personne : l’importance est que la science avance, et que ce soit au service de l’humanité et pour le meilleur.

Note : cet article a pour origine le colloque organisé à Nancy le 14 juin 2019 en l’honneur de Claude Pair, un des fondateurs de la science informatique. Pierre Lescanne a découvert cette situation lors des recherches bibliographiques qu’il a faites à cette occasion [1]. Une version plus détaillée de cet article est à paraître [17].

Annexe : chronologie des publications sur ce sujet

  • En 1968, P. Robert et J. Ferland proposent d’appliquer l’algorithme de Warshall au cas de la recherche de chemins optimaux en passant par des semi-anneaux de matrices et des applications pour passer de l’un à l’autre, sans traiter le cas général. Ils n’avaient pas vu notre article, ni nous le leur.
  • Dans leur livre sur les algorithmes [10], Aho, Hopcroft et Ullman affirment « l’absence d’une approche générique pour les algorithmes de plus court chemin » (1974) et ne mentionnent pas l’intervention de C. Pair [7] à la conférence de Rome, conférence qu’ils connaissent pourtant puisqu’ils en citent une autre.
  • En 1975, dans [10] M. Gondran précise : « On montre comment les problèmes de cheminement dans un graphe peuvent être résolus par des méthodes d’algèbre linéaire ». On y retrouve l’ensemble du travail nancéien, cité quatre fois pour les algorithmes et l’usage d’une pile, mais pas pour les transformations alors que c’est le sujet important de l’article de M. Gondran et du travail de Nancy.
  • En 1995, le livre bien connu de Gondran et Minoux [11 ] reprend les propositions de [10 ], mais sans référence aux travaux de Nancy.
  • En 1997, M.J. Macowicz soutient à l’INSA de Lyon une thèse intitulée ”Approche générique des traitements de graphes” [12] Il reprend l’idée originale pour l’approfondir et introduire une double généricité celle des algorithmes et celle des “matroïdes”, ce qui lui permet de construire une bibliothèque de solutions.
  • En 2002, l’article de Mehryar Mohri “Semiring Frameworks and Algorithms for Shortest-Distance Problems” [13] est nettement plus choquant. Il s’appuie, pour annoncer une “nouvelle approche”, sur la phrase du livre de Aho et Ulman, énoncée 28 ans auparavant, et citée ci-dessus. L’auteur redéfinit les semi-anneaux et fournit un nombre important de théorèmes connus. “Il faut séparer l’algèbre qui donne un cadre et les algorithmes qui s’en servent pour résoudre des problèmes dans les différents semi-anneaux, correspondant aux domaines d’application” : une paraphrase des propositions nancéiennes ! Tout cela n’est pas sans rappeler [7 , 8, 10 , 11]. On ne peut que recommander leur (re?)lecture à l’auteur !
  • En 2002 [14] puis en 2008 [15], Gondran et Minoux reprennent leurs propositions pour les étendre aux “problèmes réels”, c’est-à-dire concernant les chemins remplissant certaines conditions Ils introduisent une algèbre des endomorphismes et montrent que les algorithmes itératifs (Warshall, Bellmann, Dijkstra et autres) peuvent être étendus dans cette algèbre. Puis ils établissent une liste des applications aux différents problèmes de cheminement. Cette liste reprend celle de Nancy, dont les travaux ne sont pas cités alors qu’ils sont très similaires, y compris concernant les conditions.

De même, bien avant les travaux de Nancy, en 1959, B Roy publie un algorithme [5] pour la fermeture transitive d’un graphe ( tous les couples de points reliés par un chemin). Le même sera publié par Floyd, Bellman, Ford, Moore, Warshall et s’appelle aujourd’hui l’algorithme de Warshall. 🙂

Références:

[1] P Lescanne Claude Pair, pionnier de l’informatique. Blog binaire, LeMonde.fr, 2019.

[2] C. Berge , Théorie des graphes et ses applications , Dunod, Paris, 1958.

[3] S. Stigler,“Stigler’s Law of Eponymy”, dans Statistics on the Table : The History of Statistical Concepts and Methods, Cambridge, Massachusetts, Harvard University Press, p. 277-290, 1999.

[4] Roy B. Transitivité et connexité , CRAS 249, pp. 216-218, 1959.

[5] C. Pair Etude de la notion de pile, application à l’analyse syntaxique, Thèse de doctorat d’Etat, Nancy, Dec. 1965.

[6] C. Pair On algorithms for path problems in finite graphs », in Rosentiehl (ed.), Theory of Graphs (international symposium), Rome, Gordon and Breach (New York), pp. 271-300, Jul. 1966.

[7] C. Pair Mille et un algorithmes pour les problèmes de cheminement dans les graphes, (R.I.R.O.), B-3, pp 125_143, 1970.

[8] Derniame J.C., Pair C., Problèmes de cheminement dans les graphes, Dunod, 1971.

[9] Aho A.V., Hopcroft J.E. et. Ullman, J.D The Design and Analysis of Computer Algorithms, Reading, Mass., AddisonWesley, ISBN 9780201000290 , 1974.

[10] Gondran M. Algèbre linéaire et cheminement dans un graphe RAIRO Recherche opérationnelle, tome 9, n°VI, p. 77-99, 1975.

[11] Gondran M. et Minoux M. Graphes et Algorithmes 3ème édition, Paris : Eyrolles, 1995.

[12] Macowicz M.J. Approche générique des traitements de graphes Thèse INSA Lyon, Nov 1997.

[13] Mehryar Mohri: Semiring Frameworks and Algorithms for Shortest-Distance Problems Journal of Automata, Languages and Combinatorics Vol 7 Issue 3, pp321, Jan 2002.

[14] Gondran M. et Minoux M. Graphes, dioïdes et semi-anneaux Tec&Doc Ed ISBN 2743004894, 2002.

[15] Gondran M. et Minoux M. Graphs, Dioids and semi-rings : New models and Algorithms Springer ISBN 0387754504, 2008.

[16] Delignat-Lavaud A. et al. Algèbres tropicales et plus court chemin Quadrature. EDP Sciences, Num. 72, p. 22-28, 2009

[17] Derniame J.C. A propos du cheminement dans les graphes, revuie de la SIF “1024”, N° 16, 2020.

Raconte-moi un algorithme : une maille à l’endroit, une maille à l’envers

En 2020, chaque mois, Charlotte Truchet et Serge Abiteboul nous racontent des histoires d’algorithmes. Des blockchains aux algorithmes de tri en passant par le web, retrouvez tous leurs textes, ainsi que des petits défis mathématiques, dans le Calendrier Mathématique 2020 et dans la série binaire associée… Antoine Rousseau

Juillet : Une maille à l’endroit, une maille à l’envers

 

Assez souvent, les mondes virtuels ressemblent au monde réel. Parfois même, ils le copient, aussi fidèlement que possible ; on trouve ainsi toute une catégorie d’algorithmes qui ne servent qu’à reproduire des phénomènes physiques existant déjà dans la nature. Cela peut sembler une drôle d’idée ! Mais c’est loin d’être idiot : une fois qu’on a reproduit un phénomène physique in silico, on peut alors l’étudier, jouer avec, par exemple, en le faisant évoluer très vite, plus vite que dans la réalité, ou en changeant certains de ses paramètres.

Le coeur de beaucoup de ces algorithmes est la simulation par maillage. Imaginons que l’on veuille reproduire ce qui se passe à l’intérieur d’un matériau. Cela suppose des calculs compliqués dans un espace continu, et en pratique, c’est infaisable. Le maillage est une façon de contourner cet obstacle : au lieu de calculer ce qui se passe en tout point du matériau, on se contente d’identifier des points d’intérêt, suffisamment denses pour être représentatifs mais pas trop nombreux non plus. Si, par exemple, on s’intéresse à la déformation du matériau sous l’effet d’une compression, les petites déformations locales sont calculées de proche en proche sur les points du maillage. De même, pour calculer la propagation d’une vibration dans le matériau, on transmet les forces uniquement sur le maillage. On obtient ainsi une simulation, imparfaite mais calculable, du phénomène physique considéré. En prime, comme ces algorithmes reposent sur des calculs en partie indépendants, ils peuvent être parallélisés. Et ce principe fonctionne pour un matériau soumis à des contraintes physiques, pour des masses d’air parcourues de vents, pour des fluides en mouvement, etc.

Les simulations par maillage sont omniprésentes dans de nombreuses sciences expérimentales, allant parfois jusqu’à remplacer les expériences. Par exemple, en météorologie, on utilise des maillages et des simulations à partir de données récoltées pour faire des prévisions. On peut aussi les utiliser pour reproduire un phénomène physique dans des systèmes impossibles. Vous êtes-vous déjà demandé quel son produirait un gong de 2 km de large frappé en son centre par un maillet de trois tonnes ? Jamais personne n’entendra ce son, et pourtant, on peut le simuler : il suffit de mailler le gong imaginaire, en lui donnant ces dimensions délirantes, et d’y propager l’onde créée par le maillet tout aussi imaginaire. Le calcul de l’onde donne le son résultant !

Serge Abiteboul et Charlotte Truchet