Petit binaire : l’exemple de l’itinéraire

Parce que binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes, voici la nouvelle rubrique « petit binaire ». Son but : expliquer de manière simple et accessible quelques grands principes de l’informatique en se basant sur des applications ou des exemples de notre quotidien. Retrouvez Petit Binaire si vous avez de la curiosité, que vous soyez adepte ou réfractaire aux nouvelles technologies, fan de jeux vidéos, photos, voyages, économie, culture, sciences, philosophie, sport….en bref humain en 2018 !
Pour démarrer cette série, voici comment fonctionne une application qui vous propose les itinéraires les plus adaptés à vos souhaits.
Marie-Agnès Enard, Pascal Guitton et Thierry Viéville.

 

– Tu sais toi comment mon smartphone arrive à m’indiquer un itinéraire  ?
– Ah ben, c’est très simple tu donnes le lieu de départ, et le lieu où tu veux aller et il calcule le chemin le plus rapide entre les deux.
-Ah oui, c’est sûr, moi aussi je peux la faire celle là, mais comment ça marche ?!?!
– Ben j’sais pas moi, c’est un algorithme, quoi :  à quoi ça te sert de savoir comment ?
– Mais … à rien, j’ai juste envie de comprendre ! C’est bien un truc d’adulte ça, utiliser une appli sans comprendre comment ça fonctionne.

Petit binaire t’explique…

Le monde entier peut se représenter par des points, des flèches et des nombres.

Pour trouver le chemin le plus court entre deux lieux, pas besoin de connaitre tous les détails du paysage, il suffit de
– faire la liste des lieux où je peux me déplacer : ce sont des points,
– faire la liste des passages possibles d’un lieu à un lieu juste à côté (son voisin) : ce sont des flèches (dans les deux sens, si on peut revenir par le même chemin),
– attribuer à chaque flèche un nombre qui correspond au temps pour aller de l’origine à la destination de la flèche.

Si je considère l’ensemble des points et des flèches, alors on dit que c’est un graphe, comme sur la figure ci-dessous :

Le problème des sept ponts de Königsberg est connu pour être à l’origine de la théorie des graphes. Résolu par Leonhard Euler en 1736, ce problème mathématique modélise une promenade à travers les points de la ville par un schéma minimal pour bien formuler le problème. ©wikicommons

Les graphes sont très utilisés en informatique bien au delà de notre problème d’itinéraire optimal. On dit que c’est une structure de données.

L’itinéraire idéal peut se calculer à partir de la carte des chemins vers ma destination.

- Ah oui : il n'y a plus qu'à additionner tous ces nombres en quelque sorte ?

C’est cela, en quelque sorte. Pour chaque lieu, on va calculer le temps le plus court pour arriver à la destination.
* si je suis déjà arrivé à destination, c’est facile : on y est déjà, c’est zéro !
* pour tous les autres lieux, au début de l’algorithme, on ne sait pas, donc on met une valeur particulière impossible à obtenir en réalité ; par exemple, « +oo » pour signifier « je ne connais pas [encore] de chemin »
* puis, pour chaque lieu on peut demander à ses voisins : « sais-tu aller vers la destination et si oui, en combien de temps » ?
* les lieux qui sont voisins immédiats de la destination vont recevoir une réponse de la destination : le temps pour y aller est simplement le délai vers ce voisin immédiat,
* de proche en proche, les voisins des voisins, puis les voisins des voisins des voisins, et ainsi de suite, vont demander autour d’eux les temps de parcours et bien entendu ne conserver que le temps de parcours le plus court, en notant par quel voisin passer.
* une fois ce calcul propagé sur l’ensemble du graphe, de n’importe quel point, on sait quel est le temps de parcours le plus court et – encore plus important – vers quel voisin se diriger pour faire ce chemin, comme le montre cette animation :

Animation Scratch illustrant l’algorithme du plus court chemin, proposé dans le cadre de https://classcode.fr Cliquer sur l’image pour lancer l’animation, puis sur le drapeau vert (Adobe Flash Player requis).

Pourquoi ça marche ?

- C'est super simple en fait mais … il a fallu y penser !

Tu as raison, il y a plusieurs belles idées liées à la pensée informatique. D’abord on change de question : on ne cherche pas un chemin le plus court, mais tous les chemins les plus courts vers la destination; c’est amusant de voir que résoudre un problème plus vaste est finalement plus simple. Ensuite on prend le problème par l’autre bout : on commence par la fin, puisque là, on a la réponse. Et on réalise que si on a résolu le problème autour de la destination alors on peut agrandir la solution, encore et encore, jusqu’à résoudre le problème complet. Et puis, as-tu remarqué que chaque lieu calcule lui-même ce qu’il peut et que la solution se propage à travers le réseau ? On appelle ça le calcul distribué. On peut même estimer le nombre* de calculs à faire : s’il y a 10 lieux, comme à chaque étape on élargit le calcul au voisinage immédiat, on aura la carte des chemins en 10 étapes.
Mais le plus important est le choix de la représentation des données : modéliser, c’est à dire décrire, le problème en utilisant un graphe, puis penser à garder en mémoire le temps de parcours le plus court en chaque point, c’est très élégant.

(*) C’est un algorithme très rapide, ils ne le sont pas tous, si on avait du par exemple distribuer dû courrier en passant par chaque lieu (et pas uniquement aller d’un lieu à la destination) une et une seule fois par le chemin le plus court, il se trouve que le problème aurait été explosivement compliqué.

- Mais qui a inventé ça ?

Ah, comme souvent, il a fallu s’y mettre à plusieurs ! Tu as lu qu’au 18ème siècle Leonhard Euler a eu cette démarche de modélisation et a commencé à étudier un tel graphe. L’algorithme lui-même est une variante d’un des algorithmes les plus célèbres de l’informatique, dû à Edsger Dijkstra, ; bien que très ancien, c’est encore un domaine de recherche très riche avec beaucoup d’applications comme par exemple les systèmes informatiques distribués comme ceux étudiés par Margaret Hamilton.

- Mais mon application de cartographie marche vraiment comme cela ?

Presque, il y a quelques ingrédients de plus car il faut relier ce calcul aux informations géographiques de la carte, le remettre rapidement à jour en fonction des embouteillages et des travaux ; on peut aussi chercher le chemin le plus rapide ou le moins coûteux en énergie, utiliser plusieurs graphes selon que l’on est piéton, cycliste ou automobiliste ; on peut encore améliorer ton application en prenant en compte en direct des informations fournies par les utilisateurs (par exemple, s’il y a un bouchon, on augmente les nombres associés aux flèches correspondantes), etc. Mais oui les principes sont bien là. Tu as même le code disponible pour cela. Il n’y a rien de magique.

Mieux encore : on peut résoudre de tas d’autres problèmes très différents avec le même mécanisme, par exemple le rubics cube. La « destination » c’est l’état final quand le cube est terminé et tous les carrés de même couleur bien alignés. Chaque lieu correspond à une configuration du cube et chaque flèche à la possibilité de passer en une seule manipulation d’une configuration à l’autre. Là encore c’est plus facile de commencer par la fin, de proche en proche on peut explorer tous les « chemins » pour résoudre ce casse-tête (mais dans ce cas le graphe est vraiment immense ).

©Interstices

– Trop classe ! Merci petit binaire !

Prochain épisode ?

Comment faire apprendre quelque chose à une machine en lui mettant des baffes.

A bientôt !

Libertés numériques, ça va être votre fête !

Le numérique s’est installé dans nos vies ; les lecteurs de binaire l’ont bien compris. Il s’invite de plus en plus au parlement. En ce moment, citons entre autres :

⇒ La proposition de loi sur les « fake news ».
⇒ Le projet de loi Elan, évolution du logement, de l’aménagement et du numérique.
⇒ Le plan d’action pour la transformation des entreprises (des aspects sur leurs transformations numériques).
⇒ Le projet de loi relatif aux violences sexuelles et sexistes (cyberharcèlement).
⇒ Le projet de loi de programmation militaire (cyberattaques).
⇒ Le projet de loi de programmation et de réforme pour la justice (plusieurs volets sur le numérique).
⇒ Le projet de loi sur l’audiovisuel (volets numériques).

Parmi tous ces projets, le projet de loi RGPD va particulièrement transformer nos vies. Nous vous en avions déjà parlé lors d’un précédent billet, ce 25 mai marquera une étape importante au niveau législatif dans l’ensemble de l’union européenne. Le règlement général sur la protection des données (RGPD) entre officiellement en vigueur. Ce texte de référence européen renforce et unifie la protection des données pour les individus.

Depuis plusieurs mois, le web regorge d’articles sur le sujet. Sur les réseaux sociaux, le hashtag #RGPD affiche complet. Tous les sites web qui collectent ou utilisent nos données sont contraints de se mettre en conformité avec le nouveau cadre légal et nous inondent de messages en ce sens.

Parmi toutes les ressources existantes, nous vous conseillons d’aller visionner cette petite vidéo réalisée par le youtubeur Samson Son – alias Cookie Connecté qui nous explique en 6 minutes et en Emoji le RGPD. Elle permet de comprendre ce qui change vraiment pour nous aujourd’hui.

Et une autre vidéo du même auteur a été réalisée en partenariat avec la CNIL qui s’adresse principalement aux professionnels. Si vous n’avez pas encore mis en application ce règlement, il est grand temps !

 

Pour célébrer cette journée particulière, nous vous donnons rendez-vous pour faire la fête des  libertés numériques lors d’événements organisés dans toute la France.

Marie-Agnès Enard et Serge Abiteboul

Code et droit : le mariage du siècle

Les rapports entre le code informatique et le droit sont intimes. Le code n’est pas là pour se substituer au droit, mais pour en faciliter l’application. Une spécialiste du droit du numérique, Lêmy Godefroy, explore pour Binaire ces interactions. Serge Abiteboul.
Ce texte est basé sur un article paru dans la revue juridique Dalloz N°14, 12 avril 2018, p.734

Lawrence Lessig déclare que « le code [informatique] régule. (…) Il implémente des valeurs ou pas. Il permet les libertés ou les désactive. Il protège la vie privée ou favorise la surveillance » (1). Or, des atteintes aux droits risquent de se multiplier si les codeurs s’accaparent le pouvoir de « choisir nos valeurs pour nous » et imposent leurs normes pour privilégier leurs intérêts particuliers. Le code entre alors en opposition avec le Droit. En revanche, si le code régule en accord avec le Droit, il s’y réfère et peut le servir dans le sens d’une meilleure effectivité et efficacité.

Code versus Droit

Le code s’affranchit du Droit : des affaires semblables à celle de Cambridge Analytica révélant des failles dans la protection par Facebook des données personnelles de ses utilisateurs sont susceptibles de se répéter dès lors que le code engendre des normes hors du Droit. Pour éviter ces dérives, il importe que le Droit s’empare davantage du code.

Cela passe, notamment, par la détermination de valeurs éthiques juridiquement garanties. (Voir le rapport récent de Cédric Villani.) Ces valeurs s’agrègent autour d’une exigence de transparence afférente à la logique du code. Cette explicabilité est techniquement envisageable pour le code dont le fonctionnement a été programmé ab initio. Il en va différemment pour le code qui se construit par application de procédés d’apprentissage. Le cheminement menant des intrants aux sortants est souvent opaque.

Les codeurs sont également tenus de veiller à la protection de la vie privée. Le règlement général sur la protection des données (RGPD) du 27 avril 2016, applicable à compter du 25 mai 2018, met l’accent sur la prévention des répercussions potentiellement dommageables du traitement massif de données. Outre les obligations déjà prescrites par les textes antérieurs (consentement à la collecte, mention de l’identité du responsable du traitement, de la finalité du traitement, des droits dont disposent les individus, etc.), le RGPD entérine les règles de la privacy by design et de la privacy by default (2). Au regard de ces impératifs techniques et organisationnels relatifs à la conception du code, le responsable du traitement devra vérifier que les opérations auxquelles il se livre sur les données préservent suffisamment les droits et libertés individuelles et enclencher éventuellement les actions nécessaires. Par exemple, un traitement engendrant des risques élevés pour la vie privée implique la réalisation d’une analyse d’impact destinée à spécifier des mesures de gestion de ces risques.

Enfin, la violation du Droit par le code doit conduire à engager la responsabilité de son auteur (3).  Il convient de définir les régimes juridiques appropriés pour pallier les difficultés à tracer la chaîne des causalités, faciliter la désignation du débiteur de l’obligation de réparation et éviter une dilution des responsabilités.

L’appréhension juridique du code est donc essentielle à son acceptation par ceux qui auraient à en subir le retentissement au quotidien (usagers des services publics, consommateurs, patients, justiciables, etc.). Il incombe aux autorités publiques d’éprouver la conformité du code au Droit. Un organe de contrôle mènerait périodiquement des audits afin de tester le code et de pointer les biais de programmation comme une discrimination salariale, un refus injustifié de prêt bancaire ou une pratique anticoncurrentielle. Des signalements seraient transmis par les utilisateurs du code (plateformes numériques, professionnels de santé, administration, professionnels du droit et de la justice, etc.) et par les usagers (consommateurs, patients, administrés, justiciables, etc.).

A ces conditions, le code pourrait alors servir le Droit, ce que nous allons voir ci-après.

Code cf. Droit

Le code se réfère au Droit : réplique informatique du Droit, il apparaît comme un nouveau mode d’expression de la régulation juridique avec, en ligne de mire, un renforcement de l’efficacité et de l’effectivité du Droit grâce à une automatisation de son application. Dans cette tâche programmée, le code observe le Droit.

C’est de cette manière que peut être lu le code du smart contract. Un smart contract (en français, « contrat intelligent ») est un protocole informatique qui facilite, vérifie et exécute la négociation ou l’exécution d’un contrat, « Rattaché aux effets du contrat, [son code] se présente comme une modalité d’exécution » (4). Pour ce faire, il traduit le Droit en instructions conditionnelles. Par exemple, il serait paramétré pour que, passé une certaine durée précisée par les cocontractants, si le débiteur n’a pas démontré l’existence d’un cas de force majeure, la sanction convenue en cas d’inexécution s’applique. De même, le code contiendrait l’instruction selon laquelle s’il y a un manquement suffisamment grave – par exemple le non-paiement du loyer d’un contrat de location d’un matériel connecté – le créancier sera dégagé de sa propre obligation – en l’occurrence la mise à disposition du bien loué en le bloquant physiquement.

Associé à une blockchain, il provoque une action qui affecte la situation factuelle à chaque saisie d’informations enregistrées par l’Oracle (5). Par exemple, dans le secteur de l’assurance, « des systèmes de Blockchain permettraient de valider des conditions de déclenchement de primes et de les régler sans délai. À titre d’illustration, il pourrait être proposé de prévoir une indemnité automatique des assurés dès qu’ils seraient victimes d’un retard de train ou d’avion et ce sans formulaire et sans que du personnel de l’assureur ne doive traiter les demandes » (6). Dans tous les cas, le code laisse aux parties la faculté d’en appeler au juge qui demeure l’émanation du tiers de confiance étatique.

Il en est de même du code qui concrétise la reconnaissance judiciaire de droits en produisant un chiffrage des indemnités ou des dommages-intérêts. Par exemple, dans le cadre de la procédure de divorce, l’outil « PilotePC » est une méthode d’analyse multicritères de calcul de la prestation compensatoire qui retranscrit les critères légaux en code (7).

En définitive, le code régule mais il revient aux autorités publiques – en concertation avec l’ensemble des parties prenantes (concepteurs, utilisateurs, usagers) – de gouverner cette régulation pour que le code œuvre ainsi au service du Droit et participe à la préservation efficace et effective des droits.

Lêmy Godefroy, Maître de conférences, Université Côte d’Azur

Pour aller plus loin

1 Code is law. On liberty in cyberspace, Harvard Magazine, janvier 2000.
2 Célia Zolinski, Philippe Pucheral, Alain Rallet et Fabrice Rochelandet, « La Privacy by Design : une fausse bonne solution aux problèmes de protection des données personnelles ? », Légipresse, n° 340, juillet-août 2016).
3 Serge Abiteboul, Gilles Dowek, Le temps des algorithmes, Le Pommier, 2017, p. 8. Adde p. 177 et s.
4 Gaëtan Guerlin, « Considérations sur les smart contracts », Dalloz IP/IT 2017, 512).
5 V. Mustapha Mekki, « Les mystères de la blockchain », D. 2017, 2160.
6 Yaël Cohen-Hadria, « Blockchain : révolution ou évolution ? », Dalloz IP/IT 2016,

Intelligence artificielle et pensée humaine

Parler encore d’intelligence artificielle ? Au milieu de tout le bruit médiatique sur ce sujet une chercheuse en sciences de l’éducation, Margarida Romero, va répondre à une question rarement posée et jamais analysée de façon aussi profonde à notre connaissance : comment éduquer nos concitoyen.ne.s dans un monde où l »intelligence artificielle » devient omniprésente ? Pascal Guitton & Thierry Viéville. Cet article est publié en collaboration avec The Conversation.

Comme toute nouvelle technologie, l’intelligence artificielle fait l’objet à la fois d’espoirs et de peurs et ce qu’elle recouvre aujourd’hui présente de grands enjeux (Villani et al, 2018). Elle pose aussi des questions profondes sur notre propre humanité. La machine dépassera-t-elle l’intelligence des humains qui l’ont conçue ? Quel sera le rapport entre ce qu’on appelle des intelligences artificielles et nos intelligences humaines ?

Dans un ouvrage récent, Jean-Gabriel Ganascia (2017) répond à la première question : il montre très simplement que se développe une intelligence algorithmique dite artificielle (il parle d’ »intelligence artificielle technique »), dont les performances font que notre société est effectivement bouleversée, car nous vivons au temps des algorithmes (Abiteboul-Dowek, 2017). Cependant l’idée d’une intelligence artificielle forte qui dépasserait l’intelligence des humains n’est pas une idée vraie ou fausse, c’est une croyance car elle n’est pas étayée par des arguments scientifiques. Il se trouve qu’il est de l’intérêt de ceux qui dominent le marché du numérique de nous le faire croire et de médias en quête d’audience de relayer cette croyance.

Pensée critique et créativité

Alors, avant de s’inquiéter de nos compétences face à ce monde présupposé d’intelligences artificielles – disons, IA pour désigner cette croyance, nous nommerons autrement les éléments scientifiques établis -, nous devons aiguiser nos compétences humaines clés : la pensée critique et la créativité. Tout d’abord, si nous faisons preuve de pensée critique, il faudrait commencer par nous questionner sur l’expression IA. Est-ce que le terme d’intelligence est pertinent pour désigner des applications informatiques basées notamment sur l’apprentissage machine (machine learning) ? Ces algorithmes ont pour objectif de développer des systèmes capables de capter, de traiter et de réagir face à des informations (massives) selon des mécanismes qui s’adaptent au contexte ou aux données pour maximiser les chances d’atteindre les objectifs définis pour le système. Ce comportement qui peut paraître “intelligent” a été créé par des humains et présente des limites liées d’une part à la capacité humaine actuelle de définir des systèmes d’apprentissage machine efficaces, et d’autre part à la disponibilité de données massives pour que les systèmes s’adaptent. Le constat est que ces systèmes sont plus performants que des humains sur des tâches bien spécifiques comme la reconnaissance de sons, d’images ou encore, récemment, des tests de lecture comme le Stanford Question Answering Data Set. Avoir un meilleur test de lecture, signifie-t-il être capable de comprendre, dans un sens humain et intelligent, le texte lu ? La capacité statistique à identifier des réponses peut paraître intelligente, mais rien ne prouve que ce soit dans le sens critique et créatif des humains.

Compétences du 21ème siècle @margaridaromero : cliquer sur l’image pour agrandir. Compétences du 21 e siècle.

Que doit-on apprendre aujourd’hui ? Les compétences du 21ème siècle tiennent compte de l’omniprésence du numérique et du besoin de renforcer le développement humain tant du point de vue des attitudes (tolérance à l’ambiguïté, tolérance à l’erreur et prise de risque), que du rapport au savoir et aux technologies. Ces compétences nécessaires à la réussite personnelle et professionnelle ne sont radicalement plus les mêmes qu’autrefois dans ce monde globalisé et aussi plus collectif à plus petite échelle, révolutionné par le numérique,et qui évolue beaucoup plus vite. Un référentiel de compétences a
été proposé pour aider à se construire des valeurs et des attitudes
aidant au développement de chacune et chacun.

Lorsque dans les années 1950 Turing propose un test basé sur une confrontation purement langagière entre un humain et un autre agent, qui pourrait être une machine ou un autre humain, il ne cible pas l’intelligence de la machine, mais l’intelligence que nous pourrions lui attribuer. Si l’humain juge qu’il est en train d’interagir avec un agent humain et non une machine, le test d’intelligence artificielle est considéré comme réussi. Et peut-on se contenter d’une bonne capacité de réponse à une conversation humaine pour considérer qu’une machine est intelligente ?

Définir l’intelligence humaine

Si nous considérons l’intelligence comme la capacité d’apprendre (Beckmann, 2006) et l’apprentissage comme l’adaptation au contexte (Piaget, 1953), il serait possible de considérer les systèmes capables d’améliorer leur adaptation au contexte à partir de la collecte et le traitement de données comme étant intelligents. Cependant, si nous considérons l’intelligence comme la “capacité à résoudre des problèmes ou à créer des solutions qui ont une valeur dans un contexte socioculturel donné” (Gardner et Hatch, 1989, p. 5), sous une approche diversifiée et dynamique, il est plus difficile de considérer qu’un système, si adaptatif et si massivement nourri aux données soit-il, puisse porter un jugement métacognitif sur son processus et ses produits en lien à un contexte socioculturel donné. La définition d’intelligence humaine de Gardner et Hatch se rapproche fortement de celle de la créativité comme processus de conception d’une solution jugée nouvelle, innovante et pertinente en lien au contexte précis de la situation-problème (Romero, Lille et Patino, 2017). L’intelligence n’est pas donc la capacité à « performer » selon des règles préétablies ou prédictibles (y compris avec des mécanismes d’adaptation ou d’apprentissage machine sur des données), mais plutôt l’aptitude à créer du nouveau en démontrant une faculté de sensibilité et d’adaptation au contexte socio-culturel et l’empathie sur le plan intra et inter-psychologique aux différents acteurs. Ceci implique de comprendre la nature humaine et socio-historique pour être en mesure de porter un jugement sur son propre processus de création, de manière autonome.

Si nous adoptions cette deuxième approche critique et créative de l’intelligence, nous devrions être prudents sur l’usage du terme IA pour des solutions qui “se limitent” à s’adapter selon des mécanismes préétablis qui ne peuvent pas engendrer de jugement auto-réflexif de valeur, ni de perspective socio-culturelle. Les systèmes d’apprentissage machine qui sont qualifiés d’IA peuvent être très performants car basés sur des modèles très élaborés nourris avec des données massives, mais ils ne sont pas “intelligents” à la manière critique et créative des humains. Ainsi, mon téléphone peut apprendre à reconnaître les mots que je dicte vocalement, même si j’ai un accent qu’il va inférer d’autant plus que j’utilise le système. Mais pour autant, lui attribuer une vraie intelligence face à ma dictée vocale relève d’une projection subjective, c’est-à-dire d’une croyance.

Développer l’esprit critique

Nous pouvons également questionner “l’intelligence de l’IA” en lien avec la pensée critique qui caractérise l’intelligence humaine. Dans le cadre du projet #CoCreaTIC, nous définissons la pensée critique comme la capacité de développer une réflexion critique indépendante, qui permet l’analyse des idées, des connaissances et des processus en lien avec un système de valeurs et de jugements propres. C’est une pensée responsable qui s’appuie sur des critères et qui est sensible au contexte et aux autres. En revanche, si nous pensons aux systèmes d’apprentissage algorithmiques, et les résultats politiquement incorrects qu’ils ont produit face à des images et des réponses textuelles pouvant être cataloguées comme discriminatoires, nous ne devons ni redouter, ni condamner, ni accepter ce résultat, car il n’a aucune valeur morale. L’explication la plus probable est qu’en “apprenant” des données issues d’humains, le mécanisme met en avant des éléments racistes et sexistes, il n’a pas de système de valeurs propre. Ici, cette soi-disant IA ne dispose pas de pensée responsable, mais exacerbe certaines dérives que l’humain est capable de produire mais aussi de limiter et de corriger par ses critères et sa sensibilité aux autres.

Voici ici une tentative de définition de l’esprit critique, elle-même critique, proposée par l’Éducation nationale, y compris sous forme de ressource éducative :

Une tentative de définition de l’esprit critique. ©educsol cliquer sur l’image pour agrandir

Le développement de l’esprit critique est au centre de la mission assi-
gnée au système éducatif français, renforcé par l’attention désormais portée à l’éducation aux médias et à l’information. Le travail de formation des élèves au décryptage du réel et à la construction, progressive, d’un esprit éclairé, autonome et critique est essentiel. Dans l’approche de l’esprit critique proposée par Eduscol, il faut signaler son caractère dynamique et l’importance donnée à la pratique de l’esprit critique pour son développement tant en termes d’évaluation de l’information, d’analyse des faits/interprétations que de l’évaluation et de la confrontation des interprétations. Dans leur approche, ces pratiques « nourrissent » des attitudes d’écoute, de curiosité, d’autonomie, de lucidité et de modestie.

Dans le #RapportVillani, la pensée critique est évoquée face à ces technologies tant sur les aspects éthiques qu’en lien avec le besoin de développer “l’esprit critique” dans l’éducation sur ces sujets. D’autre part, le rapport souligne l’importance de la créativité dans l’éducation comme une manière de préparer les citoyens aux défis de ce qui est rendu possible avec ces algorithmes. L’éducation au fondement du numérique, notamment dans des approches critiques, créatives et participatives, peut permettre également de développer un rapport à l’informatique qui permette aux citoyen.ne.s de démystifier l’IA, de développer une exigence éthique, et d’adopter une attitude éclairée (acceptation ou non, de ce qui sera utilisé au niveau de leurs activités personnelles, sociales ou professionnelles). Pour ces raisons, le développement de la compétence de pensée informatique est également un atout qui vient compléter les besoins de développement de la pensée critique et créative face au numérique.

Le levier de la pensée informatique

En 2006, Jeannette Wing nomme «pensée informatique» (computational thinking) la capacité d’utiliser les processus informatiques pour résoudre des problèmes dans n’importe quel domaine. La pensée informatique est présentée par Jeannette Wing comme un ensemble d’attitudes et de connaissances universellement applicables, au delà de l’usage des machines. Pour la développer, les apprenant·e·s (dès la maternelle, et à tous âges) peuvent combiner l’apprentissage des concepts et des processus informatiques qui font l’objet de la «littératie numérique» (objet, attribut, méthode, patron de conception, etc.) et une démarche de résolution de problèmes créative faisant appel aux concepts et aux processus informatiques (Romero, Lepage et Lille, 2017). Des projets comme Class’Code en France ou CoCreaTic au Québec ont développé des ressources et une communauté pour soutenir cette approche dans laquelle il ne s’agit pas d’apprendre “le codage” (au sens de coder avec un langage informatique) pas à pas, mais de résoudre des problèmes de manière créative et sensible au contexte du problème. En d’autres termes, dépasser le codage permet de s’ancrer dans une démarche plus large de programmation créative. Celle ci engage les apprenants, car c’est un processus critique et créatif de résolution de problèmes qui fait appel aux concepts et aux processus informatiques. Il ne s’agit pas de coder pour coder, ou d’écrire des lignes de code les unes après les autres, mais de développer une approche de résolution de problèmes complexes qui engage dans une analyse réflexive et empathique de la situation, de sa représentation et de l’opérationnalisation d’une solution qui profite des stratégies métacognitives liées à la pensée informatique.

Illustration de la pensée informatique ©Cointe pour Interstices

La pensée informatique 13 est présentée par Jeannette Wing comme un ensemble d’attitudes et de connaissances universellement applicables, au-delà de l’usage des machines ; « cette panoplie d’outils intellectuels inclut, par exemple, la capacité à nommer de manière pertinente les objets et en expliciter leur type ou catégorie pour les manipuler correctement, à maîtriser la complexité d’un grand problème ou d’un système en le hiérarchisant, à pouvoir spécifier dans ses moindre détails un procédé pour qu’il puisse s’exécuter sans ambiguïté de manière mécanique, etc. ». On parle de pensée informatique pour montrer que l’on ne souhaite pas uniquement initier à la programmation, mais permettre aux jeunes de prendre du recul par rapport au numérique et positionner l’apprentissage de l’informatique comme une compétence transdisciplinaire qui s’appui+e sur le numérique pour permettre de développer des stratégies de pensée. La pensée informatique se veut ainsi émancipatrice, dans le but d’aider à former des citoyennes et citoyens éclairé.e.s, qui puissent être des acteurs à la fois faisant preuve d’esprit critique mais aussi avec une capacité de compréhension et de (co)création avec la « panoplie d’outils numériques » qu’évoque Wing en parlant de la pensée informatique.

Le développement d’une approche critique et créative du numérique par le biais de la pensée informatique, permet aux apprenant.e.s d’aller au-delà d’une posture d’utilisateurs qui pourrait percevoir l’IA comme une boîte noire plein de mystères, de dangers ou d’espoirs illimités. La compréhension des enjeux d’analyse de problèmes en lien à des situations-problèmes ancrés dans des contextes socio-culturels précis (par exemple, les enjeux migratoires) est une manière de voir l’informatique comme à la fois une science et une technologie qui vont permettre, à partir des limites et contraintes de nos modélisations d’un problème, de tenter de donner des réponses qui vont se nourrir de données de plus en plus massives, sans pour autant pouvoir être considérées comme pertinentes ou de valeur sans l’engagement du jugement humain.

Pour une éducation qui permette de vivre à l’ère numérique

Comme le signale le le #RapportVillani, nous avons besoin, face à l’émergence de l’IA, d’une éducation plus critique et créative, mais aussi, d’une approche plus orientée vers la pensée informatique de la culture numérique afin que les citoyen.ne.s (petits et grands) puissent comprendre le facteur humain dans la modélisation et la création des systèmes artificiels, le fonctionnement basique des algorithmes et de l’apprentissage machine ou encore les limites de l’IA face au jugement nécessaire pour considérer la valeur des solutions produites par les algorithmes. Pour une citoyenneté éclairée à l’ère du numérique, nous avons besoin de continuer à aiguiser notre pensée critique, créative, de résolution collaborative de problèmes tout en ajoutant une nouvelle corde à notre arc : le développement de la pensée informatique.

Margarida Romero, Directrice du laboratoire LINE de l’ESPE de Nice à l’Université Côte d’Azur.
@margaridaromero

Pour en savoir plus :

Références :

Beckmann, J. F. (2006). Superiority: Always and everywhere? On some misconceptions in the validation of dynamic testing. Educational and Child Psychology, 23(3), 35.

Dowek G. & Abiteboul S. (2017) Le temps des algorithmes. Éditions du Pommier.

Ganascia, J-G (2017) Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle? Sciences ouvertes Éditions du seuil.

Gardner, H., & Hatch, T. (1989). Educational implications of the theory of multiple intelligences. Educational researcher, 18(8), 4-10.

Piaget, J. (1953). The origin of intelligence in the child. Routledge and Kegan Paul.

Romero, M., Lepage, A., & Lille, B. (2017). Computational thinking development through creative programming in higher education. International Journal of Educational Technology in Higher Education, 14(1), 42.

Romero, M., Lille, B., & Patiño, A. (2017). Usages créatifs du numérique pour l’apprentissage au XXIe siècle. PUQ.

Simonet, G. (2010). The concept of adaptation: interdisciplinary scope and involvement in climate change. SAPI EN. S. Surveys and Perspectives Integrating Environment and Society, (3.1).

Villani, C., Schoenauer, M., Bonnet, Y., Berthet, C., Cornut, A.-C., Levin, F., Rondepierre, Y. (2018) Donner un sens à l’intelligence artificielle, rapport de mission parlementaire du 8 septembre 2017 au 8 mars 2018 https://www.aiforhumanity.fr

W3C invente la nouvelle manière de concevoir les standards du numérique

Le World Wide Web (ou le Web) a été conçu par Tim Berners-Lee au début des années 90. Pour mener le Web à son plein potentiel, Tim a fondé le Consortium World Wide Web ou W3C. Depuis près de 25 ans, W3C a permis de concevoir les nouvelles fonctionnalités du Web de manière collective et d’inventer une nouvelle manière de mener la standardisation dans le domaine du numérique. Binaire a demandé à Jean-François Abramatic (Directeur de recherche Émérite Inria qui a partagé sa carrière entre la recherche (Inria, MIT) et l’industrie (Ilog, IBM) et a présidé W3C de 1996 à 2001) ainsi qu’à Coralie Mercier (qui travaille au W3C depuis 1999 et est Directrice de la Communication depuis 2015) d’expliquer le rôle de W3C dans le développement et le déploiement du Web, puis de présenter les choix stratégiques du Consortium pour les années à venir. Pascal Guitton

Il y a 25 ans, en Mars 1993, Marc Andreessen a annoncé que Mosaic, le premier navigateur Web mis en œuvre sur toutes les plateformes informatiques de l’époque (PC, Mac, Stations Unix), était disponible pour qui souhaitait le télécharger. Le Web avait été inventé, au début des années 90, par Tim Berners-Lee alors qu’il travaillait au CERN, à Genève.

Marc et Tim ont choisi deux voies différentes et complémentaires pour contribuer au développement du Web. Marc a participé à la création de Netscape, la première start-up basée sur la technologie Web. Tim a décidé de créer le World Wide Web Consortium (W3C) pour « mener le Web à son plein potentiel ».

W3C, héritier du X Window Consortium

Pour construire W3C, Tim s’est appuyé sur l’expérience acquise par le « Laboratory of Computer Science » du « Massachusetts Institute of Technology » (MIT-LCS) qui avait mis en place le X Consortium dans les années 80. Ce consortium, hébergé par le MIT, avait associé de nombreux acteurs industriels et académiques pour définir et mettre en œuvre l’interface homme-machine X Window qui est devenue l’interface standard des machines Unix.

W3C veut mériter les deux premiers WW (World Wide) de son nom

Après une rencontre avec Michael Dertouzos, directeur de MIT-LCS, en Février 1994, Tim décide de rejoindre le MIT et de fonder W3C. Il fait aussi le choix immédiat d’étendre la portée géographique du nouveau consortium en associant à l’hôte américain (MIT), un hôte européen et un hôte asiatique. Inria, l’Institut National de Recherche en Informatique et Automatique, devient l’hôte européen de W3C début 1995, l’Université de Keio à Tokyo sera l’hôte asiatique courant 1996. Depuis, l’Université de Beihang est devenue, en 2013, l’hôte pour la Chine, pour faciliter la participation de la communauté chinoise. Dans les autres régions du monde, W3C a étendu sa couverture géographique en ouvrant des bureaux dans 18 pays.

Grâce à cette couverture internationale précoce, W3C a pu développer les nouvelles spécifications du Web en garantissant leur internationalisation. De plus, les documents produits par W3C sont traduits dans plus de 35 langues grâce aux contributions de traducteurs bénévoles répartis à travers le monde.

W3C, héritier de l’IETF

Tim a conçu le Web en définissant trois composants, un système d’adressage (URL ou Uniform Resource Locator), un protocole (HTTP ou HyperText Transfer Protocol), un langage (HTML ou HyperText Markup Language). Tim a choisi l’IETF (Internet Engineering Task Force) pour standardiser ces trois composants. Les travaux sur l’adressage et le protocole sont restés à l’IETF. En effet, la communauté de l’IETF a toujours été familière avec les conventions d’adressage et la conception de protocoles. Elle avait développé, par exemple, les protocoles de base de l’Internet : TCP (Transmission Control Protocol), IP (Internet Protocol) et les standards du courrier électronique.

Par contre, l’évolution d’HTML était conduite par les développeurs de navigateurs, principalement Microsoft et Netscape. La compétition était telle que de nouvelles fonctionnalités du langage apparaissaient dans chaque version de navigateur à un rythme très élevé (pratiquement chaque trimestre). Devant cette situation déraisonnable, les acteurs industriels ont répondu positivement à la proposition du MIT de créer un consortium dédié au développement des standards du Web, en particulier HTML. L’équipe du consortium a donc participé aux groupes de travail de l’IETF pour l’adressage et le protocole et créera, au sein de W3C, de nombreux groupes de travail dont un groupe pour HTML.

W3C, un consortium chargé de la cohérence de l’architecture du Web

Suivant l‘exemple du X Consortium, W3C a mis en place une équipe technique de plus de 50 ingénieurs et chercheurs qui ont animé le développement et le déploiement des standards du Web. Ce choix n’est pas courant dans les instances de standardisation où les personnels y sont plutôt chargés de tâches managériales ou de promotion. Les travaux de recherche et de conception sont conduits au sein de laboratoires publics et privés avant d’être soumis au processus de standardisation. Le choix de Tim, sa volonté de construire le Web de manière collective et la vitesse à laquelle l’innovation fleurissait sur le Web ont conduit à inventer une organisation d’un type nouveau basée sur de solides fondations techniques.

W3C et ses principes de fonctionnement

Pour construire cette équipe technique, W3C a pu compter sur les contributions financières de plus de 400 membres (entreprises, universités, laboratoires de recherche publics et privés, etc.) et assembler un budget qui lui a permis de mener son activité depuis plus de 20 ans. La confiance que Tim et toute l’équipe ont su bâtir a permis de mettre en pratique un ensemble de principes fondamentaux :

– Ouverture : Les activités de W3C sont ouvertes à toutes celles et tous ceux qui sont intéressés et qui sont désireux de contribuer. Avant de lancer des activités nouvelles, W3C s’assure de la participation des communautés correspondantes. C’est ainsi, par exemple, qu’ont été mises en place les activités sur l’accessibilité, la mobilité et plus récemment les activités verticales (automobile, édition électronique, paiement, …).

– Transparence : Les activités de W3C sont définies, présentées et discutées avant d’être engagées. Les résultats intermédiaires des travaux sont disponibles en permanence sur le site du consortium. Les décisions sont enregistrées, y compris les objections. Chaque décision finale est précédée par une période de commentaires publics.

– Consensus : Le W3C recherche le consensus pour toutes les décisions importantes. Une culture du consensus a ainsi été bâtie au fil des années. Dans les cas difficiles (heureusement très rares) où le consensus ne peut être atteint, le Directeur (Tim Berners-Lee) tranche et doit expliquer les raisons de son choix. On trouve un exemple récent dans le blog de Tim sur la recommandation EME (Encrypted Media Extension) relative à l’insertion de contenus aux droits protégés dans un document HTML. Une procédure d’appel est prévue.

– Equilibre : Aucune entreprise, aucun groupe d’intérêt ne peut forcer une décision quelle que soit sa contribution au consortium. Les critères de décision sont toujours basés sur des considérations liées à l’architecture du Web et aux besoins des utilisateurs.

– Process : W3C a construit un ensemble de règles de fonctionnement pour mener ses activités. Ces règles sont décrites dans un document, en permanence disponible sur le site du consortium. Ce document s’enrichit au fil des expériences vécues sous la conduite de l’ « Advisory Board » (comité de 9 membres élus par et parmi les membres du consortium).

– « Royalty Free » : W3C a inventé une politique de propriété industrielle dite « Royalty Free » selon laquelle la mise en œuvre des standards du W3C ne peut être soumise à licence payante de la part des organisations qui ont participé à leurs conceptions. Cette politique est différente de la politique dite RAND (Reasonnable And Non Discrimantory) souvent utilisée par d’autres organisations de standards et qui laisse l’ambiguïté sur les conditions financières d’utilisation des standards soumis à cette politique.

Au fil des années, W3C a également mis en place une organisation aux formes variées de manière à faciliter la communication, le dialogue, les débats parmi les concepteurs des standards du Web : groupes de travail, rencontres entre groupes, listes de courrier archivées,  canaux de « chat », audioconférences, assemblées générales permettent à chaque contributeur de choisir la manière qui lui convient pour participer aux travaux.

La mise en œuvre de ces principes fondamentaux a fait l’objet de débats souvent intenses qui ont parfois mené au départ de quelques membres du consortium. La variété des acteurs du Web rend la recherche de consensus complexe et difficile. W3C n’a aucun pouvoir pour imposer le déploiement des standards issus de ses travaux. Son succès est donc venu de la mise en œuvre volontaire par les acteurs du Web des standards conçus au W3C.

L’évolution stratégique de W3C

Après avoir concentré ses efforts sur les fonctionnalités génériques du Web, W3C a décidé d’étendre le champ de ses activités au développement de standards verticaux nécessaires pour le déploiement du Web au service de nouvelles industries. Le dialogue avec ces nouveaux utilisateurs a enrichi les réflexions du consortium. Il permet à la plateforme Web d’être la plus interopérable de l’histoire en  se nourrissant toujours plus de l’expérience des utilisateurs.

Les premiers secteurs industriels à avoir constitué des groupes de travail au sein du consortium sont l’automobile, l’édition numérique, le paiement, les télécommunications, la télévision et le divertissement.

Le Web et l’automobile

Depuis 2013, l’intérêt grandissant autour des véhicules connectés et des véhicules autonomes a amené l’industrie automobile à collaborer au sein du W3C à l’élaboration de standards fournissant aux conducteurs et aux passagers une expérience Web riche et sûre, et aux constructeurs une plateforme commune permettant l’intégration de services connectés embarqués, ainsi que le moyen d’interagir avec leurs données (ravitaillement en carburant, recharge, parking, péages, etc.)

Le Web et l’édition numérique

L’industrie de l’édition (qui précède le Web de plusieurs siècles 🙂 s’appuie désormais sur les fonctionnalités de base de la plate-forme Web, des liseuses aux manuels scolaires, en passant par les enseignements délivrés par les écoles et les universités. Le Web est devenu la plate-forme d’édition universelle. Depuis la fusion de W3C et de l’International Digital Publishing Forum (IDPF), la feuille de route de l’édition numérique s’est enrichie d’activités conduites au sein de W3C telles que la typographie et la mise en page, l’accessibilité, la convivialité d’utilisation, la portabilité, la distribution, l’archivage, l’accès hors ligne et le référencement croisé fiable.

Le Web et le paiement

A présent que des milliards de dollars d’échanges commerciaux s’effectuent sur le Web chaque année, l’industrie financière développe au sein de W3C l’infrastructure permettant d’optimiser, sécuriser et homogénéiser le paiement sur le Web, en particulier sur mobile. Les travaux menés au W3C ont aussi permis d’innover en standardisant de nouveaux moyens de paiement inter-émetteurs, justificatifs vérifiables, offres numériques, crypto-monnaies, services sécurisés basés sur le matériel, et les modèles de contenu payant.

Le Web et les services de télécommunications

Les fournisseurs de services de télécommunication et les fournisseurs d’équipements de réseau ont depuis toujours été des acteurs essentiels du déploiement du Web. À mesure que la plateforme Web évolue, elle offre aux fournisseurs de services des capacités de plus en plus riches pour étendre les services existants à de nouveaux utilisateurs et appareils, et pour proposer de nouveaux services aux abonnés tels que l’intégration de paiements sur mobiles, l’enrichissement des communications en temps-réel, la création d’une couche Web pour la 5G (« Web5G »).

Le Web et l’industrie du divertissement

Depuis l’avènement de l’audio et de la vidéo sur le Web, rendu possible grâce au déploiement d’HTML5, l’industrie de la télévision et du divertissement s’intéresse à la création d’expériences de plus en plus immersives. Le Web doit permettre de réaliser un nouvel éventail de services, allant des portails de vidéo à la demande au streaming adaptatif, en prenant en charge tout type d’appareils multimédia embarqués et tous les contenus, ainsi qu’en assurant une bonne intégration des réseaux sociaux et du commerce en ligne.

Le plateforme Web en route vers son plein potentiel

Chacun de ces secteurs verticaux contribue à l’évolution du Web dans son ensemble en met en avant des besoins nouveaux en matière, par exemple, de sécurité et confidentialité, d’accessibilité, d’internationalisation. La plateforme Web s’enrichit de nouvelles fonctionnalités au service de tous les usages.

HTML étend encore ses fonctionnalités

La récente version d’HTML, HTML 5.2, a ainsi tiré parti des travaux sur le paiement, la sécurité, et l’accessibilité. HTML 5.2 rend également obsolète le vénérable système de plugiciels (« plug-ins ») et permet ainsi un meilleur contrôle des failles de sécurité potentielles  et une réduction des coûts de développement.

Sécurité

La sécurité a, bien sûr, toujours reçu une grande attention de la part des concepteurs de l’Internet, puis du Web. Récemment, un effort particulier a porté sur l’authentification sur le Web de façon à mieux sécuriser des mots de passe qui peuvent être volés ou qui sont réutilisés sur de nombreux sites. L’API d’authentification sur le Web, dont W3C publiera le standard l’été prochain, tirera parti de dispositifs de sécurité matériels et d’informations d’identification spécifiques au site basées sur la cryptographie à clé publique.

W3C : 25 ans au service des trois milliards d’utilisateurs du Web

Créé le 1er Octobre 1994, W3C fêtera donc ses 25 ans en 2019. W3C contribue toujours à faire en sorte que le Web reste ouvert, accessible et interopérable pour tout le monde, dans le monde entier. Les travaux de W3C  permettent également que le Web fonctionne sur tous les appareils, dans toutes les langues, pour les personnes de toutes capacités, et qu’il réponde ainsi aux besoins de plus de trois milliards d’utilisateurs.

L’activité du W3C se décline en 35 groupes de travail et 13 groupes d’intérêt, œuvrant sur plus de 230 spécifications dont près de 200 sont destinées à devenir des standards, qui rejoindront les 400 standards déjà publiés à ce jour. En comptant les quelques 300 Groupes Communautaires (« W3C Community and Business Groups ») servant d’incubateurs, gérés par la communauté elle-même, plus de 10000 personnes travaillent ainsi à définir le Web d’aujourd’hui et de demain en participant aux travaux de W3C.

Les choix d’organisation originaux mis en place par Tim Berners-Lee et l’ensemble des acteurs du consortium ont permis de développer les fonctionnalités du Web de manière consensuelle. W3C n’a aucune autorité pour imposer les standards qu’il recommande. Son succès vient de la qualité des recommandations, du fait qu’elles aient été conçues par la communauté appelée à s’en servir et finalement de la mise en œuvre volontaire de ces standards au service de tous.

Jean-François Abramatic (DR émérite Inria) @ Coralie Mercier (Directrice de la communication W3C)

 

Liens vers

Video de presentation de W3C : https://www.w3.org/2011/11/w3c_video.html

W3C Process document : https://www.w3.org/Consortium/Process/

Blog de Tim sur les défis du Web : https://medium.com/@timberners_lee/the-web-is-under-threat-join-us-and-fight-for-it-69cb3408c770

Liste des recommandations : https://www.w3.org/TR/tr-date-stds

 

Proposition de note de bas de page : « La Politique du W3C sur les brevets, conçue pour assurer la poursuite de l’innovation et de l’interopérabilité qui a fait le succès du Web, facilite le développement des recommandations du W3C, favorise la mise en œuvre généralisée de ces recommandations et permet l’accès sans redevance aux brevets détenus par les auteurs des recommandations qui sont essentiels à leur mise en œuvre. »

Manipulation informationnelle et psychologique

Nous étions déjà nombreux à nous inquiéter de ce qui est fait de nos données personnelles que les services du web entassent. L’affaire Cambridge Analytica, avec des données de Facebook, n’a fait qu’accentuer cette prise de conscience. Pour mieux comprendre les utilisations pernicieuses de telles données, Binaire a demandé à un spécialiste de ces questions, Claude Castelluccia, de nous parler des manipulations informationnelles et psychologiques. Serge Abiteboul
Claude Castelluccia

Nos données personnelles sont collectées et analysées par diverses entreprises ou entités à des fins de personnalisation, catégorisation ou de surveillance. Ces techniques d’analyse sont très puissantes et permettent, par exemple, d’identifier nos états émotionnels ou nos profils psychologiques. Il a par exemple été montré que l’analyse des données Facebook permettent d’identifier précocement les utilisateurs qui ont des tendances suicidaires.

Ce qu’on sait moins, c’est que nos données personnelles sont de plus en plus utilisées pour nous influencer, voire nous manipuler. En contrôlant les informations que nous recevons en ligne et en les adaptant à nos comportements, un service comme Facebook peut être utilisé pour influencer nos comportements de clients, nos opinions, nos émotions, voire, comme le suggère l’affaire récente «  Cambridge Analytica », nos choix politiques. Ces manipulations, très étudiées en marketing comportemental (neuromarketing), sont les conséquences même du modèle économique de l’Internet et de ses services « gratuits ».

Les techniques de manipulation par les données sont nombreuses et variées. On peut cependant les classer en deux grandes catégories : les techniques basées sur la « manipulation informationnelle » et celles basées sur la « manipulation psychologique ».

La manipulation informationnelle

Les techniques de cette catégorie tentent de modifier notre système cognitif en polluant les informations/connaissances que nous utilisons pour le construire. C’est typiquement le cas des fausses informations publiées sur le web ou les réseaux sociaux (les fake news) dont l’objectif est d’influencer nos opinions, et parfois nos votes. Dans un rapport récent, le conseil de l’Europe fait la distinction entre deux classes de publications d’information fausses :

  • La désinformation consiste à diffuser une information fausse dans le but de nuire (on parle alors de dis-information ou fake news en anglais), ou par ignorance ou erreur (on parle alors de mis-information en anglais). Un exemple de dis-information est l’information, qui a circulé pendant la campagne présidentielle, prétendant faussement que la campagne du candidat Macron était financée par l’Arabie Saoudite.
  • La malinformation est une information correcte, souvent confidentielle ou privée, mais publiée à grande échelle dans un but spécifique. C’est l’exemple des courriels privées, volés et publiés sur Internet pendant la dernière campagne présidentielle aux États-Unis.

La manipulation psychologique

Les techniques de cette catégorie sont plus subtiles car, au lieu de modifier nos systèmes cognitifs, elles cherchent à exploiter ses faiblesses en tirant parti de nos biais cognitifs. Un biais cognitif est un mécanisme de la pensée qui dévie de la pensée rationnelle, et qui fait porter des jugements ou prendre des décisions sans tenir compte d’un raisonnement analytique.

Il existe globalement différents biais cognitifs comme les biais qui découlent d’une saturation d’informations, d’informations incomplètes ou vagues, de la nécessité d’agir rapidement et des limites de la mémoire.

L’exemple de la figure 1 illustre comment les biais liés à la « nécessité d’agir rapidement » peuvent être exploités par un site marchand, ici expedia.com. En affichant le message In high demand – We have 1 left (« Très demandé – seulement un seul restant »), le site donne l’impression que le produit est très demandé et risque de ne plus être disponible rapidement. L’utilisateur est alors incité à finaliser son achat, sans trop réfléchir.

Figure 1 : un exemple d’exploitation de biais cognitifs sur expedia.com

La figure 2 montre un exemple intéressant de manipulation basée sur la perception. Sur cette figure, le troisième visage est obtenu en combinant les deux premiers visages selon un ratio 40:60. Des chercheurs ont montré que les intentions de vote pour un candidat, ici G. Bush, augmentaient considérablement lorsque le visage du candidat était combiné avec celui du votant (*) ! Cette manipulation exploite le biais qui stipule, selon le célèbre adage « qui se ressemble, s’assemble », que les gens tendent inconsciemment à être attirés par les personnalités qui leur ressemblent physiquement. Ces techniques de manipulation, personnalisées et imperceptibles, sont aujourd’hui tout à fait envisageables à grande échelle grâce aux données disponibles sur les réseaux sociaux.

Figure 2 : manipulation par image morphing. Extrait de l’article (*).

Le profilage psychologique OCEAN

Les publicités sur Internet sont souvent personnalisées selon les centres d’intérêt des utilisateurs. Par exemple, un internaute qui visite un site de vente de piscines aura une grande chance de recevoir des publicités pour des piscines par la suite. Des résultats récents ont montré que les performances de ces publicités ciblées dépendraient aussi des profils psychologiques des cibles (**). Pour un même produit, par exemple un téléphone X, les personnes catégorisées comme « introverties » auraient une probabilité supérieure à 40% par rapport aux personnes « extraverties » de cliquer sur une publicité dont le message est : « Soyez en sécurité et toujours joignable avec le téléphone X ». Les personnes « extraverties » seraient plus réceptives à un message de type : « Soyez toujours branchée et au bon endroit avec le téléphone X ». Un annonceur pourrait donc optimiser ses campagnes publicitaires s’il connaissait les profils psychologiques de ces clients potentiels.

La construction du profil psychologique d’une personne peut reposer sur le modèle OCEAN qui évalue, pour chaque personne, les 5 facteurs suivants :

  • (O) Ouverture d’esprit : tendance à être ouvert aux expériences nouvelles.
  • (C) Conscienciosité : tendance à être prudent, vigilant et consciencieux.
  • (E) Extraversion : tendance à chercher la stimulation, l’attention et la compagnie des autres.
  • (A) Agréabilité : tendance à être compatissant et coopératif plutôt que soupçonneux et antagonique envers les autres.
  • (N) Neuroticisme : tendance persistante à l’expérience des émotions négatives (anxiété, colère, culpabilité, déprime, etc.).

Voir Figure 3.

Ces profils sont établis en analysant les réponses données par la cible à une longue liste de questions telles que : « Croyez-en en l’importance de l’art ? » ou « Avez-vous régulièrement des moments de déprime ? ». Il s’agit donc d’une tâche laborieuse, nécessitant la coopération des cibles et pouvant difficilement être mis en œuvre à grande échelle.

Figure 3 : 2 exemples de profils OCEAN

Cependant, une équipe de l’université de Cambridge a récemment démontré qu’il était possible d’établir le profil psychologique d’une internaute uniquement en analysant ses likes sur Facebook (+) ! Plus spécifiquement, ces travaux ont montré que 250 likes suffiraient pour obtenir un profil aussi précis que celui établi par son époux (ou épouse) ! Il est donc complètement envisageable d’établir des profils psychologiques très précis, à grande échelle, en utilisant des plateformes comme Facebook et complètement à l’insu des cibles ! Ce sont d’ailleurs ces résultats que l’entreprise Cambridge Analytica auraient utilisés lors de la campagne présidentielle de D. Trump pour cibler les électeurs indécis et influençables ! La plateforme de Facebook est idéale pour ce type de ciblage et de manipulation car elle permet à tout annonceur de définir des critères très fins (comme le niveau d’éducation, de revenus, les centres d’intérêt, les lieux géographiques, etc.). Ces critères peuvent, sans aucun doute, être choisis pour cibler différents profils psychologiques sans avoir à collecter les données personnelles. Les rôles sont bien partagés. L’annonceur définit les critères de ciblage et les messages à transmettre. Facebook a la charge, en utilisant toutes les données personnelles qu’elle possède, d’identifier les personnes à cibler et de leur transmettre les annonces.

Conclusion

Avec le développement de l’Intelligence Artificielle, les techniques de détection des émotions et de l’utilisation de la neuroscience en marketing ainsi que les techniques de manipulation vont devenir de plus en plus efficaces, dangereuses et insidieuses. Les fake news seront de plus en plus réalistes et difficilement détectables, et utiliseront des nouveaux formats comme le son ou la vidéo (les deep fakes).

La manipulation de masse en ligne par les données est un danger croissant pour nos libertés et nos démocraties. Il s’agit d’un problème étonnamment sous-estimé aujourd’hui et qui mériterait beaucoup plus d’attention, de transparence et de recherche ! ”

Claude Castelluccia, Inria Rhône-Alpes, @PrivaticsInria

(*) Facial Similarity between Voters and Candidates Causes Influence, Jeremy N. Bailenson, Shanto Iyengar,Nick Yee, Nathan A. Collins, Andrew Orin, Megan Miller and Kathryn Rickertsen, Public Opinion Quarterly, Vol. 72, No. 5 2008, pp. 935–961

(**)  Psychological targeting as an effective approach to digital mass persuasion by S. C. Matz, M. Kosinski, G. Nave, and D. J. Stillwell, Proceedings of the National Academy of Sciences (PNAS), 2017.

(+) Computer-based personality judgments are more accurate than those made by humans by W. Youyou, M. Kosinski*, D. Stillwell, Proceedings of the National Academy of Sciences (PNAS), 2015

 

S’affranchir de l’autorité centrale avec la blockchain

Un  article précédent portait sur la tension entre système centralisé, où une seule machine gère tout, et système décentralisé. La centralisation a longtemps résisté dans le domaine des transactions marchandes. Quand vous réservez le siège 25 de la voiture 8 du train Paris-Aix-en-Provence de lundi midi, un système informatique centralisé garantit que vous êtes le seul à réserver cette place (ou, en tout cas, devrait le garantir). Les échanges commerciaux modernes s’appuient sur les monnaies de banques centrales, telles que l’euro ou le dollar. La propriété de biens immobiliers est assurée par les services centraux de la publicité foncière. Nous pourrions multiplier les exemples de centralisme de tels systèmes, même lorsque, parfois, ils utilisent de fait des batteries d’ordinateurs autonomes. Si l’implantation est décentralisée, l’autorité, qui peut être un « tiers de confiance », est bien centralisée.

Depuis peu, des algorithmes complexes utilisant des puissances de calcul considérables proposent des échanges monétaires sans présupposer l’existence d’une autorité centrale. On leur imagine bien d’autres utilisations, comme de remplacer l’un des rares services d’Internet qui soient centralisés, celui qui permet de transformer les noms de domaines, tels que www.inria.fr, en adresses physiques de serveurs. Bienvenue dans le monde de la blockchain – autrement dit, la « chaîne de blocs » !

La technologie à la base des blockchains s’est d’abord fait connaître avec une nouvelle monnaie, le bitcoin. On peut acheter des produits avec des bitcoins ou les échanger contre des euros. La rencontre des algorithmes distribués et de la cryptographie au sein d’un « modèle économique » original permet à tout cela de fonctionner sans autorité centrale. La monnaie se libère du carcan des États !

Le protocole distribué de bitcoin, qui fait tout, de l’émission et l’échange de monnaie à la protection contre la double dépense, a été inventé par un (ou plusieurs) programmeur connu sous le nom de Satoshi Nakamoto, autour de 2008. Le secret entourant sa création, et son utilisation sur le dark Web (le contenu du Web accessible uniquement via des logiciels, des configurations ou des autorisations spécifiques), enveloppent cette technologie de mystère. L’intérêt récent des entreprises s’explique en partie par la popularité du bitcoin et de ses successeurs, et par des succès des blockchains, comme les échanges financiers entre entreprises. La technologie est encore jeune et nous voyons déjà arriver de nouveaux systèmes, comme Ethereum, blockchain open source.

Les mécanismes de blockchain permettent d’implanter un service ouvert et public de registre numérique. N’importe qui peut lire le registre, en garder une copie, écrire dedans, c’est-à-dire y enregistrer des transactions, au sens informatique comme au sens bancaire du terme. Les participants qui gardent des copies garantissent collectivement que les transactions sont réalisées l’une après l’autre, que les copies restent identiques, et qu’elles gardent bien la trace de toutes les transactions depuis le lancement de la blockchain.

Le problème, c’est d’arriver à mettre d’accord toutes les copies. La méthode historique pour aboutir à ce type de consensus est « une preuve de travail ». La résolution de cette preuve nécessite une puissance de calcul informatique énorme. Un attaquant qui voudrait tricher, par exemple en autorisant de vendre plusieurs fois le même objet physique, devrait fournir une proportion importante de la puissance de calcul de l’ensemble des participants. Ainsi, quelqu’un possédant 51 % de la puissance de calcul totale pourrait imposer sa loi et des transactions « truquées ».

Soulignons qu’avec les calculs considérables qu’elles requièrent pour enregistrer une transaction, les blockchains standards ne sont pas du tout écolos. Selon l’agence Reuters, le réseau bitcoin consommait, en 2015, 43 000 fois plus d’électricité que les 500 ordinateurs les plus puissants du monde. Mais nous voyons émerger des technologies qui, sans être catastrophiques pour la planète, se proposent de garantir une gestion décentralisée de données, transparente, ouverte, sécurisée. Nous y arriverons ; c’est juste une question de temps. Les effets sur l’économie d’une société moins centralisée, basée sur la confiance, sont encore à découvrir.

Serge Abiteboul, Inria et ENS, Paris

Cet article est paru dans Le magazine La Recherche, N°529 • Novembre 2017