Le bonheur est dans l’IA !

Emmanuel Frénod est mathématicien, professeur à l’Université de Bretagne Sud, au sein du Laboratoire de Mathématiques de Bretagne Atlantique. Il est également fondateur et directeur scientifique  de l’entreprise See-d qui développe des outils d’aide à la décision à partir – entre autres – de méthodes d’apprentissage. Pour binaire, il nous parle de l’intégration d’outils d’intelligence artificielle en agriculture. Antoine Rousseau

Alors que le coût du stockage des données baisse sans arrêt, en même temps que se développent des techniques d’apprentissage en intelligence artificielle, la « big data » est passée d’une utopie à une réalité. C’est particulièrement le cas dans le domaine de l’agriculture : autrefois peu nombreuses, inaccessibles ou inexploitables, les données agricoles sont désormais une ressource identifiée dans lesquelles les entreprises commencent à investir : on parle d’urbanisation des Systèmes d’Information (SI) tant le rôle de l’informatique change au sein de ces organisations.
Pourtant, la culture et la grande compétence « de terrain » dans l’agriculture ne favorisent pas l’acceptabilité des méthodes « boîtes noires », c’est-à-dire non explicatives, comme le sont la plupart des algorithmes d’Intelligence Artificielle (IA) couramment mis en œuvre à l’heure actuelle. D’où une sorte de frustration réciproque : les professionnels de l’agriculture conçoivent mal le fait de « savoir sans comprendre » et les entreprises du numérique aimeraient quant à elles mieux utiliser la compétence métier (développée depuis des décennies) de leurs clients et prospects.
Il semble donc essentiel de développer des IA sur mesure, adaptées à chaque problématique, s’appuyant à la fois sur les données brutes mais également sur les connaissances des utilisateurs. Cela permettra d’accompagner – voire de faire progresser – le développement des systèmes de bases de données et l’urbanisation des SI qui leur sont concomitants. Cela permettra également, en intégrant la connaissance métier et en rendant les recommandations issues des IA mieux explicables, d’en augmenter leur acceptabilité.

Des IA sur mesure, oui mais lesquelles ?

Comment réaliser des IA sur mesure ? Commençons par remarquer que la construction d’une IA est avant tout liée à une bonne utilisation de modèles mathématiques et/ou statistiques plus au moins sophistiqués.

Par exemple, les populaires réseaux de neurones, très utilisés en machine learning, ont la capacité – grâce à des outils mathématiques assez simples comme le « produit matrice-vecteur » – de faire un rapprochement statistique entre entrées et sorties d’un modèle. Ainsi, dans une première phase l’algorithme apprend à faire une sorte de correspondance entre les entrées et les sorties qui lui sont fournies. Évidemment, plus les données sont nombreuses (et de bonne qualité), plus l’apprentissage est précis et efficace.
La seconde phase, prédictive, consiste cette fois à utiliser les « connaissances » emmagasinées par l’algorithme pour produire, à partir de nouvelles données d’entrées, des sorties de modèles qui sont cette fois simulées par l’IA. Si l’IA a été « bien formée », les résultats ainsi simulés sont statistiquement proches des résultats réels attendus. Ainsi, il semble (même si c’est sans doute exagéré) que les réseaux de neurones ont la capacité de mimer la réalité, et donc de la prévoir.

Ce qui vient d’être décrit pour les réseaux de neurones peut être mis en œuvre avec des modèles mathématiques plus sophistiqués (et plus romantiques !) que le « produit matrice-vecteur ». C’est ce sur quoi nous travaillons au sein de mes équipes. En particulier, nous utilisons des « équations différentielles » et des « équations aux dérivées partielles » en tant que modèles mathématiques sur lesquels les IA que nous construisons sont basées.

L���approche suivie met en œuvre un ensemble d’équations impliquant des opérateurs mathématiques sophistiqués (opérateurs différentiels) qui dépendent de paramètres. Ces équations sont utilisées pour produire, à partir des entrées d’un modèle, les sorties de celui-ci.
Ainsi, en transformant ces équations en programmes informatiques, nous disposons d’algorithmes qui associent des « données de sortie » à des « données d’entrée ». Les équations d’origine étant dépendantes de paramètres, il en est de même pour les algorithmes associés. Nous disposons donc d’un système numérique « entrées-sorties » paramétré.
Par exemple, dans une IA d’aide au pilotage d’élevages que nous venons de développer, une prévision de production d’œufs est reliée aux conditions de préparation, d’environnement et de nourriture des poules pondeuses.

Imaginons à présent que nous disposions d’un jeu de données réelles (issues de mesures des conditions d’environnement d’un élevage, des compositions des rations de nourriture par exemple) permettant d’alimenter notre système numérique avec les entrées dont il a besoin. Il est alors possible d’en déduire les sorties calculées par l’ordinateur. Mais sauf miracle (et ceux-ci n’arrivent pas plus ici qu’ailleurs) ces prévisions seront certainement différentes de celles qui sont attendues. On peut alors modifier les paramètres du modèle numérique de sorte que les sorties simulées se rapprochent des sorties désirées (dans notre exemple, ajuster les paramètres de façon à ce que la prévision de production d’œufs soit conforme à la réalité). En renouvelant cette opération sur un grand nombre de données, nous pouvons « éduquer » notre algorithme qui devient une IA.

Cette approche permet d’une part d’embarquer de la connaissance métier. En effet les équations mathématiques et statistiques utilisées traduisent des éléments connus par les métiers sur le fonctionnement du domaine d’utilisation de l’IA. Dans l’exemple mentionné ci-dessus, le fait qu’une nourriture trop grasse limite sa consommation par les poules se traduit par un effet de seuillage dans l’équation différentielle modélisant la quantité de nourriture ingérée.  Ainsi les IA générées embarquent cette connaissance précieuse et assurent leur acceptabilité vis-à-vis des utilisateurs potentiels.
Même si ces IA peuvent également fonctionner en utilisant un nombre restreint de paramètres et ainsi être éduquées avec de petits volumes de données, c’est en les développant avec un nombre important de paramètres et en hiérarchisant ces derniers, qu’elles peuvent accompagner le passage du « small data » au « big data ».

Emmanuel Frénod (Laboratoire de Mathématiques de Bretagne Atlantique et  See-d)

Comment va se rendre la justice au temps des algorithmes ?

Nous partageons grâce à Lêmy Godefroy ici un document important : c’est un rapport sur la prise de décision par le juge à l’aide d’algorithmes. Toute personne qui aurait affaire à la justice est concernée dans la mesure où son litige pourrait, dans un avenir plus ou moins proche, être traité par des modes algorithmiques d’analyse des décisions.
Ce rapport peut ainsi contribuer à apporter des informations sur les modalités de fonctionnement de ces outils d’aide à la décision ainsi que sur les enjeux éthiques que soulèvent leurs usages par les magistrats. Thierry Viéville

Comme on en discutait dans il y a quelques mois dans ce billet les algorithmes s’invitent dans un domaine crucial : la justice. Souhaitez-vous allez à la source de ce qui se dit et se fait sur ce sujet ?

©lejournal.cnrs.fr
©lejournal.cnrs.fr

Un rapport de recherche pluridisciplinaire pour la Mission de recherche Droit et Justice traitant des modes algorithmiques d’analyse des décisions dans le domaine du droit et de la Justice a été publié le 05 juillet 2019.

Ce rapport intervient sous trois angles: mathématique, juridique et sociologique.
Sur le plan mathématique, il traite de la modélisation de l’activité juridique en présentant les différents outils d’aide à la décision qui existent et leur fonctionnement. Sur le plan juridique, il s’agit de proposer un cadre à l’utilisation de ces outils algorithmiques en déterminant leur périmètre d’action, d’en cerner les dangers et les intérêts, d’en comprendre les enjeux éthiques et d’examiner les modalités de leur intégration au travail des juges. De plus, une enquête a été effectuée auprès des présidents des TGI, des premiers présidents des Cours d’appel ainsi que de la Cour de cassation pour connaître leur perception de ces outils. Sur le plan sociologique, l’analyse montre que « les dynamiques internes au champ juridique (…) seront déterminantes dans le processus de changement qui devrait se traduire par une montée en puissance des algorithmes au sein de l’institution qu’est la Justice ».
Ce rapport est intitulé « Comment le numérique transforme le droit et la Justice par de nouveaux usages et un bouleversement de la prise de décision. Anticiper les évolutions pour les accompagner et les maîtriser ». Les auteurs en sont Jacques Levy-Vehel, Directeur de recherches Inria et Président de Case Law Analytics, Lêmy Godefroy, Maitre de conférences en droit privé au Groupe de Recherche en Droit, Economie, Gestion (GREDEG) d’Université Côte d’Azur et Frédéric Lebaron, Professeur en sociologie au laboratoire Institutions et Dynamiques Historiques de l’Économie et de la Société de l’ENS Paris-Saclay.

Accès direct : ICI

Lêmy Godefroy, Maître de conférences spécialisée en droit du numérique, au GREDEG de l’Université de Nice Côte d’Azur.

La régulation des contenus en ligne : défaire Charybde en prévenant Scylla

Le sujet de la régulation des contenus, par le prisme de la régulation des nouvelles plateformes que sont les réseaux sociaux, s’impose à l’ordre du jour des agendas parlementaires nationaux, Allemagne puis France, et bientôt européen. La société entière est traversée par ces réseaux mondiaux qui séduisent, fascinent parfois jusqu’à l’addiction, font résonner des tendances, raisonner des consciences, et aussi malheureusement charrient des flots d’immondices ad nauseam.

Qu’ils soient de provocation aux actes terroristes ou apologiques, pédopornographiques, haineux, discriminants, harcelants, porteurs de fausses nouvelles, violant les droits d’auteurs et voisins, la toxicité variée de certains contenus nécessite des traitements différenciés en vertu du principe de proportionnalité. Le réseau lui-même, moyen d’expression populaire extraordinaire, se retrouve ainsi en accusation et rejoint sur la sellette l’auteur du contenu toxique.

Il serait affligeant d’oublier que ces incroyables outils interconnectent des milliards d’individus pour ne voir que leurs dérives. S’assurer de leur bon usage revient à se poser la question d’une modération de leurs contenus dans le respect des utilisateurs et des droits fondamentaux, sans, en ce faisant, obérer la capacité des entreprises à innover.

Le défi est le suivant : quelle ligne de crête à inventer pour nos démocraties modernes, irriguées d’expression citoyenne mais menacées dans la cohésion sociale par une toxicité imparfaitement maîtrisée ?

Les réflexions ultérieurement exposées sont nées en partie de travaux sur la modération des discours de haine chez la société Facebook, en France, à l’occasion d’une mission regroupant des membres de diverses administrations publiques[1]. Évidemment, les mêmes principes peuvent potentiellement s’appliquer à d’autres contenus toxiques, à d’autres plateformes permettant à des utilisateurs de publier des contenus, que ce soient des réseaux sociaux (Twitter, YouTube, Snapchat…) voire d’autres médias (lemonde.fr, jeuxvideo.com…), et à d’autres échelles, notamment l’Union européenne.

Aujourd’hui, une modération traditionnelle fondée sur la loi pénale existe déjà, émanation régalienne de l’État de droit. La modération technologique des conditions générales d’utilisation (CGU), émanation « régalienne de la plateforme souveraine », s’y superpose. Leur effectivité et leur articulation restent insatisfaisantes.

Si elle dérange, l’expression « plateforme souveraine » recouvre une certaine réalité. Au triptyque, un territoire, une population, une autorité, caractéristiques de l’État en droit international, se substitue dans le monde numérique : un cyberespace, des usagers et la capacité autoproclamée de définir les règles.

L’État de droit, afin de préserver nos valeurs démocratiques, doit s’assurer des standards de qualité et d’efficience de la modération mais également prévenir toute censure privée excessive. Il est naturel pour ce faire de passer par un régulateur des réseaux significatifs. En effet, par leur caractère systémique[2], les grands réseaux ont pris une importance considérable dans l’espace public. Un retour en arrière semble improbable, hormis l’hypothèse radicale d’un démantèlement imposé par la puissance publique (américaine).

Deux lignes directrices pourraient sous-tendre une telle régulation :

  • Un équilibre entre le droit d’expression et le droit des internautes d’être protégés de contenus toxiques ;
  • Un partage des rôles entre les juges arbitres ultimes de l’illégalité des contenus, et un régulateur public en charge des réseaux sociaux contrôlant le fonctionnement des plateformes systémiques.

1.    La liberté d’expression des deux côtés de l’Atlantique

La force et la portée du 1er amendement de la Constitution américaine, ratifié en 1791, demeurent inoxydables. Le droit américain et notamment le principe de Freedom of speech, plus absolu que le principe européen de la liberté d’expression imprègne les CGU des réseaux sociaux. Sur le vieux continent, la Cour européenne des droits de l’homme a su apprécier le principe de la liberté d’expression avec la souplesse nécessaire. Consacrée par l’article 10 de la Convention européenne des droits de l’homme[3], la liberté d’expression est tempérée par de possibles restrictions « nécessaires dans une société démocratique ». La Cour considère la liberté d’expression comme un pilier de la démocratie, une condition basique pour le développement humain, et sait affirmer que les idées exprimées peuvent et doivent parfois choquer ou troubler l’État ou des fractions de sa population. Ces expressions « politiquement incorrectes » sont le fruit concret du pluralisme, de la tolérance et de l’ouverture d’esprit sans lesquels il n’existerait pas de société démocratique. En conséquence, les restrictions légitimes pouvant être apportées à la liberté d’expression doivent impérativement respecter le principe de proportionnalité[4].

Ces distinctions fondamentales entre les conceptions juridiques ont non seulement participé à l’incompréhension entre les plateformes et les États européens désormais enclins à légiférer afin de faire respecter leur souveraineté, mais freinent également l’accès à la preuve numérique dans la nécessaire répression judiciaire des abus constatés.

L’accord récent entre anglais et américains pour améliorer l’accès transfrontalier à la preuve[5] l’illustre à nouveau, puisque les États-Unis font valoir une exception pour toute requête susceptible de porter atteinte au Freedom of speech, portant notamment sur les données de contenu, étant rappelé que dans l’écrasante majorité des cas les données numériques sont en possession des réseaux sociaux ou hébergeurs américains.

Toutefois, des marges de manœuvres sont parfois possibles sur certaines catégories de données, telles les adresses IP, moins sensibles que les correspondances elles-mêmes. Ainsi les échanges institutionnels entre autorités publiques et plateformes privées peuvent aboutir à de réelles avancées, à l’instar de Facebook qui a modifié en juillet dernier ses pratiques, afin de mieux répondre aux réquisitions judicaires visant les auteurs de contenus haineux. Un futur règlement actuellement en cours de négociation au parlement européen devrait également faciliter ces premiers actes d’enquêtes.

2.    La régulation des messages de haine

Quand il s’agit de régulation de messages de haine, on peut distinguer trois approches essentiellement différentes.

  1. L’approche prônée notamment aux États-Unis qui consiste à laisser toute responsabilité et liberté aux plateformes. Des plateformes s’attaquent donc au sujet, y affectant parfois des ressources considérables avec des succès mitigés. Leurs efforts souffrent d’un déficit de légitimité et sont très critiqués.
  2. Le contrôle étroit des réseaux sociaux par les États, prôné principalement par des régimes totalitaires, mais tentant aussi pour les démocraties. En supposant que les États aient les moyens d’un tel contrôle, on peut questionner leur légitimité à le réaliser seuls. Et même, la solution des problèmes serait alors au prix du recul de la démocratie.
  3. Une troisième voix est envisageable, un modèle européen conforme à des valeurs universelles qui protège la liberté d’expression bien affirmée, mais aussi la liberté d’être correctement informé, et d’être protégé des prédateurs du réseau, humains ou organisations. Les trois facettes d’une telle régulation, comme souligné dans une tribune du Monde par un groupe de ministres français[6], sont : « punir les auteurs de comportements illicites, responsabiliser les réseaux sociaux et améliorer l’éducation et la formation des citoyens, en premier lieu des plus jeunes ». Nous nous focalisons dans cet article sur la seconde.

Les propositions de la « mission FB ». Début 2019, un groupe de fonctionnaires français, à la demande de l’État et avec le soutien de Facebook, a étudié comment était réalisée la modération des contenus haineux dans les réseaux sociaux et en particulier Facebook. À partir de ce constat, il a proposé une structure de modération avec pour vocation de dépasser le cadre de Facebook, des contenus haineux, et de la France.

Trois principes directeurs sont préconisés : suivre une logique de conformité où le régulateur supervise la mise en œuvre de mesures préventives et correctrices au sein des réseaux sociaux ; se concentrer sur les acteurs systémiques sans créer de barrière à l’entrée à de nouveaux acteurs européens ; assurer une fonction de régulation en « mode agile » et non figée afin d’éviter une obsolescence prématurée.

La politique publique de régulation serait garante des libertés individuelles et de la liberté d’entreprendre des plateformes. Elle serait mise en œuvre en toute transparence par une autorité administrative indépendante en partenariat avec les différentes branches de l’État, et avec la participation effective de la société civile.

L’autorité régulerait la responsabilisation des principaux réseaux sociaux via le contrôle des obligations de transparence des fonctions d’ordonnancement et de modération des contenus, et de devoir de diligence leur incombant. Elle ne serait ni le régulateur des réseaux sociaux dans leur globalité, ni le régulateur des contenus spécifiques qui y sont publiés. Surtout, elle ne serait pas compétente pour qualifier les contenus pris individuellement (du domaine de la justice). Elle coopérerait avec les services de l’État et les services judiciaires. D’autre part, elle participerait activement à un réseau des régulateurs européens.

Le gouvernement de son côté, via son pouvoir règlementaire, fixerait les principes comme l’obligation de défendre l’intégrité du réseau social et de ses membres, et le cadre de la régulation comme les seuils de déclenchement des obligations ou les modalités des obligations de transparence des fonctions d’ordonnancement des contenus.

Le travail de ce groupe, limité dans le temps, ne visait pas l’exhaustivité. Certains sujets n’ont pas été examinés en détail comme l’analyse de l’impact concurrentiel du schéma de régulation proposé sur les autres offres de services de réseaux sociaux[7] et les échanges de contenus au sein de groupes privés sur les réseaux sociaux (dont service de messagerie privée type Telegram ou WhatsApp).  Les réseaux sociaux « non-coopératifs », qui ne répondent pas à une rationalité économique classique, qu’ils soient prisés des activistes (4chan, 8chan…) ou contrôlés par un État étranger poursuivant des stratégies d’influence, n’ont pas été pris en compte.

Figure 1 Schéma extrait du rapport « Régulation des réseaux sociaux »

3.    Le régulateur national, réseau social

Le problème ne peut être selon nous résolu que par la combinaison des efforts des plateformes, des services de l’État, de la justice et de la société civile. La participation de la société civile est indispensable pour que, quelle que soit la modération des réseaux envisagée, elle soit perçue comme légitime par les internautes.

Cela conduit à la transparence des plateformes pour que les internautes comprennent comment la modération fonctionne et qu’ils aient confiance dans ses choix. Un monitoring fin de l’activité de modération doit être mis en place avec le régulateur qui partagera ces informations avec la société civile. Les internautes doivent pouvoir participer activement à la plateforme par leurs signalements, en pouvant suivre les procédures et faire appel des décisions. Ils devront en particulier être informés des motifs d’une modération qui les concerne, si le contenu a été jugé indésirable ou même toxique selon les CGU mondiales de la plateforme ou illégal selon une norme nationale ou européenne.

Cela conduit également à ce que la société civile soit associée à la spécification des choix de modération de la plateforme, à côté de l’État et de la justice, par l’intermédiaire notamment des associations d’internautes, et des chercheurs en informatique et en SHS.

Cela nous paraît être des conditions indispensables pour que la modération soit acceptable, pour que les blocages significatifs de contenus voire d’internautes, puissent se réaliser sans lever des soupçons de censure, sans craintes d’atteintes excessives à la démocratie. Le processus de modération doit au contraire permettre de consolider la démocratie, de la réinventer, dans une transparence quasi-sacrée avec une vraie implication de la société civile.

Le régulateur pourrait également veiller aux formations et conditions de travail des employés chargés de la modération de ces plateformes, même si des progrès ont pu être réalisés notamment après une première série de révélations dans la presse outre-Atlantique[8]. Les dimensions du flot de contenus conduisent à une culture de la performance, un modérateur n’ayant en moyenne que quelques secondes ou minutes pour « traiter » un contenu. Des temps de formation renforcés, une sensibilisation à la culture locale et linguistique des contenus modérés, sans oublier des garanties sociales et une valorisation des carrières semblent s’imposer. Le temps de la modération doit aussi permettre, dans les cas litigieux, un véritable dialogue entre le modérateur et l’usager/créateur de contenu, afin de comprendre le contexte et éclairer le modérateur.

Enfin, on peut largement remettre en cause la conception extensive des clauses de type NDA (Non Disclosure Agreement) qui, sous couvert légitime de respecter la vie privée des usagers, prennent des airs de baillons inavouables imposés aux salariés, rarement employés par les plateformes elles-mêmes mais par des prestataires. Cette culture du secret est en totale contradiction avec la transparence nécessaire pour l’acceptabilité de la modération. Les premiers lanceurs d’alerte commencent d’ailleurs à se manifester, et un régulateur national semble un interlocuteur privilégié pour obtenir des informations de première main[9].

4.    Le numérique à la rescousse

Pour avoir un espoir de régler ces problèmes des plateformes, il faut se déplacer volontairement dans le monde du numérique et intégrer les forces et faiblesses de ses structures technologiques.

Détection de contenus nocifs. Des algorithmes sont de plus en plus utilisés pour la détection de contenus toxiques ou illégaux. La question est complexe. Si les modérateurs humains tombent facilement d’accord sur des contenus « manifestement » terroristes, violents, haineux, etc., la qualification des contenus est plus complexe dans une large zone grise où le manifestement n’est plus de mise. Les modérateurs humains se divisent alors sur la question de « bannir ou pas ». La question peut également diviser les magistrats et seule une décision de justice peut alors trancher. Des algorithmes vont typiquement se fonder sur l’apprentissage automatique à partir de corpus de données annotées par des humains. Ils vont essayer de faire émerger un point de vue de compromis entre tous les modérateurs humains.

Dans ce contexte, une tendance de la justice questionne. Dans une décision du 3 octobre 2019, la Cour de Justice de l’Union européenne[10] précise qu’un tribunal d’un pays de l’Union européenne peut demander à un réseau social de retirer non seulement un contenu jugé illégal (procédure classique) mais également tout contenu « identique ou équivalent », sans même attendre son signalement, l’obligation pouvant être étendue au niveau mondial. Au-delà de cette interprétation qui élargit l’exception au principe de non surveillance générale des contenus de la part des hébergeurs[11], on pourra noter une relative imprécision sur la nature d’un contenu « identique ou équivalent ». Un texte peut être modifié caractère par caractère. À quel moment cesse-t-il de devenir identique ou équivalent ? Et pour une photo, si la résolution est modifiée, le cadrage, si les couleurs sont modifiées pas à pas, à quel moment cesse-t-elle de devenir identique ou équivalente ?  La notion subtile de « message véhiculé » paraît centrale.

Le raisonnement de la Cour se justifie essentiellement par son désir de rendre efficace l’injonction de retrait et de prévenir la réitération de l’acte illicite, sans obliger la victime à « devoir multiplier les procédures ». Or l’acte illicite « résulte non pas en soi de l’emploi de certains termes, combinés d’une certaine manière, mais du fait que le message véhiculé par ce contenu est qualifié d’illicite », comme des propos diffamatoires (§39-41).

Une interprétation plus large encore conduirait donc les plateformes à bloquer « par analogie » des contenus qui présenteraient des caractères semblables à ceux trouvés dans des contenus jugés illégaux, en tant qu’indices probables d’un « message véhiculé » équivalent. Se pose alors la question d’évaluer automatiquement ces analogies. C’est ce que font aujourd’hui les algorithmes de détection, la responsabilité de la qualification étant laissée ultérieurement à des modérateurs humains.

Les algorithmes ont l’avantage de « lisser » des choix humains qui peuvent présenter une large variance car trop souvent dans la subjectivité ; les signalements des internautes sur les réseaux sont notamment en moyenne de piètre qualité. Les algorithmes présentent aussi l’avantage de permettre une réaction rapide, et ce même avant que le contenu ait pu être vu par un internaute et causer des dégâts. Pour ces raisons, les algorithmes seront vraisemblablement de plus en plus la clé de voute de la modération, en termes de détection de contenus nocifs et de priorisation des actions des modérateurs humains. S’ils sont déjà performants dans les domaines du terrorisme et de la pédopornographie, les algorithmes de détection rencontrent, avec les messages de haine, tout comme avec les fakenews, des défis plus grands encore. Dans ces deux domaines, la qualification est plus complexe et il ne faut surtout pas attendre des algorithmes une « vérité » absolue :

  1. parce qu’une telle vérité n’existe pas,
  2. parce qu’il peut leur manquer des éléments de contexte indispensable pour évaluer la nature véritable d’un contenu et, surtout,
  3. parce que ces algorithmes sont encore très perfectibles.

Si on peut espérer qu’ils apporteront une aide considérable à la modération, il est indispensable de collectivement travailler à améliorer les algorithmes pour les différentes facettes de la modération sans croire leurs résultats aveuglement et sans en attendre des miracles. Une condition essentielle de leur utilisation est la qualité de leurs résultats, qui doit être mesurée en permanence.

Les données de la modération. Comme déjà souligné, ces algorithmes s’appuient, dans une phase d’entraînement, sur des corpus de données. La qualité de la modération tient donc en grande partie de la qualité des données, et donc du travail des humains qui développent ces corpus. Ce sont des choix humains qui guident les propositions des algorithmes de modération.

De tels corpus sont donc essentiels pour le bon fonctionnement de la modération, en cela ils forment des « données d’intérêt général ». Il faut que ces données soient disponibles pour tous, en particulier pour les chercheurs et pour les petites entreprises confrontées aux problèmes et qui n’ont pas les moyens de les obtenir. On notera que si les plateformes semblent parfois soucieuses de partager de telles données, leur tendance naturelle est d’avoir du mal à les ouvrir. Facebook, par exemple, a mis en place un partenariat avec des chercheurs. En septembre 2019, ces chercheurs ont menacé de quitter ce partenariat parce qu’ils n’avaient pas accès aux données[12]. On peut aussi s’interroger sur la liberté d’expression de ces chercheurs quand ils dépendent aussi étroitement des plateformes pour les données sur lesquelles ils travaillent, voire parfois pour leurs ressources financières.

Ces algorithmes et leurs données d’apprentissage prennent désormais une importance considérable dans notre société en évaluant les contenus qu’il est acceptable ou pas de partager, ils participent à la définition de notre société et leur régulation s’impose :

  • Transparence : on doit leur demander d’être transparents sur les traitements algorithmiques et les données qui servent à les entraîner.
  • Supervision : le régulateur doit surveiller ces algorithmes pour en déceler les manques ou les excès, puis en alerter la plateforme. La tâche est complexe et exige de fortes compétences du régulateur. Il pourra aussi s’appuyer sur le recueil de données de la foule et sur les travaux de chercheurs.
  • Co-design : les plateformes décident déjà leur modération. Même si le sujet est délicat, on peut collectivement parvenir à les aider à faire des choix aussi essentiels.

L’accélération. Un nœud du problème est qu’un contenu posté par un internaute sur une plateforme peut devenir viral et rapidement atteindre des milliers de personnes, voire des millions. Bien sûr, le créateur reste l’internaute. Mais la plateforme permet la viralité, avec des usagers diffuseurs qui donnent un effet de levier à l’usager créateur, et surtout elle l’encourage même en « accélérant » ce contenu, par exemple par le système de recommandations.

En cela, la plateforme joue un rôle essentiel dans la propagation de l’information, et peut avoir une influence considérable sur l’opinion publique. Les plateformes ont longtemps refusé cette responsabilité, se retranchant derrière le fait qu’elles n’éditent pas les contenus. Ce n’est plus possible aujourd’hui : leurs algorithmes et les données numériques sur lesquels elles s’appuient sont tenus pour responsables.

Les algorithmes de recommandation doivent participer du même effort de transparence, supervision et co-design.

4.    La dimension internationale

Facebook met en place fin 2019 un « Oversight Board » (conseil de surveillance) international d’une quarantaine de membres[13]. S’inspirant sans doute de formations en assemblée plénière de certaines juridictions, amenées à dire le droit dans des affaires de principe, participant à la création prétorienne de la norme, son rôle sera de trancher les cas les plus litigieux et les plus contestés par les auteurs du contenu, et en quelque sorte de définir « la norme » du réseau. Des garanties d’indépendance sont évoquées, notamment une gestion de ce « conseil de surveillance » par un trust, certes financé intégralement par Facebook mais extérieur à sa structure de décision.

Toutefois, aussi louable soit l’intention, il nous paraît indispensable d’éviter toute confusion avec une quelconque « Cour suprême » afin de respecter clairement les prérogatives des systèmes judiciaires des États. La justice française est ainsi rendue « au nom du peuple français » (article 454 du code de procédure civile), et devra conserver le dernier mot en la matière, quitte à assumer des divergences d’interprétation avec d’autres droits locaux. Cette proposition tient, nous semble-t-il, d’une tentation de Facebook de trouver en interne une solution à un problème qui doit par essence impliquer aussi les États, leurs justices, et les sociétés civiles.

Il existe par exemple des particularités bien nationales, telle l’incrimination en France du négationnisme depuis la loi Gayssot du 13 juillet 1990, confortée en 2016 par le Conseil constitutionnel[14]. Là encore, une fine pesée avait été opérée par la juridiction constitutionnelle, qui à l’inverse censura une disposition législative visant à étendre l’infraction de négationnisme notamment au génocide arménien, la considérant non nécessaire ni proportionnée, aucune juridiction nationale ou internationale n’ayant jamais jugé les faits en cause, susceptibles de faire l’objet de débats historiques[15]. De manière symétrique, la liberté d’expression doit également être protégée par le régulateur par des remises en cause éventuelles par les plateformes, pour le moment relativement limitées[16].

La plateforme ne peut donc être « souveraine » en ce qu’elle doit se plier à la souveraineté des États, qui ne peuvent se résumer à des marchés d’usagers. Une des conséquences est la prise en compte par la plateforme dans sa politique de modération des arbitrages légaux pris dans chaque pays démocratique relatifs à la liberté d’expression.

Se posera ainsi la question de savoir si le régulateur pourra infléchir les CGU des plateformes, ou leur interprétation, afin de préserver un droit d’expression politique d’un pays. Par exemple, on sait aujourd’hui combien le marché émergeant de la Chine est important auprès de certaines entreprises numériques, et l’expression de soutien aux manifestations récentes à Hong Kong peut induire une pression économique en faveur d’une censure (habillée en modération standard), ou de techniques plus classiques de manipulation de l’information[17]. Pour le moment, les réseaux sociaux tels que Twitter ou Facebook semblent résilients, mais la vigilance semble être de mise[18].

La France n’a sans doute pas seule un poids suffisant pour faire bouger des plateformes de la taille de Facebook. La bonne granularité pour une telle régulation est donc bien l’Union européenne. Après le succès du RGPD, qui intéresse de nombreux pays, l’Europe a l’opportunité d’apporter une autre contribution majeure à la démocratie. Une telle régulation implique donc un régulateur européen qui conçoit les grandes lignes de la régulation et coordonne les régulateurs nationaux, ce qui existe déjà en matière de données personnelles ou plus récemment de cybersécurité.

Les initiatives nationales conservent leur intérêt, mais davantage dans un premier temps stratégique, afin d’établir un rapport de force avec les plateformes et de déplacer les lignes. La loi NetzDG allemande et la future loi dite Avia en sont des démonstrations éclatantes.

Dans un deuxième temps, la dimension européenne permet à la régulation d’avoir plus de poids vis-à-vis des plateformes hyper puissantes, tout en réduisant les risques de régulation nationale inadaptée et manichéenne, réagissant à des événements particuliers. Le régulateur européen peut vérifier et équilibrer les réponses.

Toutefois, si l’Europe est le bon niveau de granularité pour une telle modération, le portage de la régulation au niveau européen soulève un risque sérieux, à savoir le choix des critères de compétence du régulateur. Le critère du « pays de destination », c’est-à-dire le pays où réside l’internaute qui a été (ou pense avoir été) victime d’un discours de haine est le plus adapté, et pas le critère du « pays d’installation de la plateforme ». En effet, concrètement cela reviendrait à confier aux autorités hôtes (comme l’Irlande) la modération de la quasi-intégralité des plateformes systémiques quand les effets toxiques sont massivement ressentis et la volonté de corriger ailleurs, ce qui résulterait en un affaiblissement de l’engagement du régulateur.

La régulation du cyberespace est une gageure, et s’il est toujours facile de voter une loi de régulation, mieux vaut armer correctement son régulateur, le doter d’une souplesse d’action suffisante, d’une compréhension poussée de l’écosystème des algorithmes, avec des objectifs ambitieux et porteurs des valeurs démocratiques, sans quoi ladite loi risque bien de n’être que… virtuelle.

Serge Abiteboul (Inria et ENS, Paris) et Jacques Martinon (magistrat judiciaire)

 

[1] https://www.numerique.gouv.fr/uploads/rapport-mission-regulation-reseaux-sociaux.pdf

[2] En France, 35 millions d’usagers actifs mensuels et 22 millions quotidiens pour le service Facebook (Q2 2019).

[3] « Toute personne a droit à la liberté d’expression. Ce droit comprend la liberté d’opinion et la liberté de recevoir ou de communiquer des informations ou des idées sans qu’il puisse y avoir ingérence d’autorités publiques et sans considération de frontière. […]. L’exercice de ces libertés comportant des devoirs et des responsabilités peut être soumis à certaines formalités, conditions, restrictions ou sanctions prévues par la loi, qui constituent des mesures nécessaires, dans une société démocratique ».

[4] CEDH, Handyside v. the United Kingdom, arrêt du 7 Déc. 1976.

[5] https://www.gov.uk/government/publications/ukusa-agreement-on-access-to-electronic-data-for-the-purpose-of-countering-serious-crime-cs-usa-no62019?utm_source=b4d391f0-3d36-4077-8793-d5b2b06944c1&utm_medium=email&utm_campaign=govuk-notifications&utm_content=immediate

[6] https://www.lemonde.fr/idees/article/2019/06/18/mettre-fin-a-l-impunite-sur-le-web-des-ministres-soutiennent-la-proposition-de-loi-avia_5478019_3232.html

[7] Le risque de travailler avec des acteurs comme Facebook ou YouTube, et dans une moindre mesure, Twitter, est de surdimensionner le dispositif de régulation, de créer une barrière à l’entrée insurmontable pour des acteurs de taille intermédiaire ou de nouveaux entrants.

[8] https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working-conditions-arizona

[9] https://www.theverge.com/2019/6/19/18681845/facebook-moderator-interviews-video-trauma-ptsd-cognizant-tampa

[10] CJUE 3 oct. 2019, Facebook Ireland Limited c/ Eva Glawischnig-Piesczek, aff. C-18/18

[11] Article 15, paragraphe, 1 de la directive « commerce électronique » 2000/31/CE du 8 juin 2000, transposé à l’article 6-I, 7, de la loi n° 2004-575 du 21 juin 2004, dite « LCEN »

[12] https://www.lemonde.fr/pixels/article/2019/08/28/des-chercheurs-en-partenariat-avec-facebook-posent-un-ultimatum_5503821_4408996.html

[13] https://fbnewsroomus.files.wordpress.com/2019/09/oversight_board_charter.pdf

[14] Décision n° 2015-512 QPC du 8 janvier 2016.

[15] Décision n°2016-745 DC du 26 janvier 2017.

[16] On rappellera la politique très stricte de certains réseaux sociaux sur la nudité, même partielle et dénuée de caractère pornographique ou choquant.

[17] https://www.nytimes.com/2019/08/19/technology/hong-kong-protests-china-disinformation-facebook-twitter.html

[18]http://www.slate.fr/story/182751/lutte-contre-fakes-news-facebook-refuse-supprimer-pub-donald-trump-contient-une-usa

 

La géovisualisation, kézako ?

Sidonie Christophe est chercheuse au sein du Laboratoire en sciences et technologies de l’information géographique (LaSTIG). Dans ce premier billet (d’une série de trois), elle nous explique ce qu’est la géovisualisation, une discipline véritablement interdisciplinaire qui mêle entre autres données géographiques, algorithmes, perception, cognition… autant de notions que nous utilisons quotidiennement… sans toujours le savoir !
Antoine Rousseau

La géovisualisation est l’ensemble des connaissances et des techniques permettant de visualiser un territoire (ou un phénomène spatialisé) en interagissant avec des données géographiques ou géolocalisées, utilisant les capacités de perception et de cognition de l’utilisateur. L’objectif de la géovisualisation est de « donner à voir, percevoir, comprendre et interpréter », en préservant ce qui a du sens, pour l’utilisateur, dans l’espace géographique et dans le phénomène spatio-temporel représentés (par exemple, simulation d’inondation, prédiction météorologique, scénarios climatiques, dynamiques urbaines passées, planification urbaine, etc.). L’enjeu de la géovisualisation, en tant que champ de recherche interdisciplinaire, est de concevoir des représentations graphiques et des moyens d’interaction avec les données géographiques, pour aider effectivement un utilisateur, à voir, percevoir, comprendre, interpréter, analyser voire prendre des décisions sur un phénomène spatialisé.

Les données multi-capteurs, multi-sources, multi-échelles, plus ou moins précises, plus ou moins massives, ne manquent pas. Devant l’abondance des données et des outils, nous avons besoin de visualiser des données géographiques variées (imagerie satellite, cartes, bases de données, données GPS, données collaboratives, etc.), et d’y ajouter des archives textuelles, des photos anciennes ou des bases d’images historiques, de naviguer dans ces données, et de rajouter soi-même de l’information. Ensuite, l’attente est grande d’avoir des outils pour manipuler, comparer, interpréter ces données… et faire ses cartes soi-même, adaptées à un problème lié à l’espace géographique. En revanche, la conception d’un système de visualisation de données géographiques, permettant d’aider un utilisateur, qu’il soit citoyen, scientifique, décideur, etc., à réaliser ces tâches complexes, en lui laissant sa part de créativité et d’analyse, reste un problème complexe.

Visualisation littorale : de marée haute à marée basse (Masse & Christophe 2016)

Pour l’IGN (Institut national de l’information géographique et forestière), producteur de données géographiques et de géoservices, les enjeux en visualisation d’informations spatio-temporelles sont multiples, au regard des données 2D/3D/nD acquises, sémantisées, simulées, produites ou cartographiées, ainsi que des données collaboratives, géographiques, géolocalisées ou non, créées par les utilisateurs. Il s’agit principalement de pouvoir fournir des géoservices de co-visualisation, d’interaction et de diffusion des référentiels et des données métier, à travers les échelles spatiales et temporelles, adaptés aux utilisateurs et aux usages.

La géovisualisation est un domaine scientifique à part entière, nécessitant la formalisation et la représentation de connaissances, la conception de modèles, de méthodes et d’outils. Elle permet de revisiter les problèmes de la conception cartographique, en tant que succession d’abstractions de la réalité spatiale, dans un objectif d’exploration des représentations graphiques, des moyens d’interaction et des points de vue possibles.

En tant que champ interdisciplinaire, la géovisualisation recouvre en partie des objectifs de la visualisation d’informations, en particulier scientifiques, et de la « dataviz ». En revanche, il ne s’agit pas seulement de trouver des moyens de visualiser un jeu de données, ou une donnée particulière que serait une donnée spatiale, ou de faire une belle carte, même si c’est évidemment déjà un défi en soi !

Il s’agit également de spécifier et d’intégrer de nouveaux modèles d’abstraction, de représentation (conceptuelle, mentale, graphique), de perception et de cognition liés à l’espace géographique. La complexité visuelle et cognitive provient :

  • d’une part de la complexité des phénomènes spatio-temporels à représenter, en interaction dynamique avec un espace géographique caractérisé par son terrain, ses entités, formes, structures et agencements caractéristiques, selon ce que l’on souhaite observer et analyser,
  • d’autre part de la capacité d’intégration visuelle et d’exploration interactive de données hétérogènes, selon différents points de vue et différentes intentions, déclenchant des mécanismes de perception et de cognition permettant le raisonnement spatio-temporel.


Il n’y a pas une seule (bonne) réponse à la question « Qu’est-ce qu’une bonne carte ? ». Concernant la géovisualisation, on pourrait reformuler la question comme : « Quelle est la bonne visualisation pour observer et analyser visuellement un phénomène, ou une dimension de ce phénomène, dans l’espace et dans le temps ? ».

Le Laboratoire en sciences et technologies de l’information géographique (LaSTIG), sous les tutelles de l’IGN, de l’Université Paris-Est Marne-la-Vallée et de l’EIVP (École des ingénieurs de la ville de Paris), a inscrit ses recherches en sciences de l’information géographique, pour la ville durable et les territoires numériques, dans le cadre des enjeux liés au changement climatique et ses impacts environnementaux et sociétaux. Les équipes du LaSTIG participent à fournir des données, des connaissances, des méthodes et des outils pour la modélisation, l’analyse, la simulation et la visualisation du territoire et de phénomènes spatio-temporels sur ce territoire, pour différents usages. En particulier, cela concerne les modifications environnementales engendrées par les usages anthropiques (déforestation, occupation et usages des sols, pollutions, climatologie urbaine, inondations et submersions marines, etc.) et les évolutions historiques et sociales (dynamiques urbaines passées, densification urbaine, planification urbaine, etc.). La géovisualisation et l’analyse visuelle de données, de modèles et de scénarios d’évolution, en activant nos capacités visuo-spatiales, permettraient de mieux comprendre ces phénomènes spatio-temporels sur le territoire. 

Sidonie Christophe (Laboratoire en sciences et technologies de l’information géographique)

Quelle éthique du numérique pour la santé ?

Parmi tous les domaines où le numérique prend une place de plus en plus importante, il en est un qui nous touche sans doute au plus près, c’est le monde de la Santé. Robots chirurgiens, cœur artificiel, réalité virtuelle pour la planification de gestes médicaux, pas un jour qui ne voit une innovation pointer. Innovation technologique ? Oui sûrement, mais s’agit-il de progrès pour les individus et pour la société ? Afin de répondre à cette question complexe, une réflexion éthique peut nous aider à prendre les bonnes décisions. C’est pour contribuer à alimenter ce débat que Pascal Guitton (Université de Bordeaux & Inria) a rédigé un éditorial pour la Revue d’Orthopédie Dento-Faciale que nous reprenons ici. binaire

L’éthique ? Oui, bien sûr, mais pourquoi en parler ?

L’éthique est au cœur des préoccupations de la médecine depuis l’antiquité, pourquoi l’évoquer encore une fois ?

Cette image montre une page d'un document ancien rédigé en grec et en latin.
Serment d’Hippocrate, version grecque et latine publiée en 1595 (Wikimedia Commons)

Commençons par considérer l’actualité récente ; on peut citer de façon non exhaustive trois documents importants parus depuis peu qui traitent tous (en totalité ou en partie) des questions éthiques dans le monde de la santé : le rapport de l’Ordre national des médecins [1], la partie « santé » du rapport de la Mission Villani sur l’intelligence artificielle  [2] et enfin le rapport du Conseil consultatif national d’éthique [3] . Cette implication d’acteurs des mondes de la santé, du numérique et de l’éthique ne relève en aucun cas d’une coïncidence.

Considérons ensuite les craintes exprimées de façon récurrente dans les débats sur la révision de la loi Bio-éthique [4] où figuraient en bonne place les risques d’incompréhension du « processus médical » ou bien de perte de maîtrise de ses propres données. Mentionnons également la crainte que l’existence de déserts médicaux ne finisse par être expliquée, voire justifiée, par la substitution de l’humain par le numérique.

Toutes ces réflexions s’expliquent par une utilisation croissante du numérique dans la santé qui produit des impacts de plus en plus forts, tant dans les aspects recherche, formation et clinique, que dans la relation des patients avec leurs soignants. Le numérique, en bouleversant les pratiques, soulève des questions éthiques nouvelles qui peuvent parfois dérouter, voire passer inaperçues dans certains cas. Il est donc important de s’interroger de façon collective en joignant des expertises différentes pour y apporter des réponses.

Le monde est devenu numérique

Le numérique nous accompagne désormais dans toutes les facettes de nos vies tant privées que professionnelles ; que ce soit pour se former, se divertir, communiquer, acheter, nous utilisons tou.te.s des systèmes informatiques. La partie émergée apparaît clairement à travers notre utilisation du web et des messageries sur nos téléphones ou des ordinateurs. La partie immergée, beaucoup plus importante, nous impacte également dans nos maisons, nos véhicules, les usines, la production et la distribution d’énergie, etc. Et bien entendu, la santé n’échappe pas à cette transformation !

Il serait vain et inintéressant de vouloir énumérer ici de façon exhaustive tous les domaines concernés mais on peut commencer par rappeler que l’utilisation de l’informatique dans le monde de la santé ne date pas d’aujourd’hui, ni même d’hier. Le traitement (saisie, stockage, transmission) de données médicales ainsi que l’imagerie (tant la production que l’analyse) y ont recours depuis plusieurs décennies. Plus récemment, on a vu émerger des modélisations et des simulations numériques de plus en plus souvent précises parce que multi-domaines – fusionnant par exemple anatomie, signaux électriques et capacités mécaniques – et qui sont à l’origine notamment des premiers cœurs artificiels implantés ou encore de la prédiction d’évolution de tumeurs cancéreuses. Ces mêmes modélisations sont aujourd’hui utilisées dans des applications de réalité virtuelle et de réalité augmentée pour la formation, la planification et la réalisation de gestes chirurgicaux. Citons encore les systèmes robotisés qui sont rentrés sur les plateaux ou bien les objets connectés qui permettent le suivi à distance et en continu de constantes du patient. Enfin, comment ne pas mentionner le recours à l’intelligence artificielle pour l’aide au diagnostic ou à la décision dont on entend beaucoup parler aujourd’hui ?

Cette image montre un chirurgien observant une manipulation de bras robotisés sur ce qui semble être une culture.
Un environnement numérique. (Photo David Still sur Visual Hunt, CC BY-NC)

Quelques interrogations

La quasi-totalité de ces applications et de ces outils recèle des enjeux éthiques dont beaucoup sont nouveaux et ont donc parfois du mal à être perçus. Le but de ce texte n’est en aucun cas d’apporter des réponses définitives mais juste de soulever quelques questions pour qu’elles soient correctement prises en compte par les différents acteurs que sont les soignants, les patients et leur entourage, les décideurs politiques ou les fournisseurs de systèmes.

  • Quelle information ?

On assiste depuis quelques années à un foisonnement de sites web proposant sous forme vulgarisée des informations sur la santé. Plébiscités par les patients, ils leur ont permis d’acquérir des connaissances utiles à la compréhension, voire dans certains cas à une mise en œuvre partagée des décisions médicales. A contrario, ils ont donné un – faux – sentiment de compétence qui débouche parfois sur des incompréhensions, voire des oppositions que les médecins doivent affronter. Élargissons ce problème avec la diffusion d’infox à grande échelle rendue possible par les systèmes numériques puis, illustrons-le avec, par exemple, la polémique engendrée par un article paru en 1998 et dans lequel un médecin britannique affirmait qu’il avait démontré un lien entre vaccin ROR et troubles du spectre autistique. Bien qu’il ait été démontré rapidement que cette publication violait des principes élémentaires d’intégrité scientifique (seulement 12 enfants dans l’étude, pas de groupe contrôle, pas de reproductibilité, conflit d’intérêt), ce qui a conduit à sa rétractation dans la revue, elle a engendré un mouvement de masse et continue, 20 ans après, à être invoquée pour justifier le rejet des vaccins par une partie non négligeable de la population [5].

D’où la tension entre l’intérêt d’augmenter les connaissances pour progresser vers la notion de patient-expert [6] d’une part et la volonté de maîtriser le recours à ces informations parfois erronées et/ou conduisant à une fausse expertise d’autre part.

  • Quelle maîtrise des données ?

Les données de santé (examens, comptes-rendus, ordonnances…) font depuis longtemps l’objet de bases de données très utilisées. L’irruption de l’IA dans la santé a rendu ces données encore plus importantes car leur quantité et leur qualité conditionnent directement la pertinence des résultats obtenus. C’est une des motivations principales du projet de plate-forme nationale Health Data Hub annoncé lors de la remise du rapport Villani et qui est en cours de préfiguration [7].

Ce type d’infrastructure et les services qui vont en découler posent tout d’abord la question de la sécurité dont on sait aujourd’hui qu’elle est une question cruciale pour tout système numérique hébergeant des données sensibles. En particulier, des chercheurs en cybersécurité sont-ils, et surtout seront-ils, consultés pour mettre en œuvre les solutions les plus adéquates et les plus « à jour » ? Au-delà des malveillances, quelle autorité s’assurera que, pour des raisons de « rentabilité du système », une partie de des données ne seront pas un jour valorisées auprès d’acteurs privés (par exemple qui les aurait hébergées « gratuitement ») ? Par ailleurs, comment sera gérée la tension entre décision individuelle et intérêt général ? En d’autres termes, quelle forme de choix éclairé sera offert au patient pour lui permettre de décider si oui ou non, il souhaite les partager ?

  • Quelle explication ?

Des systèmes de recommandation (diagnostic, traitement) basés sur une IA ont déjà démontré leur intérêt dans plusieurs domaines ; le recours à ces aides à la décision qui va aller croissant soulève plusieurs interrogations. Tout d’abord, afin de garder la maîtrise de la décision finale, il est important que le praticien puisse, s’il le souhaite, tracer la construction de la recommandation pour bien la comprendre et la vérifier. Cette compréhension sera ensuite nécessaire pour expliquer les décisions au patient. A contrario, un usage non maîtrisé de ces systèmes peut entraîner une perte d’adaptabilité à des tableaux cliniques « atypiques » qui sont par construction « oubliés » par des approches statistiques. Dans d’autres domaines (comme l’aéronautique) où des décisions importantes relèvent aussi d’une combinaison entre choix humains et recommandations techniques, on a observé dans certaines situations des pertes d’expertise et d’adaptabilité ainsi qu’une forme de « soumission à la machine » qui peuvent s’avérer néfastes.

On voit apparaître une tension entre, d’une part, des attitudes simplistes de rejet ou d’adoption sans réflexion et, d’autre part, une utilisation maîtrisée nécessitant le développement de systèmes traçables, une formation poussée à leur utilisation et le renforcement d’une pensée critique.

  • Quelle transparence ?

De façon générale, les systèmes numériques actuels sont utilisés pour répondre à des problématiques de plus en plus complexes pour lesquelles il ne peut exister de spécifications amont décrivant la totalité des situations ; aussi dans certains cas, le développeur du logiciel peut être appelé à faire des choix de programmation qui ne reposent sur aucune spécification, décision ou loi quelconque. Citons par exemple l’article [8] écrit en 2000 par Lawrence Lessig, juriste à Harvard, dans lequel il expliquait que certains choix logiciels ne reposaient sur aucune loi/décision existante et donc influait sur les types de régulation. Ou bien encore, la précédente version de la plate-forme Parcoursup dans laquelle certaines décisions d’affectation ne s’appuyaient sur aucune directive ministérielle mais relevaient uniquement de choix de développement logiciel.

Cet écueil majeur disparaît dès lors qu’il y a transparence algorithmique et il est bien clair qu’elle devrait intervenir dans le domaine de la santé ; cependant, afin de conserver la maîtrise de leurs systèmes, certains producteurs s’opposent à ce principe et souhaitent conserver le secret. Comment traiter cette tension entre intérêts divergents : patients et soignants vs entreprises ?

  • Quelle qualité de soin ?

Aujourd’hui, les améliorations que peuvent fournir des systèmes numériques sont parfois ignorées par certains soignants. Les causes en sont multiples : ignorance de leur existence, défaut de maîtrise de leur utilisation, craintes (d’erreurs, de perte de pouvoirs), rejet « par principe ». Dans la plupart des cas, une absence ou un déficit d’information, puis de formation, expliquent ces refus. Bien entendu, les situations sont très hétérogènes entre d’une part, le milieu hospitalier, souvent proche de la recherche et de l’enseignement et auquel incombe une obligation de formation de ses personnels et, d’autre part, la médecine libérale où les praticiens doivent souvent prendre eux-mêmes en charge leur propre formation.

Il n’est en aucun cas question ici de juger, ni même de comparer, mais juste de rappeler qu’il ne serait pas acceptable de soigner sans utiliser les méthodes les plus bénéfiques aux patients, entraînant ainsi une rupture d’égalité par manque d’information. Ne laissons pas les vendeurs de systèmes numériques investir les hôpitaux et les cabinets sans développer formation et développement de la pensée critique chez leurs « clients ». Ce problème de la formation continue des médecins est abordé – en terme de re-certification – dans la Loi sur la rénovation de notre système de santé [9]. Même si cela peut paraître illusoire actuellement, il serait par ailleurs vraiment utile pour éclairer les choix des décideurs de disposer d’études indépendantes évaluant les bénéfices et listant les inconvénients pour le monde de la santé des principaux produits numériques « sensibles » (je ne parle pas de certification mais bien d’évaluation).

  • Quelles responsabilités ?

Comme tout processus (y compris strictement humain), l’utilisation d’un système numérique peut entraîner des erreurs. Citons par exemple l’arrêt rendu par la cour administrative d’appel de Lyon suite à une intervention chirurgicale pratiquée avec l’aide d’un système robotique et ayant entraîné des séquelles graves chez une patiente [10]. Dans ces circonstances, comment s(er)ont établies les chaînes de responsabilité entre les soignants, les établissements de santé, les fournisseurs de systèmes (vendeur, concepteur d’algorithmes, codeur), les intermédiaires (par exemple les opérateurs réseau concernés lors de télé-opérations) ?

Il y a là sujet à réflexions menées en concertation entre tous ces acteurs, sans oublier des juristes afin de construire de façon intelligente les lois et les jurisprudences qui n’existent pas encore. Afin d’aboutir à des « décisions justes », l’éthique ne doit pas être oubliée lors des débats confrontant des points de vue et des intérêts souvent divergents.

Au paradis pour certains, en enfer pour d’autres, la place du numérique est bien entendu à construire entre ces deux approches extrêmes, souvent assénées sans véritable fondement et qui nous détournent des vraies questions. En fait, elle sera ce que nous – tous les acteurs concernés, depuis les chercheurs et les soignants jusqu’aux politiques sans oublier bien entendu les patients – décidons qu’elle soit. Afin de nous éclairer pour nous aider à la construire, les questionnements éthiques doivent être au cœur de ces réflexions.

Que ce soit pour améliorer la qualité des soins ou l’efficience des systèmes de santé ou bien encore pour mieux impliquer les patients, le numérique est, et sera pour encore pendant longtemps, le lieu de très nombreuses innovations technologiques. Afin que certaines de ces innovations se traduisent par de véritables progrès pour les individus et la société, il est plus que jamais indispensable de s’interroger sur leurs impacts. Espérons – et œuvrons pour – que les décisions de mise en œuvre ne soient pas uniquement guidées par des considérations technologiques, économiques ou politiques mais que l’éthique soit également au cœur des débats !

Pascal Guitton (Université de Bordeaux & Inria)

Références

[1] Ethique du numérique en santé, CNOM, Janvier 2018

2 La santé à l’heure de l’IA, Mission Villani, Mars 2018

3 Numérique & Santé, quels enjeux éthiques pour quelles régulations ?, CCNE, Novembre 2018

4 Rapport des états généraux de la bioéthique, CCNE, Juillet 2018

5 Rougeole : le casse-tête face à la flambée mondiale, S. Cabut & P. Benkimoun, Le Monde, Mars 2019

6 Université des patients, Sorbonne Université

7 Health Data Hub

8 Code is Law, L. Lessig, Harvard Magazine, 2000 (traduction française)

9 Loi relative à l’organisation et à la transformation du système de santé, Article 3, Assemblée nationale, Juillet 2019

10 Condamnation d’un hôpital pour une chirurgie robotique trop longue, S. Tamburini, site MACSF, Avril 2018

 

 

 

 

Pourquoi votre chat est nul aux échecs et pourtant plus intelligent qu’une IA

Omniprésente dans les médias depuis quelques années, l’intelligence artificielle est décrite tantôt comme l’avenir de l’humanité, tantôt comme sa fossoyeuse. Nous reprenons un article de Nicolas Rougier consacré à la notion d’intelligence et publié par The Conversation. Pascal Guitton.
Chat ou Mac, lequel est le plus intelligent ?
Sereja Ris/Unsplash

Si vous possédez un animal domestique, par exemple un chien ou un chat, regardez-le attentivement et vous aurez alors un bon aperçu de tout ce qu’on ne sait pas faire en intelligence artificielle… « Mais mon chat ne fait rien de la journée à part dormir, manger et se laver », pourriez-vous me répondre. Et pourtant votre chat sait marcher, courir, sauter (et retomber sur ses pattes), entendre, voir, guetter, apprendre, se cacher, être heureux, être triste, avoir peur, rêver, chasser, se nourrir, se battre, s’enfuir, se reproduire, éduquer ses chatons, et la liste est encore très longue.

Chacune de ces actions met en œuvre des processus qui ne sont pas directement de l’intelligence au sens le plus commun mais relève de la cognition et de l’intelligence animale. Tous les animaux ont une cognition qui leur est propre, de l’araignée qui tisse sa toile jusqu’aux chiens guides qui viennent en aide aux personnes. Pour certains, ils peuvent même communiquer avec nous. Pas par la parole, bien entendu, mais en utilisant le langage du corps ainsi que la vocalisation (par exemple des miaulements ou des aboiements). En ce qui concerne votre chat, lorsqu’il vient négligemment se frotter contre vous ou bien qu’il reste assis devant sa gamelle ou devant une porte, le message est assez clair. Il ou elle veut une caresse, a faim ou veut sortir, puis rentrer, puis sortir, puis rentrer… Il a appris à interagir avec vous pour arriver à ses fins.

La marche, un problème complexe

RunBot.
Berndporr/Wikimedia, CC BY

Parmi toutes ces aptitudes cognitives, il n’y en a aujourd’hui qu’une toute petite poignée que l’on commence un peu à savoir reproduire artificiellement. Par exemple la marche bipède. Ça n’a l’air rien de rien et c’est pourtant quelque chose d’extrêmement compliqué à réaliser pour la robotique et il aura fallu de nombreuses décennies de recherche avant de savoir construire et programmer un robot qui marche convenablement sur deux jambes. C’est-à-dire sans tomber à cause d’un petit caillou sous son pied ou lorsqu’une personne l’a simplement effleuré d��un peu trop près. Mais cette complexité existe aussi chez l’homme puisque si vous vous rappelez bien, il nous faut en moyenne une année pour apprendre à marcher. C’est dire la complexité du problème. Et je ne parle que de la marche, je ne vous parle même pas de la marelle ou du foot. Ou bien si. Aujourd’hui, un des plus gros défis en robotique autonome et de faire jouer des robots au football ! La Robocup 2020 réunissant près de 3 500 chercheurs et 3 000 robots aura lieu l’année prochaine à Bordeaux. Vous pourrez y observer des robots jouer au football, encore un peu maladroitement, il faut bien le reconnaître.

Et la reconnaissance des objets alors ? On sait le faire ça aujourd’hui, non ? S’il est vrai que l’on a vu apparaître ces dernières années des algorithmes capables de nommer le contenu de pratiquement n’importe quelle image, on ne parle pas pour autant d’intelligence ou de cognition. Pour le comprendre, il faut regarder comment ces algorithmes fonctionnent. L’apprentissage supervisé, qui reste aujourd’hui la méthode la plus populaire, consiste à présenter au programme des images ainsi qu’un mot décrivant le contenu de l’image. Le nombre total d’images est généralement bien supérieur au nombre de mots utilisés car pour un même mot, on va associer un très grand nombre d’images représentant l’objet dans différentes situations, sous différents angles de vues, sous différentes lumières, etc. Par exemple, pour reconnaître les chats, on peut présenter jusqu’à un million d’images. En faisant cela, le programme va se constituer une représentation visuelle interne de ce qu’est cet objet, en calculant une sorte de moyenne de l’ensemble des images. Mais cette représentation n’est in fine qu’une simple description qui n’est pas ancrée dans la réalité du monde.

L’expérience sensible

Pour cela, il faudrait que cet algorithme possède un corps lui permettant de faire l’expérience de l’objet. Mais quand bien même, pourrait-il comprendre ce qu’est un verre s’il n’a jamais soif ? Pourrait-il comprendre le feu s’il ne ressent jamais la douleur ? Pourrait-il comprendre le froid s’il ne frissonne jamais ? Ce qu’il faut donc comprendre lorsqu’un algorithme reconnaît un objet dans une image c’est que ce même algorithme ne comprend pas du tout (mais vraiment pas du tout) la nature de cet objet. Il ne procède que par recoupement avec des exemples qu’on lui aura présenté auparavant. Cela explique d’ailleurs pourquoi qu’il y a eu des accidents avec les voitures autonomes. Des éléments du paysage ont été pris pour d’autres (un camion pour un panneau) amenant à des collisions parfois mortelles.

Helen Keller.
Bibliothèque du Congrès des États-Unis

Quid de l’humain ? Faites donc l’expérience de montrer une seule fois un vrai chiot à un enfant et il saura reconnaître n’importe quel autre chiot (même s’il ne connaît pas encore le mot). Les parents, en désignant et en nommant les choses, vont permettre à l’enfant de développer le langage sur des concepts dont il aura fait lui-même l’expérience auparavant. Mais cet apprentissage qui pourrait nous paraître facile, voire évident, ne l’est pourtant pas.

Cela est très bien illustré par la vie d’Helen Keller qui est devenue sourde, aveugle et muette à l’âge de 2 ans. Son éducatrice, Anne Sullivan, a essayé pendant longtemps de lui apprendre les mots en lui dessinant des signes sur la paume de la main puis en lui faisant toucher l’objet correspondant. Les efforts d’Anne Sullivan ont été dans un premier temps infructueux : Helen ne possédait pas les points d’entrées de cet étrange dictionnaire. Jusqu’au jour où Anne amena Helen à un puits pour lui faire ruisseler de l’eau sur les mains et…

« Soudain, j’ai eu une conscience vague de quelque chose d’oublié – le frisson d’une pensée qui me revenait – et le mystère du langage m’a alors été révélé. J’ai su que “water” signifiait la merveilleuse chose fraîche qui ruisselait sur ma main. Cette parole vivante a réveillé mon âme, lui a donné la lumière, l’espoir, la joie, l’a libéré ! Il y avait encore des obstacles, c’est vrai, mais des obstacles qui pourraient être éliminés avec le temps. »

C’est Helen Keller elle-même qui écrira ces phrases quelques années plus tard dans son livre The Story of My Life (1905). Pour elle, ce jour-là, les symboles ont été ancrés à jamais dans la réalité. Si des progrès spectaculaires ont été accomplis ces dernières années dans le domaine de l’apprentissage automatique (IA pour faire court), le problème de l’ancrage du symbole demeure quant à lui plein et entier. Et sans la résolution de ce problème, qui est une condition nécessaire mais vraisemblablement pas suffisante, il n’y aura pas d’intelligence artificielle générale. Il y a donc encore énormément de choses qu’on est très loin de savoir faire avec l’intelligence artificielle.

Nicolas P. Rougier, Chargé de Recherche en neurosciences computationnelles Université de Bordeaux


Cet article est publié dans le cadre de l’évènement « Le procès de l’IA », un projet Arts & Science de l’Université de Bordeaux, en partenariat avec Primesautier Théâtre.

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

The Conversation

Géolocalisation, comment s’y retrouver ?

La cartographie est essentielle pour beaucoup d’activités : agriculture, urbanisme, transports, loisirs, etc. Elle a été révolutionnée par l’arrivée des cartes numériques accessibles depuis les ordinateurs, tablettes et téléphones, bien plus souples à l’usage que les cartes papier.

Les cartes numériques rassemblent toutes les échelles et permettent de montrer différents aspects de la région visualisée sur une seule carte. Les algorithmes de recherche permettent de retrouver sur la carte les endroits en donnant simplement leur nom, et de calculer des itinéraires entre points selon des modes de transports variés.

TRANSCRIPTION DE LA VIDÉO

Production 4minutes34 et s24b pour le MOOC SNT de Class´Code, travail éditorial de SNJazur.

Cette vidéo introduit une des thématiques de l’enseignement en Sciences Numériques et Technologie de seconde au lycée, rendez-vous sur le MOOC SNT pour se former sur ce sujet, en savoir plus sur les notions abordées, les repères historiques, l’ancrage dans le réel, et les activités qui peuvent être proposées.

Des pistes pour sortir de la crise de l’enseignement des sciences

La conférence de clôture des Journées Nationales de l’APMEP (Association des Professeurs de Mathématiques de l’Enseignement Public) à Bordeaux (2018) a été l’occasion pour Gilles Dowek de livrer un plaidoyer pour l’enseignement des sciences de l’école au lycée. Cet article en reprend les idées principales. Gilles Dowek est chercheur et enseignant en informatique à l’INRIA et à l’ENS de Paris-Saclay. Il a milité activement pour l’introduction de l’algorithmique et plus généralement de l’informatique dans les programmes scolaires et pour la création du CAPES d’informatique.

Ce texte est paru dans la revue Au Fil des Maths de l’APMEP.

Une situation favorable

La révolution informatique que nous sommes en train de vivre est l’une des plus grandes révolutions scientifiques et techniques de l’histoire, qui transforme nos métiers, nos institutions, notre manière de communiquer avec nos proches… Elle s’appuie, bien entendu, sur les progrès de l’informatique, qui existe en tant que science structurée depuis les années 1930, mais aussi sur ceux des autres sciences, en particulier de la physique — par exemple de la physique des semi-conducteurs — et des mathématiques — par exemple de la théorie des nombres, sur laquelle repose une grande partie de la cryptologie. En retour, elle transforme toutes les sciences, métamorphosant l’instrumentation : le séquençage du génome humain, la découverte du boson de Higgs ou la démonstration du théorème de Hales étaient impossibles sans ordinateur. Elle transforme aussi les conditions de vérité d’un énoncé et les langages dans lesquels les sciences « dures » comme « humaines » s’écrivent : l’invention des langages de programmation, au XXe siècle, est une rupture aussi radicale que l’invention du langage de l’algèbre, au XVIe siècle.

La situation n’a donc jamais été aussi favorable pour enseigner les sciences et les techniques. Les élèves et les étudiants devraient se précipiter dans les cours de sciences, qui devraient être au centre du projet pédagogique de l’école, du collège et du lycée.

Il est donc paradoxal que l’enseignement des sciences soit aujourd’hui en crise. Pourtant cette crise est réelle et un certain nombre d’indices l’atteste.

Le constat d’une crise

Un premier indice est l’absence de culture scientifique de nos représentants, qui ont pourtant été à l’école avant d’avoir été élus ou fonctionnaires.

Alors que les sciences transforment le monde, ceux qui l’administrent ignorent parfois la différence entre un virus et une bactérie, un losange et un parallélogramme, un programme impératif et un programme fonctionnel.

Plutôt que leur jeter la pierre, nous devrions proposer que les écoles qui les forment — par exemple, à l’heure actuelle, l’École Nationale d’Administration — mettent la formation scientifique de leurs étudiants au centre de leur projet pédagogique.

Un autre indice de cette crise est la difficulté que nous avons à enseigner les sciences à l’école primaire. Ici aussi, une remédiation possible est de mettre la formation scientifique des étudiants au centre du projet pédagogique des écoles du professorat.

Mais le symptôme le plus inquiétant de cette crise est sans doute la place des sciences dans la réforme du lycée qui se met en place en cette rentrée 2019. Si l’idée de proposer aux élèves de choisir leurs cours dans un vaste catalogue et de construire eux-mêmes leur projet d’étude est bonne, ainsi que celle de garantir, par un tronc commun, l’acquisition par toutes et tous de savoirs fondamentaux, cette réforme nous renseigne sur la singulière vision que ses concepteurs ont des savoirs fondamentaux : sur les seize heures de tronc commun du programme de première générale, deux heures sont consacrées au sport, et les quatorze heures qui restent sont réparties en deux heures pour les sciences et douze heures pour les humanités. En fonction du choix des spécialités, la part des humanités varie donc entre 43 % et 86 %, quand la part des sciences varie entre 7 % et 50 %. Comme à l’époque des séries L, ES et S, les élèves ont donc le choix entre un enseignement entièrement consacré aux humanités et un enseignement équilibré entre les humanités et les sciences.

Le projet pédagogique du lycée reste donc fondamentalement le même : celui d’une domination des humanités. Ce projet est totalement anachronique, quand le reste du monde vit une révolution scientifique et technique sans précédent.

Des pistes pour une résolution de la crise

Plusieurs pistes permettent d’entrevoir une solution à cette crise. La première est bien entendu de revendiquer un équilibre des sciences et des humanités dans le tronc commun du lycée. Bien plus que la place des mathématiques, c’est la place des sciences dans leur ensemble qu’il convient de défendre, par exemple, en proposant un tronc commun constitué de sept heures consacrées aux humanités et de sept heures consacrées aux sciences. La part des humanités varierait alors de 25 % à 68 %, et la part des sciences également.

Mais, bien entendu, la solution ne peut venir de la revendication seule, et nous devons aussi nous demander ce que nous pouvons changer nous-mêmes pour résoudre cette crise. Deux pistes sont ici à explorer : la réconciliation des sciences et des techniques et le dialogue des sciences avec les humanités.

L’incroyable difficulté à faire de l’informatique une discipline à part entière avec ses programmes, ses horaires et ses enseignants — un CAPES d’informatique a été créé en 2019, alors que les premières revendications d’un tel CAPES datent des années 1970, soit il y a presque un demi-siècle — a des causes multiples.

L’une d’elles, qui n’est sans doute pas la principale, mais qui n’en reste pas moins paradoxale, a été l’inertie opposée par les enseignants des autres sciences, notamment de mathématiques, qui ont perçu en l’apparition d’une nouvelle discipline un risque de voir leur horaire amputé. Il est regrettable que ces enseignants n’aient pas perçu que l’extraordinaire opportunité que constitue un enseignement de l’informatique pour amener des élèves vers les sciences, et donc les mathématiques, compensait, de beaucoup, ce risque d’une diminution des horaires consacrés aux mathématiques. En particulier, un grand nombre de notions mathématiques sont utilisées en informatique : par exemple, la notion de coordonnée cartésienne en traitement d’image et, plus spécifiquement, la notion de projection pour la représentation en perspective des objets tridimensionnels. Se saisir de cette opportunité pour enseigner ces notions ne consiste pas à évoquer brièvement, dans des activités d’approche, l’utilité de la notion de coordonnée en traitement d’image, avant d’aborder le vif du sujet, mais à transformer entièrement l’enseignement de la notion de coordonnée, dans un projet multidisciplinaire, proposé conjointement par des enseignants de mathématiques et d’informatique. Par delà ces notions déjà enseignées, l’enseignement de l’informatique permet de renouveler l’enseignement des mathématiques en introduisant de nouvelles notions, en logique, en combinatoire, en théorie des nombres, en théorie des graphes…

La réconciliation des sciences et des techniques est également essentielle, car la première perception que les jeunes élèves ont des questions scientifiques est médiatisée par des objets techniques — ils conçoivent la notion de voiture avant celle de combustion des alcanes. Si les enseignants de mathématiques, et plus généralement les mathématiciens, ont heureusement, pour la plupart, abandonné l’idée selon laquelle la beauté des mathématiques réside dans leur inutilité, l’enseignement des sciences reste trop coupé de celui des techniques. Il est certes possible, sur le plan philosophique, de distinguer un résultat scientifique — l’établissement de la vérité d’un énoncé — d’un résultat technique — la production d’un objet, tels un avion ou un programme. Il est en revanche impossible, sur le plan historique, de séparer le développement des sciences de celui des techniques. L’enseignement de la physique, par exemple, peut nous laisser croire que le développement de la thermodynamique a été indépendant ou a précédé celui de la machine à vapeur, mais c’est oublier que le second principe de la thermodynamique a été énoncé par Sadi Carnot dans un texte intitulé Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance. En particulier, il est urgent d’abandonner l’idée que les sciences sont du domaine de l’abstrait / du cerveau, quand les techniques relèvent du concret / de la main. Il n’y a rien de plus abstrait qu’un programme, qui reste cependant un objet technique.

Renouer le dialogue avec les humanités est aussi essentiel, car la révolution scientifique et technique que nous vivons est aussi celle des sciences humaines. L’hostilité des enseignants de français, de philosophie, de langues et d’histoire-géographie serait moindre si nous dialoguions davantage avec eux et s’ils comprenaient, eux aussi, l’importance pour leurs élèves d’avoir une formation scientifique. Deux pistes méritent d’être explorées dans ce dialogue : la transformation de la méthode des sciences humaines qui disposent désormais de données massives et d’outils de modélisation. Par exemple, un professeur d’anglais, au lieu de donner à ses élèves les listes des adjectifs dont le comparatif se construit avec le suffixe « -er » et avec l’adverbe « more », peut leur donner un corpus formé d’un assez grand nombre de textes et les laisser construire ces listes eux-mêmes, dans un projet interdisciplinaire. Une autre piste à explorer est l’incorporation de l’histoire des sciences et des techniques dans les programmes d’histoire — la révolution galiléenne et la place que les mathématiques et l’expérimentation ont prise dans la science au XVIIe siècle pourraient constituer un chapitre entier d’un cours d’histoire moderne. La même chose pourrait être dite de l’éthique, dont les questions ont été complètement renouvelées par la révolution scientifique et technique que nous vivons. Peut-on / doit-on chiffrer ses courriers ? Voilà une question qui pourrait mobiliser non seulement les enseignants d’informatique et de mathématiques, mais aussi de philosophie.

Plus profondément, même en admettant que le but de l’École soit d’apprendre aux élèves « à lire et à écrire », nous pourrions nous entendre sur le fait que lire et écrire ne consiste pas uniquement à lire et écrire des textes exprimés dans des « langues », mais aussi des textes exprimés dans des « langages », tels les équations, les programmes, les formules développées des molécules, les figures géométriques, les partitions…

Gilles Dowek

Dernier livre paru de Gilles Dowek : Ce dont on ne peut parler il faut l’écrire — Langues et langages (Le Pommier, 2019).