Les géocommuns au service de la société

Dans le cadre de la rubrique autour des “communs du numérique”, un entretien avec Sébastien Soriano,  directeur général de l’Institut national de l’information géographique et forestière (IGN) depuis janvier 2021. Les cartes géographiques sont un élément essentiel des communs. C’est aussi l’occasion pour Sébastien Soriano de revenir sur certains thèmes de son livre récent [1], « Un avenir pour le service public »
Sébastien Soriano en 2015. Wikipédia.

Binaire : peux-tu raconter aux lecteurs de binaire ton parcours ?

Sébastien Soriano : Je suis ingénieur des télécoms. J’ai travaillé dans des cabinets ministériels notamment sur la mise en place de la French Tech et du plan France Très Haut Débit. Et puis j’ai passé une partie de ma vie à travailler sur la concurrence, en particulier dans le domaine des télécoms comme Président de l’Arcep. Je me suis aussi investi sur l’Europe, comme président de l’agence européenne des télécoms, le BEREC. Enfin, j’ai écrit récemment un livre sur le service public[1], dont l’idée principale est assez simple : Il faut penser un « État augmenté ». Il faut sortir du débat dominant : faire comme avant mais avec plus de moyen pour l’État, ou de réduire le rôle de l’État en abandonnant certaines de ses responsabilités au privé. Je prône plutôt ce que j’ai appelé l’« État en réseau », un État qui construit des alliances avec des acteurs, collectivités locales, associations, collectifs citoyens, entreprises…, pour augmenter son impact et relever les nouveaux défis, en particulier écologiques.

Cette réflexion m’a conduit à approfondir la notion de commun. A l’Arcep, j’avais poussé l’idée de voir les réseaux comme « biens communs », au service de tous. Cela m’a pris un peu de temps de comprendre qu’ils devaient être plus que cela, véritablement devenir des « communs » au sens où ils devaient être codéployés par une galaxie d’acteurs plus large que quelques grandes entreprises privées. C’est apparu clairement avec la 5G. Il est devenu évident qu’une large partie de la société devait être impliquée dans son déploiement, qu’elle devait être associée à l’action au-delà d’un simple rôle de spectateur.

Interface d’édition d’OpenStreetMap

b : Quelle est la place de l’Open data à l’IGN ?

SSo : L’IGN, qui a une forte culture d’innovation, s’est bien informatisé avec l’arrivée des systèmes d’information géographiques. Si cette transformation avec l’informatique a été réussie, l’IGN a moins bien abordé sa transformation numérique. Quand vous avez vos données gratuites, vous augmentez vos capacités d’alliance. Le précédent modèle économique de l’IGN a fait de l’institut un « spectateur » de l’arrivée des modèles gratuits, de Google Maps, Google Earth, OpenStreetMap, etc.

Pour la cartographie, un autre mouvement s’est combiné à cela en France. La Loi NOTRe, portant sur la nouvelle organisation territoriale de la République, reconnait depuis 2015 la place des régions pour coordonner l’information géographique au niveau local. Certaines collectivités ont maintenant de véritables « petits IGN » qui collectent des données, les analysent, les utilisent au service des politiques locales, souvent de manière très innovante.

Pour ce qui est de l’IGN, l’institut a été pris dans un mouvement général du public dans les années 80-90 qui conduisait à monétiser ses données. La puissance publique demandait aux établissements de diversifier leurs sources de revenus, comme les musées l’ont fait, par exemple. Cela a freiné la capacité d’ouverture de l’IGN. Du coup, l’ouverture s’est faite très progressivement.

A partir de 2010, les données sont devenues gratuites pour l’éducation et la recherche puis progressivement pour toutes les missions de services publics. En 2015, la loi Lemaire a généralisé cette gratuité à tous les organismes publics. Depuis le 1er janvier 2021, toutes les données de l’IGN sont ouvertes, en anticipant d’un an sur le calendrier prévu.  Seule la carte au 1 : 25 000, bien que gratuitement accessible en ligne, reste encadrée quant à sa réutilisation pour les usages grand public.

Il faut voir que tout cela a conduit l’IGN à un profond changement de modèle économique, et aussi un changement de culture. L’institut n’est plus porté aujourd’hui que pour 10% de son budget par la vente de cartes ou de prestations commerciales. Ensuite, 45% correspondent à la SCSP – la subvention pour charge de service public. Il nous faut aller chercher les autres 45% sur des financements de projets publics de différents ministères. Nous sommes au service de la puissance publique. Mais on ne nous fait pas un chèque en blanc. Nous devons en permanence convaincre de l’utilité de ce que nous faisons.

Carte de l’IGN, site web IGN, 2021.

b : Peux-tu maintenant nous parler du futur ?

SSo : Nous avons défini une nouvelle stratégie, « les géocommuns ». Et en fait, c’est  une démarche plus qu’une stratégie.

L’IGN est un miroir tendu au territoire national pour se regarder et pour se comprendre. On doit bien-sûr poser la question : quelle est l’intention de ce miroir ?

À une époque, les cartes étaient d’abord conçues dans des buts guerriers. Puis l’IGN, lancé dans les années 40, a accompagné l’aménagement du pays et sa reconstruction. Il nous faut aujourd’hui nous replacer dans deux grands bouleversements de nos sociétés : l’anthropocène, une transformation rapide, et la révolution numérique. Notre but est d’apporter à la nation des informations qui lui permettent de maitriser son destin dans ce double mouvement. Notre méthode, c’est de faire cela avec les autres services publics et en travaillant avec tous ceux qui veulent contribuer, par exemple avec des communautés comme OpenStreetMap.

Réaliser une cartographie de l’anthropocène est un objectif ambitieux. Pour cela, il faut savoir mettre en évidence les transformations rapides voire brutales, et l’évolution de la planète. La carte au 1 : 25 000 décrit le territoire de manière statique. Nous devons décrire désormais des phénomènes comme la propagation hyper rapide de maladies forestières.  Si cela prend 25 ans, on risque de ne plus avoir de forêt à l’arrivée. Alors, on croise des sources, on s’appuie sur le monde académique, on utilise l’intelligence artificielle.

L’expérimentation de contribution collective
sur la « BD TOPO », Site Web IGN, 2021

b : Pourrais-tu nous expliquer ce qu’est pour toi un commun ?

SSo : La notion fondamentale est à mon sens la coproduction. Un commun, c’est une ressource, par exemple un ensemble de données, qui est coproduit. L’idée est de construire des communautés ad hoc suivant le sujet pour produire cette ressource ensemble. La gouvernance de la communauté est un aspect essentiel de la notion de commun.

Pour certains, les communs doivent nécessairement être ouverts et gratuits, mais cela n’est pas forcément intrinsèque selon moi. De manière générale, il faut avoir une approche pragmatique. Si on est trop puriste sur l’idée de communs, il ne reste que les ZAD et Wikipédia. Bien sûr, dans l’autre direction, on voit le risque de commons washing. Selon moi, par exemple, une règle importante pour pouvoir parler de commun, c’est que la porte reste ouverte, que cela ne puisse pas être un club fermé. Tout le monde a droit d’entrer ou de sortir de la production. La gouvernance doit permettre d’éviter que le commun soit accaparé par quelques-uns.

Je peux prendre un bel exemple qui illustre ces principes. Dans le cadre de la « Fabrique des géocommuns » que nous mettons en place, nous ouvrons un chapitre sur un service du style street view, une vue immersive, le petit bonhomme jaune de Google. Pour faire cela, Google fait circuler des véhicules dans toutes la France avec des capteurs. Nous n’avons pas les moyens de faire cela. Alors, nous allons chercher des partenaires, lancer un appel à tous ceux qui ont envie de faire cela avec nous et qui ont parfois déjà des données à mettre en commun. On va se mettre d’accord sur une gouvernance pour définir le régime d’accès aux données. En particulier, il faut choisir la licence : la licence Etalab 2.0 que l’IGN utilise pour le moment (une licence inconditionnelle) ou la licence ODbL utilisée par OpenStreetMap par exemple, qui spécifie que celui qui utilise les données doit accepter de partager ce qu’il en fait de la même façon.

Qui va répondre ? On espère pouvoir compter sur OpenStreetMap. La communauté existe déjà, on n’a pas de raison d’en créer une nouvelle. Ils sont capables de se réunir à une dizaine de personnes pendant un weekend pour « faire » un arrondissement de Paris. Pas nous ! Mais nous espérons aussi attirer des entreprises qui travaillent pour des collectivités et ont déjà des mines de photos. Certains ont donné un accord de principe pour les mettre en commun.

Il ne faut pas voir de concurrence entre ces mondes. Les données cartographiques en accès ouvert viennent massivement de données publiques. Les fonds de carte sur OpenStreetMap proviennent pour beaucoup de sources publiques. La foule est utile pour apporter des données complémentaires, qui ne sont pas dans ces données publiques.

Après l’ouverture des données IGN au 1er janvier 2021, l’ambition est aujourd’hui de co-construire les référentiels de données, les services et les outils d’une information géographique au service de l’intérêt général. Avec les citoyens et pour les citoyens, avec les territoires et pour les territoires, c’est ça les géo-communs ! (Site web de l’IGN, 2021)

b : Qu’est-ce qui se passe au niveau international pour les données cartographiques ?

SSo : Cela bouge lentement. Les Suisses ont mis leurs données cartographiques en données ouvertes. Le cas des États-Unis est intéressant. La loi états-unienne ne permet pas de vendre des données publiques à des citoyens, parce que ceux-ci ont déjà payé en quelque sorte pour les construire, en payant leur impôt.

b : Pourrais-tu nous parler maintenant du gouvernement ouvert ?

SSo : Je milite dans mon livre pour une trilogie État-Marché-Commun parce que le duo État-Marché n’arrive plus à résoudre des problèmes qui sont devenus trop complexes. Il faut raisonner dans un jeu à trois. L’État participe avec sa légitimité, sa capacité de rassembler, sa violence légitime. Le marché apporte sa capacité à mobiliser des moyens financiers, sa capacité d’innovation. La société permet de faire participer les citoyens qui sont aujourd’hui plus éduqués, ont plus de temps libre, cherchent du sens à leurs actions.  Cette force sociale, on peut l’appeler les communs, même si l’utilisation de ce terme n’est qu’un raccourci.

Le numérique apporte une puissance considérable pour accélérer les coopérations, les échanges. Mais c’est à mon avis restrictif que de se limiter au seul numérique. C’est pour cela que je n’aime pas trop le terme « open gov » parce qu’il est souvent compris comme se limitant au numérique.

Prenez une initiative comme « Territoires zéro chômeurs longue durée ». Le constat de départ, c’est qu’il existe une frange de la population que, une fois écartée du marché du travail, on ne sait plus remettre sur ce marché. Il faut arriver à casser la spirale qui éloigne ces personnes du monde du travail. L’approche est de créer un tissu local qui leur trouve des emplois ; ce sont de vrais emplois pour ces personnes mais ces emplois ne sont le plus souvent pas rentables économiquement. Le rôle de l’État est de créer une tuyauterie financière, en s’appuyant sur une loi, pour réunir de l’argent qui est prévu pour cela et s’en servir pour financer en partie ces emplois. Après deux ans, ces ex-chômeurs retournent sur le marché du travail.

Le rôle de l’État est de mettre tout le monde en réseau et de faire appel à des initiatives locales. Vous voyez, on n’est pas dans le numérique, même si le numérique est un outil qui peut être utile pour aider à mettre cela en place. Je crois qu’il faut plutôt le voir comme une coproduction permise par l’État en réseau.

b : Deux questions. D’abord, on accorde selon toi trop d’importance au numérique dans la transformation de l’État.

SSo : Oui. La transformation de l’État n’est pas juste une question numérique même si, bien sûr, le numérique a une place très importante à jouer.

b : Ensuite, pour ce qui est de « Territoires zéro chômeurs longue durée », dans l’Économie Sociale et Solidaire, des initiatives semblables n’existaient-elles pas déjà avec des acteurs comme le Groupe SOS ou ATD Quart Monde ?

SSo : Bien sûr. D’ailleurs, ATD Quart Monde est au cœur de ce dispositif. Mais l’associatif n’arrivait pas seul à régler ce problème. Il fallait l’idée de transformer les allocations chômages en revenus. Seul l’État pouvait faire cela. C’est selon moi le rôle de l’État. Mettre en place le mécanisme et, peut-être, coconstruire un réseau pour arriver ensemble à résoudre le problème.

b : Un mot pour conclure ?

SSo : Un sujet qui m’interpelle est la perte de légitimité des structures d’autorités, la puissance publique mais aussi les scientifiques. Les autorités naturelles ne sont plus reconnues. Je pense qu’il est important d’aller discuter avec les communautés sur les sujets qui fâchent. En particulier, l’administration doit accepter le dialogue. On change de paradigme. L’administration descend de son piédestal pour coconstruire avec d’autres même si ce n’est pas facile. C’est une nécessité pour l’administration qui peut ainsi retrouver une certaine légitimité.

Serge Abiteboul, Inria et ENS, Paris, François Bancilhon, serial entrepreneur

Pour aller plus loin

[1] Sébastien Soriano, Un avenir pour le service public, Odile Jacob, 2020.
[2] IGN, Changer d’échelle, site web de l’IGN, 2021

Les communs numériques

Pour une gouvernance citoyenne des algorithmes

Un nouvel entretien autour de l’informatique.
Karine Gentelet est professeure agrégée de sociologie au département de sciences sociales à l’Université du Québec en Outaouais et professeure invitée à l’Université Laval. Elle a été en 2020-21 titulaire de la Chaire Abeona – ENS-PSL, en partenariat avec l’Observatoire international sur les impacts sociétaux de l’IA et du numérique. Le titre de sa chaire était « La gouvernance citoyenne pour renverser l’invisibilité dans les algorithmes et la discrimination dans leurs usages ». Elle aborde ce sujet pour binaire.
Binaire, le blog pour comprendre les enjeux du numérique, en collaboration avec theconversation.
Karine Gentelet, Site de l’ENS

 Binaire : Peux-tu nous parler du parcours qui t’a conduite notamment à être titulaire de la chaire Abeona ?

Karine Gentelet : Mon profil est multidisciplinaire, avec une formation en anthropologie et en sociologie. J’ai un doctorat en sociologie, mais je préfère me définir par mes thèmes de recherche plutôt que par des disciplines.

Française d’origine, je suis arrivée au Québec il y a plus de trente ans. C’était à une période traumatique de l’histoire du Québec, une grave crise interne, la crise d’Oka[1]. Cela m’a marquée de me retrouver face à des personnes en position de minorité, en difficulté. Je me suis intéressée à la reconnaissance des droits des peuples autochtones, à la façon dont ils mobilisent la scène internationale pour faire reconnaître leurs droits, et à la façon dont ils ont accès à la justice d’une manière large.

Un moment donné, j’ai rencontré quelqu’un qui travaillait pour une communauté extrêmement excentrée au Nord du Québec. Là-bas, quand ils sont arrêtés pour une infraction, les prévenus sont emmenés dans le sud à 6 ou 7 heures de vol d’avion. A cause de la distance, leur famille ne peut plus les voir alors qu’ils sont parfois très jeunes. Pour pallier ce problème, la solution a été d’utiliser la technologie numérique pour déplacer virtuellement le tribunal et l’installer dans le Nord. Cela a redéfini l’espace du procès de façon remarquable : les bancs du juge, des accusés, du procureur, tout change ; les salles d’audience deviennent rondes par exemple. Ces minorités qu’on voit comme vulnérables arrivaient à renverser des rapports de pouvoir, et à redessiner l’espace du procès.

Cela m’a conduite à être impliquée dans des projets de recherche sur les conditions de mise en place d’une cyber-justice. Et c’est ainsi que je suis arrivée à technologie numérique et l’intelligence artificielle (IA pour faire court).

En général, ce qui m’intéresse c’est toujours de regarder l’angle mort, non pas tant ce qui se passe que ce qui ne se passe pas, ce qui n’est pas dit. Prenez des questions de décisions automatisées. J’étudie comment les gens voient le déploiement de ces outils, comment ils aimeraient qu’ils soient déployés. C’est là que mon expérience d’anthropologue me sert, à étudier comment les gens vivent avec ces technologies.

B : La sociologie est typiquement plus dans l’observation que dans l’action ? Est-ce que cela te satisfait ?

KG : Il y a plusieurs types de sociologie et la discipline a évolué. La sociologie devient, selon moi, de plus en plus anthropologique et regarde la société non plus telle qu’elle est mais avec un point de vue d’altérité, ce qui change le regard. On est dans une perspective beaucoup plus critique qu’avant, beaucoup plus près de l’action. De toute façon, comme je l’ai dit, je ne me vois pas uniquement comme sociologue mais plutôt dans la pluridisciplinarité.

Pour l’IA, il ne faut pas se cantonner à l’observation de ce qui s’y passe. Il faut comprendre comme on se l’approprie, apporter un regard critique.

Jon Tyson, unsplash.com

B : En quoi les sciences sociales peuvent-elles servir à mieux comprendre l’IA ?

KG : Souvent l’IA est présentée en termes purement techniques. Mais en fait, dans la manière dont elle est déployée, elle a des impacts sociétaux essentiels qu’il faut comprendre et qui nécessitent une perspective de sciences sociales.

Il y a en particulier des enjeux de classification des datasets qui vont nourrir les algorithmes d’IA. Distinguer entre un chat et un chien n’a pas d’impact sociétal critique. Par contre, le classement d’une personne comme femme, homme, non binaire ou transgenre, peut soulever des questions de prestations sociales, voire conduire à la discrimination de certaines communautés, à des drames humains.

Pour un autre exemple, pendant la pandémie, dans certains hôpitaux, les systèmes d’aide au triage tenaient compte des dépenses qui avaient été faites en santé auparavant : plus on avait fait de dépenses en santé dans le passé, moins la santé était considérée comme bonne ; on devenait prioritaire. Cela peut paraitre logique. Mais ce raisonnement ne tenait pas compte d’une troisième dimension, le statut socio-économique, qui conduisait statistiquement à un mécanisme inverse : les personnes socialement défavorisées avaient souvent fait moins de dépenses de santé parce qu’elles ne disposaient pas d’une bonne couverture de santé, et étaient en plus mauvaises conditions.

Une analyse en science sociale permet de mieux aborder ce genre de questions.

B : La question se pose aussi pour les peuples autochtones ?

KG : Historiquement marginalisés, les peuples autochtones du Canada ont pris conscience très rapidement de la pertinence des données qui les concernent. Ceci a alors une incidence sur l’importance de ces données dans le fonctionnement des algorithmes. Ce sont des peuples avec une tradition orale, nomade, ce qui a une incidence sur la manière dont ils conçoivent les relations à l’espace, au temps, et à autrui. Pour eux, leurs données deviennent une extension de ce qu’ils sont, et doivent donc rester proches d’eux et c’est pourquoi c’est particulièrement important pour ces peuples autochtones de garder la souveraineté de leurs données. Ils tiennent à ce que leur acquisition, leur classification, leur analyse en général, restent sous leur contrôle. Ils veulent avoir ce contrôle pour que ce que l’on tire de ces données ne soit pas déconnecté de leur compréhension du monde.

B : Est-ce qu’il y aurait un lien épistémologique entre les constructions de données et la compréhension du monde ?

KG : Bien sûr. Les classifications de données que nous réalisons dépendent de notre compréhension du monde.

J’ai co-réalisé une étude sur Wikipédia. Le système de classification de la plateforme entre en conflit avec la perspective de ces groupes autochtones. Pour eux, un objet inanimé a une existence, une responsabilité dans la société. Et puis, la notion de passé est différente de la nôtre. Les ancêtres, même décédés, sont encore dans le présent. La classification de Wikipédia qui tient par construction de notre culture ne leur convient pas.

Ils considèrent plus de fluidité des interactions entre choses matérielles et immatérielles. Pour eux les pierres par exemple ont une agentivité et cela amènerait à une autre représentation du monde. Cela conduirait les algorithmes d’IA a d’autres représentations du monde

Photo de Ian Beckley provenant de Pexels

B : Tu veux dire que, pour structurer les données, on a plaqué notre interprétation du monde, alors que celle des peuples autochtones pourrait apporter autre chose et que cela pourrait enrichir notre connaissance du monde ?

KG : Oui. J’ai même un peu l’impression que l’interprétation du monde qu’apportent les peuples autochtones est presque plus adaptée à des techniques comme les réseaux neuronaux que la nôtre à cause de l’existence de liens tenus entre les différentes entités chez eux, dans la fluidité des interactions. Mais je ne comprends pas encore bien tout cela ; cela demanderait d’être véritablement approfondi.

Pour ceux qui ne correspondent pas forcément aux classifications standards de notre société occidentale, cela serait déjà bien d’avoir déjà plus de transparence sur la formation des datasets : comment ils ont été collectés, comment les gens ont consenti, et puis comment les classifications ont été réalisées. C’est véritablement une question de gouvernance des données qui est cruciale pour ceux qui sont minoritaires, qui ne correspondent pas forcément au cadre habituel.

B : Est-ce que selon toi l’IA pourrait être une menace pour notre humanité, ou est-ce qu’elle pourrait nous permettre d’améliorer notre société, et dans ce cas, comment ?

Photo de Nataliya Vaitkevich provenant de Pexels

KG : On essaie de nous pousser à choisir notre camp. L’IA devrait être le bien ou le mal. Les technophiles et l’industrie essaient de nous convaincre que c’est beau, bon, pas cher, et que ça va améliorer le monde. Pourtant, cela a clairement des impacts négatifs sur certains groupes au point que leurs droits fondamentaux peuvent être à risque. Pour moi, l’IA, c’est comme souvent dans la vie, ni blanc ni noir, c’est plutôt le gris. Mais, si je ne vois pas dans l’IA une menace de notre mode de vie, je crois qu’il y a besoin d’une vraie réflexion sociétale sur les impacts de cette technologie. En fait, je me retrouve à accompagner certains groupes sur leur compréhension des impacts, et souvent les impacts sont négatifs.

Il faut cesser de se bloquer sur la question de choisir son camp, pour ou contre l’IA, et travailler à comprendre et éliminer les impacts négatifs.

L’IA est censée être un progrès. Mais un utilisateur se retrouve parfois dans a situation d’être confronté à une IA imposée, de ne pas comprendre ses décisions automatisées, de ne pas pouvoir les remettre en cause. Le résultat c’est que cela peut amplifier une possible situation de précarité.

Quand j’ai renouvelé mon assurance auto, on m’a proposé une réduction de 15% si j’acceptais que la compagnie d’assurance traque tout mon comportement au volant. J’ai refusé. Mais d’autres n’auront pas les moyens de refuser. Cela pose la question du consentement et d’une société à deux vitesses suivant ses moyens financiers.

On pourrait multiplier les exemples. Il faut que les citoyens puissent décider ce qu’on fait avec les algorithmes, et en particulier ceux d’IA.

B : La notion de gouvernance des algorithmes est centrale dans ton travail. Comment tu vois cela ?

KG : Le discours institutionnel à la fois des acteurs privés et des acteurs publics parle de la gouvernance de l’IA comme s’il y avait une dichotomie entre gouvernance de la société et gouvernance de IA, comme s’il y avait une forme d’indépendance entre les deux. L’IA est un outil et pas une entité vivante, mystérieuse et incompréhensible, qui flotterait au-dessus de la société. Je ne comprends pas pourquoi on devrait réinventer la roue pour l’IA. Nous avons déjà des principes, des pratiques de gouvernance, des lois, des représentants élus dans la société, etc. Pourquoi l’IA aurait-elle besoin d’autre chose que de structures existantes ?

On voit arriver des lois autour de l’IA, comme l’ « Artificial Intelligence Act[2] » de l’Union européenne, cela me pose problème. S’il y a des enjeux importants qui amèneront peut-être un jour des modifications en termes de régulation, il n’y a pas de raison d’autoriser à cause de l’IA des atteintes ou des risques sur les droits humains. A qualifier un droit spécifique pour l’IA, on risque de passer son temps à courir derrière les progrès de la techno.

Le problème vient de la représentation anthropomorphique qu’on a de ces technologies, la place que l’on donne à l’IA, la sacralisation qu’on en fait. Les décideurs publics en parlent parfois comme si ça avait des pouvoirs magiques, peut-être un nouveau Dieu. Il faut sortir de là. C’est juste une technologie développée par des humains.

Le point de départ du droit qui s’applique pour l’IA devrait être l’impact sur les êtres humains. Il n’y a aucune raison de sacraliser le fait qu’on parle de numérique. C’est avant tout un problème de droits humains. Alors, pourquoi faudrait-il inventer de nouveaux outils de régulation et de gouvernance plutôt que d’utiliser les outils qui sont déjà là.

Serge Abiteboul, Inria et ENS, Paris, et Claire Mathieu, CNRS et Université de Paris

[1] La crise d’Oka ou résistance de Kanehsatà:ke est un événement politique marquant qui opposa les Mohawks au gouvernement québécois puis canadien, durant l’été du 11 juillet au 26 septembre 1990. La crise demandera l’intervention de l’armée canadienne après l’échec d’une intervention de la Sûreté du Québec. (Wikipédia, 2022)

[2] Note des auteurs : l’ « Artificial Intelligence Act » est une proposition pour le moins discutable de la Commission européenne pour construire un cadre réglementaire et juridique pour l’intelligence artificielle.

Les communs numériques

Le Web3 ? C’est quoi ça encore ?

Du web par la blockchain et un rêve de décentralisation ?  C’est le projet Web3 dont certains technophiles ne cessent de parler depuis quelque temps.

Pour nous aider à y voir plus clair,
Numerama nous l’explique en 8 minutes dans ce podcast

Gavin Wood, en décembre 2017. // Source : Noam Galai, repris de l’article Numerama.

En un mot ?

Le projet derrière Web3 est de procéder à une décentralisation du net, « Les plateformes et les applications ne seront pas détenues par un acteur central, mais par les usagers, qui gagneront leur part de propriété en contribuant au développement et à la maintenance de ces services », ceci en s’aidant de la technologie dite de la blockchain (ou chaîne de blocs). Il s’agit de l’équivalent d’un registre numérique et public dans lequel toutes les transactions en sont inscrites et conservées, nous explique Gavin Wood.

Euh c’est quoi la blockchain déjà ?

Nous trouvons les intentions et le positionnement vraiment super, et cette idée de blockchain, comme Heu?Reka et ScienceEtonnante nous l’explique, y compris en vidéo, tandis que Rachid Guerraoui démystifie la blockchain pour nous sur binaire.

L’avis de binaire sur le web3

L’article Numerama est vraiment bien fait et c’est tout à fait intéressant de voir comment des professionnel·le·s de l’informatique se proposent de remodeler notre monde numérique de demain,

Et nous sommes d’accord avec l’avis de Numerama : la logique de financiarisation qui sous-tend ce nouveau concept à la mode fait débat.

En plus, plusieurs interrogations se posent à nous.

– Tout d’abord, l’accès à cette nouvelle technologie : qui pourra et saura la maîtriser ? Une des raisons principales du succès du web actuel repose sur sa large ouverture. Ici on parle d’un système où les usagers pourront, au delà d’un simple usage, « gagner une part de propriété en contribuant au développement et à la maintenance de ces services » : l’idée est vraiment intéressante et louable, mais impose là encore que nous maîtrisions toutes et tous ces technologies et dans une certaine mesure leur fondements,  cela n’exclue-t-il pas de facto une grande partie des utilisateurs  actuels ? En tout cas cela nourrit cette réflexion commune sur le niveau de culture scientifique et technique que l’usage du numérique impose à chacun·e d’acquérir.

– Et puis, demeure la question fondamentale : à quel coût environnemental ? Si le Web3 présente des avantages questionnables pour la démocratie, il conduit à des dégâts indiscutables pour cette planète que nous avons reçue et devons laisser en héritage à nos enfants.  Les deux sûrement, mais dans ce cas, ce Web3 n’est apparemment pas encore la solution.

 

Comment les IA font semblant de comprendre le langage humain ?

Nous savons que les IA ne sont pas intelligentes et pourtant elles arrivent à approcher le fonctionnement humain dans de plus en plus de domaines. Aujourd’hui, nous nous intéressons au traitement du langage humain. Après avoir abordé la reconnaissance vocale, nous vous proposons d’approfondir d’autres aspects comme la complétion ou la traduction grâce à une très intéressante vidéo publié par David Louapre sur son blog Science Étonnante. Thierry Viéville et Pascal Guitton

Commençons par une dictée.

En fait, les lignes que vous commencez à lire, là, maintenant, n’ont pas été tapées au clavier mais… dictées à l’ordinateur ? Ce dernier comprend-il ce qui lui est dit ? Nullement. Alors comment fait-il ? ! 

Un ancien dictaphone des années 1920 qui enregistre la voix sur un cylindre phonographique cartonné recouvert de cire ou celluloïd. La parole humaine transformée en simple sillon en spirale … est-ce moins étonnant que de la voir binarisée ? ©MadHouseOldies

La parole humaine est constituée d’environ une cinquantaine de phonèmes. Les phonèmes sont des sons élémentaires (entre une voyelle et une syllabe) qui se combinent pour former des mots. Nous utilisons entre 1 000 et 3 000 mots différents par jour, et en connaissons de l’ordre de 10 000 en tout, selon nos habitudes de lecture. Pour un calcul statistique, ce n’est guère élevé : le son de la voix est donc simplement découpé en une séquence de petits éléments qui sont plus ou moins associés à des phonèmes, pour ensuite être associés à des mots. Le calcul statistique cherche, parmi tous les bouts de séquences de mots, ceux qui semblent correspondre au son ainsi découpé et qui sont les plus probables. Il ne reste plus qu’à sortir le résultat sous forme d’une chaîne de lettres ou de caractères pour obtenir une phrase à l’oral.

Un exemple de signal sonore d’une voix humaine en bleu et l’analyse des graves et des aiguës (le spectre fréquentiel) de la zone claire : c’est à partir de cet alphabet sonore approximatif que l’on effectue les calculs statistiques qui transcrivent le son.

Bien entendu, ce mécanisme ne comprend rien à rien. Ces mots ne font pas du tout sens  par la machine, puisqu’il ne s’agit que d’une mise en correspondance entre des sons et des symboles. Ce procédé n’est donc exploitable que parce que la voix humaine est moins complexe qu’elle n’y paraît, et surtout car il a été possible de se baser sur une quantité énorme de données (des milliers et des milliers de paroles mises en correspondance avec des milliers et des milliers de bouts de séquences de mots) pour procéder à une restitution fiable du propos dicté. Ces calculs sont à la fois numériques, puisque chaque son est représenté par une valeur numérique manipulée par calcul, et symboliques, chaque phonème ou mot étant un symbole manipulé par un calcul algorithmique.

Et ensuite … comment manipuler le sens du langage ?

Donnons la parole à David Louapre pour en savoir plus, grâce à cette vidéo :

enrichie, si besoin, de d’éléments complémentaires.

Vous avez vu ? Nous en sommes à avoir pu « mécaniser » non seulement la reconnaissance des mots mais aussi la manipulation du sens que nous pouvons leur attribuer.

On en fait même tout un fromage.

Comme l’explique David, les modèles de langue neuronaux contextuels sont désormais omniprésents y compris en français avec ces travaux des collègues Inria. Le calcul peut par exemple résoudre des exercices de textes à trous, que l’algorithme a pu remplir avec le bon mot, avant de se tourner vers des applications plus utiles comme la traduction automatique, la génération assistée de texte, etc.

Mais finalement, je me demande si parfois, je n’aimerais pas me faire « remplacer » par une IA pendant des conversations inintéressantes où je m’ennuie profondément :). Oh, ce n’est pas que je pense qu’elles sont devenues intelligentes, ces IA … c’est plutôt que franchement, entre humains, on se dit que ma foi, des fois, il faut avoir la foi, pour pas avoir les foies, à écouter ce qui se dit … quelques fois…