Le World Wide Web, et demain ?

Le Web est né en 1989. Il a fêté ses 30 ans. Seulement 30 ans et il a déjà véritablement transformé nos vies. On peut faire partie des fans de la première heure comme nous, continuer à croire à toutes ses promesses mais en même temps s’inquiéter de ses dérives. Quand ses plus grands pionniers comme Tim Berners-Lee lancent des alertes, on peut légitimement se poser des questions. Le Web que nous avons connu, celui que nous avons rêvé, n’existe plus. Que va t-il advenir du Web ? Une collection de plaques contrôlées par des États ? Des silos gérés par des oligopoles ? Nous voulons croire qu’il sera autre, qu’il sera ce que, collectivement, nous choisirons. Pour y voir plus clair, nous avons demandé à Jean-François Abramatic, un pionnier de cette belle histoire, ancien Président du World Wide Web Consortium (W3C), de nous parler du Web. Dans une première partie, Jean-François nous a parlé du passé du Web. Dans cette seconde partie, il en tire des leçons pour le futur.
Le W3C développe les standards du Web pour permettre la multiplication des offres en ouvrant de nouvelles opportunités. C’est ainsi que les Progressive Web Apps ont cherché à fournir une alternative aux App stores. De même, ActivityPub permet une fédéralisation des réseaux sociaux. La difficulté, bien sûr, est de faire adopter ces standards par les leaders du marché. Est-ce par manque de relais politiques, ou surtout de la société civile  ?
Serge Abiteboul & Pascal Guitton.

Le Web et la démocratie

A présent que des milliards de personnes peuvent lire et écrire sur le Web et qu’un petit nombre d’entreprises ayant accumulé des centaines de milliards de dollars de capitalisation boursière ont acquis un poids considérable dans l’économie mondiale, nos sociétés sont confrontées à des défis démocratiques d’un type nouveau.

La concentration dans un petit nombre d’entreprises de pouvoirs essentiels pour la vie de nos sociétés pose la question de la gestion de monopoles à l’échelle mondiale. La collecte de données personnelles par ces entreprises ou par des organisations gouvernementales pose la question du respect de la vie privée de chacun d’entre nous.

Par ailleurs, les attaques menées contre les sites d’information et d’échange posent la question de la sécurité de nos échanges et de nos données. La circulation d’informations fausses, diffamatoires, voire illégales, la confusion volontaire entre faits et opinions posent la question de la transparence du débat démocratique.

Ces défis sont nouveaux dans leur nature mais aussi et surtout dans leurs caractéristiques en terme d’espace et de temps. Comme son nom l’indique, le World Wide Web est global et les défis sont eux aussi à l’échelle de la planète. Aucune solution locale aux problèmes mentionnés n’est sérieusement envisageable. Par ailleurs, la vitesse à laquelle circulent les informations (qu’elles soient vraies ou fausses, privées ou publiques) est elle aussi sans équivalent dans l’histoire.

Oui, le Web, et nous avec, sommes confrontés à des dangers de nouveaux types.

Les femmes, les hommes et les machines

L’Internet est la plateforme de la convergence entre l’informatique, les télécommunications et l’audiovisuel. Apparus au fil du 20ème siècle, le téléphone et la télévision ont changé nos manières de partager informations et connaissances. C’est cependant le développement de l’ordinateur (en particulier lorsque la miniaturisation des composants l’a rendu personnel et connecté) qui a permis d’intégrer ces technologies en un environnement universel que nous utilisons désormais tous les jours, dans n’importe quel endroit, à des fins extraordinairement variées.

C’est aussi avec l’aide de l’ordinateur que nous trouverons les réponses aux défis qui viennent d’être évoqués. Les contraintes espace-temps que nous devons affronter ne permettent pas aux femmes et aux hommes d’apporter des réponses sans l’usage intensif des ordinateurs. Il faut donc trouver la manière de mettre les technologies à notre service pour prévenir les dangers qui menacent nos démocraties.

Tous autour de la table

Cette phot montre une salle de conférences avec une jeune femme qui pfait une préesentation sur un tableau blanc devant une assemblée d'une quinzaine de personnes assises aurout d'une longue table rectangulaire
Autour de la table – Photo Christina Morillo, site Pexels

Comment faire en sorte que les moyens numériques soient mis au service de nos démocraties ? Il serait illusoire, voire irresponsable d’attendre qu’un ou quelques programmeurs de talent inventent les machines et programmes qui vont résoudre nos problèmes. Il faut, au contraire, mettre autour de la table gouvernements, entreprises, ingénieurs et chercheurs, représentants de la société civile dans une approche multi-acteurs pour concevoir les systèmes, les applications qui nous permettront d’apporter les réponses appropriées. Aucun de ces acteurs ne doit manquer, ce qui constitue aujourd’hui la première difficulté à surmonter. Sans les représentants de la société civile, il serait difficile de concevoir des systèmes qui gagnent la confiance des citoyens. Sans les entreprises, il serait difficile de développer et de déployer les solutions souhaitées. Sans les gouvernements, il serait difficile d’imposer les solutions ou faire respecter les lois lorsque cela sera nécessaire. Sans les chercheurs et le monde académique, il serait impossible de concevoir des systèmes innovants au service des usagers au rythme auquel le déploiement de ces systèmes est nécessaire pour être efficace.

Mettre en place une telle approche multi-acteurs reste aujourd’hui encore une tâche complexe. Chacun de ces acteurs pense, à tort, avoir, seul, le droit, la responsabilité, la vision, les moyens pour faire évoluer le Web et l’Internet au service des usagers.

Des efforts pour faire face aux défis

Chacun des défis mentionnés fait, bien sûr, déjà l’objet de travaux à des stades très divers.

La gestion des monopoles et, en particulier, de leur situation fiscale fait l’objet de débats récents mais très vifs à l’heure où ces lignes sont écrites.

Les questions de sécurité ont été abordées dès les premières heures de l’Internet. Le développement des standards de l’Internet est mené par l’IETF (Internet Engineering Task Force). Depuis très longtemps, chaque projet de standardisation doit se poser la question de l’impact éventuel du nouveau standard sur la sécurité. Cette approche systématique a permis de faire naître des solutions que les acteurs se sont appropriées. Le dialogue multi-acteurs s’est largement engagé.

Cette image affiche les 3 notions (responsabilité, transparence, confiance) à la base du RGPD
Les notions clés du RGPD – Extrait du site de la CNIL

Le respect de la vie privée est le domaine où les différences culturelles se font le plus sentir. L’Union Européenne a récemment adopté une réglementation, appelée Règlement Général sur la Protection des Données (RGPD). Cette réglementation fait l’objet de toutes les attentions. D’autres pays comme le Japon s’y intéresse. Elle pourrait, à terme, être déployée dans le reste du monde. Des grandes entreprises américaines soucieuses de leur présence sur le marché européen s’y intéressent très sérieusement. Il reste à développer les solutions techniques qui permettront la mise en œuvre concrète de la réglementation.

La lutte contre la haine sur Internet fait également l’objet de rapports et projets de loi en Europe et dans le monde. Des solutions techniques sont, pour l’instant, au stade de l’évaluation. L’orchestration des travaux législatifs et techniques reste à mettre en place. Les algorithmes à la source de problèmes comme la diffusion massive de bobards (fake news) ou de messages de haine sont à même de participer aux solutions. Les grandes entreprises du Web travaillent dans ce sens. Mais sans la participation de la société civile et des gouvernements, leurs résultats seront à juste titre contestables, contestés. Il faut se mettre tous autour de la table.

Pour être efficace dans leur mise en œuvre, ces lois et règlementations demandent donc des développements logiciels encore en devenir. Si les grandes entreprises du secteur disposent des ressources pour « se mettre en règle », il n’en va pas toujours de même pour les petites entreprises, voire pour les gouvernements lorsqu’il s’agit d’assurer le respect de ces lois. Le dialogue multi-acteurs doit avoir lieu le plus tôt possible pour que la mise en œuvre se fasse de manière efficace et dans l’intérêt de tous.

Science ouverte au service des citoyens

Pour montrer qu’il est, à la fois, difficile mais possible de progresser, en guise de conclusion, concentrons nous sur le problème de la véracité des informations et, plus spécifiquement, celui de la place de la science dans nos sociétés. Les débats récents sur le réchauffement climatique, les effets des pesticides, les risques liés au traitement des déchets nucléaires aussi bien que ceux traitant la réduction des inégalités, les effets de mesures fiscales, les coûts de décisions politiques montrent le besoin d’une approche scientifique rigoureuse pour traiter sérieusement ces questions complexes.

S’agissant de questions essentielles pour la vie de nos sociétés, il est indispensable que le débat démocratique puisse s’organiser autour d’informations aussi exactes et précises que possible. Il est nécessaire que les résultats des travaux scientifiques soient rendus accessibles aux citoyens. Pour atteindre ces objectifs, il faut, dans un premier temps, que les scientifiques, eux-mêmes, se préoccupent de faire les efforts nécessaires pour que leurs résultats soient exploitables par d’autres. Durant les dix dernières années, la communauté scientifique a élaboré une liste de critères à remplir pour que les informations issues de travaux de recherche soient utilisables par tous.

L’acronyme FAIR (pour Findable, Accessible, Interoperable, Reusable) est désormais utilisé pour qualifier des informations exploitables. Il faut donc qu’une information soit trouvable, accessible, interopérable et réutilisable. Si ces conditions sont remplies, un usager pourra exploiter l’information ou un tiers pourra développer les solutions logicielles qui rendent ces informations utiles pour les citoyens.

Logo de Hal – Site du CCSD

La communauté scientifique française montre l’exemple dans ce domaine. L’archive ouverte HAL rassemble plus d’un million de publications mises au service de toutes les communautés scientifiques.

 

Logo Software Heritage

Le programme Software Heritage, hébergé par Inria, a pour mission de collecter, préserver et partager tous les logiciels disponibles publiquement sous forme de code source. A ce jour, près de six milliards de fichiers sont ainsi archivés, faisant de Software Heritage, l’incontestable leader mondial.

 

L’Europe a lancé un programme, appelé EOSC (European Open Science Cloud), dont le but final est de permettre à chacun d’accéder aux informations utiles à son activité. Après avoir vécu une période de lancement, EOSC est entré en 2019 dans une phase de déploiement qui doit l’amener à un régime pérenne en 2021. Si cet objectif est atteint, les productions scientifiques européennes seront disponibles pour que d’autres acteurs (gouvernements, entreprises, société civile) puissent en tirer parti.

Il est intéressant de noter que parmi les organisations pionnières en ce domaine, le CERN occupe une place de choix. Ayant depuis 30 ans utilisé le Web pour gérer les informations engendrées par ses équipements de physique des hautes énergies, le CERN participe désormais à plusieurs projets européens pour faire progresser la science ouverte au service de toutes les communautés scientifiques.

Trente ans plus tard, l’histoire se répète en mettant des solutions développées pour une communauté au service du bien commun.

Ainsi donc,

Oui, le Web est confronté à de nombreux défis, à de nombreux dangers. Oui, le Web a les moyens de faire face quand les acteurs s’engagent pour combattre les mauvais démons qui veulent tirer parti des opportunités de nuisance que l’ouverture du Web leur procure.

Le Web continue de se construire grâce aux femmes et aux hommes qui exploitent les technologies de l’information pour faire en sorte que la communication entre citoyens du monde s’enrichisse au service de tous.

Jean-François Abramatic, Directeur de Recherche Emérite, Inria

Le World Wide Web, il y a trente ans…

Le Web est né en 1989. Il a fêté ses 30 ans. Seulement 30 ans et il a déjà véritablement transformé nos vies. On peut faire partie des fans de la première heure comme nous, continuer à croire à toutes ses promesses mais en même temps s’inquiéter de ses dérives. Quand ses plus grands pionniers comme Tim Berners-Lee lancent des alertes, on peut légitimement se poser des questions. Le Web que nous avons connu, celui que nous avons rêvé, n’existe plus. Que va t-il advenir du Web ? Une collection de plaques contrôlées par des États ? Des silos gérés par des oligopoles ? Nous voulons croire qu’il sera autre, qu’il sera ce que, collectivement, nous choisirons. Pour y voir plus clair, nous avons demandé à Jean-François Abramatic, un pionnier de cette belle histoire, ancien Président du World Wide Web Consortium (W3C), de nous parler du Web. Dans un premier article, il nous parle du passé. Dans un second, il nous fera partager sa vision du futur. Serge Abiteboul & Pascal Guitton.

Alors que le Web vient de fêter ses trente ans, après avoir reçu une très longue suite de commentaires laudatifs, il est devenu de bon ton de se demander si on peut encore « sauver le Web ».

Ayant participé aux travaux qui ont permis son développement fulgurant, après avoir assisté à l’événement organisé par le CERN en ce 12 mars 2019, date anniversaire, il m’est apparu utile de partager un point de vue nuancé sur les services que le Web nous rend et les défis auxquels il doit faire face.

Ma première réaction aux discours promettant le pire est de me rappeler de commentaires similaires datant de la fin 1995. Lors de la clôture de la 4ème conférence World Wide Web tenue à Boston en Décembre 1995, je devais conclure l’évènement en invitant les participants à venir à la conférence suivante qui allait se tenir à Paris en Mai 1996. Juste avant moi, une célébrité du numérique, Bob Metcalfe (inventeur d’Ethernet, devenu pundit des technologies de l’information) avait prédit que l’Internet et le Web allaient s’effondrer en 1996. Son idée, à l’époque, était que la croissance exponentielle du nombre des sites Web et du nombre de leurs usagers allait avoir raison de l’infrastructure qui n’arriverait pas à offrir les bandes passantes nécessaires. Il avait promis de « manger » son article si sa prédiction était fausse.

Pendant son exposé, j’ai téléchargé un plan du métro de Paris et je l’ai présenté en introduction à ma présentation. Au même moment, une grève de la RATP avait eu raison de la bande passante du métro parisien. J’ai introduit mon exposé en prédisant que l’Internet et le Web ne s’effondreraient pas en 1996 de la même manière que le métro parisien reprendrait son activité normale et serait à la disposition des participants à la conférence de Paris.

Lors de la 6ème conférence tenue en 1997 à Santa Clara, en Californie, Bob, ayant perdu son pari (car l’Internet et le Web ne se sont pas effondrés en 1996 :-), a tenu parole et  « mangé » son article… devant une audience prête à déguster l’énorme gâteau que l’Université de Stanford, organisatrice de la conférence, avait préparé.

Même si le Web a « gagné » la confiance de tant d’utilisateurs, on peut questionner ce qu’il est devenu avec lucidité, sans chercher à se faire peur.

Moitié vide, moitié plein ?

Tout d’abord, rappelons qu’il s’agit d’une application qui n’a que trente ans et est déjà utilisée par plus de trois milliards de personnes à travers le monde. Un tel déploiement est unique dans l’histoire de l’humanité. Il s’agit d’un « truc » qu’un peu plus de la moitié de la population de la planète utilise tous les jours.

On doit, bien sûr, insister sur les difficultés auxquelles nous sommes confrontés pour faire en sorte que l’autre moitié de la planète ait accès au Web. La mise en place d’infrastructures dans les zones non couvertes, la baisse des prix des terminaux sont nécessaires pour fournir l’accès à celles et ceux qui en sont aujourd’hui privées. Même si le World Wide Web Consortium (W3C) a lancé le programme Web Accessibility Initiative (WAI) dès 1997, fournir l’accès au Web aux personnes en situation de handicap demande des efforts dans la durée. Des travaux importants sont en cours, animés par de nombreuses organisations gouvernementales ou associatives.  Parmi ses 17 objectifs pour le développement durable, les Nations Unies avaient fixé 2020 pour disposer d’une infrastructure universelle à un coût abordable pour toute la planète. Cet objectif ne sera pas atteint mais le nouvel objectif (2030) reste possible. Cela ne suffira pas à assurer l’accès à tous mais cela éliminera une barrière importante.

Au service des utilisateurs

On peut s’interroger sur les raisons qui ont fait que le Web a été inventé au CERN, en Europe, dans un centre de recherches en physique des hautes énergies. Tim Berners-Lee a partagé, à l’occasion de la célébration de l’anniversaire, plusieurs raisons que l’on peut résumer ainsi.

Cette phot montre l'intérieur d'un tunnel bétonné où se trouvent des composants cymindriques de grande taille
Un accélérateur de particule – Photographie extraite du site du CERN

Premièrement, le CERN, grand utilisateur de technologies de l’information, avait besoin de gérer une masse grandissante d’informations complexes pour servir ses utilisateurs. Le mémo que Tim a présenté à sa hiérarchie, il y a trente ans, avait pour titre Information Management: a proposal. Le CERN était équipé de nombreux systèmes informatiques, incompatibles entre eux. Par ailleurs, ces informations devaient être rendues disponibles aux chercheurs en physique des hautes énergies répartis à travers la planète. Le besoin de gestion de l’information était donc à la fois pressant et clairement exprimé.

Deuxièmement, l’infrastructure informatique du CERN était à l’état de l’art, mettant à disposition des ingénieurs et chercheurs les meilleures stations de travail du moment et la meilleure connectivité à l’Internet. Tim a développé le Web sur une machine NexT, la « Rolls » des stations de travail, conçue par Steve Jobs alors qu’il avait été remercié par le conseil d’administration d’Apple. De manière générale, les chercheurs du CERN bénéficiaient d’équipements haut de gamme. La connexion directe à l’Internet avait été installée en 1989, faisant du CERN un précurseur en Europe dans l’exploitation des protocoles de l’Internet. Les conditions techniques étaient donc remplies pour que Tim envisage de déployer un système de navigation hypertexte sur l’Internet.

Troisièmement, l’environnement de recherche du CERN permettait la prise de risque voire aiguisait l’appétit des chercheurs pour l’utilisation de technologies innovantes. Tim savait que ses collègues apprécieraient le caractère audacieux de sa vision. Il savait aussi que s’il développait un environnement universel, de nombreux chercheurs et développeurs à travers le monde sauraient reconnaître le potentiel du Web et contribuer à son développement.

Ainsi donc, les conditions nécessaires à la conception du Web étaient réunies à Genève, dans un des plus grands centres de recherche européen et non pas en Silicon Valley : un besoin (gérer des informations à la fois précieuses et complexes), un environnement à l’état de l’art, un appétit pour la prise de risque et l’innovation.

Yes, we ‘re Open !

Si le CERN offrait donc un environnement accueillant pour l’émergence d’innovations audacieuses, l’organisation a aussi su prendre des choix stratégiques essentiels lorsque les premières indications du potentiel du Web sont apparues. Dès 1991, à la demande de Robert Cailliau et de Tim, le CERN a fait savoir au monde entier que la technologie du Web serait mise dans le domaine public. Tout chercheur, tout développeur dans le monde pourraient ainsi apporter son talent et son énergie pour contribuer au succès du Web.

Quelques années plus tard, le World Wide Web Consortium (W3C), sous la direction de Tim Berners-Lee, a institué une nouvelle manière de partager les standards du Web en faisant en sorte que ces standards soient disponibles pour tous Royalty Free. Jusqu’alors, la politique Reasonable And Non Discriminatory prévalait dans les organismes de standardisation, rendant l’exploitation de ces standards incertaine en terme de propriété industrielle.

Ainsi donc, le Web est devenu libre de droits, favorisant la floraison de « milliers de fleurs ».

Cette phot montre un grand nombre de fleurs bleues sur des tiges
Fleurs – Extrait du site Pixambo

Intégrer les services existants

Une des grandes richesses des infrastructures numériques est qu’elle facilite l’usage par tout nouveau développement des déploiements antérieurs. Depuis l’apparition du système d’exploitation Unix au début des années 70, les innovations émergentes peuvent bénéficier naturellement des résultats des générations qui les ont précédées. La portabilité des systèmes et applications a permis, par exemple, d’exploiter « sans douleur » les innovations en matière de matériels (nouveaux processeurs) en limitant au strict minimum les développements logiciels spécifiques aux nouvelles machines.

Dans le même esprit, Tim a conçu le Web pour qu’il puisse accueillir les autres applications de partage d’information (transfert de fichiers, systèmes documentaires). Ce choix a convaincu la communauté des développeurs de la sincérité de l’ouverture de Tim et accéléré l’adoption du Web.

En choisissant le Web, on peut développer de nouveaux services en continuant à utiliser les anciens.

Lire et écrire

La première version du Web, développée par Tim, permettait à l’utilisateur de lire et écrire les informations rangées sur le serveur permettant ainsi aux usagers d’échanger, de communiquer grâce au Web.

Le succès initial du Web a, cependant, été nourri par une ambition plus limitée où le navigateur mis à la disposition de l’usager pouvait seulement lire les données, faisant de la fonction d’écriture ou de création d’information une tâche réservée à une catégorie limitée d’auteurs. Dans cette version limitée, le Web a tout de même permis à des centaines de milliers de services de se développer, à de nombreuses entreprises de trouver leurs modèles de développement, … à quelques entreprises (telles que Google, Amazon, Microsoft, Apple) de prendre des positions dominantes.

Il faudra attendre l’émergence des Wikis (tel que Wikipedia), puis des réseaux sociaux (tels que Facebook, Twitter) pour que la communication retrouve son caractère bidirectionnel.

Ainsi donc, le Web a fourni l’occasion à quelques entreprises de l’ouest des Etats-Unis de devenir les premières capitalisations boursières mondiales, à d’autres entreprises de se réinventer, à des milliards d’usagers de partager des informations et d’utiliser des millions de services « en ligne ».

Intérêt général, intérêts particuliers

Dans le monde numérique, lorsque qu’une innovation devient un succès, de nombreuses voies peuvent être suivies par les inventeurs et créateurs. C’est ainsi que les deux acteurs à l’origine du succès du Web ont choisi des voies différentes.

Cette image montr ele logo du W3C composée des 3 lettres ; les 2 premières sont en bleu, la dernière en noirb
Logo W3C – (C) W3C

Tim Berners-Lee a choisi de créer le W3C pour « mener le Web à son plein potentiel ». W3C a ainsi été hébergé dès le milieu des années 90 par le MIT, aux Etats-Unis, Inria, en Europe, l’Université de Keio en Asie. W3C a rapidement rassemblé plus de 500 organisations (grandes entreprises, universités et centres de recherche, petites et moyennes entreprises, start-ups, associations à but non lucratif ou gouvernementales) à travers le monde. W3C a développé de manière collective les standards du Web grâce aux contributions de plus de 10,000 ingénieurs et chercheurs. Plus de 300 recommandations ont été émises par le consortium, parmi lesquelles HTML, CSS, XML, WCAG qui fournissent le socle sur lequel le Web s’est développé.

Marc Andreessen, l’auteur de Mosaic, le navigateur qui a permis le déploiement fulgurant du Web au milieu des années 90, a choisi de créer une société en Silicon Valley. Netscape a été la première start-up à exploiter le potentiel du Web. Netscape a fait une entrée en bourse record en 1995 avant de devoir fermer ses portes en 2003. La rivalité entre Netscape et Microsoft a cependant été au cœur du déploiement initial du Web. Les deux entreprises ont largement participé aux travaux du W3C pour bâtir les fondations solides sur lesquelles le Web repose encore aujourd’hui.

Au fil des années, les entreprises et les organisations à but non lucratif ont contribué, côte à côte, au développement du Web.

Le W3C et Wikipedia ont joué un rôle important dans le succès du Web. Le mouvement Open Source qui a pour objectif de partager les efforts de développement logiciel s’est largement amplifié grâce à l’infrastructure fournie par le Web. La Fondation Creative Commons, dans le but d’encourager la libre circulation des œuvres, propose des licences de mise à disposition d’un type nouveau tirant parti des possibilités offertes par le déploiement du Web.

Les entreprises leaders du marché ont, également, offerts à leurs utilisateurs des services essentiels tels que moteur de recherche, courrier électronique ou outils de travail collaboratifs distribués avant d’inventer les modèles économiques qui ont fait leur fortune.

De nouveaux services ont été créés pour permettre l’échange ou la vente entre particuliers. Les entreprises de l’ « ancien monde » ont changé leur manière d’interagir avec leurs clients en s’appuyant sur le Web.

Le monde est devenu instrumenté, interconnecté et intelligent… Avec le Web, je peux aussi piloter à distance la nouvelle chaudière que je viens de faire installer…

Il reste qu’aux côtés d’Apple et Microsoft, créées avant le Web, dans les années 80, d’autres entreprises, Google, Amazon créées à la fin des années 90, Facebook, Twitter créées au début des années 2000 ont eu le succès que l’on connaît aujourd’hui au point de prendre des positions dominantes qui sont des menaces pour le Web ouvert tel qu’il a été conçu par Tim Berners-Lee.

Jean-François Abramatic, Directeur de Recherche Emérite, Inria

L’évolution en informatique

« Rien n’a de sens en biologie si ce n’est à la lumière de l’évolution » selon Theodosius Dobzhansky. L’évolution est aveugle, elle ne prévoit rien mais trouve la réponse à tout. Par comparaison, les logiciels informatiques sont le plus souvent prévus pour une utilisation définie à l’avance, et ne savent pas s’adapter seuls à une nouvelle situation. Et par conséquent, c’est très souvent à l’utilisateur de s’adapter. Est-ce que ce ne devrait pas être plutôt à la machine de s’adapter à nous ? On peut par exemple penser à certains systèmes d’enseignement qui offrent l’adaptation, la personnalisation des parcours (individual learning) basées sur une sélection et une modification de l’ordre des séquences d’apprentissage en fonction des comportements de l’apprenant. Avec l’évolution, la biologie sait s’adapter. Peut-on s’en inspirer pour concevoir de nouvelles façons de penser les logiciels ? C’est ce que certains chercheurs tentent de faire nous raconte Juliette Luiselli, étudiante en biologie et en informatique à l’ENS Paris. Serge Abiteboul, Pascal Guitton
Image Johannes Plenio – Pixabay

Évolution biologique et évolution informatique

Actuellement, en informatique, on distingue deux formes principales d’apprentissage. Soit on donne à la machine un corpus de données et on la laisse apprendre à imiter des choix humains (apprentissage automatique), soit on lui donne des règles et elle apprend d’elle-même des stratégies en observant ce qui fonctionne ou pas (apprentissage par renforcement). Si on veut comparer avec la biologie, c’est un peu comme si, dans le premier cas, on donnait une séquence ADN à une cellule et qu’elle devait trouver comment l’exprimer pour survivre à son environnement, et dans le second qu’on la laissait essayer de nombreuses séquences différentes jusqu’à trouver celle qui fonctionne le mieux. D’une certaine manière, on applique donc déjà la sélection naturelle à des algorithmes. Ce qui reste cependant très différent de la biologie, c’est la variabilité sous-jacente à cette sélection, et le niveau auquel s’effectue la sélection. En biologie, chaque cellule dispose d’un ADN, qui varie d’un individu et d’une génération à l’autre. Cet ADN est utilisé différemment selon le milieu, pour répondre à des challenges différents. En effet, la cellule qui contribue le plus à la génération suivante n’est pas sélectionnée directement sur son ADN, mais sur son « résultat » : c’est la cellule dans son ensemble, voire l’organe, l’individu ou la population d’individus dont elle fait partie qui va être sélectionnée ! Toutes ces intrications d’échelles rendent difficile la mise en évidence du lien entre variabilité génétique initiale et sélection. Par ailleurs, les conditions de variations de l’ADN elles-mêmes évoluent, il y a une évolution de l’évolution.

Des chercheurs ont pensé appliquer ces principes à l’informatique. L’idée est d’utiliser des logiciels composés de plusieurs couches indépendantes mais en forte interaction les unes avec les autres (ce qui permet une sélection beaucoup plus modulaire et fine), et qui ont une capacité d’innovation libre, de création, pour répondre à de nouveaux défis. Ce projet a été nommé EvoEvo [1] en référence à cette évolution de l’évolution, et il pourrait permettre de développer des logiciels répondant plus finement aux besoins des utilisateurs peu à l’aise avec l’informatique : l’effort d’adaptation viendrait non plus de l’utilisateur, mais de la machine.

Une première application : la danse

Pour expérimenter leur idée, les chercheurs se sont concentrés d’abord sur une interaction simple et spécifique, celle entre un danseur et la musique qu’il entend. Dans le projet EvoMove [2], ils mettent en interaction trois éléments : un danseur ne connaissant pas le logiciel, un processus qui décompose les mouvements du danseur et un processus qui reçoit ces données et les transforme en musique. Ainsi, les mouvements du danseur vont être classés (répétitions, variations, etc.) par le premier processus, qui les transmet au second qui y associe des sons. Le danseur bouge selon ce qu’il entend, et la musique évolue selon ses mouvements. C’est cette forte intégration de l’homme et de la machine qui permet à la danse et à la musique d’évoluer ensemble. Dans ces conditions, on se rapproche un peu plus de l’évolution biologique. Chacun des processus évolue indépendamment : le premier va créer de nouvelles catégories pour classer les nouveaux mouvements, et apprend de ce qu’il observe pour repérer des motifs ; tandis que le second associe des sons différents aux catégories de mouvements qu’il reçoit et peut changer sa réponse musicale au cours du temps. Cette approche permet de faire émerger une nouvelle échelle de « sélection » de l’interaction des deux : la musique créée. La variation se fait à l’échelle de chaque processus et du danseur, et la sélection sur la résultante de leurs interactions : l’association entre la danse et la musique [3]. Ce n’est que le début, mais dans quelques années vous pourriez voir votre ordinateur apprendre à vous connaître et s’adapter pour répondre au mieux à tout ce que vous lui demandez ! Un rêve. . .ou votre pire cauchemar ? Ces recherches posent en effet aussi des questions éthiques : comment pouvons-nous garantir le comportement d’un logiciel que nous programmons justement pour qu’il puisse développer de nouvelles fonctions et de nouveaux comportements ? Un mécanisme de contrôle doit émerger avec la mise en place de ce genre de logiciel, pour en suivre l’évolution et prévenir d’éventuelles dérives.

Juliette Luiselli, étudiante à l’École Normale Supérieure, Paris

Références

[1] Guillaume Beslon, Santiago F. Elena, Paulien Hogeweg, Dominique Schneider, and Susan Stepney. Evolving Living Technologies—Insights from the EvoEvo Project. In Thelma Elita Colanzi and Phil McMinn, editors, Search-Based Software Engineering, volume 11036, pages 46–62. Springer International Publishing, Cham, 2018.

[2] EvoEvo. EvoMove AnouSkan 2. https://www.youtube.com/watch?v= E85B1jJOiBQ.

[3] Sergio Peignier, Jonas Abernot, Christophe Rigotti, and Guillaume Beslon. Evo- Move : Evolutionary-based living musical companion. In Proceedings of the 14th European Conference on Artificial Life ECAL 2017, pages 340–347, Lyon, France, September 2017. MIT Press.

Ne dites pas Internet des Objets, dites Internet du Tout

Nous ne sommes encore qu’aux balbutiements de l’internet des objets ; composé de composants (capteurs, processeurs) très simples, ces nouvelles architectures numériques auront un impact dans beaucoup d’aspects de nos vies. Si l’on nous parle souvent des bénéfices attendus, les inconvénients, parmi lesquels leur impact environnemental (fabrication, consommation, recyclage) ou leur fiabilité, sont souvent laissés de coté. Nous avons demandé à C. Cuvelliez, J.M. Dricot,  (Ecole Polytechnique de Bruxelles, Université de Bruxelles) et J.J. Quisquater (Ecole Polytechnique de Louvain, Université de Louvain) de nous faire part de leur analyse sur leur sécurité. Pascal Guitton

Un peu plus de la moitié aujourd’hui, près des trois quarts en 2050, la population mondiale vit et vivra de plus en plus dans les villes – dites intelligentes ou smart cities – qui constituent un des principaux débouchés de l’Internet des Objets (Internet of Things en anglais ou IoT). C’est dire si nous en dépendrons, pour notre confort de vie mais aussi pour notre sécurité. Tous ces objets produiront quantité d’informations, parfois sensibles, renvoyées vers Internet, plus précisément vers des « clouds », où elles seront traitées et gérées pour prendre des décisions. Ce ne seront pas toujours les objets dernier cri qui dialogueront avec les clouds mais ils établiront, pour la première fois de l’histoire d’Internet, un lien direct et permanent entre le monde physique et le monde virtuel, sans intervention humaine.  C’est un changement de paradigme pour Internet.

Cette phot montre une foule marchant dans un environnement urbain (feu avec passage pour piétons, immeubles...).

Population urbaine. Photo de Kaique Rocha sur le site Pexels

Internet of Things ou Internet of Everything ?

Au fond, c’est quoi l’IoT ? Chacun, industriel, communauté cyber, consommateur, a son idée, ce qui n’est pas une bonne chose, car si on ne s’entend pas sur le périmètre à protéger, sécuriser l’Internet des Objets ne sera pas une sinécure. Pour IEEE (une des plus importantes associations professionnelles dans le domaine de l’électronique et de l’informatique) qui traduit la vision « ingénieur », l’IoT est un réseau d’objets munis de capteurs qui sont reliés à Internet. Mais quid des voitures autonomes ? Pour l’IETF (Internet Engineering Task Force), qui organise les standards d’Internet, les objets de l’IoT sont aussi variés que les ordinateurs, les téléphones, les réfrigérateurs, les TV, les voitures, les e-book, bref tout ce qui est connectable. La Commission européenne, en 2008, y allait plus fort en expliquant que, dans l’expression « Internet des objets », il fallait comprendre objet comme une entité … pas vraiment identifiable. Certains scientifiques ont mis en avant des définitions plus fines : l’IoT est la convergence entre des objets qui peuvent communiquer électroniquement et des données qu’ils produisent ou reçoivent, avec une tendance à le faire sur Internet. Les sociétés CISCO et Qualcomm préfèrent le terme l’Internet du Tout (Internet of Everything) car il sera artificiel de séparer les humains et les objets qui se partageront Internet. De fait, ces objets sont là pour nous faciliter la vie quotidienne, interagir avec nous comme le font déjà les enceintes intelligentes, nous aider à prendre des décisions. L’Internet du Tout a l’avantage de mettre côte à côte les quatre éléments indissociables d’internet : les personnes, les process, les objets et les données.

Internet des objets. Extrait du site Dynamic Cio

Il n’empêche, avec des définitions aussi floues, rendre sûr l’IoT et protéger la vie privée, n’en sont qu’à leurs prémices. Et pour compliquer les choses, il faut faire rentrer dans ces définitions les prédécesseurs de l’IoT : les communications Machine-to-Machine, aussi vieilles que le GSM. Rappelez-vous : ce sont ces appareils – les distributeurs de boissons en furent les premières applications – qu’on équipe de cartes GSM et qui communiquent de façon rudimentaire entre eux ou avec un ordinateur central sans intervention humaine, pour dire par exemple qu’il faut les recharger en canettes. Par la suite d’autres protocoles de communication ont été développés comme Wi-Fi, RFID, Bluetooth, NFC, Zigbee. Aujourd’hui, quand on évoque l’IoT, on pense Lora et SigFox comme protocoles de réseau mais ils ne conviennent qu’à un type d’applications, celles qui n’ont pas besoin d’échanger de grandes quantités de données et qui n’ont pas de contraintes sur la latence. Ils ne conviennent que pour les capteurs qui émettent peu de données, de manière périodique. On ne peut caser toutes les promesses de l’IoT dans un champ aussi restreint. A côté de ces protocoles génériques, d’autres standards dépendant de l’industrie qui les a développés, ont vu le jour : c’est par exemple le protocole EN 13757-X (CENELEC) qui permet de lire à distance les compteurs de gaz ou d’électricité. L’industrie de la domotique y est allé aussi de son propre protocole avec ISO/IEC 14543-3 en concurrence, en plus, avec une autre norme: EN-50090-X développée par CENELEC.

Ce manque d’harmonisation et de vision commune empêche de vraiment progresser sur la standardisation et la régulation de l’Internet des Objets. On ne sait pas par où commencer.

Sécurité de l’internet des objets. Extrait du site Tyrellcct

Ce qu’on doit protéger

Quand on pense à un Internet sûr et aux données qu’on y échange, on imagine des objectifs de confidentialité (seuls ceux à qui les données sont destinées peuvent en prendre connaissance), leur intégrité (personne n’a rien modifié en cours de route) et leur disponibilité (pouvoir les utiliser quand on en a besoin). Avec l’IoT, il faut aller plus loin : la robustesse (on veut éviter les pannes), la fiabilité, la résilience (on doit pouvoir redémarrer le réseau d’objets après un souci) et la performance. Un IoT pas assez robuste, qui tombe en panne, qui ne peut se remettre en route, qui est lent, ne sert plus à rien comme après une cyberattaque qui l’aurait mis hors service.

Or, ce qui fait le cœur de l’IoT, ce sont des petits appareils, capteurs et autres objets à faible consommation d’énergie parfois munis de microprocesseurs de toute aussi faible puissance. On est loin des processeurs efficaces (et voraces) de nos smartphones ou ordinateurs dans lesquels des objectifs contradictoires comme performance, faible consommation, et sécurité restent gérables. Ce n’est pas le cas pour l’IoT où les contraintes de taille et de puissance ont surtout un impact sur la confidentialité et l’intégrité. Chiffrer des données est une tâche qui consomme beaucoup de puissance de calcul et qui n’est pas à la portée du premier capteur venu, surtout quand des transmissions fréquentes de données sont requises.

Alors que les ordinateurs et les tablettes fonctionnent finalement avec un nombre très restreint de systèmes d’exploitation (Windows, Linux, Android…), les capteurs et autres gadgets de l’IoT ne possèdent pas cette homogénéité. Cette hétérogénéité ne permet même pas d’implémenter un socle minimal de sécurité sur tous les objets. Il restera des failles, à gauche, à droite. L’absence de standard fait que la sécurité doit se contenter de la relative protection du secret. Un hacker finira bien vite par comprendre comment fonctionne le capteur et pourra l’attaquer. Les développeurs, eux, vont implémenter la sécurité comme ils l’entendent, sans doute de manière correcte mais il s’agit quand même de sécurité par obscurité, réputée dangereuse car un hacker y fera toujours la lumière.

Ce qui apparaissait bénin jusqu’ici prend des proportions insoupçonnées lorsqu’il s’agit d’IoT. Dans un réseau de milliers d’objets, comment s’assurer qu’ils en font tous partie et qu’il n’y a pas un intrus placé par un hacker ? Un tel mouchard pourra interagir avec tout votre réseau pour mettre à mal les objectifs de confidentialité, intégrité et disponibilité.

Les mécanismes d’authentification de l’objet n’auront plus rien à avoir avec le login et le mot de passe ou un code qu’on introduit, nous, humains pour prouver qui nous sommes. Ensuite, il faudra valider le service que l’objet veut rendre et identifier l’utilisateur qui veut l’utiliser (ce qui nous rappelle les réseaux zero-confiance).

Mise à jour

On a l’habitude, dès la découverte d’une vulnérabilité, de mettre à jour son PC (cf un de nos prédents articles). Mais quid des vulnérabilités ou mises à jour des programmes qui fonctionnent sur l’IoT ? Si le fabricant existe encore, prend(ra)-t-il la peine de faire la maintenance des programmes qui s’exécutent sur le capteur qu’il vous a vendu ? En effet, compte-tenu du prix de vente, c’est sûrement une activité peu rentable : il suffit de voir après combien de temps, c’est-à-dire très peu, les fabricants de smartphones arrêtent de pousser des mises à jour vers les vieux modèles. Par ailleurs, en cas de mise à jour disponible, il faut organiser la distribution des correctifs à travers tout un réseau, constitué d’objets hétéroclites de différents fabricants, qui fonctionnent sur des infrastructures variées, ce n’est pas simple et surement coûteux. Les récentes attaques massives sur Internet ont d’ailleurs été le fait de caméras ou de babyphones, qui n’étaient pas mis à jour et qui ont été enrôlés dans un botnet.

Le Japon a de ce point de vue pris une initiative dont tous les gouvernements devraient s’inspirer : une loi va permettre au gouvernement d’organiser des campagnes de hacking éthique des objets connectés des citoyens japonais à la recherche de login et mots de passe par défaut, faciles à deviner de façon à freiner ces botnets si faciles à enrôler.

Les objets autonomes

Peut-on dire que les objets autonomes font partie de l’IoT ? Les voitures sans conducteur ont jusqu’à 70 à 100 composants électroniques de commande de cette sorte. Chacun a ses spécificités, ses protocoles et est optimisé pour la performance et la fiabilité (et la sécurité routière) mais pas pour la sécurité IT. On estime la probabilité d’une cyberattaque contre les voitures connectées autonomes faible à l’heure actuelle car … il y a peu de voitures connectées (cela intéresse moins les hackers) mais cela ne saurait durer : leur nombre va croitre exponentiellement et cela les attirera. Imagine-t-on les conséquences d’un ransomware introduit par un ordinateur de maintenance connecté à votre véhicule lors d’une révision ? La voiture, pourtant intacte d’un point de vue mécanique, est bonne pour la casse. C’est ce qu’on fait déjà avec du matériel informatique contaminé (quel gâchis !).

La protection de la vie privée

Avec l’internet des objets, la protection de la vie privée prend une autre tournure. Quel est le statut des données générées dans et par l’IoT ? Il s’agit de données qui n’appartiennent pas seulement à l’utilisateur mais aussi au fabricant, sur lesquelles il a une part de la propriété. Et ces données, même si elles ne sont pas tout-à-fait privées au sens classique du terme, permettent de vous profiler. Vos habitudes alimentaires sont connues avec un capteur qui vous dit quelle denrée manque dans votre frigo et qui la commande au supermarché associé au fabricant de réfrigérateur. Avec l’internet des objets se pose la question nouvelle de l’équilibre entre un service personnalisé et la protection de la vie privée. C’est l’essence même du consentement : le consommateur doit chaque fois accepter que ses données soient traitées mais comment bien l’informer par rapport aux données IoT parfois fort techniques ? On n’imagine pas l’utilisateur final passer d’objet en objet donner son consentement pour le partage de données d’utilisation de ce dernier (Il faudrait sans doute imaginer des formes de consentement standard où les objets iront chercher les directives à appliquer pour un utilisateur donné).

Photo by Pixabay from Pexels

Par quel bout le prendre

Avant de devenir un défi technologique, les questions existentielles sur la sécurité de l’IoT sont encore nombreuses. Il est plus que temps de s’entendre sur une définition de ce qu’on veut protéger, s’attaquer au manque de standardisation ou à sa dispersion, une manière d’avoir un cadre pour proposer une régulation efficace.

Qui dit absence de régulation (ou d’incitant financier) dit démotivation à mettre plus de sécurité dans l’Internet des Objets

Ch. Cuvelliez, JM Dricot,  (Ecole Polytechnique de Bruxelles, Université de Bruxelles) et JJ Quisquater (Ecole Polytechnique de Louvain, Université de Louvain)

Mathématiques des réseaux

Un nouvel « Entretien autour de l’informatique ». Serge Abiteboul et Claire Mathieu interviewent François Baccelli. François est Directeur de recherche Inria à Paris, et responsable du centre Simons pour les mathématiques des réseaux à l’Université du Texas à Austin. Ses travaux sont à l’interface de nombreux domaines scientifiques, notamment les probabilités et l’informatique. Ceux sur la modélisation et le contrôle des réseaux de communication ont des impacts considérables tant théoriques que pratiques, par exemple sur les réseaux de téléphonie mobile. Cet article est publié en collaboration avec The Conversation.
François Baccelli, site de l’Académie des Sciences

B : sur quel problème de recherche travailles-tu en ce moment ?

FB : je travaille actuellement sur des graphes infinis appelés « graphes aléatoires unimodulaires ». Par exemple, on prend un nuage infini de points dans le plan (sous certaines conditions géométriques) et on relie deux points par une arête s’ils sont suffisamment proches l’un de l’autre. Cela définit un graphe aléatoire infini unimodulaire où on sait définir un nœud typique, une arête typique, un triangle typique etc.

Pour étudier les graphes de très grande taille comme par exemple les réseaux sociaux numériques ou réseaux radios, il est souvent utile de voir ces réseaux comme des graphes infinis de ce type. Cela permet d’établir des propriétés importantes et utiles en pratique.

On étudie en particulier divers types de dynamiques sur ces objets infinis. Comme exemple de dynamique, on peut citer ce qui se passe quand on transfère des données d’un point à un autre sur Internet. Un outil de calcul fondamental pour analyser la dynamique de ces objets infinis est l’ « équation de transport de masse » donnée par l’unimodularité. Le transfert de données est un sujet essentiel, mais il y en a bien d’autres. On peut chercher à comprendre les interactions entre les paquets qui passent par le même routeur, la gestion de files d’attente, le routage des paquets. Tout ceci détermine la qualité de service dans un réseau télécom. L’étude de tels phénomènes demande de développer des outils mathématiques nouveaux intégrant géométrie, dynamique et probabilités, et c’est sur cela que portent mes recherches actuelles.

Connexion au plus proche sur un processus de Poisson (par F. Baccelli)

Prenons le cas du Wifi. Lorsque vous utilisez ce protocole de transmission, votre téléphone va transmettre quand il détecte qu’autour de lui il n’y a personne en train de transmettre. Le protocole à la base du Wifi génère donc une géométrie et une dynamique complètement différentes de celles des réseaux cellulaires 3G, 4G ou 5G .

La technique classique pour estimer le débit dans un tel réseau consistait à réaliser des simulations. La théorie permet maintenant de mettre cela en équations. On sait en effet faire des calculs exacts pour certaines de ces dynamiques.

Par exemple, dans un grand réseau 5G, on peut aujourd’hui déterminer ou prédire la distribution de la vitesse de téléchargement d’un fichier. On représente les antennes comme un nuage de points dans le plan (« un processus de Poisson »). On utilise la théorie de l’information pour représenter le débit que peut obtenir un utilisateur typique. Pour ce faire, on calcule la distribution du signal de la station de base la plus proche de l’utilisateur typique et celle de l’interférence créée par les autres stations, et on obtient une formule pour la distribution du débit et donc la vitesse de téléchargement typique.

Cela permet aux industriels de prévoir, par exemple, le nombre d’antennes à placer par kilomètre carré pour garantir un certain débit. Les résultats peuvent être paradoxaux : on peut par exemple montrer que, dans certains contextes, densifier un réseau cause une augmentation des interférences qui fait s’écrouler le réseau au lieu de l’améliorer.

Les systèmes sont devenus si complexes que de tels outils mathématiques sont désormais indispensables. Ils sont utilisés notamment dans le cadre des procédures de standardisation des communications.  Les perspectives sont importantes, car cela permet de faire des prédictions beaucoup plus précises pour concevoir les réseaux du futur.

Couverture au sens de Shannon sur un processus de Poisson (de François Baccelli)

B : tu crois que tu peux nous donner une petite idée de théorie mise en jeu ?

FB : J’ai déjà mentionné la théorie de l’information. Cette théorie est aux technologies du numérique ce que la thermodynamique est à la première révolution industrielle. En effet c’est cette théorie qui donne les limitations fondamentales pour la transmission de l’information, sa compression et son stockage. Je travaille aussi activement sur les connexions entre la théorie de l’information et la géométrie en grandes dimensions. Je vais donner un exemple en compression. Prenons un espace à deux dimensions. On choisit au hasard une infinité de droites. Pour un point donné et pour chaque droite, on peut regarder si le point est à gauche ou à droite de la droite : 0 ou 1, c’est un bit d’information. Ces droites définissent donc un encodage des points de plan que je considère ici comme les données. Plus on a de droites, plus on a de précision sur la position du point. Cela ne permet pas de distinguer un point d’un autre très proche, mais pour de bonnes plages de paramètres, cela définit une « petite » zone où il se situe. On obtient ce qu’on appelle un code de compression sur un bit qui est particulièrement important en grandes dimensions.

Claude Shannon, Wikipedia

Dans la théorie de l’information de Shannon (*), on considère un canal où on transmet de l’information (une communication radio par exemple) et où du bruit déforme le message. Pour pouvoir restituer les informations à la réception, on encode l’information à transmettre avec des mots de code longs. Pour décoder le message bruité reçu, l’algorithme du maximum vraisemblance donne une solution simple. Avec le regard de la géométrie en grandes dimensions, dans le cas de bruit gaussien, cette solution revient à proposer comme message émis le mot de code le plus proche du message reçu.

Ce point de vue permet de revisiter des notions de base de la théorie de l’information à partir de la géométrie aléatoire en grandes dimensions, et de comprendre les limites fondamentales pour de nouveaux types de canaux et de nouveaux types de compressions.

B : quelle est la culture scientifique qui te sert dans ta recherche ?

FB : tout ce qui a trait aux mathématiques des grands réseaux : les probabilités, la théorie de l’information, la géométrie, les systèmes dynamiques . Si on cherche à avoir un véritable impact sur le monde industriel (réseaux radio, réseaux sociaux numériques), il faut aussi un ancrage dans l’ingénierie des réseaux pour comprendre dans le détail pourquoi et comment ces réseaux sont actuellement développés et utilisés. Pour les réseaux radio par exemple, il faut connaître la couche physique, les protocoles de contrôle, le trafic ; pour les réseaux sociaux, la dynamique des connexions, l’algorithmique sous-jacente, notamment algorithmes de détection de communautés.

B : qu’est-ce qui te fait te lever le matin pour aller à ton travail ?

FB : la vraie récompense, le vrai plaisir, c’est de comprendre. Par exemple, comprendre ce qui se passe en grande dimension, voir des objets nouveaux ou des structures nouvelles. Bien sûr, constater que des résultats qu’on a obtenus sont utilisés à grande échelle par d’autres, parfois longtemps après, c’est gratifiant aussi.

B : que dirais-tu à un jeune doctorant ou une jeune doctorante qui voudrait te prendre comme modèle ? Lui conseillerais-tu le métier de chercheur ?

FB : comme disait Héraclite, on n’entre jamais deux fois dans le même fleuve. Le monde a changé… Il reste néanmoins toujours essentiel et exaltant d’essayer de comprendre et mieux maîtriser le monde numérique. Pour ce qui concerne le métier de chercheur, les conditions ont changé aussi. C’est beaucoup plus difficile aujourd’hui de faire de la recherche avec impact sur le long terme il me semble. La pression productiviste est devenue excessive dans beaucoup d’institutions, surtout en début de carrière. Il faut sélectionner les institutions où on fait de la vraie recherche. Il n’en manque pas dans le vaste monde.

B : un dernier mot ?

FB : ma recherche au sens large est à la croisée de deux domaines : les mathématiques et EECS (Electrical Engineering and Computer Science) qu’on pourrait traduire par « Informatique et Communication ». L’informatique et les communications sont à la base des technologies et de l’économie du futur : aujourd’hui nos données, nos téléphones, demain notre Internet des objets, notre sécurité. Est-ce que nous avons vraiment pris conscience de l’importance de ces questions ? Il faut que que la France et l’Europe restent dans la course. Pour ce faire, il est essentiel de participer à la conception de ces systèmes : des composants aux systèmes d’exploitation, des algorithmes de traitement de données de masse aux nouvelles architectures de réseaux etc. Nous avons en France de grands atouts : de très bons étudiants notamment grâce à notre système de classes préparatoires, des chercheurs et des industriels actifs dans ces domaines. Il est essentiel de développer dans ces disciplines des structures académiques qui soient au niveau de ce qu’on trouve dans les grandes universités d’Amérique du Nord ou de ce qui se crée actuellement en Asie. Il faut investir de manière plus volontaire et ambitieuse dans l’éducation supérieure de niveau international, avec une vraie vision planétaire.

Serge Abiteboul, Inria et ENS Paris, Claire Mathieu, CNRS

(*) La théorie de l’information de Shannon est une théorie probabiliste permettant de quantifier le contenu moyen en information d’un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.

Au cœur des réseaux

Au cœur des réseaux, Fabian Tarissan, Éditions Le Pommier, 2019

Les réseaux routiers ou fluviaux. Les réseaux commerciaux. Le réseau des anciens d’une école. L’idée de réseau est présente depuis longtemps dans les organisations humaines. Le numérique l’a portée à des dimensions nouvelles avec Internet (un réseau de machines), le Web (un réseau de contenus), Facebook ou Twitter (des réseaux sociaux). La notion de réseau tient une place essentielle car elle permet une organisation agile entre des masses d’éléments – les nœuds du réseau – et les arcs qui les relient. L’absence de hiérarchie est la puissance, la force de cette structure que figure parfaitement la notion de toile (web en anglais).

Le réseau relie à la masse des autres. Il enferme aussi dans les carcans des bulles locales (la fameuse Filter Bubble théorisée par Eli Pariser). Que toutes les connaissances du monde soient à la portée de quelques clics, c’est grâce aux réseaux. Que les messages de haine ou les fausses nouvelles se propagent comme des virus, c’est leur faute.

Fabien Tarissan, chercheur en informatique et vice-président de la Société informatique de France, est un spécialiste du domaine. Dans son livre, il propose une introduction dans le monde des réseaux notamment sur les approches scientifiques de la théorie des graphes. Il couvre un spectre très large : les réseaux « petit monde » et réseaux « sans échelle », les aspects algorithmiques des moteurs de recherche du web et des réseaux sociaux, l’économie de l’attention, etc.

On aimerait mieux comprendre le monde numérique. Peut-on trouver des points communs entre Internet, le Web, les réseaux sociaux ? Quels grands principes régissent ces réseaux et d’autres ? Avec le livre de Fabien Tarissan, on peut commencer pour cela à comprendre quelques grands principes, quelques lois qui régissent ces grands réseaux.

Serge Abiteboul

Photographie numérique, du réel aux pixels ?

Les technologies de la photographie argentique ont eu une évolution très lente, liée aux progrès en optique, mécanique et chimie. Ce n’est plus du tout le cas de l’évolution actuelle, davantage due aux algorithmes qu’à la physique : algorithmes de développement et d’amélioration de l’image brute, algorithmes d’aide à la prise de vue. Cet exemple est caractéristique des façons de procéder de la révolution informatique par rapport aux approches traditionnelles.
La photographie numérique présente un coût marginal très faible et une diffusion par internet facile et immédiate : chaque jour, des milliards de photos sont prises et partagées.

TRANSCRIPTION DE LA VIDÉO

Production 4minutes34 et s24b pour le MOOC SNT de Class´Code, travail éditorial de SNJazur.

Cette vidéo introduit une des thématiques de l’enseignement en Sciences Numériques et Technologie de seconde au lycée, rendez-vous sur le MOOC SNT pour se former sur ce sujet, en savoir plus sur les notions abordées, les repères historiques, l’ancrage dans le réel, et les activités qui peuvent être proposées.

Trottinettes électriques et intelligence artificielle

La tête dans le guidon ©Saint-Oma

Hasard du calendrier, l’annonce d’un neuvième service de trottinettes électriques en libre-service à Paris (le 21 mars 2019) est arrivée le lendemain de celle par la mairie d’une taxe sur les trottinettes, vélos électriques, et autres deux roues en libre-service qui encombrent la belle Cité comme d’autres d’ailleurs.

Juste un service de plus ? Non ! La start-up Citron-Vert révolutionne véritablement la profession. Sa trottinette embarque un agent conversationnel qui nous a véritablement impressionné.

La Citron-Vert parle pour indiquer le meilleur chemin, faire éviter un embouteillage, faire passer sur le trottoir parce que la route est pavée… Elle sait crier si vous êtes un peu dur d’oreille. Elle peut également choisir le chemin qui vous expose le moins possible à la pollution, y compris sonore. Vous renseignez sur votre compte quelques informations si vous le souhaitez : âge, genre, intérêts spécifiques comme l’histoire, les arts ou la gastronomie… Vous pouvez préciser si vous êtes pressé, prudent, en vacances… Elle s’adapte.

J’ai pu essayer la Citron-Vert. Je lui ai indiqué mon intérêt pour la culture. Elle m’a fait faire un grand détour pour découvrir un mural ; j’ai adoré. Elle m’a ensuite saoulé un bon quart d’heure avec Ilya Khrzhanovsky et son installation. Là, je lui ai demandé de se calmer.

Citron-Vert encourage ses utilisateurs à rechercher la sécurité. Elle utilise la reconnaissance d’image pour ne démarrer qu’après avoir vérifié que vous portez bien votre casque et votre gilet jaune fluorescent. J’avais choisi le mode prudent ; elle m’a trainé à 5 à l’heure sur de larges trottoirs, et même demandé parfois de mettre pied à terre pour traverser une rue. Alors je lui ai dit de passer en mode pressé. Elle n’a pas hésité à me faire emprunter à toute vitesse une voie express – où légalement il n’est pas clair qu’on ait le droit d’être en trottinette. Amateurs de sensations fortes, vous allez être servis. Les services d’urgence sans doute aussi.

Fanny Ardant, Wikipedia, Photo Georges Biard

J’avais choisi de la faire parler avec la voix de Fanny Ardant. Après une demi heure de balade dans Paris, j’avais comme le sentiment d’avoir Fanny comme nouvelle amie.

Barry White, WikipediaFotograaf Onbekend / Anefo

Bon, il reste bien quelques points de détail à régler avec l’algorithme. Ma trottinette a par exemple soudain cessé d’obéir à mes commandes. Je dois reconnaitre que j’ai un peu paniqué. Mais ce n’était finalement rien de grave : elle avait juste été attirée par une autre Citron-Vert qui passait à proximité, avec la voix de Barry White. On est bien peu de chose !

Serge Abiteboul avec la participation de Marie-Agnès Enard