5G : du côté des usages


Serge Abiteboul et Gérard Berry nous parlent de la 5G qui se déploie très rapidement en France. Dans un premier article, ils considéraient les aspects techniques. Dans un deuxième, ils traitaient des craintes autour de la 5G. Dans ce dernier, ils adressent la question des applications de cette technologie.
Cet article est en collaboration avec Theconversation France. Toute la série.

 

Comme c’est souvent le cas avec l’arrivée d’une nouvelle technologie, comme ça a été souvent  le cas pour les générations de téléphonie cellulaire précédente, il est difficile de savoir quels seront les usages dominants, les “killer apps”. Pour le grand public et à court terme, la 5G servira surtout à éviter la saturation des réseaux 4G. Ce qui changera surtout ce sera l’arrivée d’applications autour de la vidéo et des jeux en réseaux s’appuyant sur des débits plus importants et une faible latence. La différence ne sera pas si évidente. C’est principalement le débit qui s’exprime dans ce contexte avec la 5G en 3.5 GHz.

Mais la 5G c’est aussi une plus faible latence (en particulier, avec la 26 GHz) et des garanties de service. Nous pensons que les usages les plus disruptifs seront plus que pour les générations précédentes à chercher du côté professionnel, notamment du côté des usines.

L’usine connectée, Source Arcep

L’usine connectée. Un plateau de fabrication consiste aujourd’hui en des machines connectées par des kilomètres de câble. La moindre transformation d’une chaîne de production demande de repenser la connectique, une complexité qui disparaît avec la 5G. La maintenance, notamment prédictive, et la logistique, sont également simplifiées parce que le suivi des machines et de la production se font beaucoup plus simplement avec des garanties de latence satisfaisante. La 5G est au cœur de l’industrie 4.0.

Bien sûr, elle a des concurrents comme le Wifi. Mais la plus grande latence, la moins bonne fiabilité (l’absence de garantie de service) du Wifi même de dernière génération fait souvent pencher la balance en faveur de la 5G dans un cadre industriel. Une différence, même réduite en apparence, peut conduire à l’accident industriel.

En France, l’usage de la 5G pour les usines a été expérimenté sur le site de Schneider Electric du Vaudreuil, dans l’Eure.

Logistique. La 5G est aussi un élément essentiel d’une logistique plus automatisée dans l’industrie ou dans les territoires. Le premier enjeu est celui de l’optimisation et du suivi du transport des matières premières comme des produits fabriqués utilisant toutes les possibilités des objets connectés et de l’informatique. La 5G devrait permettre de mieux gérer les flux, les performances (délais de livraisons) tout comme l’impact environnemental (émissions de gaz à effet de serre).

Le port du Havre a été le premier port français complètement connecté en 5G. La 5G permet une gestion fine des bateaux qui entrent ou sortent du port, en communication permanente. Il devrait aussi permettre un suivi en temps réel des cargaisons. La 5G ouvre toute une gamme d’applications comme le pilotage en temps réel d’un robot connecté qui nettoie les déchets marins en surface.

Les territoires connectés. L’enjeu principal de la ville ou du territoire connecté est l’acquisition de données en temps réel via des réseaux de capteurs (comme de détecter l’arrivée d’une personne de nuit dans une rue mal éclairée), et la commande d’actionneurs (allumer les lampadaires de cette rue). Donc le territoire intelligent est informé et piloté avec la 5G. On imagine bien le déploiement massif d’objets connectés. Mais pour quoi faire ? Gérer les réseaux de distribution (eau, électricité, etc.), surveiller la pollution, détecter rapidement divers types d’alertes, améliorer le transport, etc. Le territoire intelligent peut aussi s’appuyer sur la 5G pour une télésurveillance de masse, mais ça, ça ne fait pas rêver.

Avec la 5G, une question qui se pose très vite est celle de la rapidité d’adoption de la nouvelle technologie. Pour ce qui est de son déploiement dans des territoires intelligents, les deux auteurs ne partagent pas le même point de vue. Pour l’un, cela va arriver très vite, quand l’autre en doute. Les deux tombent d’accord pour dire qu’on ne sait pas trop et que cela dépendra en particulier de la maîtrise des aspects sécurité.

Une agronome utilisant un ordinateur dans un champ de maïs.
Crédit : ©adobestock via Arcep

L’agriculture connectée. Les performances de la 5G en termes de densité d’objets connectés pourraient s’avérer très utiles dans l’agriculture.  Le succès n’est pas garanti. Dans de nombreux cas comme celui des capteurs de l’hydrologie de champs, les constantes de temps sont souvent importantes, deux ou trois fois par jour. Les acteurs semblent parfois préférer des solutions 0G comme Sigfox ou Lora. C’est moins vrai pour l’élevage et la situation pourrait changer avec le contrôle de robots qui débarqueraient massivement dans les campagnes. La sécurité est également dans ce domaine une question critique qui pourrait ralentir le déploiement de la 5G en agriculture.

Médecine connectée. C’est souvent proposé comme un domaine d’application phare de la 5G. On n’est bien au-delà de la téléconsultation pour laquelle la 4G suffit souvent. L’hôpital, un lieu complexe et bourré de machines hyper-sophistiquées, est évidemment en première ligne. On a aussi assisté à des opérations chirurgicales à distance, par exemple, en 2019, sur une tumeur intestinale au Mobile World Congress à Barcelone. Le débit plus important et la faible latence rendent possibles de telles réalisations. Pourtant, dans le cadre de la chirurgie, une connexion filaire semble plus appropriée quand elle est présente.  Le diagnostic appuyé sur de la réalité virtuelle et augmentée pourrait être une belle application de la 5G, tout comme le suivi de patients utilisant des objets connectés comme les pompes à insuline ou les pacemakers. On voit bien que la fiabilité des communications et leur sécurité sont essentielles dans ce contexte.

On trouve deux projets de 5G pour les CHU de Rennes et Toulouse dans le Plan France Relance.

Les transports. Le fait d’avoir une faible latence permet à la 5G d’être prometteuse pour le contrôle en temps réel de véhicules. Un domaine en forte progression, le transport collectif, devrait en bénéficier. Bien sûr, la 5G a sa place dans les gares qui concentrent une population dense. La 5G en 26GHz est par exemple expérimentée dans la gare de Rennes. Le transport collectif utilise déjà massivement des communications entre ses trains et les infrastructures. La 5G devrait apporter une plus grande qualité avec notamment des garanties de délais.

Pour l’automobile individuelle autonome, la situation est moins claire et les déploiements pourraient prendre plus de temps. (Les voitures autonomes testées aujourd’hui se passent en général de 5G.) La 5G pourrait s’installer dans les communications entre les véhicules et le reste du monde, le V2X (avec les autres véhicules et l’environnement). Dans ce cadre, elle est en concurrence avec un autre standard basé sur le Wifi. Les communications peuvent servir entre véhicules, par exemple, dans des “trains de camions” roulant à très faible distance l’un de l’autre sur l’autoroute. On imagine bien que toutes ces informations puissent réduire les risques d’accident, par exemple, en prévenant à l’avance le système d’une voiture de travaux sur la route ou de la présence de piétons ou de cyclistes.

Wikimedia Commons

Le V2X risque de prendre du temps pour s’installer pour plusieurs raisons. C’est d’abord la sécurité. Les spécialistes s’accordent à dire que les standards en développement ne sont pas sûrs, ce qui questionne évidemment. Et puis, des cadres de responsabilité légale en cas d’accident doivent être définis. Enfin, cette technologie demande des investissements lourds pour équiper les routes, et en particulier, les points névralgiques. On devrait donc la voir arriver à des vitesses différentes suivant les pays, et d’abord sur les axes routiers les plus importants. On peut aussi s’attendre à la voir débarquer dans des contextes locaux comme sur des tarmacs d’aéroports (véhicules pour les bagages ou le ravitaillement des avions) ou dans des ports (chargement et déchargement des cargaisons).

Le futur réseau radio des secours passera par la 5G. Crédit : Service départemental d’incendie et de secours, Dordogne

Et les autres. Cette liste ne se veut pas exhaustive. On aurait pu parler de smart grids, de service de secours, d’éducation, etc. Il faudra attendre pour voir où la 5G se déploie vraiment. Après ce tour d’horizon, on peut sans trop de doute se convaincre que la 5G révolutionnera de nombreux domaines, mais que cela ne se fera pas en un jour et que cela passera par la maîtrise des problèmes de fiabilité et de sécurité.

Serge Abiteboul, Inria et ENS Paris, Gérard Berry, Collège de France

 

Pour aller plus loin

La 5G et les réseaux de communications mobiles, rapport de l’Académie des sciences – 12 juillet 2021 –  Groupe de travail de l’Académie des sciences sur les réseaux du futur

Parlons 5G : toutes vos questions sur la 5G, Arcep

5G

Toute l’informatique, librement

Nous devons toutes et tous nous former à l’informatique pour maîtriser le numérique, et chaque lycéenne et lycéen bénéficie désormais de cette initiation en classe de seconde, mais… existe-il un document qui propose une synthèse à cette formation citoyenne dont chaque personne a besoin ? À l’initiative de Vincent Doutaut et depuis quelques semaines : oui, et de plus cet ouvrage est davantage que gratuit, il est publié sous licence ouverte, donnons lui la parole. Thierry Viéville et Pascal Guitton.

binaire : Vincent, qui es tu ?

Ingénieur en acoustique, ma formation initiale n’est donc pas en informatique mais j’ai suivi les évolutions de cette discipline pour essayer de comprendre à quelle sauce nous mange ce monde informatisé. Comme les nombreuses [plus de 20 000] personnes qui se sont inscrites aux formations en ligne proposées par l’Inria telles que https://classcode.fr/snt et bénéficiant d’un peu de temps devant moi, j’en ai profité pour suivre plusieurs MOOCs à titre personnel.

b : Qu’en as-tu retenu et réalisé ?

Devant la richesse des contenus partagés à plusieurs endroits, mais aussi des liens divers et des références associées qui permettent de se former en déroulant un fil d’Ariane sans limite, il en est sorti l’idée de créer une sorte de « document unique » qui réalise une synthèse de ces éléments de référence et mette à disposition de tout un chacun le résultat.

[Accéder à la version PDF du livre]

L’ouvrage est aussi disponible en archive ouverte HAL https://hal.inria.fr/hal-03346079 .

b : Et que trouvons-nous dans cet ouvrage ?

Une initiation aux fondements du numérique au sens le plus large, une introduction donc, qui permet de comprendre comment ça marche pour que prennent sens tous ces termes techniques qui nous entourent. C’est comme un manuel de cuisine qui reste à disposition sur notre étagère pour y revenir dès que de besoin. Les contenus existaient déjà et je n’ai pas fait grand-chose de ce point de vue, juste partager une nouvelle mise en forme qui offre une nouvelle chance de se l’approprier.

b : Vraiment ? Ce serait juste un copié-collé 🙂 ?

Ce n’est pas strictement le cas 😉 Je me suis permis une remise en forme au niveau rédactionnel, car une formation en ligne a une vocation différente de celle d’un support écrit ; ici c’est le texte qui introduit les vidéos et non l’inverse. Il y a donc un travail de structuration et de synthèse. Des apports supplémentaires concernent modestement la partie sur les logiciels libres et celle sur le son et la musique. Et en l’état, il manque encore, par exemple, un chapitre sur les implications et applications de l’informatique.

b : Tu veux dire que c’est un ouvrage… Vivant ?

Oui, car la démarche s’inscrit dans celle de l’open source (donc libre redistribution, transparence des contenus, possibilité de réutilisation et de créer des ressources dérivées), voire dans celle du libre qui libère les contenus de verrous liés à la propriété industrielle. Intéressé par ces sujets depuis vingt-cinq ans, il s’avère que cette démarche va au-delà de l’informatique, par exemple la création d’objets dans les FabLab ou d’œuvres artistiques (voir plus de détails ici « tous-au-libre´´ ou là « podcast-logiciel-libre´´) comme des compositions musicales. Et on peut constater que dans la sphère économique, notamment  informatique, beaucoup de réticences initiales se sont levées sur ces sujets depuis quelques années déjà.

b : On est au-delà d’un simple « livre » du coup ?

Bien entendu, par exemple le format numérique permet au fil de la lecture de garder tous les hyperliens des ressources et d’aller vers les contenus multimédias, de faire les quiz, etc. Tout cela est possible grâce au choix du langage LaTeX qui permet de composer des documents, y compris interactifs et facilite les contributions additionnelles ainsi que le fait que des enseignants ou des formateurs puissent reprendre certains passages pour leurs supports de formation. Toutes les sources sont disponibles sur une plateforme Web coopérative « GitHub » qui permet de contribuer via des manipulations sur les fichiers source en créant des branches dérivées avec des variantes, par exemple pour les fusionner :

[https://github.com/ejazzfr/Inria-mooc-handbook]

b : Quel sera le futur du projet alors ?

On pense à des contenus supplémentaires, comme compléter la partie sur le langage Python ou l’ajout d’annexes sur l’histoire des calculateurs et de l’informatique, l’électronique numérique ou le traitement numérique du signal, avec la volonté d’inviter les interlocuteurs à exprimer leurs besoins ou à apporter des contributions. Et à donner l’exemple pour encourager l’émergence d’initiatives comparables.

Merci Vincent, c’est un apport personnel extrêmement précieux pour les formateurs et enseignants et au delà toute notre société.

Vincent Doutaut , ingénieur-docteur en acoustique.

5G : le temps des questionnements

Serge Abiteboul et Gérard Berry nous parlent de la 5G qui se déploie très rapidement en France. Dans un premier article, ils ont considéré les aspects techniques. Dans un deuxième, ils traitent des craintes autour de la 5G. Un dernier adressera la question des applications de cette technologie.
Cet article est en collaboration avec Theconversation France. Toute la série.

Quand on met dans un seul sac les opposants de la 5G, on mélange tout et n’importe quoi : risques sanitaires, destruction de la planète, atteintes à la sûreté des réseaux et au-delà à la souveraineté de l’État, surveillance de masse. Ces amalgames incluant des accusations facilement et factuellement déconstruites mêlées à de vrais problèmes suffisent-elles à disqualifier la critique ? Non, pas plus que les anti-vacs, anti-ondes, anti-sciences, anti-techno, etc. qui se sont agrégés au mouvement anti-5G au gré des municipales en France allant jusqu’à des incendies ou dégradations de stations radios. Répondre aux questionnements par la simple affirmation du déterminisme technologique n’est pas non plus suffisant. Les questionnements, les préoccupations sont légitimes pour une technologie qui va changer nos vies, selon ce qui est annoncé. Nous discutons de ces questionnements ici en ignorant les aspects irrationnels, voire conspirationnistes.

Manifestation anti-5G à Lyon, Wikipédia

Environnement

Le numérique, de manière générale, questionne les défenseurs de l’environnement. Par plein de côtés, il a des effets positifs sur l’environnement. Par exemple, il permet des études fines du climat, la gestion intelligente de l’énergie dans des smart grids, celle des moteurs de tous types, de l’automobile à l’aviation, des économies de transports avec le travail à distance. Par contre, il participe à la course en avant vers toujours plus de productivité et de consommation. Cet aspect très général du débat sera ignoré ici, où nous nous focaliserons sur la  5G.

Du côté positif, la 5G a été conçue dès le départ pour être énergétiquement sobre. Sachant que les chiffres ne sont pas stabilisés, elle devrait diviser fortement la consommation d’électricité pour le  transport d’un Gigaoctet de données ; on parle de division par 10 et à terme par 20 par rapport à la 4G. Même si ces prévisions sont peut-être trop optimistes, il faut noter qu’elles vont dans le sens de l’histoire, qui a effectivement vu de pareilles améliorations de la 2G à la 3G à la 4G. Et on pourrait citer aussi les économies du passage du fil de cuivre à la fibre, ou des “vieux” data centers aux plus modernes. Le numérique sait aussi aller vers plus de sobriété, ce qui lui a permis d’absorber une grande partie de l’explosion des données transférées sur le réseau depuis vingt ans.

Une partie de cette explosion, oui, mais une partie seulement, car il faut tenir compte de l’effet rebond. D’une manière très générale, l’effet rebond, encore appelé paradoxe de Jevons, observe que des économies (monétaire ou autres) prévues du fait d’une amélioration de la technologie peuvent être perdues  à la suite d’une adaptation du comportement de la société. Avec les améliorations des techniques qui ont permis le transport de plus en plus de données, on a vu cette quantité de données transportées augmenter violemment, en gros, doubler tous les dix-huit mois. Si les récents confinements dus à la pendémie n’ont pas mis à genoux la 4G, c’est grâce à l’année d’avance que sont obligés de prendre les opérateurs pour absorber cette croissance, entièrement due aux utilisateurs d’ailleurs.

L’introduction de la 5G va permettre que cet accroissement se poursuive, ce qui résulterait selon certains en une augmentation de l’impact négatif des réseaux sur l’environnement.

Bien sûr, on doit s’interroger pour savoir si cela aurait été mieux en refusant la 5G. Sans 5G, les réseaux télécoms de centre-ville auraient vite été saturés ce qui aurait conduit à densifier le réseaux de stations 4G. On aurait sans doute assisté à un même impact négatif pour un réseau qui aurait alors  fini massivement par dysfonctionner, car la 4G supporte mal la saturation pour des raisons intrinsèques à sa technologie. Ne pas déployer la 5G – ce que demandaient certains – n’aurait réglé aucun problème, le vrai sujet est celui de la sobriété.

Dans le cadre du déploiement en cours, une vraie question est celle des coûts environnementaux de fabrication des éléments de réseaux comme les stations radio, et surtout des téléphones. Il faut savoir que la fabrication d’un téléphone portable émet beaucoup plus de gaz à effet de serre (GES) que son utilisation. Si tous les français se précipitent et changent leur téléphone pour avoir accès à la 5G, on arrive à un coût énorme en émission de GES. Il faudrait les convaincre que ça ne sert à rien et qu’on peut se contenter du renouvellement “normal” des téléphones. Il est important d’insister ici sur “normal” : les français changent de téléphone tous les 18 mois, ce qui n’est pas normal du tout. Même si ça a été effectivement nécessaire quand les téléphones étaient loin de leur puissance de calcul actuelle, ça ne l’est plus maintenant. Et produire tous ces téléphones engendre une gabegie de ressources, d’énergie et d’émission de GES . Au-delà du sujet de la 5G, que faisons-nous pour ralentir ces remplacements ? Que faisons-nous pour qu’ils ne s’accélèrent pas à l’appel des sirènes de l’industrie des smartphones ?

Il faudrait aussi questionner les usages. Le visionnage d’une vidéo sur un smartphone consomme plusieurs fois l’électricité nécessaire au visionnage de la même vidéo après téléchargement par la fibre. Mais la situation est tout sauf simple. Comment comparer le visionnage d’un cours en 4G par un élève ne disposant pas d’autre connexion internet au visionnage d’une vidéo (qu’on aurait pu télécharger à l’avance) dans le métro parisien ? Il ne s’agit pas ici de décider pour le citoyen ce qu’il peut visionner suivant le contexte, mais juste de le sensibiliser à la question du coût environnemental de ses choix numériques et de lui donner les moyens, s’il le souhaite, d’avoir des comportements plus sobres.

Rapport de The Shift Project, mars 2021

Sécurité et surveillance massive

Dans ces dimensions, les effets sont contrastés.

Pour la cybersécurité, la 5G procure des moyens d’être plus exigeants, par exemple, en chiffrant les échanges de bout en bout. Par contre, en augmentant la surface des points névralgiques, on accroît les risques en matière de sécurité. En particulier, la virtualisation des réseaux qu’elle introduit ouvre la porte à des attaques logicielles. L’internet des objets, potentiellement boosté par la 5G, questionne également quand on voit la faiblesse de la sécurité des objets connectés, des plus simples comme les capteurs à basse énergie  jusqu’aux plus critiques comme les pacemakers. Le risque lié  à la cybersécurité venant de l’internet des objets est accru par la fragmentation de ce marché qui rend difficile de converger sur un cadre et des exigences communes .

Pour ce qui est de la surveillance, les effets sont également contrastés. Les pouvoirs publics s’inquiètent de ne pouvoir que plus difficilement intercepter les communications des escrocs, des terroristes, etc. Des citoyens s’inquiètent de la mise en place de surveillance vidéo massive. La 4G permet déjà une telle surveillance, mais la 5G, en augmentant les débits disponibles la facilite. On peut réaliser les rêves des dictateurs en couvrant le pays de caméra dont les flux sont analysés par des logiciels d’intelligence artificielle. Le cauchemar. Mais la 5G ne peut être tenue seule pour responsable ; si cela arrive, cela tiendra aussi du manque de vigilance des citoyens et de leurs élus.

Communication de l’OMS démentant un lien entre 5G et Covid-19

Santé

Est-ce que la 5G et/ou l’accumulation d’ondes électromagnétiques nuit à la santé ?

C’est un vieux sujet. Comme ces ondes sont très utilisées (télécoms, wifi, four à micro-ondes, radars, etc.) et qu’elles sont invisibles, elles inquiètent depuis longtemps. Leurs effets sur la santé ont été intensément étudiés sans véritablement permettre de conclure à une quelconque nocivité dans un usage raisonné. Une grande majorité des spécialistes pensent qu’il n’y a pas de risque sanitaire à condition de bien suivre les seuils de recommandation de l’OMS, qui ajoute déjà des marges importantes au-delà des seuils où on pense qu’il existe un risque. On notera que certains pays comme la France vont encore au-delà des recommandations de l’OMS.

Pourtant, d’autres spécialistes pensent que des risques sanitaires existent. Et on s’accorde généralement pour poursuivre les études pour toujours mieux comprendre les effets biologiques des ondes, en fonction des fréquences utilisées, de la puissance et de la durée d’exposition. Avec le temps, on soulève de nouvelles questions comme l’accumulation des effets de différentes ondes, et après avoir focalisé sur les énergies absorbées et les effets thermiques, on s’attaque aux effets non thermiques.

La controverse se cristallise autour de “l’hypersensibilité aux ondes électromagnétiques”.  C’est une pathologie reconnue dans de nombreux pays, qui se manifeste par des maux de tête, des douleurs musculaires, des troubles du sommeil, etc. Malgré son nom, les recherches médicales n’ont montré aucun lien avec l’exposition aux ondes. Ses causes restent mystérieuses.

Venons-en à la question plus spécifique de la 5G. La 5G mobilise différentes nouvelles gammes de fréquence, autour de 3,5 GHz et autour de 26 GHz. Avec la 3.5 GHz, on est très proche de fréquences déjà utilisées, par exemple par le Wifi, et de fréquences dont les effets ont été très étudiés. Pour la 26 GHz, si l’utilisation dans un cadre grand public de telles ondes est nouveau, on dispose déjà d’études sur de telles fréquences élevées. Pourtant, l’utilisation nouvelle de ces fréquences spécifiques légitime le fait que de nouvelles études soient entreprises pour elles, ce qui est déjà le cas.

Un aspect de la 5G conduit naturellement aussi à de nouvelles études : les antennes MIMO dont nous avons parlé. Elles permettent de focaliser l’émission sur l’utilisateur. Cela évite de balancer des ondes dans tout l’espace. Par contre, l’utilisateur sera potentiellement exposé à moins d’ondes au total mais à des puissances plus importantes. Le contexte de l’exposition changeant aussi radicalement conduit à redéfinir la notion d’exposition aux ondes, et peut-être à de nouvelles normes d’exposition. Cela conduit donc à repenser même les notions de mesure.

Nous concluons cette section en mentionnant un autre effet sur la santé qui va bien au-delà de la 5G pour interpeller tout le numérique : la vitesse de développement de ces technologies. Le numérique met au service des personnes des moyens pour améliorer leurs vies. C’est souvent le cas et, en tant qu’informaticiens, nous aimons souligner cette dimension. Mais, le numérique impose aussi son rythme et son instantanéité à des individus, quelquefois (souvent?) à leur détriment. C’est particulièrement vrai dans un contexte professionnel. Dans le même temps où il nous décharge de tâches pénibles, il peut imposer des cadences inhumaines. Voici évidemment des usages qu’il faut repousser. Il faut notamment être vigilant pour éviter que la 5G ne participe à une déshumanisation du travail.

Wikimedia Commons

Économie et souveraineté

On peut difficilement évaluer les retombées économiques de la 5G, mais les analystes avancent qu’elle va bouleverser de nombreux secteurs, par exemple, la fabrication en usine et les entrepôts. On s’attend à ce qu’elle conduise aussi à de nouvelles gammes de services grand-public et à la transformation des services de l’État. On entend donc : Le monde de demain sera différent avec la 5G, et ceux qui n’auront pas pris le tournant 5G seront dépassés. C’est une des réponses avancées aux détracteurs de la 5G, la raison économique. On rejouerait un peu ce qui s’est passé avec les plateformes d’internet : on est parti trop tard et du coup on rame à rattraper ce retard. Sans la 5G, l’économie nationale perdrait en compétitivité et nous basculerions dans le tiers monde.

Il est difficile de valider ou réfuter une telle affirmation. N’abandonnerions-nous la 5G que pour un temps ou indéfiniment ? Est-ce que ce serait pour adopter une autre technologie ? Nous pouvons poser par contre la question de notre place dans cette technique particulière, celle de la France et celle de l’Europe.

Pour ce qui est du développement de la technologie, contrairement à d’autres domaines, l’Europe est bien placée avec deux entreprises européennes sur les trois qui dominent le marché, Nokia et Ericsson. On peut même dire que Nokia est “un peu” française puisqu’elle inclut Alcatel. La dernière entreprise dominante est chinoise, Huawei, que les États-Unis et d’autres essaient de tenir à l’écart parce qu’elle est plus ou moins sous le contrôle du parti communiste chinois. La France essaie d’éviter que des communications d’acteurs sensibles ne puissent passer par les matériels Huawei ce qui revient de fait à l’exclure en grande partie du réseau français.

Pour ce qui est des usages, les industriels français semblent s’y intéresser enfin. Les milieux scientifiques européens et les entreprises technologiques européennes ne sont pas (trop) à la traîne même si on peut s’inquiéter des dominations américaines et chinoises dans des secteurs comme les composants électroniques ou les logiciels, et des investissements véritablement massif des États-Unis et de la Chine dans les technologies numériques bien plus grands qu’en Europe. On peut donc s’inquiéter de voir l’économie et l’industrie européenne prendre du retard. Il est vrai que la 5G ne sera pleinement présente que dans deux ou trois ans. On peut espérer que ce délai sera utilisé pour mieux nous lancer peut-être quand on aura mieux compris les enjeux, en espérant que ce ne sera pas trop tard, qu’en arrivant avec un temps de retard, on n’aura pas laissé les premiers arrivants rafler la mise (“winner-take-all”).

Conclusion. Comme nous l’avons vu, certains questionnements sur la 5G méritent qu’on s’y arrête, qu’on poursuive des recherches, qu’on infléchisse nos usages des technologies cellulaires. La 5G est au tout début de son déploiement. Les  sujets traversés interpellent le citoyen. Nous voulons  mettre cette technologie à notre service, par exemple, éviter qu’elle ne conduise à de la surveillance de masse ou imposer des rythmes de travail inhumains. Nous avons l’obligation de la mettre au service de l’écologie par exemple en évitant des changements de smartphones trop fréquents ou des téléchargements intempestifs de vidéos en mobilité. C’est bien pourquoi les citoyens doivent se familiariser avec ces sujets pour choisir ce qu’ils veulent que la 5G soit. Décider sans comprendre est rarement la bonne solution.

Serge Abiteboul, Inria et ENS Paris, Gérard Berry, Collège de France

 

Pour aller plus loin

La 5G et les réseaux de communications mobiles, rapport de l’Académie des sciences – 12 juillet 2021 –  Groupe de travail de l’Académie des sciences sur les réseaux du futur

Parlons 5G : toutes vos questions sur la 5G, Arcep

5G

Quel est le but des applications de rencontres ?

On a tous entendu parler de tinder.com  qui propose de mettre en relation des personnes avec des profils répondant aux critères de son choix. Cette application répond à d’autres usages que de s’en remettre au hasard des rencontres quotidiennes ou celles des soirées plus ou moins erratiques. Mais s’appuyer, pour un aspect souvent majeur de notre vie, sur un système de recommandation très difficile à comprendre n’est-il pas problématique ? Alors si nous prenions un peu de recul et de hauteur pour réfléchir à cela ? Isabelle Collet nous propose de voir ce qu’il se cache derrière les coulisses du fonctionnement de cet outil. Serge Abiteboul et Marie-Agnès Enard.

En 2019, la journaliste Judith Duportail sort une enquête autobiographique « L’amour sous algorithme » aux Éditions de la Goutte d’or. Elle nous raconte deux histoires simultanément. D’une part, les réflexions et sentiments d’une journaliste trentenaire parisienne qui, suite à une rupture amoureuse, charge la plus célèbre des applications de rencontre, et d’autre part l’histoire de Tinder, l’application créée en 2012, qui a révolutionné la manière de faire des rencontres.

Photo de cottonbro provenant de Pexels

Un support pour l’introspection
La première histoire est une histoire sensible et honnête sur le rapport à soi, à son image, à l’amour, quand on est une jeune femme moderne, féministe mais vivant à l’ombre des grandes tours du « male gaze », c’est-à-dire du regard des hommes. Comment gérer le célibat et l’envie de faire des rencontres quand on doit aussi passer sous Les Fourches caudines des injonctions sociales détaillant ce qui serait « une vie digne d’être vécue » comme le dit Judith Butler. La recette officielle du bonheur féminin est simple ; elle a d’ailleurs assez peu changé depuis une vingtaine d’années. Le bonheur ? C’est un jean taille 36. La honte ? Être célibataire à 30 ans. La pire angoisse ? Ne pas réussir à se caser avant 40 ans parce qu’après on perd toute valeur sur « le marché de la bonne meuf » comme dit Virginie Despentes. La réussite ? Rentrer dans un jean en taille 36. Ce qui disait Bridget Jones en 1996 n’a pas pris une ride… même si la conscience féministe de l’autrice sait bien que ces règles ne viennent pas d’elle et que plus elle tente de s’ajuster à cet idéal patriarcal, moins elle se respecte.
Peut-être que l’élément qui manque à son récit, c’est la prise de conscience de sa dimension très située : cette histoire est précisément celle d’une Parisienne blanche trentenaire qui a fait des études supérieures. Ses contraintes, ses angoisses, ses loisirs et ses libertés sont étroitement liés à sa position sociale. Elle raconte sa propre histoire, mais sans avoir explicitement conscience que cette histoire est liée à sa catégorie socioprofessionnelle et à son âge. Ce qui la choque le plus, dans son enquête sur Tinder, c’est le fait que l’application lui attribue une note de désirabilité, un score qui est secret et qui conditionne le type de profil qui lui sera proposé. Tinder fait se rencontrer des joueurs de mêmes forces, c’est-à-dire des personnes évaluées comme également désirables, mais Tinder ne communique pas à ses client-es la note qui leur attribue. Une partie de l’enquête de Judith Duportail va être motivée par la découverte de cette note. Pourtant, nous allons voir qu’il ne s’agit que d’un détail de la stratégie de Tinder.

Illustration du livre l’amour sous algorithme ©editionsgouttedor.com

L’histoire dont je vais parler dans ce texte, c’est l’autre, celle de Tinder et des applications de rencontre. Judith Duportail n’est la seule à la raconter. Elle a beaucoup été aidée par Jessica Pidoux, doctorante à l’université de Lausanne. A l’origine des travaux de Jessica Pidoux, il y a une idée toute simple. Quels sont les brevets qui ont été déposés par Tinder et qui sont donc à l’origine de son fonctionnement ? Les entreprises répètent tellement que leurs algorithmes sont secrets qu’on finit par les croire. Pourtant, quand on dépose une idée pour qu’on ne vous la vole pas, il faut bien la décrire. En somme, une bonne partie du mystère est disponible sur Internet, le reste, c’est de l’analyse sociologique.
En préambule, je tiens à préciser que je n’ai rien contre le principe des applications de rencontres, que ce soit pour rechercher une rencontre éphémère ou un partenaire de longue durée. Utiliser une telle appli, c’est un moyen pour sortir de l’entre-soi, pour éviter de devoir draguer sur son lieu de travail, pour éviter de transformer tous ses loisirs en possible terrain de chasse. C’est aussi un moyen de faire de l’entre-soi : rencontrer des personnes qui ont la même religion ou les mêmes valeurs sociales comme les applications qui ciblent les personnes avec un mode de vie écologique et décroissant. Et enfin, c’est un moyen de s’amuser avec sa sexualité. Mon seul problème, avec ces applications, c’est leur opacité, d’une part, et leur côté addictif d’autre part… non pas addictif à la rencontre, mais à l’application elle-même. Un fonctionnement avec lequel les utilisateurs et utilisatrices ne sont pas familiers, faute d’avoir été averti-es (voire formé-es) et sur lesquels les applications se gardent de communiquer.

©123rf.com

Les applications de rencontre : de grosses machines à sous
Tout part d’un malentendu : on croit, à tort, que le but premier de Tinder et de ses clones est de nous permettre de faire des rencontres. Il n’en est rien : leur but est de rapporter de l’argent. Les rencontres sont juste le moyen d’y parvenir. Comment monétiser efficacement ce genre de site ? Comme beaucoup d’autres sites, Tinder est gratuit mais vend des fonctionnalités qui permettent à la version gratuite d’être plus performante. Tinder ne souhaite pas vous faire rencontrer l’amour, car ce serait la mort de son fonds de commerce. D’ailleurs, il ne s’est jamais positionné sur le créneau de la rencontre « pour la vie » mais plutôt du « coup d’un soir » ou du « plan cul » : ce sont des expériences qu’on peut réitérer sans fin et rapidement, contrairement à la relation amoureuse sexuellement exclusive, qui n’est absolument pas « bankable ».

L’autre moyen mis en œuvre par Tinder pour gagner de l’argent est de transformer ses utilisateurs-trices en produit. À la connexion, Tinder déploie un certain nombre de subterfuges pour collecter un maximum de données vous concernant. Il vous invite à lui donner les clés de votre compte Facebook, pour éviter de présenter votre profil à vos amis-es. Il vous propose, via Spotify, de mettre en lien votre chanson préférée, car la musique est un excellent moyen d’entamer la conversation. Enfin, il vous invite à connecter votre compte à Instagram où il y a des tonnes de photos géniales qui vous permettront de vous mettre en valeur. Prévenant, Tinder ? Disons plutôt qu’il se comporte comme un formidable aspirateur, engrangeant tout ce qu’il peut attraper et utilisant une infime partie de ces informations pour son activité « vitrine » : vous aider à rentrer en relation avec les inconnu-es qui vous ressemblent.
On peut toutefois utiliser Tinder en fournissant le strict minimum d’informations : pour utiliser l’application, vous avez seulement besoin de mettre votre numéro de téléphone (qui ne sera pas communiqué), un pseudo, votre âge, sexe et localisation. Puis, vous indiquez le sexe des personnes recherchées, leur tranche d’âge et la distance maximum à laquelle elles doivent habiter. Ensuite, l’application vous demande de charger 2 photos pouvant représenter n’importe quoi (vous pouvez même mettre une photo noire), et c’est parti.

Les rencontres seront-elles moins riches ou moins satisfaisantes si vous frustrez Tinder dans la pêche à l’information ? Si on va sur Tinder, c’est d’abord parce qu’on s’en moque un peu de cette « compatibilité » calculée car il existe de nombreuses applications qui vous font remplir un questionnaire détaillé. Alors, inutile de donner des données qui ne servent qu’à monnayer notre profil. De toute façon, l’IA de Tinder est bien incapable de deviner ce qu’est une alchimie qui fonctionne, elle peut juste trouver des proximités entre les profils. En outre, un sondage rapide auprès des utilisatrices et utilisateurs indique assez vite que « riches et satisfaisantes » ne sont pas les adjectifs les plus utilisés pour décrire les rencontres… ni même ce qui est toujours recherché.

La deuxième manière pour Tinder de faire de l’argent est la vente régulière de fonctionnalités permettant d’optimiser votre « expérience d’utilisation ». Pour cela, il faut vous rendre accro. Tinder / Candy crunch / Facebook et les autres : même combat. La ludification de l’activité combinée à un système de récompenses et d’encouragements vous incite à continuer à jouer indéfiniment. Il faut reconnaitre que Tinder a un système de gratification particulièrement efficace : sur Instagram, on aime vos photos, sur Facebook, on salue vos propos ou les infos que vous transférez, sur Tinder on vous aime, vous ! Double dose de dopamine. Le succès de Tinder tient à mon sens davantage à l’ergonomie de son interface qu’à la performance de son algorithme…

La gestion du catalogue de profils
Vous voilà donc devant l’application et vous êtes prêt ou prête à… à quoi au fait ? Vous savez bien que ce n’est pas pour trouver l’amour… mais on ne sait jamais… Le prince charmant, la reine des neiges va peut-être vous contacter…
Vous entrez dans l’application et une première photo apparaît : Jojo, 40 ans, a étudié à : école de la vie, situé à 3 km. Si Jojo ne vous plait pas, vous glissez la photo à gauche. Ce geste, c’est le coup de génie de Tinder, le brevet qui restera : le swipe. Swipe à droite, ça vous plait, swipe à gauche, ça ne vous plait pas. Ultra intuitif, ultra efficace. Donc vous swipez Jojo vers la gauche, et là, Tim apparait, 48 ans, 25 km, Ingénieur, a étudié à Sup Aéro. Une phrase d’accroche : « Ce que je cherche chez l’autre ? l’honnêteté ». Au fond de vous, il y a peut-être une petite voix qui vous dit : « ça m’étonnerait que quelqu’un écrive : ce que je cherche ? c’est qu’on me mente régulièrement », mais on est là pour jouer… vous swipez à droite. Et on passe à Roméo, 35 ans, qui cherche des rencontres en toute discrétion Etc. La pile de photos semble sans fin. Si Tim vous swipe également à droite, Tinder vous mettra en contact, c’est un match. Comme on ne sait pas qui vous a sélectionné, autant en sélectionner beaucoup, pour augmenter ses chances de matchs. Et on continue à faire défiler le catalogue… Gus, 43 ans, fonctionnaire, « Je cherche quelqu’un qui me fera quitter Tinder. J’aime les chats, le vélo et les femmes qui ont de l’humour ». Swipe. Au suivant.

@pexels

Mais au fait, comment cette pile est-elle triée ? C’est là qu’intervient votre score de désirabilité. Plus vous êtes choisi, plus vous êtes désirable et plus on vous présente des personnes souvent choisies. Pour que le jeu fonctionne indéfiniment, il faut que les profils présentés vous plaisent, avec de temps en temps, un profil top qui vous relance et vous incite à continuer à faire défiler. Ou une incitation à payer un service qui vous permettra un super match. Tinder vous évalue, et pour cela il applique les règles archaïques de la société patriarcale, il estime qu’il vaut mieux présenter des hommes à haut niveau social à des femmes plus jeunes qu’eux et à moins hauts revenus. Avec votre compte Facebook, Instagram, et même avec vos photos, Tinder se fait une idée de qui vous êtes. Vous êtes en photo dans votre salon ou dans une piscine de jardin ou sur des skis ou en parapente ou devant le Golden Gate… tout cela dit des choses sur votre niveau social.

Curieusement, c’est ce score de désirabilité (appelé elo score) qui a le plus choqué Judith Duportail. Elle pouvait admettre d’être notée, mais supportait pas de ne pas connaître sa note. Pourtant, noter, évaluer les uns et les autres d’une manière non transparente est une activité commune et continuelle… Facebook a été créé originellement pour noter les étudiantes à Harvard, les banques évaluent votre capacité à rembourser un prêt, même Parcours sup vous jauge sans tout vous dire de ses critères. Quoiqu’on pense du procédé, il est assez banal.

La plus grande difficulté de Tinder, c’est d’équilibrer ses deux catalogues : il y a au moins deux fois plus d’hommes que de femmes sur les sites de rencontre. D’autant plus que les hommes, pour augmenter leurs chances s’inscrivent partout : Tinder, mais aussi Meetic, Adopte un mec, Ok Cupid, Fruitz… les sites ne manquent pas et les hommes accentuent le déséquilibre en faisant feu de tout bois.
Le résultat est que pour les femmes, l’utilisation d’un site de rencontre est vite gratifiante : elles ont un succès fou, elles sont en position de force sur un marché tendu. Si vous sélectionnez une dizaine de profils, vous vous retrouvez à devoir gérer la file d’attente des hommes qui vous ont matché… mais restez lucide : ce n’est pas parce que vous êtes incroyablement attirante… c’est surtout parce que vous êtes rare. Judith Duportail et Nicolas Kayser-Bril ont échangé les rôles : Nicolas a mis une photo noire en disant qu’il était une femme… Au bout de deux heures, il ne supportait plus les mecs. Il était dragué sans relâche. Sur la tranche d’âge des trentenaires, beaucoup d’hommes ne choisissent pas. Ils swipent toutes les femmes et attendent que ça morde. Autant pour l’algorithme sophistiqué.

Tinder se paye sur la frustration des hommes. Il y a tellement de profils d’hommes que le vôtre ne sera peut-être jamais présenté. Pas assez séduisant, pas assez riche, pas assez sexy, bref, pas bien noté. Mais si vous payez, votre profil sera présenté en tête pendant un certain laps de temps.

Un supermarché de la rencontre pour les un-es, un moyen d’empowerment pour les autres

Photo de Olya Kobruseva provenant de Pexels

Pour que Tinder donne sa pleine mesure, il a besoin de beaucoup de profils et de beaucoup de données. L’expérience Tinder à Auxerre ou à Tulle n’est pas la même qu’à Paris. L’expérience Tinder d’une Parisienne de 30 ans est très différente de celle d’une quadra vivant à la campagne… et pour le coup, il y aussi des bonnes nouvelles. A force de lire des récits ou des interviews de jeunes adultes, on oublie qu’il n’y a pas de limite d’âge pour s’inscrire ni pour draguer. Au moment où des chroniqueurs goujats expliquent que les femmes de 50 ans sont invisibles, celles-ci découvrent sur Tinder que des hommes qui ont plus ou moins leur âge sont désireux de les séduire…
et si Tinder apporte son lot de mecs lourds et vulgaires, il est bien plus simple de s’en débarrasser en ligne que dans une soirée.

Ces applications sont accusées de marchandiser les relations sentimentales, de pousser à la collection de rencontres. Comme dit Judith Duportail : on revient toujours voir s’il n’y a pas mieux en rayon. Les gens risquent-ils de devenir des célibataires en série, dépendant des applications pour se rencontrer ? En réalité, aucune évidence scientifique ne démontre de tels faits, au contraire.
D’une part, les rencontres sont facilitées : dans la vie hors ligne (et surtout en période de pandémie), tout le monde n’a pas une vie sociale dense, ni le temps, l’envie ou l’audace nécessaires pour aborder les inconnu-es. De plus, si les hommes ont peur d’être repoussés, les femmes ont peur d’être agressées… l’enjeu du « raté » n’est pas le même mais dans les deux cas, le risque se gère bien mieux à distance.
Dans cette enquête « les applications de rencontres ne détruisent pas l’amour« , Gina Potarca montre qu’il n’existe pas de différence sur les intentions des couples formés en ligne ou à l’ancienne. En particulier aucune différence n’existe sur l’intention de se marier ou pas. Et, quel que soit le type de rencontre, les couples sont tout aussi heureux de leur vie et de la qualité de leur relation avec leur partenaire. Enfin, ce mode de rencontre est particulièrement favorable aux femmes diplômées qui trouvent plus facilement un partenaire, là encore, à l’encontre des idées reçues qui voudraient que les femmes intelligentes soient vouées au célibat. Au final, Tinder permet de la mobilité sociale : parce que, quoiqu’en pensent ses concepteurs, des hommes sortent volontiers avec des femmes plus âgées, plus diplômées ou plus riches qu’eux.

Votre vie en ligne
Finalement, ces applications ont considérablement modifié les modes d’entrée en relation, permettant à bien plus de personnes de se lancer. La honte larvée qui existait à utiliser ce genre de « petites annonces » (car le procédé est tout de même ancien !) est en train de disparaître, même si les femmes restent plus réticentes, parce que ce sont elles qui ont le plus à perdre si ça tourne mal, y compris en termes de réputation. Mais derrière cette révolution sociale de la rencontre, il faut garder à l’esprit que le fond de l’affaire, la motivation première, ce sont nos données. Les connexions entre les bases de données qui ne sont pas faites aujourd’hui le seront peut-être demain, au hasard des rachats de services entre GAFAM. Demain, votre profil Tinder pourrait alimenter les IA de recrutement qui ratissent LinkedIn : elles iront lire votre conversation sexy sur WhatsApp avant de savoir si vraiment vous êtes fait-e pour le job… N’oubliez pas que quand vous supprimez une conversation ou un profil, Internet, lui, n’oublie rien.

Encore plus d’infos sur Tinder ? L’excellente série Dopamine, sur Arte .

Isabelle Collet.

5G : le coin de la technique 

Serge Abiteboul et Gérard Berry nous parlent de la 5G qui se déploie très rapidement en France. Dans un premier article, ils considèrent les aspects techniques. Dans un deuxième, ils traiteront des craintes autour de la 5G. Un dernier adressera la question des applications de cette technologie.
Cet article est en collaboration avec Theconversation France. Toute la série.

On peut transmettre des messages en utilisant des ondes électromagnétiques. Par exemple, un téléphone cellulaire échange des messages avec une station radio le plus souvent située en haut d’un pylône ou sur un toit. On utilise pour cela des ondes de différentes fréquences ; les plus basses se propagent plus loin, les plus hautes exigent de plus petites antennes ; les encore plus hautes sont très peu utilisées pour l’instant.

Les premiers réseaux cellulaires étaient analogiques. Ils sont devenus numériques avec la 2G, qui a aussi introduit  les SMS. Avec le nouveau millénaire, la 3G a fait entrer la téléphonie mobile dans le monde d’Internet. Avec des débits bien plus grands joints à l’explosion des smartphones, la 4G a apporté la vidéo en bonne définition.

Tous les 10 ans en gros, un nouveau standard et une nouvelle génération de téléphones cellulaires arrivent qui transforment les usages; récemment, c’était la 5G. 

Antenne 5G en Allemagne, Wikpédia

On assiste depuis l’arrivée de la 2G a une progression exponentielle des données transportées par le réseau, et une augmentation massive du nombre d’objets connectés (téléphone, télévision, télésurveillance, voitures connectées, etc).  C’est permis par les avancées scientifiques et technologiques qui ont amélioré les “tuyaux” où circulent les données. De fait, les usages absorbent tout ce que la techno propose. Il faut noter que la partie essentielle de cette connectivité vient de la fibre optique, dont nous ne parlerons pas.

Les technologies de la téléphonie cellulaire ont apporté des solutions efficaces et abordables pour une couverture de service de communications global, reliant des lieux éloignés, les zones rurales, les voies de transports routiers ou ferroviaires. En cela, elles participent à la réduction de la fracture numérique territoriale.

Logo 5G du 3GPP

La 5G amène une vraie disruption. On aimerait pointer une avancée scientifique à sa base, mais en fait elle repose toute une gamme d’innovations. Le monde du téléphone cellulaire est un monde des normes : il fonctionne parce que les opérateurs se mettent d’accord, dans un cadre qui s’appelle le 3GPP, sur des normes qui vont permettre, par exemple, à un paquet de bits de passer de votre téléphone au cœur de la Lozère, à l’ordi d’une amie dans son bureau à Rio. Ceci demande de regrouper tout un paquet d’avancées scientifiques et techniques avant de lancer une nouvelle norme. La 5G est donc plutôt comme un couteau multi-lames, où chaque lame est soit une techno venant de la 4G mais améliorée, soit une nouvelle techno sortie des labos dans les dix dernières années.

Nous allons mentionner dans ce premier article les belles avancées scientifiques et techniques qui sous-tendent la 5G, et ce qu’elles apportent en termes de fonctionnalités. Mais introduire des technologies dans nos vies quotidiennes n’est jamais innocent. Dans un second article, nous envisagerons les questionnements que cela soulève pour ce qui est de l’environnement principalement, mais aussi de la sécurité, la santé ou la souveraineté. Dans un dernier article, nous regarderons du côté des services et des usages et essaierons d’analyser la difficile question de savoir ce qui va vraiment changer, les changements réels induits par de telles technologies disruptives étant souvent différents de ce qui était prévu à l’origine ou annoncé au moment du lancement.

La portée de 3 bandes de fréquences. Source Arcep.

Les fonctionnalités

La 5G va permettre des améliorations techniques principalement dans quatre directions : le débit, la latence, la densité et la virtualisation.

Un aspect très visible dans les communications cellulaires est la quantité d’information échangée dans une unité de temps, le débit. Si le débit est trop faible, je ne peux pas visionner un film, ou je ne le fais qu’avec une qualité très médiocre. Avec la 5G, on peut s’attendre à ce que “le débit de pic” soit jusqu’à 10 fois supérieur à celui de la 4G, quasiment celui d’une fibre optique ordinaire. En fait, les débits vont surtout augmenter grâce à de nouvelles fréquences que la téléphonie mobile va coloniser avec la 5G, qui sont des fréquences hautes entre 1GHz et 6 GHz et des fréquences encore plus hautes dites « millimétriques » au-dessus de 6 GHz.

Mais ne rêvons pas : dans le cellulaire, on partage les fréquences entre les différents opérateurs, et pour chaque opérateur avec les gens autour de nous : le voisin qui regarde un match de rugby, la voisine qui passe sa soirée sur un jeu vidéo en réseau, etc. Donc que vont observer les utilisateurs que nous sommes ? Nous allons voir la situation s’améliorer dans les zones très denses où les réseaux cellulaires sont déjà saturés ou le seraient à court terme sans la 5G. Nous ne verrons pas vraiment de changement dans les zones peu denses déjà couvertes par la 4G, peut-être des téléchargements plus rapides de vidéos. Et si nous voyons une belle amélioration dans une zone blanche où il n’y avait quasiment rien, ce sera plus sûrement du fait de l’arrivée de réseaux 4G.

La deuxième direction d’amélioration est la latence, c’est-à-dire le temps pour un aller-retour entre le téléphone et le serveur d’applications, qui se compte aujourd’hui en dizaines de millisecondes. Avec la 5G, on va mesurer la latence en millisecondes. Pour visualiser un film, on s’en fout. Mais pour un jeu vidéo, pour de la réalité augmentée, pour réaliser à distance une opération chirurgicale, ça peut juste faire la différence entre possible ou impossible. Le but est que l’ensemble du système offre une réactivité beaucoup plus importante jointe à une garantie forte de transmission du message.

La troisième dimension est la densité. On parle de communications de machines à machines et de services nécessitant un nombre massif d’objets à faible consommation énergétique et faibles débits (l’Internet des objets)  Un des objectifs est de pouvoir gérer un million d’objets au kilomètre carré. Dans cette dimension, la 5G est en compétition avec des techniques dites 0G comme Sigfox et Lora. Traditionnellement, pour la communication des objets, on distinguait des objets bon marché, bas de gamme, qui utilisaient le 0G, et des objets plus exigeants en 4G. La 5G a la prétention de pouvoir couvrir toute la gamme avec un même standard.

La dernière dimension, la virtualisation, est cette fois de nature logicielle. De même que le cloud computing virtualise les ressources de calcul et de stockage distantes, la 5G permet de virtualiser différents éléments d’un réseau de communication. Jusqu’à la 4G, un opérateur particulier disposait de sa propre bande de fréquences, de ses matériels notamment radio, et de logiciels qui s’exécutaient sur ces matériels. Les réseaux des différents opérateurs étaient bien isolés les uns des autres. La virtualisation (dont nous détaillerons des aspects techniques plus loin) permet de construire des réseaux virtuels étanches les uns aux autres mais partageant la même bande de fréquences ; par exemple, une industrie pourra exploiter son propre réseau étanche et limité géographiquement pour y connecter ses propres objets et services.

Attention, tout cela ne se fera pas en un jour. La 5G arrive par étapes, parce qu’il faut installer partout de nouveaux composants radio, mais aussi parce que, pour qu’elle fonctionne au mieux, il va falloir transformer les logiciels des “cœurs de réseaux”.

4G en bleu et 5G en rouge. Source Arcep
Source Arcep

Il faut aussi parler de deux autres dimensions :

  • L’efficacité énergétique qui a été prise comme objectif depuis les débuts de la conception de la 5G. Une rupture avec les générations précédentes est annoncée. On vise une division par au moins dix du coût énergétique du gigaoctet transporté. Comme nous le verrons, cela n’empêche pas d’avoir des craintes légitimes sur l’effet de cette technologie sur l’environnement.
  • Pour la sécurité informatique, le sujet est contrasté : elle est plus prise en compte que pour la 4G ce qui améliore les choses. Par contre, la surface des attaques possibles explose comme nous le verrons, en particulier à cause de l’extension des aspects logiciels des réseaux, ouvrant la porte à d’autres possibilités d’attaque. De fait, le contrôle de la sécurité se déplace du matériel au logiciel. De plus, cela conduit à réaliser une surveillance en temps réel pour détecter les attaques et être prêt à y remédier. L’utilisation de plus en plus massive de l’intelligence artificielle complique la tâche : d’une part, parce que les logiciels des réseaux s’appuyant sur cette technologie auront des comportements plus difficiles à prévoir, et d’autre part, parce que les attaquants eux-mêmes pourront s’appuyer sur l’IA. A contrario, les systèmes de détection d’attaque pourront eux-aussi inclure de l’IA.

Pour ce qui est des innovations scientifiques et techniques sur lesquelles se fonde la 5G, elles peuvent se regrouper en deux classes : radios et logicielles.

Les innovations techniques logicielles

  • La virtualisation. Traditionnellement, les réseaux des télécoms s’appuient sur des machines dédiées : différents niveaux de routeurs, firewalls, etc. L’idée est de transporter cela sur des architectures logicielles comme celles des plateformes du web. On parle donc de convergence entre systèmes informatiques et systèmes de communication. Mis à part les éléments purement électroniques de radio, dès qu’on passe en numérique, on se place sur un réseau de machines génériques (de calcul, de stockage, de connexion) capables de réaliser toutes les différentes fonctions de façon logicielle. Par exemple, plutôt que d’installer un routeur physique qui gère l’acheminement des messages pour un réseau virtuel, on déploiera un routeur virtuel sur un ordinateur générique du réseau, que l’on pourra configurer suivant les besoins. Pour ce qui est de la virtualisation des fonctionnalités véritablement radio, cette convergence est à relativiser car, pour des questions de performances, on doit souvent utiliser des accélérations matérielles.
  • Edge Computing. Les services sont implantés aujourd’hui dans des data centers parfois très loin de leurs utilisateurs. Ce cloud computing induit des coûts de transport pour les messages et introduit une latence incompressible même si les communications sont hyper-rapides. L’idée est d’installer de petits data centers dans le réseau plus près des utilisations. Pour des applications, par exemple, de contrôle de machines ou de réalité augmentée, cela permet de gagner un temps précieux pour la détection d’événement et le contrôle.
  • Network slicing. Une limite actuelle de la technologie cellulaire est l’impossibilité de garantir la qualité du service. Le network slicing permet de réserver virtuellement une “tranche de fréquences” pour un service particulier, ou plus précisément d’offrir une certaine garantie de service. Dans certaines configurations ou pour certains usages ayant des exigences spécifiques, le service est en position de monopole et n’a donc pas à partager avec d’autres services. Quand on contrôle à distance une machine-outil de précision, on veut, par exemple, garantir un délai maximum de quelques millisecondes entre la commande exercée par le pilote et sa réception par la machine. Pour ce faire, on ne peut pas être en compétition avec d’autres services. En ondes millimétriques, le réseau concerné peut être de faible surface, par exemple, limité à un site industriel.

Les innovations techniques radios

  • Avec le « massive MIMO » (multiple input, multiple output), chaque antenne consiste en un grand nombre de petites antennes. Chaque petite antenne de la station focalise les ondes vers un utilisateur qu’elle suit. Plus précisément, des ondes émises par différents éléments de l’antenne se combinent intelligemment pour réaliser le rayon qui cible un utilisateur particulier. Cela évite l’arrosage très large de l’environnement que font les antennes classiques. C’est une techno plus complexe mais qui permettra des économies d’énergie une fois bien maitrisée.  Et on peut utiliser plusieurs antennes distantes pour une même communication, améliorant encore la focalisation
  • L’utilisation de fréquences plus élevées, les bandes millimétriques comme la 26 GHz envisagée en France. Cela permet d’augmenter les fréquences utilisables pour les communications et surtout d’arriver dans des bandes où les disponibilités de fréquences sont importantes.
  • L’utilisation simultanée de différentes technologies et fréquences. Vous pouvez par exemple déjà téléphoner depuis chez vous en cellulaire ou en Wifi (voix sur Wifi). Votre téléphone doit choisir et le passage de l’un à l’autre est compliqué, et de nos jours très lent. Les futures générations de téléphones faciliteront de telles utilisations simultanées de plusieurs technos et fréquences afin d’améliorer les services, par exemple en évitant de tomber dans un “trou” lors du passage de l’une à l’autre.
  • Le mode TDD (Time Division Duplexing) : on partage de mêmes fréquences avec une répartition dans le temps des phases montantes (du téléphone vers la station) et descendantes (de la station au téléphone). Cela permet de ne pas choisir a priori un partage des fréquences entre le trafic montant et descendant. La meilleure utilisation des fréquences est un élément clé de l’utilisation des réseaux cellulaires, car c’est une ressource rare à partager entre tous les utilisateurs.
  • Les « petites cellules » (small cells). La techno permet d’utiliser les bandes très hautes (par exemple, 26 GHz) qui sont disponibles en très grandes quantités. Mais les messages s’y propagent beaucoup moins loin, quelques centaines de mètres au plus. On va donc utiliser de toutes petites antennes (les cellules) sur des lampadaires, des abribus, etc. C’est une technologie pour centre-ville et lieux très fréquentés comme des stades ou des festivals.
  • Les communications de terminal à terminal. Cela permet à des terminaux de communiquer directement entre eux sans passer par le système de l’opérateur. On peut continuer à communiquer  même quand le réseau est saturé ou quand il dysfonctionne, par exemple en cas de catastrophe naturelle ou d’attaque informatique.
  • La radio cognitive. L’idée est de pouvoir mieux utiliser les fréquences, en se glissant temporairement quand c’est possible dans des fréquences non-utilisées.
  • Pour ce qui est de la radio cognitive et des communications de terminal à terminal, si ces deux aspects participent bien de la vision de la 5G, ils ne semblent pas encore vraiment mures à ce stade.

Et demain, la 6G

S’il n’est déjà pas simple de dire ce que sera la 5G en cours de déploiement, il devient carrément surréaliste de décrire une technologie encore dans les laboratoires de recherche, la 6G : nous ne sommes pas futurologues ! Nous nous contenterons donc d’en présenter les grands traits. Techniquement, tout en visant encore plus de débit, la 6G vise le “plus fin” : de plus petites antennes (small cells), et de plus petits data centers (edge). Nous serons en permanence connectés au réseau cellulaire et dans de mêmes standards, même quand ce sera par satellite. Le réseau doit se mettre à notre service, nous “humains”, probablement de plus en plus immergés dans un monde de robots (ce qu’individuellement nous ne souhaitons pas forcément, mais c’est un autre sujet) ; on parle de réalité virtuelle et augmentée (qui démarrent), d’holographie pour des réunions à distance. Et la 6G doit permettre aussi de bien suivre les objets se déplaçant à haute vitesse ou en environnement compliqué.

En fait, la 6G permettra l’aboutissement des promesses de la 5G en rendant possible les communications entre un nombre massif de machines de tout genre peut-être des millions au km2). Si la 5G a déjà été conçue avec la sobriété énergétique comme objectif, la 6G ira encore plus loin dans cette direction.

Bien sûr, l’intelligence artificielle sera hyper-présente, ce serait-ce que parce que les systèmes de communication et leur sécurité seront devenus trop complexes pour les simples humains que nous sommes.

La 6G règlera tous les problèmes des réseaux cellulaires, elle sera capable de tout, pourquoi pas de faire le café… Vous ne voyez pas bien où ça nous mène. Eh bien, nous non plus. C’est bien pour cela qu’il est indispensable de suivre tout cela de près, parce que nous aurons des choix sociétaux peut-être essentiels à faire sur des sujets comme le niveau de robotisation de nos vies, la sécurité ou l’environnement.

Serge Abiteboul, Inria et ENS Paris, Gérard Berry, Collège de France

Pour aller plus loin

La 5G et les réseaux de communications mobiles, rapport de l’Académie des sciences – 12 juillet 2021 –  Groupe de travail de l’Académie des sciences sur les réseaux du futur

Parlons 5G : toutes vos questions sur la 5G, Arcep

5G

25 énigmes pour s’initier à la cryptographie

Notre amie Charlotte Truchet, longtemps éditrice de binaire, nous avait promis une critique du livre « 25 énigmes pour s’initier à la cryptographie » de Pascal Lafourcade et Malika More. La voici, et … Quoi ? … Que dis tu,  Charlotte ?
 Ah oui ! Ok, tu es « pote » avec Pascal Lafourcade. D’accord, nous lirons ton article en le sachant. Mais je crois que nous ne serons pas les seul·e·s à sympathiser avec le livre en tout cas, il a l’air passionnant.

Thierry Viéville et Pierre Paradinas.

Vendu comme une initiation à la cryptographie, ce livre s’adresse en réalité à notre insatiable curiosité. Ainsi, la lectrice doit décrypter des textes chiffrés par différentes techniques cryptographiques, qui vont de très faciles (faciles, faciles, encore faut-il se le farcir à la main, le décalage de l’alphabet !) à carrément démoniaque. Ce principe, qui revient à l’essence même du chiffrement, nous livre pieds et poings liés à la lecture des explications associées à chaque énigme : quand on a passé un certain temps à s’arracher les cheveux dans des calculs, faits à la main, et plus ou moins hasardeux, juste parce que c’est très énervant de ne pas savoir ce qui se cache derrière la séquence « DZMBVVHOLRQX », on est mieux disposé à comprendre comment les auteur et autrice ont caché leur message. De ce point de vue, j’ai trouvé que le livre marchait très, très bien. Même en tant qu’informaticienne, raisonnablement au fait des principales méthodes de cryptographie, je me suis prise au jeu, j’ai joué aux devinettes, et j’ai lu avec plaisir les solutions détaillées. Ce livre est une bénédiction autant qu’une torture pour les esprits curieux.
L’autre grande réussite du bouquin est le choix des systèmes cryptographiques présentés : les énigmes abordent des techniques de crypto très variées, présentées de façon progressive, de sorte qu’il est facile de s’y plonger en fonction du temps et de l’envie qu’on a. On y découvrira, en vrac, la stéganographie, différents chiffrements par substitution, le tatouage d’images, des attaques par canaux cachés, et même des sujets plus récents comme le fonctionnement du bitcoin, l’évaluation de la solidité d’un mot de passe ou encore la sécurité des protocoles de vote. Evidemment, plus les techniques sont élaborées, plus la résolution des énigmes devient ardue. Heureusement, on est aidé par une série d’indices, et surtout… on a le droit de craquer ! Chaque énigme est fournie avec sa solution, et surtout, des explications à la fois historiques et scientifiques qui se lisent vraiment bien. Et rien que cela, en soi, relève de la performance, tant la crypto, grande consommatrice de math pointues, est toujours difficile à vulgariser.
Il faut bien qu’une critique contienne quelques critiques… Attention, la mise en page est en elle-même presque un chiffrement. Sans doute pour ne pas nous pousser à aller trop vite regarder les indices et les réponses, ceux-ci sont regroupés en plusieurs catégories, de sorte qu’il n’est vraiment pas facile de trouver le numéro de la page qui nous intéresse. Prévoyez un paquet de post-its ! Promis, cela en vaut la peine.
Les auteur et autrice conseillent de s’attacher à résoudre les énigmes avant de lire les explications… en pratique, cela ne semble pas indispensable : on s’instruira déjà beaucoup en parcourant simplement les explications (bon, d’accord, c’est un peu dommage). Finalement, ce livre dit s’adresser à un niveau de math de lycée… C’est faux ! La variété et la clarté des explications pourra aussi bien intéresser un lectorat bien plus large ! Cela m’a été confirmé par une amie philosophe, qui comme moi s’est trouvé happée par les puzzles proposés. Curieux de tous âges et de toutes disciplines, courez le lire, vous y trouverez un éclairage original et bienvenu sur des techniques de crypto massivement utilisées, mais qui restent assez méconnues du grand public.
Charlotte Truchet.

Une IA bien de chez nous raffle la mise

Tristan Cazenave
Quentin Cohen-Solal

Mon IA est meilleure que la tienne ! Sérieusement, comment fait-on pour vérifier ? On organise des tournois multi-jeux entre elles. Le dernier a vu une victoire, on va dire écrasante, époustouflante, d’une équipe française. Pourquoi, bouder sa joie ?  La recherche française a réalisée là une brillante démonstration. Et au-delà de la simple victoire, c’est un coup de projecteur sur la thèse de  Quentin Cohen-Solal et son travail avec Tristan Cazenave. Laissons-leur la parole. Serge Abiteboul et Thierry Viéville

De fin août à mi septembre 2021 se tenaient les 24èmes Computer Olympiad, une compétition mondiale multi-jeux pour intelligences artificielles. Durant cet événement, de nombreux tournois sont organisés, chacun portant sur un jeu de réflexion spécifique, comme le jeu de Dames. La particularité de cette compétition est qu’il s’agit d’intelligences artificielles qui s’affrontent.

Il y a eu cette année 22 tournois et 60 équipes participantes de tous horizons. Les résultats sont disponibles sur le site de l’International Computer Games Association.

Quentin Cohen-Solal et Tristan Cazenave, chercheurs français affiliés au LAMSADE, Université Paris-Dauphine, PSL, CNRS ont participé à plusieurs de ces tournois en faisant concourir leur intelligence artificielle novatrice. Elle a gagné, lors de cette dernière édition des Computer Olympiad, 11 médailles d’or, aux jeux suivants : Surakarta, Hex 11, Hex 13, Hex 19, Havannah 8, Havannah 10, Othello, Amazons, Breakthrough, Dames canadiennes, Dames brésiliennes. C’est la première fois qu’une même équipe, et en particulier qu’une même intelligence artificielle, remporte autant de médailles d’or la même année, dépassant le double du record précédent de médailles d’or.

Cette intelligence artificielle, créée par Quentin Cohen-Solal [1], et étudiée plus finement ensuite avec l’aide de Tristan Cazenave [2], son encadrant postdoctoral dans le cadre de l’institut PRAIRIE, est la deuxième intelligence artificielle ayant la capacité d’apprendre par elle-même sans aide humaine. La première intelligence artificielle dotée de cette capacité est Alpha Zero [3], créée par des chercheurs de Google. Chacune de ces deux types d’intelligences artificielles apprend à bien jouer à un jeu en jouant contre elle-même, sans rien savoir a priori, à part les règles du jeu. Après chaque partie, ces intelligences artificielles apprennent de leurs succès et de leurs erreurs pour s’améliorer.

Cette nouvelle intelligence artificielle, nommons là Athénan sans bien entendu chercher à la personnifier. Athénan se distingue sur de nombreux aspects par rapport à Alpha Zero. D’une part, Alpha Zero cherche à maximiser la moyenne des différentes issues possibles de la partie, tout en minimisant le regret de ne pas anticiper suffisamment certaines stratégies de jeu prometteuses. Cette seconde intelligence artificielle considère les meilleures actions et non les actions meilleures en moyenne, et analyse toujours en premier les stratégies les plus intéressantes.

Pour guider sa recherche stratégique, Alpha Zero utilise un réseau de neurones artificiels, qui agit comme une intuition. Pour chaque état de jeu analysé, le réseau de neurones calcule sa valeur (i.e. une estimation d’à quel point cet état peut mener à la victoire) ainsi qu’une probabilité, pour chaque action, que cette action soit la meilleure dans cet état. Cette nouvelle approche utilise également un réseau de neurones pour guider sa recherche en calculant une valeur pour les états du jeu. Cependant, les probabilités que chaque action soit la meilleure ne sont ni utilisées ni calculées. Pour apprendre des parties effectuées, Alpha Zero met à jour son réseau de neurones, en considérant que la valeur d’un état est le résultat de fin de partie et que la probabilité qu’une action soit la meilleure est, grosso modo, la proportion du nombre de fois que cette action a été considérée plus intéressante durant la recherche. Ainsi, s’il se retrouve à nouveau dans cet état (ou un état analogue), il aura mémorisé les informations capitales de sa recherche précédente. C’est ce procédé qui lui permet de s’améliorer de partie en partie. Au fur et à mesure, il va affiner ses probabilités de jouer la meilleure action et avoir une meilleure estimation du résultat de fin de partie. Avec Athénan, la valeur d’un état n’est pas mise à jour par le résultat de fin de partie de la partie qui vient de se terminer : elle est mise à jour par le résultat de fin de partie de cet état estimé d’après les connaissances acquises lors des parties précédentes et de la recherche effectuée durant cette nouvelle partie. Cette information est a priori plus informative que le simple résultat de fin de partie de la dernière partie et permet de capitaliser les connaissances d’une partie à l’autre.

En outre, avec cette nouvelle approche, l’état actuel de la recherche de la meilleure stratégie est intégralement mémorisé. Au contraire, Alpha Zero n’apprend que le résumé de cette recherche. Il y a donc une perte d’information avec cette première approche. Cette différence est importante, car pour bien apprendre, il faut beaucoup de données. Ainsi, avec cette nouvelle approche, beaucoup plus de données sont générées pour le même nombre de parties. Mais ce n’est pas aussi simple car s’il y a trop de données incorrectes, cela peut pénaliser fortement l’apprentissage.

Il reste à souligner une dernière différence avec Alpha Zero : elle concerne la recherche stratégique durant l’apprentissage. Avec Athénan, chaque stratégie est complètement analysée, anticipée jusqu’à la fin de la partie, alors qu’avec Alpha Zero, l’analyse d’une stratégie s’arrête dès qu’il pense qu’elle n’est plus intéressante (il n’analyse que les premières actions d’une stratégie). Cette nouvelle façon de faire, bien que plus coûteuse, permet d’obtenir des données concrètes pour l’apprentissage.

Notons pour finir qu’Alpha Zero requiert généralement un super-calculateur équipé d’une centaine de cartes graphiques et d’une centaine de processeurs pour donner de bons résultats. Athénan, à titre de comparaison, n’a besoin que d’un ordinateur équipé d’une seule carte graphique et d’un nombre normal de processeurs.

Il s’avère que pour de nombreux jeux, cette nouvelle approche est bien plus performante à matériel équivalent. Elle est également très compétitive même si Alpha Zero utilise un super-calculateur [2].

Au-delà des applications évidentes dans le domaine des jeux de sociétés et des jeux vidéos (aide à la conception, personnages non joueurs plus intelligents), de nombreuses autres applications sont possibles. Cette intelligence artificielle peut théoriquement résoudre de manière optimale tout problème où le hasard n’intervient pas, où aucune information n’est cachée et où les personnes impliquées interagissent à tour de rôle. On devrait notamment s’attendre à des applications concernant le routage internet [4], les tournées de véhicules [5] et la conception de molécules d’ARN [6], puisque sur ces problèmes, des algorithmes de jeu ont déjà montré leur utilités. Des travaux sont évidemment en cours pour dépasser ses limites. Un prototype est en phase de test concernant la gestion du hasard.

Quentin Cohen-Solal (publications) et Tristan Cazenave (home page, publications).

[1] Cohen-Solal, Q. (2020). Learning to Play Two-Player Perfect-Information Games without Knowledge. arXiv preprint

[2] Cohen-Solal, Q., Cazenave, T. (2020). Minimax Strikes Back. arXiv preprint

[3] Silver, D., Hubert, T., et al. (2018). A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play. Science.

[4] https://www.lamsade.dauphine.fr/~cazenave/papers/Congestion.pdf

[5] https://www.lamsade.dauphine.fr/~cazenave/papers/PolicyAdaptationForVehicleRouting.pdf

[6] https://www.lamsade.dauphine.fr/~cazenave/papers/MonteCarloInverseFolding.pdf

Quelques images de la compétition :
Amazons : Le premier joueur qui ne peut plus jouer perd. A son tour, un joueur déplace une de ses dames, puis pose un jeton sur le plateau de façon à ce qu’il soit aligné avec la dame qui vient de se déplacer et qu’il n’y ait aucune pièce située entre elles. Les dames et les jetons bloquent le déplacement.
Hex : Le premier joueur à relier les bords du plateau de sa couleur avec un chemin de pièces contiguës de sa couleur gagne.
Othello : A son tour, un joueur pose une pièce sur le plateau qui permet d’encercler un alignement de pièces adverses. Les pièces adverses encerclées sont alors remplacées par des pièces de sa couleur. Le joueur qui a le plus de pièces de sa couleur à la fin de la partie gagne.
Breakthrough : Le premier joueur qui arrive à faire atteindre l’autre bout du plateau à un de ses pions gagne.
Havannah : Le premier joueur qui arrive à relier trois des six bords du plateau ou deux des six coins du plateau ou à dessiner une boucle avec ses pièces gagne.
Dames : Le premier joueur à avoir pris toutes les pièces adverses gagne. Un pion avance en diagonal et peut sauter par-dessus les pièces adverses, ce qui les élimine. Un pion qui atteint le bord de l’adversaire devient une dame qui peut se déplacer d’autant de cases qu’elle veut.
Surakarta : Le premier joueur à avoir pris toutes les pièces adverses gagne. Un pion se déplace en diagonal ou orthogonalement. Il prend un pion adverse en atterrissant sur lui, s’il y a un chemin libre permettant de l’atteindre passant au moins une fois par une des boucles du plateau.

Dessine-moi un graphe de connaissances !

Comment représenter des connaissances de manière formelle pour que des logiciels puissent les utiliser ? Plein de trucs ont été essayés et ce qui marche bien c’est la structure de graphe. Les nœuds sont des entités et les liens des relations entre elles.  Bon, on a un peu trop simplifié. Fabien Gandon nous parle des graphes de connaissance, une branche de l’IA avec des applications impressionnantes, peut-être moins connue que l’apprentissage automatique mais toute aussi passionnante. Fabien est informaticien, chercheur chez Inria. Il est Professeur au Data ScienceTech Institute, Titulaire d’une Chaire 3IA aux Instituts Interdisciplinaires d’Intelligence Artificielle de l’Université Côte d’Azur. C’est un des meilleurs spécialistes en représentation des connaissances et Web Sémantique. Serge Abiteboul, Ikram Chraibi Kaadoud, Thierry Viéville
Page de Fabien Gandon, A partir de « Les défis de l’intelligence artificielle – Un reporter dans les labos de recherche », Jérémie Dres, 2021.

Le terme de « graphe de connaissance » existe depuis des décennies mais son utilisation par Google en 2012 pour un nouveau service, puis par un nombre grandissant d’autres entreprises, l’ont rendu extrêmement populaire dernièrement. De plus son couplage avec différentes techniques d’intelligence artificielle contribue à en faire un sujet d’intérêt d’actualité. Si, à l’instar de cette expression « intelligence artificielle », le terme « graphe de connaissance » ou Knowledge Graph est utilisé avec différentes acceptions et identifie actuellement une ressource numérique très différente d’un cas d’usage à un autre, le domaine de la représentation des connaissances à base de graphes existe depuis longtemps et étudie l’expressivité de ces modèles et la complexité de leurs traitements avec des interactions  multidisciplinaires et des applications dans de nombreux domaines.

S’il vous plaît… dessine-moi un graphe de connaissances !

Un graphe est une structure mathématique contenant un ensemble d’objets dans lequel certaines paires d’objets sont en relation. Les objets et les relations peuvent être très variés comme par exemple des villes reliées par des routes, des personnes reliées par des relations sociales ou des livres reliés par des citations. Un graphe est typiquement dessiné sous la forme de points représentant les objets (sommets du graphe) et de lignes entre eux représentant les relations (arêtes du graphe).

Un graphe avec six sommets et sept arêtes

Un graphe de connaissances représente des données très variées en les augmentant avec des connaissances explicites attachées aux sommets et aux arêtes du graphe pour donner des informations sur leur sens, leur structure et leur contexte. Il est explicitement utilisé pour représenter et formaliser nos connaissances dans des applications informatiques.

Prenons l’exemple d’un graphe de connaissances dans le domaine de la musique. Les sommets de ce graphe peuvent représenter des albums, des artistes, des concerts, des chansons, des labels, des langues, des genres, etc., et les arêtes peuvent capturer les relations d’auteur, compositeur, interprète, parolier, indiquer les influences artistiques, connecter les différentes versions d’un morceau ou grouper les morceaux d’un album, etc.

Un petit graphe de connaissance en musique

Dans un graphe de connaissance on trouvera typiquement deux types de sommets : ceux qui représentent des objets (ex. les musiciens) et ceux qui représentent des données (ex. une date, un texte). On trouvera donc aussi deux types d’arêtes : celles qui relient des objets (ex. un père et son fils) et celles qui indiquent des attributs d’un objet (ex. la date de naissance d’une personne).

Des graphes à tout faire

Que ce soit au sein d’un même graphe ou entre des graphes différents, on trouve des connaissances de natures très variées dans ces graphes. Les connaissances peuvent être organisées dans des arbres pour une taxonomie d’espèces, ou plutôt en réseau pour un réseau social ou pour des liens entre sites web.  On peut créer des ponts entre différents graphes de connaissances notamment en réutilisant des sommets de l’un dans l’autre. Par exemple, un graphe de connaissance géographique capturant des villes, des reliefs, des frontières, pourra en certains sommets rejoindre notre graphe sur la musique quand la description d’un concert indiquera le lieu de cet évènement.

Dans la pratique, une distinction peut se faire entre deux grandes familles de graphes de connaissances : les graphes de connaissance ouverts et les graphes de connaissance privés notamment les graphes d’entreprise.

Les graphes de connaissance ouverts sont publiés en ligne comme des biens publics. Certains sont publiés dans des domaines spécifiques, tels que les sciences naturelles (ex. le graphe UniProt décrivant les protéines), la géographie (ex. le graphe GeoNames) ou la musique (ex. le graphe de MusicBrainz). D’autres couvrent des connaissances générales comme DBpedia ou YAGO qui sont des graphes extraits de Wikipedia par des algorithmes, ou Wikidata qui est un graphe construit collaborativement par une communauté de volontaires.

Les graphes de connaissance d’entreprise sont généralement internes à celle-ci car ils font l’objet d’une utilisation commerciale ou sont au cœur de son système d’information. On en trouve dans tous les domaines, depuis l’industrie jusqu’aux différents acteurs de la finance en passant par les sites marchands, les services de relation client ou l’éducation.

Mais la variété des graphes de connaissance concerne bien d’autres aspects de ces structures. Ils peuvent être petits comme ceux qui capturent quelques données personnelles d’un individu ou très gros comme ceux qui forment les bases de connaissances biologiques. Ils peuvent être assez statiques comme un graphe de connaissances linguistiques du Latin ou très dynamiques comme ceux produits par le réseau des capteurs d’une ville.

Les connaissances communes d’un domaine : les schémas des graphes

En tant qu’êtres humains, nous pouvons déduire de l’exemple du graphe sur la musique que deux artistes se connaissent car ils jouent dans le même groupe. Nous pouvons déduire plus de choses que ce que les arêtes du graphe indiquent explicitement parce que nous faisons appel à des connaissances générales que nous partageons avec de nombreuses personnes. Pour un graphe plus spécialisé, ce phénomène se reproduit avec des connaissances partagées par les experts du domaine, les « connaissances de domaine ». Ces connaissances lorsqu’elles sont explicitement représentées en informatique sont appelées des « schémas » ou encore des vocabulaires ou des ontologies en fonction notamment du type de connaissances qu’ils capturent (ex. des connaissances pour valider la qualité des données vs. des connaissances pour déduire de nouvelles choses ; ou encore un lexique vs. une théorie formelle des catégories d’un domaine).

Ces schémas sont eux aussi des graphes de connaissances qui se relient aux autres, mais ils se concentrent sur des connaissances générales partagées, par exemple en indiquant que la catégorie « Musicien » est une sous-catégorie de « Personne » par une arête entre ces deux sommets, sans s’intéresser à un musicien ou une personne en particulier.

Graphe de connaissances et schéma

 Les graphes de connaissances et leurs schémas sont alors utiles à diverses méthodes, notamment d’apprentissage et de raisonnement et permettent d’améliorer les réponses à nos requêtes, la classification automatique, la recherche d’incohérences, la suggestion de nouvelles connaissances, etc.

Ce sont de telles connaissances qui permettent à un moteur de recherche de capturer et de répondre, à la question « quelle est la date de naissance de Dave Brubeck ? » directement « le 6 décembre 1920 », plutôt que de vous proposer comme réponses une liste de pages du web

L’adoption d’un même schéma par plusieurs acteurs d’un domaine ou par plusieurs graphes de connaissances permet aussi à ces derniers d’être des éléments clefs dans l’intégration de données et l’intégration d’applications dans ce domaine.

La flexibilité des graphes et de leurs schémas est particulièrement importante lorsque l’on s’intéresse à découvrir des données dans un processus continuel par exemple lorsque ces données sont obtenues en parcourant le web en permanence ou lorsqu’elles sont issues de nouvelles expériences et analyses biologiques arrivant quotidiennement.

La vie rêvée d’un graphe

Les méthodes et outils de création et enrichissement de graphes de connaissances se basent sur des sources de données diverses qui peuvent aller du texte ou de la donnée brute, aux données très structurées. De plus, la flexibilité et l’extensibilité naturelle des graphes de connaissance se prête à une approche incrémentale et agile partant d’un petit graphe initial qui est progressivement enrichi à partir de sources multiples.

Ces extractions qui viennent nourrir les graphes seront généralement incomplètes ou en doublons, avec des contradictions ou même des erreurs. Un second ensemble de méthodes et outils s’intéresse à évaluer et raffiner les graphes de connaissances pour en assurer la qualité et, par répercussion, la fiabilité des applications construites au-dessus.

La variété des graphes de connaissances implique aussi une variété d’outils plus ou moins adaptés aux différents usages. Un outil performant pour un graphe de connaissances pourra se révéler inadapté pour un autre s’ils ont différentes caractéristiques en termes de dynamicité, de traitement ou de taille par exemple.

Outre l’extraction de connaissances qui les nourrit, les graphes de connaissance ont un autre lien particulier avec l’intelligence artificielle : ils font en effet partie des modèles de données de choix quand il s’agit de fournir les entrées ou de capturer les sorties des algorithmes que ce soit pour simuler un raisonnement ou un apprentissage. Le graphe de connaissance peut donc aussi jouer un rôle important dans l’intégration de différentes méthodes d’intelligence artificielle.

Ce double couplage de l’intelligence artificielle et des graphes de connaissance permet d’envisager un cercle vertueux ou le graphe de connaissances en entrée est suffisamment riche pour permettre des traitements intelligents et, en retour, les traitements intelligents augmentent et améliorent la qualité et l’accès au graphe. Dans l’exemple sur la musique, le graphe peut ainsi permettre en entrée d’améliorer un moteur de recherche avec des raisonnements ou de fournir des exemples pour entrainer une méthode d’apprentissage à reconnaitre un genre musical et, en retour, ces mêmes algorithmes d’intelligence artificielle peuvent nous permettre de détecter des manques ou des oublis dans le graphe et de l’améliorer par exemple en suggérant le genre d’un morceau qui manquait dans le graphe.

L’âge de graphe

Comme pour d’autres sujets en intelligence artificielle, si l’on regarde l’histoire des graphes de connaissances, plutôt que de dire qu’il s’agit d’une nouveauté on pourrait dire qu’il s’agit d’un regain d’intérêt dû à un certain nombre de progrès et d’évolutions du contexte scientifique, technique et économique.

Arbre de Porphyre de Tyr pour son Introduction aux Catégories d’Aristote (vers 268) et représenté par Boèce au 6e siècle

On trouve des diagrammes de représentations de connaissances et raisonnements dès l’antiquité et, en mathématique, les graphes sont introduits et utilisés pour représenter une variété de réseaux plus ou moins complexes. Au 19e siècle, on représente des connaissances linguistiques sous forme de graphes. Au début du 20e siècle, les sociogrammes capturent les connaissances sociales. Au début de la deuxième moitié du 20e siècle, les réseaux sémantiques font le lien entre modèles de mémoire humaine et représentation informatique.

Sociogrammes de J. L. Moreno dans son livre “Who Shall Survive: A New Approach to the Problem of Human Interrelations” 1934

 

Le besoin de langages de haut niveau pour gérer automatiquement des données numériques indépendamment de leurs traitements et la recherche de l’indépendance aux représentations en machine vont encourager les progrès en matière de modèles de données en général et de graphes de données en particulier. Les années suivantes verront la proposition du modèle relationnel et l’émergence des bases de données, du modèle de graphe Entité-Relation, la formalisation logique des réseaux sémantiques, les modèles de frames et les graphes conceptuels, la programmation logique, les systèmes à base de règles et leur application aux systèmes experts et systèmes à base de connaissances, notamment sur des bases de graphes.

Exemple de Graphe Conceptuel (« John va à Boston en bus ») de John Sowa conçu dès les années 70

Dans les années 80 et 90, les langages orientés objets suivis par les représentations graphiques comme UML, mais aussi le développement des notions de schéma et d’ontologies en base de données et en représentation des connaissances renforcent encore l’indépendance des représentations et enrichissent les modèles de graphes de connaissances devenant plus modulaires et réutilisables. Le compromis entre le pouvoir expressif des modèles de représentation des connaissances et la complexité informatique de leur traitement est alors systématiquement étudié.

Le terme de Knowledge Graph (graphe de connaissance) apparait dans des titres de publications académiques à la fin des années 80 et au début des années 90 mais ne se répandra pas vraiment avant la deuxième décennie du siècle suivant. Internet puis le Web vont aussi augmenter à la fois le besoin et les solutions pour représenter, traiter et échanger des données. En particulier, la fin des années 90 voit le lancement au W3C (consortium de standardisation du Web) des langages standards du Web qui nous permettent maintenant de représenter, publier, interroger valider et raisonner sur des graphes de connaissances sur la toile.

Des années 2000 à nos jours, on assiste avant tout au déluge des données, notamment en termes de volume et d’hétérogénéité, suivi par le renouveau de l’intelligence artificielle nourrie par ces données. Dans ce contexte, les graphes de connaissances apparaissent comme un moyen de relier et d’intégrer ces données et leurs métadonnées. Sur le Web, les graphes de connaissances publics apparaissent sous le terme de Linked Data (Données Liées). Facebook annonce son Open Graph Protocol en 2010 et en 2012, Google annonce un produit appelé Knowledge Graph après son rachat de l’entreprise Freebase quelques années avant. A ce stade, beaucoup de vieilles idées atteignent une popularité mondiale et commence alors une adoption massive des graphes de connaissances par de grandes entreprises dans tous les domaines.

On lie… un peu… beaucoup… à l’infini

Les graphes de connaissances sont donc des ressources numériques en pleine ascension, des graphes de données destinés à accumuler et à transmettre des connaissances, dont les sommets représentent des entités d’intérêt et dont les arêtes représentent leurs relations. Ils deviennent le substrat commun à beaucoup d’activités humaines et informatiques, la mémoire collective de communautés hybrides d’intelligences artificielles et naturelles. Ils ne cessent de grandir, de s’enrichir et de se relier entre eux sur virtuellement tous les sujets. Il y a donc de fortes chances que les défis et résultats des travaux sur les graphes de connaissances soient encore pour longtemps au croisement de multiples disciplines et domaines d’activité, avec un fort potentiel de retombées sociétales.

Fabien Gandon, Inria

Pour en savoir plus… vous aussi suivez les liens :

Trois références sur les différentes facettes et activités autour des graphes de connaissances :

  • – Hogan et al., Knowledge Graphs, 24 Jan 2021, arXiv:2003.02320
  • – Claudio Gutierrez and Juan F. Sequeda. 2021. Knowledge graphs. Commun. ACM 64, 3 (March 2021), 96–104. DOI: https://doi.org/10.1145/3418294
  • – Michel Chein et Marie-Laure Mugnier, Graph-based Knowledge Representation, 2009, Springer, ISBN 978-1-84800-286-9

 

Quatre références sur les graphes de connaissances sur le Web et les données liées :

  • – Fabien Gandon. A Survey of the First 20 Years of Research on Semantic Web and Linked Data. Revue des Sciences et Technologies de l’Information – Série ISI : Ingénierie des Systèmes d’Information, Lavoisier, 2018, ⟨3166/ISI.23.3-4.11-56⟩. ⟨hal-01935898⟩
  • – Allemang, D., Hendler, J., and Gandon, F. (2020). SemanticWeb for the Working Ontologist. ACM Books, ISBN-13: 978-1450376143
  • – Michael Uschold, Demystifying OWL for the Enterprise, ISBN: 9781681731278
  • – Fabien Gandon, Catherine Faron, Olivier Corby, Le web sémantique – Comment lier les données et les schémas sur le web ? Dunod, 2012, ISBN-13 ‏ : ‎ 978-2100572946

Entrez dans le monde de l’IA !

Depuis le 25 septembre 2021, la Maison des Mathématiques et de l’Informatique à Lyon a rouvert ses portes et présente une nouvelle exposition sur l’intelligence artificielle, « Entrez dans le monde de l’IA ». Quelle chance ils ont ces Lyonnais !  Serge Abiteboul et Laurence Chevillot
Image de l’exposition (© Benoit Leturcq )

Qu’allez-vous trouver dans cette exposition ?

L’intelligence artificielle (IA), tout le monde en a sans doute entendu parler mais personne ne parle de la même chose. Pourtant, elle est présente dans votre quotidien, des publicités que vous recevez à votre appli de transport en passant par les jeux vidéo. Cette exposition vous permettra de découvrir et de tester des applications de l’IA, des plus sérieuses aux plus amusantes. Certaines sont tellement impressionnantes que vous aurez forcément envie de voir ce qui se cache derrière.

En manipulant et en expérimentant, venez découvrir l’apprentissage machine (« machine learning »), les réseaux de neurones, l’apprentissage profond (« deep learning ») ou encore l’apprentissage par renforcement. Pour comprendre comment une machine peut devenir « intelligente », le mieux, c’est encore de la voir apprendre en direct et, pourquoi pas, d’essayer de faire mieux qu’elle !

Cette exposition vous permettra d’entrer dans l’histoire de l’IA, sans se limiter au Deep Learning. Au travers d’une grande frise, vous découvrirez qu’elle est faite d’âges d’or et d’hivers, et qu’elle s’inspire de nombreuses disciplines (mathématiques, informatique, neurosciences, robotique…). Les regards croisés de spécialistes vous permettront de vous forger une réponse à la question : qu’est-ce donc que l’intelligence artificielle ?

Pourquoi iriez-vous voir une exposition sur l’IA ?

Dans les médias, l’IA est soit la solution à tous vos problèmes soit synonyme de catastrophe. Ces deux extrêmes ne reflètent pas la réalité de la recherche en IA, qui, si elle devenue récemment populaire dans l’industrie, s’est développée depuis 70 ans dans le monde académique. En donnant la parole à des chercheurs et chercheuses universitaires qui ont fait et font encore l’IA, cette exposition porte un regard apaisé sur l’IA, loin des projecteurs.

« Entrez dans le monde de l’IA » a été créée par Fermat Science, la Maison des Mathématiques et de l’Informatique, l’Institut Henri Poincaré, sous la responsabilité de deux commissaires scientifiques de l’ENS de Lyon, Aurélien Garivier et Alexeï Tsygvintsev. Ce sont des spécialistes d’horizons variés travaillant dans le domaine de l’intelligence artificielle qui ont permis de vous proposer un discours mesuré et raisonnable.

Montrer ce qu’est l’IA, ce qu’elle peut, ce qu’elle ne peut pas, ce qu’elle pourra peut-être : voilà ce que vous découvrirez !

Un exemple de manipulation de l’exposition (© Benoit Leturcq)

Et concrètement, quelles manipulations pourrez-vous faire dans l’exposition ?

L’intelligence artificielle et les jeux sont de bons amis. AlphaGo Zero a battu des champions du jeu de Go, en apprenant par lui-même, sans observer les humains. Dans l’exposition, vous pourrez jouer contre une machine physique qui apprend à jouer… au jeu des allumettes, moins complexe que le jeu de Go. La règle du jeu ? 8 allumettes sont placées en ligne entre deux joueurs. À tour de rôle, chaque joueur doit enlever une ou deux allumettes. Celui qui enlève la dernière a perdu. Réfléchissez à la meilleure stratégie pour vous assurer la victoire et venez ensuite défier cette intelligence artificielle sans ordinateur  !

La machine est constituée de huit poches, correspondant aux huit allumettes sur la table. Dans chacune se trouve des billes jaunes et noires qui sont, au départ, en nombre égal. Vous jouez une partie contre elle en retirant des allumettes et quand c’est à elle de jouer, vous tirez une bille dans la poche en face de l’allumette qu’elle peut enlever. Si la bille est jaune, la machine enlève une allumette. Si elle est noire, elle prend deux allumettes. Une fois la partie terminée, il y a deux possibilités :

  • Vous avez gagné : il faut punir la machine pour qu’elle apprenne de ses erreurs. Vous défaussez les billes tirées. Dans les poches, il y a moins de billes de couleurs qui correspondent à une mauvaise succession de coups. Les parties suivantes, la machine aura moins tendance à les jouer.
  • Vous avez perdu : il faut récompenser la machine en renforçant ses coups. Vous allez remettre pour chaque poche jouée la bille tirée et en rajouter une de la même couleur. La machine aura plus de chance de jouer cette série de coups gagnants.

Et la machine apprend ! Elle joue au hasard du début à la fin mais le renforcement change les probabilités de chaque coup. Petit à petit, la machine va avoir de plus en plus de chances de faire les bons coups, ceux que vous avez trouvé en réfléchissant à la stratégie optimale.

En intelligence artificielle, ce principe est appelé l’apprentissage par renforcement. Sans avoir besoin de maîtriser un quelconque langage de programmation, cette machine vous montre simplement et sans ordinateur, comment un tel apprentissage fonctionne.

Un exemple de manipulation de l’exposition (© Benoit Leturcq)

Comment venir voir l’exposition ?

« Entrez dans le monde de l’IA » est ouverte du 25 septembre 2021 au 30 juin 2022, à la Maison des Mathématiques et de l’Informatique (MMI), 1, place de l’Ecole, 69007 Lyon.

La MMI propose de nombreuses visites guidées mais aussi de multiples activités et ateliers autour de l’IA au public les samedis après-midis.  Informations et réservations sur mmi-lyon.fr.

Olivier Druet, directeur de la MMI, et Nina Gasking, chargée de médiation de la MMI

Image de l’exposition (© Benoit Leturcq)