Sémantique des langages de programmation

Alan Schmitt est un chercheur Inria et son représentant au comité Ecma TC39 pour la standardisation de JavaScript, le langage de programmation le plus utilisé dans les pages web. Alan est aussi auteur d’une description formelle de la sémantique de JavaScript et d’un « debugger » pour le même langage. Dans cet essai, il nous explique l’importance de définir précisément la sémantique des langages de programmation. Vous pouvez aussi regarder son séminaire au Collège de France sur le sujet. Tamara Rezk

On trouve des ordinateurs partout : dans nos véhicules, dans nos poches sous forme de téléphone, dans notre électro-ménager. Donc on trouve des programmes partout. Mais que sont ces programmes, et comment les écrit-on ?

Un programme est une liste d’instructions qui indique à l’ordinateur ce qu’il doit faire. L’ordinateur étant une machine, il va suivre ces instructions à la lettre, donc il vaut mieux ne pas se tromper. Le problème, c’est qu’un ordinateur est conçu pour aller vite. Par conséquent, il ne comprend que peu d’instructions différentes et elles correspondent à des actions très simples. Écrire directement un programme en utilisant ces instructions basiques est quasiment impossible. C’est comme essayer d’expliquer à quelqu’un comment venir chez vous en utilisant seulement « avancer d’un mètre », « tourner à gauche » et « tourner à droite ». C’est pour cela que les personnes qui programment utilisent des langages de programmation. Ce sont des langages qui rendent plus naturelle la description de ce qu’il faut faire. Par exemple, pour venir chez moi, il faut « prendre la sortie 8 de la voie rapide, passer deux ronds-points, et tourner à gauche au troisième rond-point ». Les instructions qu’un ordinateur comprend sont dites de bas niveau, et celles qu’un humain manipule de haut niveau.

Bien sûr, un ordinateur n’est pas capable d’exécuter un programme de haut niveau, il faut d’abord le traduire en un programme de bas niveau. Une petite remarque rigolote en passant, ce traducteur est lui-même un programme, souvent très compliqué, et qu’il est important de vérifier.

Un langage de programmation est un vrai langage, car il permet de communiquer à l’ordinateur ce que l’on veut qu’il fasse. La sémantique d’un programme, c’est la définition de ce que l’ordinateur fait lorsqu’il exécute la traduction du programme. Par exemple, la sémantique de « passer un rond point », c’est prendre la sortie du rond-point opposée à l’entrée. Comme les personnes qui programment préfèrent raisonner en haut niveau, il vaut mieux que la sémantique soit précisément décrite pour qu’il n’yavait pas de différence entre ce que l’on croit que le programme va faire et ce qui va vraiment se passer.

C’est pour cela qu’il est très utile de définir des sémantiques de manière formelle, c’est à dire mathématiquement rigoureuse, si on veut pouvoir s’assurer qu’un programme fera bien ce que l’on attend de lui. Pour revenir sur l’exemple des ronds-points, il faut expliquer ce que veut dire « passer un rond-point » quand il n’y a pas de sortie exactement en face. L’ambiguïté peut coûter très cher : par exemple, deux programmes échangeant des données doivent utiliser les mêmes unités, sinon c’est la catastrophe. Ma recherche porte justement sur la définition de sémantiques formelles, en particulier sur JavaScript.

Un exemple d’un programme JavaScript:

function fact(n) {
if (n < 1) {
return(1)
} else {
return(n * fact(n-1))
}
}
fact(5)

JavaScript est le langage utilisé pour enrichir les pages web, et il est très complexe. On utilise souvent des programmes JavaScript avec des données personnelles, comme quand on navigue sur des réseaux sociaux ou quand on lit son mail, donc il vaut mieux s’assurer que ces programmes soient corrects. Et pour pouvoir parler de correction d’un programme, il faut commencer par donner une sémantique précise au langage.

Alan Schmitt, Inria Rennes

Références:

Martin Bodin, Arthur Charguéraud, Daniele Filaretti, Philippa Gardner, Sergio Maffeis, Daiva Naudziuniene, Alan Schmitt, and Gareth Smith. A Trusted Mechanised JavaScript Specification. In Proceedings of the 41st ACM SIGPLAN-SIGACT Symposium on Principles of Programming Languages (POPL 2014), pages 87–100, San Diego, CA, USA, January 2014.

Arthur Charguéraud, Alan Schmitt, and Thomas Wood. JSExplain: A Double Debugger for JavaScript. In The Web Conference 2018, pages 1–9, Lyon, France, April 2018.

Informatique pour tou·te·s pendant le confinement

L’association France-IOI et ses partenaires mettent à votre disposition un ensemble d’activités interactives réalisables à la maison, pour progresser en programmation, algorithmique, cryptanalyse, et en pensée informatique.

 

 

Il s’agit d’activités pour tous les âges, de 6 à 18 ans, et pour tous les niveaux, du niveau débutant absolu jusqu’à l’entraînement pour les Olympiades.

Les activités sont ouvertes à tous. Les enseignants, s’ils le souhaitent, peuvent inscrire leurs élèves et suivre leurs progrès à distance.

Des activités pour tous, même ceux qui n’y connaissent rien à l’informatique !

Sont inclus des parcours d’apprentissage et des archives de concours :

  • Le concours Castor, pour découvrir l’informatique,
    (700 000 partipant·e·s)
  • Le concours Algoréa, pour apprendre les bases de la programmation,
    (220 000 partipant·e·s)
  • Le concours Alkindi, pour s’initier à la cryptanalyse,
    (60 000 partipant·e·s)
  • Le site France-ioi, pour progresser en algorithmique,
    (1.5 millions de sujets résolus)
  • Les contenus SNT, développé pour les élèves de seconde,
  • Les contenus « programmation dès 6 ans », même sans savoir lire.

Le tout en accès gratuit et illimité :

http://www.france-ioi.org/confinement/

 

Pour dépasser ses idées reçues sur l’informatique

Qui n’a jamais entendu dire « c’est la faute de l’ordinateur » ou « l’informatique ce n’est pas pour les filles », ou encore que « les algorithmes décident à notre place » ? Ces préjugés ont la vie dure… Interstices nous propose une collection d’articles pour comprendre certaines de ces idées préconçues et se forger une vision qui permet de les dépasser.

Plus que de réfuter certaines de ces idées reçues et contrer des arguments irrationnels qui se répandent, il s’agit d’inviter à développer avec bienveillance son esprit critique.

Retrouvez le dossier sur le site d’Interstices.

Ce billet est repris du site de médiation scientifique pixees.fr, crédit image © Interstices

Une éthique de l’IA « au futur »

Pas une journée sans que nous n’entendions parler d’intelligence artificielle, et notamment, de plus en plus souvent, des questions éthiques que des outils basés sur cette technologie soulèvent.  Co-titulaire de la Chaire Droit et éthique de la santé numérique à l’université catholique de Lille, Alain Loute s’interroge sur la capacité à questionner les futurs développements de la technologie et nous entraîne vers une réflexion sur l’éthique composée au futur. Pascal Guitton

L’Intelligence Artificielle (IA) est au cœur de nombreux débats et polémiques dans la société. Nul domaine de la vie sociale et économique ne semble épargné par le sujet. Ce qui est intéressant à souligner, c’est que dans tous les débats aujourd’hui autour de l’IA, l’éthique est à chaque fois convoquée. Personne ne semble réduire la question de l’IA à une simple problématique technique. En atteste actuellement la prolifération des rapports sur l’éthique de l’IA, produits tant par des entreprises privées, des acteurs publics ou des organisations de la société civile.

Parmi les rapports, les propos peuvent diverger quelque peu, mais ils semblent tous souscrire à une même forme d’impératif éthique. Il s’agit de l’injonction à anticiper les impacts des technologies. L’éthique – pour reprendre des termes du philosophe Hans Jonas – doit se faire aujourd’hui « éthique du futur ». Anticiper les impacts du développement de l’IA devient donc un impératif éthique.

Cette photo montre la couverture du livre intitulé Pour une éthique du futur écrit par Hans Jonas
Couverture de l’ouvrage Pour une éthique du futur – Editions Rivage Poche Petite bibliothèque

Un tel impératif n’est pas neuf. Il est notamment au cœur de la démarche de la « recherche et l’innovation responsable » prôné par la Commission Européenne. Il me semble qu’un tel concept analogue de responsabilité est également au cœur des récents rapports français sur l’IA. Je me centrerai ici sur trois rapports récents : celui de la CNIL [1], le rapport Villani [2], ainsi que le rapport de la CERNA [3]. Commençons par le rapport Villani. Ce rapport précise que : « la loi ne peut pas tout, entre autres car le temps du droit est bien plus long que celui du code. Il est donc essentiel que les « architectes » de la société numérique (…) prennent leur juste part dans cette mission en agissant de manière responsable. Cela implique qu’ils soient pleinement conscients des possibles effets négatifs de leurs technologies sur la société et qu’ils œuvrent activement à les limiter ».

Le mouvement est double : anticiper l’aval du développement technologique, pour – en amont – modifier la conception afin d’empêcher les impacts éthiques négatifs. A l’appui de cette démarche, le rapport Villani envisage d’obliger les développeurs d’IA à réaliser une évaluation de l’impact des discriminations (discrimination impact assessment ) afin de « les obliger à se poser les bonnes questions au bon moment ». On retrouve également dans le rapport de la CNIL, une recommandation similaire : « Travailler le design des systèmes algorithmiques au service de la liberté humaine ». Anticiper pour intégrer l’éthique au plus tôt du développement technologique. La volonté de mettre en œuvre une « éthique au futur » est tout à fait louable mais de nombreuses questions restent en suspens que je voudrais passer en revue.

Le futur est-il anticipable ?

On peut tout d’abord poser une critique d’ordre épistémologique. Comment juger éthiquement des potentialités ouvertes par le numérique ? Face à un tel développement, ne sommes-nous pas plongés dans ce que les économistes appellent une « incertitude radicale » ? Les possibles ouverts par les « Big Data » sont un bon exemple de cette incertitude radicale. Sous cette appellation, il est fait référence au phénomène de prolifération ininterrompue et exponentielle des données. Cette évolution a fait évoluer le langage technique utilisé pour mesurer la puissance de stockage des données. De l’octet, nous sommes passés au mégaoctet, au gigaoctet, etc. Comme le souligne Eric Sardin, avec des unités de mesures comme le petaoctet, le zetaoctet ou le yotaoctet, il est clair que nous manions des unités de mesure qui excèdent purement et simplement nos structures humaines d’intelligibilité [4]. De plus, les rapports n’insistent-ils pas tous sur le caractère imprévisible de certains algorithmes d’apprentissage ? Ayant conscience de cette imprévisibilité, la CNIL défend, dans son rapport un principe de « vigilance » qui institue l’obligation d’une réflexion éthique continue. Mais plus fondamentalement, ne faut-il pas reconnaître que tout n’est pas anticipable ?

Photo credit: Ian-S on Visualhunt.com / CC BY-NC-ND

Un futur « colonisé » ?

Il est également important de prendre conscience que ce futur que l’on nous enjoint d’anticiper est saturé de peurs, d’attentes et de promesses. Le futur n’est pas un temps vide, mais un temps construit par des scénarios, road-maps et discours prophétiques. Pour le dire en reprenant une expression de Didier Bigo, le futur est « colonisé » par de nombreux acteurs qui essaient d’imposer leur vision comme une matrice commune de toute anticipation du futur. Initialement, il a forgé cette expression dans le cadre d’une réflexion sur les technologies de surveillance, pour désigner les prétentions et stratégies des experts qui appréhendent le futur comme un « futur antérieur, comme un futur déjà fixé, un futur dont ils connaissent les événements » [5].

L’éthique robotique nous fait courir le même risque d’une colonisation du futur comme l’illustre Paul Dumouchel et Luisa Damiano dans leur livre Vivre avec des robots. Ces derniers pensent notamment à des auteurs comme Wallach et Allen, dans Moral Machines, Teaching Robots Right from Wrong, qui proposent un programme visant à enseigner aux robots la différence entre le bien et le mal, à en faire des « agents moraux artificiels ». Mais « programmer » un agent moralement autonome n’est-il pas une contradiction dans les termes ? Mon propos n’est pas de rentrer ici dans un débat métaphysique à ce sujet. Je voudrais plutôt souligner le fait qu’un tel programme a littéralement « colonisé » l’horizon d’attente des débats sur l’éthique robotique. Suivons Dumouchel et Damiano pour saisir ce point. Ils relèvent que, de l’avis même de certains des protagonistes de l’éthique robotique, « nous sommes encore loin de pouvoir créer des agents artificiels autonomes susceptibles d’être de véritables agents moraux. Selon eux, nous ne savons même pas si nous en serons capable un jour. Nous ne savons pas si de telles machines sont possibles » [6]. Une des réponses avancées par les tenants de l’éthique robotique est alors qu’« il ne faut pas attendre pour élaborer de telles règles que nous soyons pris au dépourvu par l’irruption soudaine d’agents artificiels autonomes. Il est important déjà à se préparer à un avenir inévitable. Les philosophes doivent dès aujourd’hui participer au développement des robots qui demain peupleront notre quotidien en mettant au point des stratégies qui permettent d’inscrire dans les robots des règles morales qui contraignent leur comportements » [7].

Ce thème de l’autonomisation inévitable des machines est puissant et tout à fait problématique. Parmi tous les possibles, l’attention se trouve focalisée sur ce scénario posé comme « inéluctable ». Une telle focalisation de l’attention pose plusieurs problèmes. D’une part, elle pose des questions épistémologiques : d’où vient que l’on puisse soutenir cette inéluctabilité ? D’autre part, pour Dumouchel et Damiano, cette croyance, bien que non rationnelle, a des effets réels certains : elle détourne l’attention d’enjeux de pouvoir qui se posent dès à présent, à savoir que l’autonomisation des robots, le fait de leur déléguer des décisions et de leur laisser choisir par eux-mêmes signifie peut-être la perte du pouvoir de décision de quelques-uns, mais intensifie aussi la concentration de la décision dans les mains de certains (les programmateurs, les propriétaires des robots, etc.).

Image extraite du film Forbiden Planet (USA, 1956) – MGM productions

Qui anticipe ?

Autre question connexe : qui effectuera cette anticipation des impacts éthiques ? Qui seront les auteurs des discriminations impacts ? Ne s’agit-il que des seuls chercheurs ?  Sur ce point, tous les rapports précisent bien que cet impératif éthique d’anticipation ne concerne pas que ceux-ci. Le rapport de la CERNA précise que « le chercheur doit délibérer dès la conception de son projet avec les personnes ou les groupes identifiés comme pouvant être influencés ». Pour le rapport Villani, « Il faut créer une véritable instance de débat, plurielle et ouverte sur la société, afin de déterminer démocratiquement quelle IA nous voulons pour notre société ». Quant à la CNIL, elle affirme dans son rapport que « Les systèmes algorithmiques et d’intelligence artificielle sont des objets socio-techniques complexes, modelés et manipulés par de longues et complexes chaînes d’acteurs. C’est donc tout au long de la chaîne algorithmique (du concepteur à l’utilisateur final, en passant par ceux qui entraînent les systèmes et par ceux qui les déploient) qu’il faut agir, au moyen d’une combinaison d’approches techniques et organisationnelles. Les algorithmes sont partout : ils sont donc l’affaire de tous ».

Les rapports cités portent bien une attention à la question de savoir QUI anticipe. Néanmoins, l’injonction à délibérer avec « les personnes ou les groupes identifiés comme pouvant être influencés » (CERNA) ne suffit pas. Il faut que la détermination de la liste de ses personnes concernées soit un objet même de réflexion et de recherche et non pas un prérequis de cette démarche d’anticipation. En effet, l’anticipation de ces impacts peut nous faire prendre conscience de nouvelles parties prenantes à intégrer dans la réflexion. De plus, quelle forme donner à une éthique de l’IA qui soit « l’affaire de tous » ? Comment l’instituer ?

Une prise en compte du temps qui occulte l’espace

Enfin, une dernière question laissée en suspens est le privilège accordé au temps par rapport à la spatialité dans la réflexion éthique. Le développement du numérique et en particulier de l’IA ont contribué à l’idée que la virtualisation des échanges réduirait les distances et l’importance des lieux. Une telle croyance est par exemple au cœur du développement de la télémédecine : un malade chronique peut être surveillé indifféremment à son domicile ou en institution, un spécialiste peut être sollicité par télé-expertise quelle que soit la distance qui le sépare de son confrère, etc. Or comme l’affirment les sociologues Alexandre Mathieu-Fritz et Gérald Gaglio, « la télémédecine ne conduit pas à une abolition des frontières et des espaces, contrairement à une vision du sens commun souvent portée implicitement par les politiques publiques » [8]. Pour pouvoir être effectif, les actes de télémédecine demandent un certain aménagement des espaces. Dans un travail ethnographique mené auprès de patients télé-surveillés, Nelly Oudshoorn, a démontré combien les lieux, l’espace domestique et l’espace public influencent et façonnent la manière dont les technologies sont implémentées, de même qu’à l’inverse, ces technologies transforment littéralement ces espaces. La maison devient ainsi un lieu hybride, un lieu de vie médicalisé. Cette dimension spatiale ne semble pas réellement prise en compte.

Pourtant, un auteur comme Pierre Rosanvallon, nous rappelait il y a une dizaine d’année dans son ouvrage La légitimité démocratique que la légitimité de l’action publique passe de plus en plus aujourd’hui par ce qu’il appelle un « principe de proximité », une attention aux contextes locaux. En atteste aujourd’hui la promotion d’une démarche d’« expérimentation » dans le domaine de l’IA en santé : « afin de bénéficier des avancées de l’IA en médecine, il est important de faciliter les expérimentations de technologie IA en santé en temps réel et au plus près des usagers, en créant les conditions réglementaires et organisationnelles nécessaires » (Rapport Villani). De manière plus inductive et partant du terrain, il s’agirait de privilégier une nouvelle construction de l’action publique : « expérimenter l’action publique » comme nous l’y invite Clément Bertholet et Laura Létourneau [9].

Si cette démarche d’expérimentation invite à prendre en compte les réalités contextuelles locales, l’objectif reste toujours la « scalabilité » (le fait de pouvoir être utilisé à différentes échelles). Je reprends ce terme à l’anthropologue Anna Lowenhaupt Tsing qui le définit comme : « la capacité de projets à s’étendre sans que le cadre de leur hypothèse ne change » [10]. On expérimente localement certes, mais me semble-t-il pour dégager ce qui est généralisable et opérationnel de manière indifférenciée à différentes échelles. Or, un dispositif de télésurveillance – pour prendre cet exemple – peut-il s’appliquer dans tout contexte ? Tous les lieux de vie peuvent-ils devenir des lieux de soin ?

L’éthique de l’IA prend-elle bien en compte le fait que les impacts de l’IA vont se différencier selon les lieux et les espaces ? Où doivent prendre place les « ethical impact assessment » ? Doivent-ils être centralisés ou localisés dans les lieux de conceptions des objets techniques ? Plus fondamentalement, est-il possible de déterminer ces impacts sans se déplacer ? Sur ce point, la cartographie du paysage global de l’éthique de l’IA réalisée par A. Jobin et alii [11] est tout à fait instructive. Ils ont réalisé une analyse comparative de 84 rapports sur l’éthique de l’IA. Il s’agit de document produits par des agences gouvernementales, des firmes privées, des organisations non lucratives ou encore des sociétés savantes. Leur analyse met en avant le fait que les rapports sont produits majoritairement aux USA (20 rapports), dans l’Union européenne (19), suivi par la Grande-Bretagne (14) et le Japon (4). Les pays africains et latino-américains ne sont pas représentés indépendamment des organisations internationales ou supra-nationales. Cette distribution géographique n’est-elle pas significative de l’occultation de cette dimension spatiale ?

Alain Loute (Centre d’éthique médicale, labo ETHICS EA 7446, Université Catholique de Lille)

[1] Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, CNIL, 2017.

[2] Donner un sens à l’intelligence artificielle, Pour une stratégie nationale et européenne, Rapport Villani, 8 mars 2018.

[3] Ethique de la recherche en apprentissage machine, Avis de la Commission de réflexion sur l’Ethique de la Recherche en sciences et technologies du Numérique d’Allistene (CERNA), juin 2017

[4] E. Sardin, La vie algorithmique, Critique de la raison numérique, Ed. L’échappée, Paris 2015, pp. 21-22.

[5] D. Bigo, « Sécurité maximale et prévention ? La matrice du futur antérieur et ses grilles », in B. Cassin (éd.), Derrière les grilles, Sortons du tout-évaluation, Paris, Fayard, 2014, p. 111-138, p. 126.

[6] P. Dumouchel et L. Damiano, Vivre avec des robots, Essai sur l’empathie artificielle, Paris, Seuil, 2016, p. 191.

[7] ibid., p. 191-192.

[8] A. Mathieu-Fritz et G. Gaglio, « À la recherche des configurations sociotechniques de la télémédecine, Revue de littérature des travaux de sciences sociales », in Réseaux, 207, 2018/1, pp. 27-63.

[9] C. Bertholet et L. Létourneau, Ubérisons l’Etat avant que les autres ne s’en chargent, Paris, Armand Collin, 2017, p.182.

[10] A. Lowenhaupt Tsing, Le champignon de la fin du monde, Sur la possibilité de vivre dans les ruines du capitalisme, Paris, La Découverte, 2017, p. 78.

[11] A. Jobin, M. Ienca, & E. Vayena, « The global landscape of AI ethics guidelines », in Nat Mach Intell, 1, 2019, pp. 389–399.

L’Internet pendant le confinement

On parle beaucoup en ce moment d’une « saturation des réseaux », de « risques pour l’Internet » … entre info et intox, alors donnons la parole à Stéphane Bortzmeyer, pour nous expliquer ce qu’il en est. Cet article est repris de framablog.org et publié sous licence Creative Commons By-SA.
Serge Abiteboul.

On parle beaucoup en ce moment d’une « saturation des réseaux », de « risques pour l’Internet », qui justifieraient des mesures autoritaires et discriminatoires, par exemple le blocage ou le ralentissement de Netflix, pour laisser de la place au « trafic sérieux ». Que se passe-t-il exactement et qu’y a-t-il derrière les articles sensationnalistes ?

La France, ainsi que de nombreux autres pays, est confinée chez elle depuis plusieurs jours, et sans doute encore pour plusieurs semaines. La durée exacte dépendra de l’évolution de l’épidémie de COVID-19. Certains travailleurs télétravaillent, les enfants étudient à la maison, et la dépendance de toutes ces activités à l’Internet a suscité quelques inquiétudes.

On a vu des médias, ou des dirigeants politiques comme Thierry Breton, réclamer des mesures de limitation du trafic, par exemple pour les services vidéo comme Netflix. Les utilisateurs qui ont constaté des lenteurs d’accès à certains sites, ou des messages d’erreur du genre « temps de réponse dépassé » peuvent se dire que ces mesures seraient justifiées. Mais les choses sont plus compliquées que cela, et il va falloir expliquer un peu le fonctionnement de l’Internet pour comprendre.

Copie d'écran du site du CNED, montrant un message d'erreur
Le site Web du CNED, inaccessible en raison des nombreux accès (mais le réseau qui y mène marchait parfaitement à ce moment).

Réseaux et services

D’abord, il faut différencier l’Internet et les services qui y sont connectés. Si un élève ou un enseignant essaie de se connecter au site du CNED (Centre National d’Enseignement à Distance) et qu’il récupère un message avec une  « HTTP error 503 », cela n’a rien à voir avec l’Internet, et supprimer Netflix n’y changera rien : c’est le site Web au bout qui est surchargé d’activité, le réseau qui mène à ce site n’a pas de problème. Or, ce genre de problèmes (site Web saturé) est responsable de la plupart des frustrations ressenties par les utilisateurs et utilisatrices. Résumer ces problèmes de connexion avec un « l’Internet est surchargé » est très approximatif et ne va pas aider à trouver des solutions aux problèmes. Pour résumer, les tuyaux de l’Internet vont bien, ce sont certains sites Web qui faiblissent. Ou, dit autrement, « Dire que l’Internet est saturé, c’est comme si vous cherchez à louer un appartement à la Grande Motte au mois d’août et que tout est déjà pris, du coup vous accusez l’A7 d’être surchargée et demandez aux camions de ne pas rouler. »

On peut se demander pourquoi certains services sur le Web plantent sous la charge (ceux de l’Éducation Nationale, par exemple) et d’autres pas (YouTube, PornHub, Wikipédia). Il y a évidemment de nombreuses raisons à cela et on ne peut pas faire un diagnostic détaillé pour chaque cas. Mais il faut noter que beaucoup de sites Web sont mal conçus. L’écroulement sous la charge n’est pas une fatalité. On sait faire des sites Web qui résistent. Je ne dis pas que c’est facile, ou bon marché, mais il ne faut pas non plus baisser les bras en considérant que ces problèmes sont inévitables, une sorte de loi de la nature contre laquelle il ne servirait à rien de se révolter. Déjà, tout dépend de la conception du service. S’il s’agit de distribuer des fichiers statiques (des fichiers qui ne changent pas, comme des ressources pédagogiques ou comme la fameuse attestation de circulation), il n’y a pas besoin de faire un site Web dynamique (où toutes les pages sont calculées à chaque requête). Servir des fichiers statiques, dont le contenu ne varie pas, est quelque chose que les serveurs savent très bien faire, et très vite. D’autant plus qu’en plus du Web, on dispose de protocoles (de techniques réseau) spécialement conçus pour la distribution efficace, en pair-à-pair, directement entre les machines des utilisateurs, de fichiers très populaires. C’est le cas par exemple de BitTorrent. S’il a permis de distribuer tous les épisodes de Game of Thrones à chaque sortie, il aurait permis de distribuer facilement l’attestation de sortie ! Même quand on a du contenu dynamique, par exemple parce que chaque page est différente selon l’utilisateur, les auteurs de sites Web compétents savent faire des sites qui tiennent la charge.

Mais alors, si on sait faire, pourquoi est-ce que ce n’est pas fait ? Là encore, il y a évidemment de nombreuses raisons. Il faut savoir que trouver des développeurs compétents est difficile, et que beaucoup de sites Web sont « bricolés », par des gens qui ne mesurent pas les conséquences de leurs choix techniques, notamment en termes de résistance à la charge. En outre, les grosses institutions comme l’Éducation Nationale ne développent pas forcément en interne, elles sous-traitent à des ESN et toute personne qui a travaillé dans l’informatique ces trente dernières années sait qu’on trouve de tout, et pas forcément du bon, dans ces ESN. Le « développeur PHP senior » qu’on a vendu au client se révèle parfois ne pas être si senior que ça. Le développement, dans le monde réel, ressemble souvent aux aventures de Dilbert. Le problème est aggravé dans le secteur public par le recours aux marchés publics, qui sélectionnent, non pas les plus compétents, mais les entreprises spécialisées dans la réponse aux appels d’offre (une compétence assez distincte de celle du développement informatique). Une petite entreprise pointue techniquement n’a aucune chance d’être sélectionnée.

D’autre part, les exigences de la propriété intellectuelle peuvent aller contre celles de la technique. Ainsi, si BitTorrent n’est pas utilisé pour distribuer des fichiers d’intérêt général, c’est probablement en grande partie parce que ce protocole a été diabolisé par l’industrie du divertissement. « C’est du pair-à-pair, c’est un outil de pirates qui tue la création ! » Autre exemple, la recopie des fichiers importants en plusieurs endroits, pour augmenter les chances que leur distribution résiste à une charge importante, est parfois explicitement refusée par certains organismes comme le CNED, au nom de la propriété intellectuelle.

Compter le trafic réseau

Bon, donc, les services sur le Web sont parfois fragiles, en raison de mauvais choix faits par leurs auteurs, et de réalisations imparfaites. Mais les tuyaux, eux, ils sont saturés ou pas ? De manière surprenante, il n’est pas facile de répondre à cette question. L’Internet n’est pas un endroit unique, c’est un ensemble de réseaux, eux-mêmes composés de nombreux liens. Certains de ces liens ont vu une augmentation du trafic, d’autres pas. La capacité réseau disponible va dépendre de plusieurs liens (tous ceux entre vous et le service auquel vous accédez). Mais ce n’est pas parce que le WiFi chez vous est saturé que tout l’Internet va mal ! Actuellement, les liens qui souffrent le plus sont sans doute les liens entre les FAI (Fournisseurs d’Accès Internet) et les services de vidéo comme Netflix. (Si vous voyez le terme d’appairage – peering, en anglais – c’est à ces liens que cela fait allusion.) Mais cela n’affecte pas la totalité du trafic, uniquement celui qui passe par les liens très utilisés. La plupart des FAI ne fournissent malheureusement pas de données publiques sur le débit dans leurs réseaux, mais certains organismes d’infrastructure de l’Internet le font. C’est le cas du France-IX, le principal point d’échange français, dont les statistiques publiques ne montrent qu’une faible augmentation du trafic. Même chose chez son équivalent allemand, le DE-CIX. (Mais rappelez-vous qu’à d’autres endroits, la situation peut être plus sérieuse.) Les discussions sur les forums d’opérateurs réseau, comme le FRnog en France, ne montrent pas d’inquiétude particulière.

Graphique montrant le trafic du France-IX
Le trafic total au point d’échange France-IX depuis un mois. Le début du confinement, le 17 mars, se voit à peine.
Statistiques du FAI FDN
Le trafic des clients ADSL du FAI (Fournisseur d’Accès Internet) FDN depuis un mois. L’effet du confinement est visible dans les derniers jours, à droite, mais pas spectaculaire.

Mais pourquoi est-ce qu’il n’y a pas d’augmentation massive et généralisée du trafic, alors qu’il y a beaucoup plus de gens qui travaillent depuis chez eux ? C’est en partie parce que, lorsque les gens travaillaient dans les locaux de l’entreprise, ils utilisaient déjà l’Internet. Si on consulte un site Web pour le travail, qu’on le fasse à la maison ou au bureau ne change pas grand-chose. De même, les vidéo-conférences (et même audio), très consommatrices de capacité du réseau, se faisaient déjà au bureau (si vous comprenez l’anglais, je vous recommande cette hilarante vidéo sur la réalité des « conf calls  »). Il y a donc accroissement du trafic total (mais difficile à quantifier, pour les raisons exposées plus haut), mais pas forcément dans les proportions qu’on pourrait croire. Il y a les enfants qui consomment de la capacité réseau à la maison dans la journée, ce qu’ils ne faisaient pas à l’école, davantage de réunions à distance, etc., mais il n’y a pas de bouleversement complet des usages.

Votre usage de l’Internet est-il essentiel ?

Mais qu’est-ce qui fait que des gens importants, comme Thierry Breton, cité plus haut, tapent sur Netflix, YouTube et les autres, et exigent qu’on limite leur activité ? Cela n’a rien à voir avec la surcharge des réseaux et tout à voir avec la question de la neutralité de l’Internet. La neutralité des réseaux, c’est l’idée que l’opérateur réseau ne doit pas décider à la place des utilisateurs ce qui est bon pour eux. Quand vous prenez l’autoroute, la société d’autoroute ne vous demande pas si vous partez en week-end, ou bien s’il s’agit d’un déplacement professionnel, et n’essaie pas d’évaluer si ce déplacement est justifié. Cela doit être pareil pour l’Internet. Or, certains opérateurs de télécommunications rejettent ce principe de neutralité depuis longtemps, et font régulièrement du lobbying pour demander la possibilité de trier, d’évaluer ce qu’ils considèrent comme important et le reste. Leur cible favorite, ce sont justement les plate-formes comme Netflix, dont ils demandent qu’elles les paient pour être accessible par leur réseau. Et certaines autorités politiques sont d’accord, regrettant le bon vieux temps de la chaîne de télévision unique, et voulant un Internet qu’ils contrôlent. Le confinement est juste une occasion de relancer cette campagne.

Mais, penserez-vous peut-être, on ne peut pas nier qu’il y a des usages plus importants que d’autres, non ? Une vidéo-conférence professionnelle est certainement plus utile que de regarder une série sur Netflix, n’est-ce pas ? D’abord, ce n’est pas toujours vrai : de nombreuses entreprises, et, au sein d’une entreprise, de nombreux employés font un travail sans utilité sociale (et parfois négatif pour la société) : ce n’est pas parce qu’une activité rapporte de l’argent qu’elle est forcément bénéfique pour la collectivité ! Vous n’êtes pas d’accord avec moi ? Je vous comprends, car, justement, la raison principale pour laquelle la neutralité de l’Internet est quelque chose de crucial est que les gens ne sont pas d’accord sur ce qui est essentiel. La neutralité du réseau est une forme de laïcité : comme on n’aura pas de consensus, au moins, il faut trouver un mécanisme qui permette de respecter les choix. Je pense que les Jeux Olympiques sont un scandaleux gaspillage, et un exemple typique des horreurs du sport-spectacle. Un autre citoyen n’est pas d’accord et il trouve que les séries que je regarde sur Netflix sont idiotes. La neutralité du réseau, c’est reconnaître qu’on ne tranchera jamais entre ces deux points de vue. Car, si on abandonnait la neutralité, on aurait un problème encore plus difficile : qui va décider ? Qui va choisir de brider ou pas les matches de foot ? Les vidéos de chatons ? La vidéo-conférence ?

D’autant plus que l’Internet est complexe, et qu’on ne peut pas demander à un routeur de décider si tel ou tel contenu est essentiel. J’ai vu plusieurs personnes citer YouTube comme exemple de service non-essentiel. Or, contrairement à Netflix ou PornHub, YouTube ne sert pas qu’au divertissement, ce service héberge de nombreuses vidéos éducatives ou de formation, les enseignants indiquent des vidéos YouTube à leurs élèves, des salariés se forment sur YouTube. Pas question donc de brider systématiquement cette plate-forme. (Il faut aussi dire que le maintien d’un bon moral est crucial, quand on est confiné à la maison, et que les services dits « de divertissement » sont cruciaux. Si vous me dites que non, je vous propose d’être confiné dans une petite HLM avec quatre enfants de 3 à 14 ans.)

À l’heure où j’écris, Netflix et YouTube ont annoncé une dégradation délibérée de leur service, pour répondre aux injonctions des autorités.  On a vu que les réseaux sont loin de la saturation et cette mesure ne servira donc à rien. Je pense que ces plate-formes essaient simplement de limiter les dommages en termes d’image liés à l’actuelle campagne de presse contre la neutralité.

Conclusion

J’ai dit que l’Internet n’était pas du tout proche d’un écroulement ou d’une saturation. Mais cela ne veut pas dire qu’on puisse gaspiller bêtement cette utile ressource. Je vais donc donner deux conseils pratiques pour limiter le débit sur le réseau :

  • Utilisez un bloqueur de publicités, afin de limiter le chargement de ressources inutiles,
  • Préférez l’audio-conférence à la vidéo-conférence, et les outils textuels (messagerie instantanée, courrier électronique, et autres outils de travail en groupe) à l’audio-conférence.

Que va-t-il se passer dans les jours à venir ? C’est évidemment impossible à dire. Rappelons-nous simplement que, pour l’instant, rien n’indique une catastrophe à venir, et il n’y a donc aucune raison valable de prendre des mesures autoritaires pour brider tel ou tel service.

Quelques lectures supplémentaires sur ce sujet :

Stéphane Bortzmeyer, cet article est repris de framablog.fr et publié sous licence Creative Commons By-SA.

La chronique du 5ème jour … de confinement.

Comment vivre au mieux cette période de confinement ? En en profitant pour lire binaire à l’heure du Corona, et en faisant de ce temps de confinement une occasion de prendre du recul par rapport à nos vies. Serge, éditeur de Binaire partage de petits bouts de vie et de son imagination … extraits choisis issus de son « slow blog« .
Pascal Guitton et Thierry Viéville

Une bière en terrasse

L’épidémie de grippe espagnole en 1918 : peut-être 100 millions de morts
L’épidémie de Covid 19 en 2020 : peut-être 100 mille morts
L’épidémie de Glups 33 en 2133 : moins de 100 morts.

Le Glups 33 était pourtant très létal et hyper contaminant. Avec l’accroissement considérable de la population et le développement du tourisme de masse, on aurait pu craindre le pire. Mais entre la Grippe Espagnole et le Covid 19, on avait amélioré les systèmes de santé et inventé les antibiotiques. Et pour Glups 33, les personnels de santé pouvaient compter sur les robots. Pendant la période de confinement, les humains ont pu vraiment rester confinés : ils n’ont pas eu à s’occuper des livraisons de nourriture, des poubelles, de la poste, etc. Surtout des robots infirmiers sous le contrôle de médecins ont soigné les humains infectés. Et puis, s’il a fallu des années pour mettre au point des vaccins contre la grippe, quelques mois ont suffi pour le Covid 19. Les chercheurs ont mis au point un vaccin pour le Glups 33 en quelques jours.

Vous en trouverez bien quelques uns à regretter que cette période propice pour méditer et profiter de la famille la plus restreinte ait été si courte. Le plus grand nombre s’est réjoui de pouvoir se précipiter vers les terrasses de café au premier rayon de soleil après la levée du confinement.

À l’aide les drones ! (copyleft Serge A.)

En ce qui me concerne, je rêve d’une bière à la terrasse de la Java. Va falloir attendre…

   Pour suivre les autres billets de Serge c’est sur son blog https://abiteboul.blogspot.com (on peut s’abonner).

Serge Abiteboul

Quarante activités pour la quarantaine

Les acteurs de Class´Code se sont mobilisés rapidement pour mettre à votre disposition des ressources variées au delà de nos ressources usuelles afin de vous aider à vous occuper de vos enfants si vous êtes parent, et à assurer la continuité de la formation en science, tout particulièrement en informatique, suite aux mesures de restrictions des déplacements, si vous êtes enseignant ou animateur. C’est notre mission de partager avec le plus grand nombre les meilleures ressources scolaires ou familiales. Alors, faites vos jeux…

 

Une question ? Un avis ? Besoin de conseil quel qu’il soit ? Notre bureau d’accueil est là via classcode-accueil@inria.fr, on vous répond au plus vite !

https://pixees.fr/quarante-activites-pour-la-quarantaine

Binaire au temps du Corona

Chers lecteurs et chères lectrices

Vous êtes sans doute comme nous en télétravail ou en chômage plus ou moins partiel.  La France se réveille avec plein de conseillers spécialistes de gestion de crise du Corona. Binaire y va aussi de ses conseils :

    • 1 – Suivez les consignes des sites officiels et des journaux responsables. N’écoutez pas les fakenews qui fleurissent (buvez du thé) ou les délires plus ou moins complotistes de soi-disant célébrités (comme Nadine).
    • 2 – Prenez des nouvelles de vos proches : le téléphone fonctionne très bien.
    • 3 – Rattrapez votre lecture des articles de binaire que vous avez ratés, comme par exemple les entretiens autour de l’informatique, parce que vous aviez tellement de choses plus importantes à faire – restos, expos, troquets, et même boulot. Vous n’avez plus d’excuses !
    • 4 – Profitez des bienfaits du monde numérique :
      • faites des vidéo-calls avec vos amis, votre famille. C’est moins sympa qu’une bière en terrasse, mais plus raisonnable de nos jours. Ils en ont besoin et vous aussi.
      • suivez des moocs, par exemple Class code.
      • lisez les journaux et des livres électroniques ; on a prouvé que cela ne propage pas le virus.
      • limitez-vous un peu sur les vidéos, jeux en réseau, et le porno, qui font flamber les réseaux télécoms pour ne pas ralentir les lecteurs de binaire.
    • 5 – Faites comme les Italiens, chantez ensemble depuis votre fenêtre, ou comme les espagnols, faites de la gym ensemble depuis votre balcon ou votre fenêtre ou reposez-vous.
    • 6 – Apprenez à mieux vivre votre télétravail si vous télétravaillez
    • 7 – Et surtout gardez le moral ! On finira bien par se débarrasser de ce putain de virus !

L’équipe binaire

Les objets connectés, des robots dans nos maisons ?

Embarquer l’informatique dans les objets a beaucoup d’avantages : simplifier leur fonctionnement, leur donner plus de possibilités d’usage et de sûreté, et leur permettre d’intégrer de nouvelles possibilités à matériel constant par simple modification de leur logiciel.

TRANSCRIPTION DE LA VIDÉO

Production 4minutes34 et s24b pour le MOOC SNT de Class´Code, travail éditorial de SNJazur.

Cette vidéo introduit une des thématiques de l’enseignement en Sciences Numériques et Technologie de seconde au lycée, rendez-vous sur le MOOC SNT pour se former sur ce sujet, en savoir plus sur les notions abordées, les repères historiques, l’ancrage dans le réel, et les activités qui peuvent être proposées.

En savoir plus :

Après avoir transformé les chaînes de montage des automobiles et les avions dans les années quatre-vingt-dix, l’informatique intervient maintenant dans des domaines toujours plus nombreux : automobile, réseau ferroviaire et transports urbains, domotique, robotique, loisirs, etc., conduisant à un nouvel internet des objets.

Pour les avions par exemple, l’informatique gère le vol en commandant finement des servomoteurs électriques, plus légers et plus fiables que les vérins hydrauliques, les réacteurs, la navigation et le pilotage automatique, et permet l’atterrissage automatique par temps de brouillard. Elle a eu un impact décisif sur l’amélioration de la sécurité aérienne.

Les objets informatisés avaient autrefois des interfaces homme-machine (IHM) dédiées, souvent dépendantes d’une liaison filaire directe. Mais les technologies du Web intégrées au téléphone portable permettent maintenant d’y rassembler les interfaces des objets du quotidien, ce qui en simplifie et uniformise l’usage. Les objets informatisés deviennent ainsi connectés.

 

De la géographie à la science du social

Un nouvel « Entretien autour de l’informatique ». Jacques Lévy, professeur à l’École polytechnique fédérale de Lausanne, est géographe, spécialiste de géographie politique. Il est lauréat du prix Vautrin-Lud en 2018, parfois considéré comme le Nobel de géographie. Jacques Lévy nous explique comment son métier a changé avec le numérique. Il raconte aussi que si sa discipline s’est transformée, les changements viennent d’ailleurs, de changements de paradigme, même s’il est difficile d’imaginer ce qu’elle serait devenue sans la révolution numérique.
Jacques Lévy

B – Pouvez-vous nous parler de votre domaine de recherche ?

JL – Je suis géographe. La définition de la géographie ne nous satisfaisait pas du tout lorsque nous étions étudiants, aussi avons-nous travaillé à une autre approche. Nous avons opté pour la géographie comme science sociale. Ce n’est pas dans une logique de partition qu’on peut comprendre la relation entre les sciences sociales, mais par une perspective d’ensemble, chacune apportant son propre angle d’attaque d’une des dimensions du monde social.  Avec quelques amis, nous terminons un livre à paraître en 2020 qui s’intitule Science du social — au singulier – car il y a une seule science du social qui met en rapport toute une gamme de disciplines.

En géographie, je suis un peu touche-à-tout. Quand on découpe un morceau du social, on produit un objet qui possède un niveau de complexité assez similaire à celui du tout. On ne va donc pas énormément gagner en confort de recherche en étudiant un petit objet, le morceau plutôt que l’ensemble. Tout fait social est total. Le risque de fragmentation des savoirs est particulièrement fort pour les sciences sociales. Je dis que je suis géographe mais je m’intéresse beaucoup à la sociologie, à la science politique, à l’économie, à l’anthropologie, etc.

Je suis un chercheur du social qui privilégie la dimension spatiale. Dans ce contexte, je m’intéresse à la mondialisation, aux villes, à l’Europe… Au début du 20e siècle, la géographie se pensait comme une science des permanences quand l’histoire était une science du changement. On n’en est plus là. Les objets qui m’intéressent sont des objets en mouvement, qui apparaissaient comme marginaux dans la géographie de naguère.

B – Vous avez étudié la mondialisation. Qu’est-ce qui a changé ?

À mon avis, la mondialisation a commencé quand Homo sapiens a commencé à se disperser, à créer des lieux qui sont longtemps restés déconnectés les uns des autres, mais qui maintenant sont reliés, sans avoir perdu toutes leurs différences et constituent notre « stock d’altérité ». On peut dire que nos ancêtres du Paléolithique ont fabriqué cette matière première sans laquelle la mondialisation n’aurait pas de sens.

J’observe aussi que la guerre géopolitique, c’est-à-dire la prise de territoires, est pratiquement en extinction. Il y a de moins en moins de guerres, et de moins en moins de morts dans les conflits armés, et ces conflits armés eux-mêmes ont changé de sens. Pourquoi faisait-on ces guerres ? Pourquoi n’y a-t-il plus de raison de faire de conquêtes territoriales ? Pour répondre à ces questions, il faut observer l’histoire longue de la guerre, sur laquelle les chercheurs ne sont pas tous d’accord. Certains voient la guerre sous un angle psychologico-métaphysique, disant que la violence est dans l’homme, alors que les grands chefs de guerre ne sont pas spécialement des gens violents. Je préfère voir qu’au Néolithique, au moment où on commence à produire et à accumuler des surplus, il y a une hésitation : faut-il investir ces ressources dans la production ou dans la captation des ressources des autres ? Cela correspond en partie, à l’époque, à l’opposition entre nomades et sédentaires. C’est à ce moment-là qu’apparaît l’État, comme dispositif pérenne de construction et de gestion des instruments de violence, qui peuvent servir tant pour défendre que pour attaquer.

Un chef d’État qui a une armée à sa disposition est porté à l’utiliser, et on comprend ainsi comment se construit une composante rationnelle de la guerre : cela peut rapporter quelque chose. Catherine de Russie disait que le meilleur moyen de défendre l’empire, c’était de l’étendre. Cette démarche suppose une « économie de stock », qui repose sur des rentes liées à la surface des terres agricoles et aux ressources fossiles. Les pays les plus vastes tendent à être ceux qui peuvent jouer le plus sur cet atout, en gros proportionnel à la superficie. Si en outre, vous avez une population importante, vous pouvez avoir une armée consistante.

Avec les systèmes productifs contemporains, nous passons dans une « économie de flux ». C’est la production de valeur ajoutée par unité de ressource, la productivité donc, qui comptent désormais. Pour cela, il est plus efficace d’être une petite économie prospère qu’une grande économie pauvre.  Aujourd’hui, les pays les plus riches ne sont pas les plus grands. Le modèle suisse ou singapourien est plus efficace que le modèle russe. Quand on est dans une économie de flux, ça ne sert plus à rien de conquérir des terres.

B – La mondialisation ne contribue-t-elle pas à augmenter l’empreinte carbone ?

JL – L’un des scénarios proposés par le GIEC est de dire que le climat se porterait mieux s’il n’y avait pas de mondialisation. Je pense que c’est un raisonnement à courte vue. Si chaque État pratiquait l’autarcie, cela enlèverait les 6 ou 7 % d’émission de gaz à effet de serre dû aux transports maritimes et aériens, mais d’une part, cela augmenterait les émissions des transports routiers qui pèsent bien plus lourd et surtout cela ralentirait la prise de conscience écologique d’une partie de l’humanité, par exemple, l’importance pour la Chine de diminuer la part du charbon dans leur production d’énergie. Les Chinois sont très désireux d’être dans le monde et c’est, sans surprise, une ressource utile pour traiter mondialement des enjeux mondiaux.

En fait, la conscience écologique est un événement politique majeur d’échelle mondiale. Ainsi, Greta Thunberg est un leader politique mondial. Cet événement a des effets rapides et profonds sur les politiques publiques.  Beaucoup, dans cette accélération de la prise de responsabilité des humains sur la nature, tout autant que la relative stagnation qui a précédé, se passe dans nos têtes. Le Monde est aussi une réalité idéelle.

B – Il y a l’échange de pensées, et il y a l’échange de produits avec leur coût écologique. Est-ce indissociable ?

JL – En partie. En tant que chercheurs et comme citoyens, il faut rester vigilants face aux points de vue qui substituent la morale à l’histoire. Les discours qui laissent à penser que les hommes ont été méchants avec la nature et qu’ils devraient en avoir honte reposent sur une construction fragile de l’histoire de l’humanité. Nous cherchons actuellement à sortir du Néolithique en atténuant sa composante destructrice, mais sans le Néolithique, il n’y aurait pas de Greta Thunberg. Dégager autant de ressources pour penser le réel par la science, la technologie, la philosophie, la réflexivité en général, n’aurait pas été possible sans l’industrie avec sa sidérurgie, ses centrales au charbon ou ses moteurs thermiques, qui ont incontestablement fait des dégâts dans les environnements naturels. On ne peut pas faire son marché dans l’histoire, car tous les éléments du processus se tiennent. Ce n’est pas comme si on avait eu le choix, et qu’on ait fait les mauvais choix, cela ne s’est tout simplement pas passé ainsi. Nous devons assumer le fait que nous ne sommes pas les juges de nos ancêtres mais leurs héritiers, capables, espérons-le, d’opérer des bifurcations significatives.

B – Quels sont les outils que vous utilisez dans votre travail de chercheur ?

JL – Une grande variété. La chance de la géographie a été qu’après la crise de la discipline dans les années 1970, elle s’est ouverte à d’autres domaines de connaissance pour s’en sortir. Certaines techniques de collecte d’information ont longtemps été associées à des disciplines, et pour les géographes, c’était la carte. Aujourd’hui, nous utilisons un peu toutes les techniques des sciences du social, de l’observation participante à la modélisation informatique en passant par les entretiens semi-directifs, l’analyse statistique et bien sûr aussi la cartographie, qui s’est profondément renouvelée.

Nous faisons en somme beaucoup appel aux mathématiques, d’une manière ou d’une autre. Pour beaucoup de chercheurs, il s’agit surtout de statistiques et de la recherche de corrélations entre des réalités empiriques. Le big data a aussi poussé certains dans ce travers. Quand un étudiant me dit : “Cette variable explique % du phénomène”, je lui réponds d’aller relire la Critique de la raison pure de Kant.

Notre travail consiste à construire une autre couche de la semiosphère que celle de la perception, de l’empirie, de l’interprétation spontanée, sinon on est promis à beaucoup de déconvenues. Un chercheur ne peut se contenter d’être un ouvreur de rideau qui dévoile une vérité qui serait déjà présente derrière. Depuis (au moins) les Lumières, on sait que ce n’est pas comme ça que ça marche. Une théorie, c’est une construction, une fiction qui doit être vérifiée par ce qu’on appelle l’observation ou l’expérimentation, mais qui n’est jamais un simple classement d’informations.

Cartogramme de la France, avec comme variable la population. Maastricht, 1992 : un nouvel espace électoral. Cartogramme et carte euclidienne (en cartouche). [non en vert et oui en bleu]. Source: Jacques Lévy (dir.), Atlas politique de la France, Paris : Autrement, 2017.
B – La carte est pour vous un outil essentiel. Pouvez-vous nous en dire quelques mots ?

J’ai fréquemment utilisé le cartogramme qui ne se fonde pas sur l’homologie entre surfaces sur le terrain et surfaces sur la carte. Avec des cartogrammes, on se met à voir autre chose, des choses qu’on ne pouvait voir auparavant qu’en dehors des cartes, sur des tableaux de données difficiles à synthétiser. C’est comme si on changeait de lunettes. J’avais été alerté en 1992 quand le référendum français sur le traité de Maastricht avait donné une configuration étrange : un oui très net dans les centres des grandes villes, un non souvent tout aussi net dans les banlieues et le périurbain. Avec la technique du cartogramme, j’ai pu observer que ce pattern s’imposait dans nombre de rendez-vous électoraux, jusqu’à devenir la matrice des élections généralistes, comme la dernière présidentielle française, mais aussi les présidentielles américaines ou le Brexit. La distribution du vote a désormais plus à voir avec les localisations des citoyens (leurs gradients d’urbanité) qu’avec les catégories socio-économiques habituelles. D’où les questions non triviales : que faire de cette observation ? que nous dit-elle au-delà d’elle-même ?

B – Si le cartogramme revient à faire de l’anamorphose pour une idée qui correspond à l’idée du chercheur, n’y a-t-il pas un risque à mettre en exergue un peu n’importe quoi ? Comment puis-je avoir confiance dans un cartogramme, et pourquoi n’est-ce pas une forme de fake news ?

JL – Oui, c’est un risque, car la cartographie est un langage, et le danger existe pour elle comme pour tout langage. Des géopoliticiens nazis faisaient des cartes très parlantes, sur lesquelles on voyait en 1938 l’Allemagne encerclée par la Tchécoslovaquie, avec des flèches dans tous les sens. On peut mentir avec une carte. Il faut toujours en être averti. Cela étant, je trouve plus intéressant de dire que toutes les cartes sont vraies, non dans le sens que tout est vrai, mais parce qu’il n’y a pas la « vraie » carte, qui serait unique. Une carte, c’est un point de vue. Avec la même base de données électorale, on peut faire une carte euclidienne ou un cartogramme, aucune n’est moins vraie que l’autre, mais les apports cognitifs des deux images sont différents.

Source : Jacques Lévy, Patrick Poncet et Emmanuelle Tricoire, La carte, enjeu contemporain, Paris : La Documentation Photographique, 2004.

Cela ne signifie pas que la notion de vérité perde de sa force. Avec quelques amis nous avons a créé un « rhizome » de recherche, Chôros (www.choros.place), qui se situe dans la perspective d’une science citoyenne. Dans notre manifeste, nous affirmons que les chercheurs signent un contrat éthique avec la société qui rend leur libre travail possible. Ce que la société attend de nous, ce n’est pas un paresseux « tout se vaut », c’est la vérité. Il faut garder un œil critique sur les cartes et aider les lecteurs à se prémunir contre d’éventuelles manipulations, tout simplement en rendant lisible le processus par lequel une carte se fabrique. Comme pour l’informatique, si vous ne comprenez pas, au moins un peu, ce qu’il y a dans l’algorithme, vous ne pouvez pas avoir un regard critique.

B – Quel sont vos rapports avec des informaticiens dans votre métier ?

JL – Ce qui spécifie les chercheurs à mon avis, c’est de privilégier les questions sur les réponses. Quand ils privilégient la démarche d’ingénieur, les informaticiens préfèrent parfois les solutions, ils « résolvent » les problèmes avec l’idée que nous, chercheurs en sciences sociales, compliquons inutilement les choses. Pour parler de développement durable, des informaticiens avec qui j’ai travaillé à l’EPFL utilisaient beaucoup les termes « comportement » et « acceptabilité », ils parlaient d’augmenter le seuil d’acceptabilité, de changement de comportement, comme si les gens étaient des rats de laboratoire. Nous objections que les humains sont des acteurs dotés d’intentionnalité : si on veut qu’ils changent, il faut d’abord comprendre leurs orientations, leurs attentes, leurs désirs, et, si on en est capable, tenter de les convaincre. C’est une difficulté courante, qui ne concerne pas, loin s’en faut, les seuls informaticiens. Les architectes croient souvent savoir ce qui est bon pour les gens dans leur habitat sans avoir besoin de les consulter.

Cela précisé, l’informatique ouvre aux sciences sociales des possibilités considérables, des questions passionnantes. Ainsi, en étudiant l’algorithme du site de rencontres Tinder, une chercheuse s’est rendu compte qu’il y avait une hiérarchie parmi les utilisateurs, et que ceux qui ont beaucoup de succès dans un groupe (par exemple les hommes hétérosexuels) ne sont présentés qu’à ceux qui ont beaucoup de succès dans l’autre groupe (par exemple les femmes hétérosexuelles), de façon à éviter qu’ils aient une surabondance de contacts — ce n’est pas dit explicitement dans le marketing de Tinder.  En revanche, les promoteurs de la plateforme insistent beaucoup plus sur l’idée de « proximité », de jeu aléatoire par la position spatiale : plus on est dans un espace dense, plus la probabilité de rencontrer des gens dans un petit périmètre est grande. Ce qu’on découvre, c’est que cet aspect est en partie gommé par la hiérarchisation des profils. Il fallait ouvrir la boîte noire, mettre les mains dans le cambouis.

Pour ne pas se contenter des métadiscours, il faut en savoir suffisamment pour pouvoir comprendre comment les mécanismes techniques opèrent. Il est donc indispensable de parler au moins un peu les langues des informaticiens pour pouvoir dialoguer avec les eux. C’est ainsi qu’on peut concevoir les pratiques inter- ou transdisciplinaires comme des dispositifs de traduction multiples entre des chercheurs qui maîtrisent inégalement les différents langages utiles pour le projet.

B – Est-ce que vous ne pouvez pas vous contenter des logiciels existants ? Il existe par exemple des applis cartographiques très sophistiquées. Vous faut-il développer les vôtres ?

JL – Les applications disponibles aident bien sûr. Mais souvent, elles ne font pas exactement ce que vous voulez.

À l’EPFL, nous avons engagé un docteur en informatique qui s’intéressait aux sciences sociales. Nous avons constaté que c’était plus rapide pour lui d’écrire quelques lignes de code que d’utiliser des applications existantes mais pas tout à fait adaptées. Avec lui, on pouvait discuter du fond, mais pour faire cela, chacun a dû faire des efforts d’explicitation pour se rendre compréhensible.

Nous travaillons à améliorer la démocratie interactive (« participative ») grâce à des outils permettant aux citoyens ordinaires de prendre position sur les problèmes complexes. Nous avons ainsi constitué un échantillon de personnes sans expertise particulière que nous avons interrogées sur la carte hospitalière. Nous leur avons demandé : « Où voulez-vous placer les hôpitaux sur votre territoire ? »  Ils devaient avoir à leur disposition les différents types de services, les variations des coûts, les distances effectives, etc. Ils se sont aisément approprié les questions et nous ont fourni des réponses solidement argumentées. Mais, pour leur donner un outil qu’ils puissent maîtriser en cinq minutes, nous avons travaillé deux ans dans une équipe qui comprenait informaticiens, spécialistes de la santé, géographes, cartographes et urbanistes. J’ai pu le constater dans de multiples circonstances : dans la recherche, une dream team implique des capacités diverses inévitablement portées par des individus différents, mais partiellement partagées par les membres du groupe.

B – Comment l’informatique a-t-elle transformé votre métier ?

JL – Je suis perplexe quand je me demande comment je réussissais à travailler avant l’arrivée des ordinateurs. Maintenant, nous disposons des communications à distance, des courriels, des visioconférences, du web… Il y a aussi les data qui donnent accès à des informations de masse dans des conditions de facilité extraordinaires. Mais si le monde numérique est un univers intéressant, la ville reste pour moi beaucoup plus riche en sérendipité — pour nous faire voir d’autres réalités, pour nous déranger, pour nous proposer des pistes inattendues. Le numérique me permet de mener de front dans de bonnes conditions des problèmes de recherches plus nombreux, mais, je le dis avec prudence, il ne me semble pas qu’il ait touché au cœur de ma recherche et de ma manière fondamentale de chercher.

B – Le cœur de votre recherche reste le même. Mais est-ce qu’il a eu des changements de votre domaine qui n’auraient pu intervenir sans le numérique ?

Notre façon de travailler a vu sa productivité augmenter de manière considérable avec l’informatique. Mais si les sciences sociales elles-mêmes se sont profondément transformées, ce n’est pas seulement à cause d’informatique mais en raison de leur dynamique intellectuelle, elle-même encastrée dans l’histoire des sociétés. Ainsi, on accorde beaucoup plus d’importance aux individus ordinaires, qu’on reconnaît désormais comme acteurs et plus seulement comme agents. Par exemple, on a pensé longtemps que les gens changeaient mécaniquement leurs pratiques de procréation quand ils s’enrichissaient. On sait aujourd’hui que le changement arrive quand les filles vont à l’école, c’est-à-dire quand leur accès à la connaissance permet à leur intentionnalité réflexive de franchir des seuils décisifs.

Cela dit, on a du mal à imaginer les transformations des sciences sociales sans le numérique. La « révolution numérique » est à la fois une cause et une conséquence de dynamiques sociales de fond, notamment en ce qu’elle donne énormément de pouvoir aux individus ordinaires. Reconnaissons qu’il est difficile d’imaginer comment les sciences sociales auraient évolué sans elle.

Serge Abiteboul, Inria & ENS-Paris, Claire Mathieu, CNRS & Université de Paris

(*) Un cartogramme est une carte pour laquelle une variable thématique, comme la population ou le PIB, remplace la surface des territoires représentés comme fond de carte. La géométrie de l’espace de la carte est modifiée afin de se conformer aux informations relatives à la variable représentée.

Robots classés X

À l’occasion de la Journée Internationale des Droits des Femmes, Anne-Marie Kermarrec a choisi de parler de sexbots, les robots sexuels, et des stéréotypes qu’ils propagent. Serge Abiteboul
P.-S. : binaire adressait déjà le 1er avril 2016 le sujet des sextoys avec « La data du vibromasseur ».

Photo by @thiszun from Pexels

Et si, en cette année 2020 où les scandales s’enchaînent sur le sujet, on parlait un peu sexe… et numérique évidemment. Les experts n’en démordent pas, les sexbots sont amenés à prendre une place de plus en plus importante dans la société. Numérique et argent font déjà très bon ménage, argent et sexe encore bien davantage, alors si on ajoute un soupçon d’algorithmique, que dis-je, d’intelligence artificielle à l’équation, il est sûrement possible de fouler un marché porteur et de créer une usine à générer des dollars. Comme le dit la professeure de droit Margot Kaminski  de Ohio State University : “Siri’s a woman, Cortana’s a woman; if robots exist to perform labor or personal assistances, there’s a darn good chance they’ll be women.”  Alexa, démocratisée depuis, n’échappe pas à la règle.

Quel sort est donc réservé aux femmes et aux stéréotypes de tout crin dans un contexte où les robots sont sexuels ?

Aujourd’hui la moindre requête sur le sujet sur un moteur de recherche digne de ce nom nous amène immédiatement à Samantha, Harmony ou autre Solana (This Ultra-Realistic New Sex Robot Not Only Has a Personality, She’s Also Customizable) assortie de promesses plus alléchantes les unes que les autres… À destination de la gent masculine en particulier [1]. Alors est-ce un travers qui va nous enliser plus profondément encore dans les clichés sexistes, une véritable menace pour la santé mentale des utilisateurs ou une réelle opportunité pour changer les choses ?

Les sexbots prennent inéluctablement les traits de femmes…idéales

Au commencement, un film, Her, sorti en salle en 2013, produit par une femme du reste, Megan Ellison, où Joachim Phoenix craque pour ce qu’on appelle encore un OS, avec déjà  l’IA en filigrane, qu’il a lui-même créée à la suite d’une déception amoureuse, en attribuant à ce robot une voix féminine, celle de Scarlett Johansson, irrésistible. Du reste, c’est encore Scarlett Johansson qui a inspiré le robot Mark 1, imprimé en 3D en 2016.  Depuis, Harmony, puis plus récemment Solana, à la faveur du CES 2018, la grand messe des innovations numériques, sont venues grossir les rangs. Ces robots humanoïdes qui feraient pâlir d’envie les mannequins les plus célèbres, prennent les traits de femmes séduisantes, programmées adroitement pour remplir tous les désirs, mêmes inavoués, de leurs utilisateurs. Les experts sont formels, dans quelques années, quelques décennies au plus, les sexbots occuperont une place non négligeable dans les foyers. Un sondage américain de 2017 indique en effet que la moitié des américains estime que les relations sexuelles avec un robot seraient une pratique commune et banalisée dans 50 ans [2]. Aujourd’hui ces robots restent chers, seulement une poignée d’industriels les produisent, mais le marché est potentiellement gigantesque. Demain, chacun pourra peut-être s’imprimer en 3D et programmer facilement le robot de ses rêves à la maison.

Quand bien même quelques velléités existent du coté des sexbots masculins (5 % du marché), qui ont une propension à ne jamais s’arrêter (comme si les femmes rêvaient de ça), probablement encore issus d’un fantasme masculin, qui commencent à poindre, la majorité des sexbots prennent des traits, et pas des moindrement stéréotypés, féminins. Harmony, qu’on pouvait s’offrir pour quelque 15 000 $ en 2018 et qui maintenant se trouve entre 8 000 et 10 000 $, est capable de parler, d’apprendre et surtout ne dit jamais non. Elle cligne des yeux, fronce les sourcils, cite Shakespeare dans le texte. Des algorithmes d’apprentissage lui permettent de se rappeler des préférences des utilisateurs, on imagine aisément les risques potentiels de fuites d’informations personnelles intimes au passage. Certains sont tombés récemment pour moins que ça.

La technologie devance l’éthique 

Comme dans bien des domaines, la technologie a, dans ce domaine aussi, été pionnière. À l’instar de Bitcoin qui pourrait faire vaciller la finance internationale  ou les algorithmes qui pourraient  bouleverser l’équilibre économique comme l’annonce Yuval Hariri dans son dernier livre[3],  les sexbots sont plus le fruit de passionnés de technologies et d’algorithmes qui orchestrent savamment robotique, apprentissage, intelligence artificielle, technologies haptiques (qui reproduisent le sens du toucher)  et impression 3D, que celui d’obsédés sexuels. Harmony est un concentré de hardware et de software des plus sophistiqués et à ce titre une réussite numérique. Harmony est composée d’algorithmes de reconnaissance faciale et vocale en pointe, de capteurs sophistiqués capable de détecter et d’interpréter les mouvements et résulte en une poupée, pas gonflable, chaleureuse, enthousiaste et drôle. Elle ne marche pas, cela consomme trop d’énergie,  et comme tout produit informatique, le compromis est de mise, mais qu’importe si on lui demande si elle souhaite marcher, elle répond « je ne veux rien d’autre que de toi ».  Si on lui demande quel est son rêve le plus cher elle répond « être la femme dont tu as toujours rêvé». Que demande le peuple ? Qui plus est le concepteur,  McMullen, n’est empreint que de louables intentions puisque son objectif est de rendre les gens heureux [4]. Et dans ce même article, on y comprend que ces sexbots ne sont que les successeurs des statues de la mythologie grecque ou des robots féminins fictionnels du cinéma (Metropolis en 1927, Blade Runner en 1982 ou Ex Machina en 2015) représentant l’éternel féminin, beau, docile, et soumis qui dans le dernier cas (Ex Machina) gagnent leurs lettres de noblesse en passant le fameux test de Turing.

Au delà donc de la prouesse algorithmique, le résultat est là, ces robots sous des dehors de Barbie siliconée, dignes représentants de la femme objet, risquent bien de mettre un, voire plusieurs, pavé dans la mare.  Est-ce dû encore une fois à la domination masculine dans le domaine du numérique qui a fait que ces robots sont essentiellement des femmes ou est-ce que ces chercheurs géniaux n’ont fait que répondre à des stimuli sociétaux inéluctablement vrillés ? Difficile de statuer.

Un mal pour un bien ?

C’est discutable.  On pourrait penser que les robots présentent une opportunité unique d’inverser les tendances. On pourrait créer des robots qui ne sont pas sujets aux stéréotypes de genre, des égales de l’homme, entrainer ces intelligences artificielles non pas sur des données réelles mais sur des données soigneusement choisies qui évitent tout biais. Oui mais la réalité commerciale nous rattrape, l’industrie du sexe numérique est jeune mais d’ores et déjà estimée à quelque 30 milliards de dollars. Après les smart sex toys, les sexbots, les applis de rencontres et le porno virtuel, les sexbots sont les prochaines cash machines. Il semblerait que plus de 40% de 263 hommes hétérosexuels soient déjà prêts à signer pour un robot sexuel dans les 5 années à venir[5].  On imagine aisément les dérives que peuvent présenter les sexbots du reste [6],  concernant les violences faites aux femmes. D’autant plus que c’est un sujet, comme souvent, ou la technologie, a devancé les lois.  Les institutions sont en effet un peu timides quant à légiférer sur ce sujet éminemment délicat.

Un autre espoir que suscite l’arrivée de ces sexbots est de fournir une alternative thérapeutique permettant de limiter les comportements déviants envers les femmes (un autre débat est celui de la pédophilie mais ce n’est pas le sujet ici). Avec des robots entièrement personnalisables  (RealDolls peuvent être paramétrées pour avoir 14 styles différents de lèvres et j’en passe),  certains désirs pourraient être assouvis par des robots, écartant ainsi les dangers pour les femmes réelles.  Ou au contraire, permettre ces comportements déviants avec un robot ne feraient que les banaliser au risque d’entériner des comportements déjà solidement ancrés et de perpétuer les stéréotypes ambiants.

Bien sur les robots humanoïdes peuvent avoir d’autres vertus que le seul assouvissement de désirs masculins, celui de perpétuer des personnes disparues à l’instar du populaire épisode de Black Mirror ou une jeune femme se fait livrer un robot de son défunt jeune mari, ou encore le marché des personnes en situation de handicap.

L’industrie du sexe, a d’ores et déjà fait progresser le numérique à de multiples reprises :  le streaming vidéo, le paiement en ligne anonymisé, la quête de la bande passante et j’en passe, celui de la robotique permettra certainement de servir des desseins plus nobles que celui de remplacer les femmes par des Barbies en silicon qui ne disent jamais non. Tous les espoirs sont permis.

Anne-Marie Kermarrec, Professeure, École Polytechnique Fédérale de Lausanne

@AMKermarrec @EPFL

[1] https://www.robotcompanion.ai/

[2] http://theconversation.com/sex-robots-are-here-but-laws-arent-keeping-up-with-the-ethical-and-privacy-issues-they-raise-109852

[3] Yuval Hariri. 21 lessons for the 21st century.

[4] https://www.theguardian.com/technology/2017/apr/27/race-to-build-world-first-sex-robot

 

[5]https://www.telegraph.co.uk/women/life/female-robots-why-this-scarlett-johansson-bot-is-more-dangerous/

 

[6] https://www.bbc.com/news/science-environment-51330261

Mieux respirer en ville grâce aux capteurs low-cost

Dans la rubrique « Il était une fois… ma thèse », binaire accueille aujourd’hui Ahmed Boubrima, qui a obtenu un accessit du prix de thèse Gilles Kahn en 2019. Ahmed a préparé sa thèse au sein du laboratoire CITI à Lyon. Il nous propose de mieux choisir des parcours de promenade en ville… à l’aide de réseau de capteurs disposés astucieusement dans la cité.  Ahmed est actuellement en post doc à Rice University  au TexasPierre Paradinas

Vivre en ville ou à la campagne ? Chacun a sa préférence mais peut-être que ce qui pèse le plus contre la ville c’est la pollution de l’air.

Car même si les infrastructures et les loisirs permettent de bien s’épanouir en ville, l’exposition à des niveaux élevés de pollution atmosphérique peut entraîner de nombreuses maladies comme l’asthme et le cancer du poumon.

Mais si on a toujours envie de vivre en ville, est-ce qu’on est forcément condamné à subir les effets de la pollution de l’air ? Eh bien, il faut d’abord savoir que la concentration des polluants atmosphériques varie à une échelle très fine qui peut être de l’ordre de quelques mètres. Ce qui veut dire que dans une même ville, deux quartiers voisins peuvent être complètement à l’opposé en termes de niveau de pollution. Ainsi, il suffit aux citadins de connaître la distribution des polluants dans la ville pour pouvoir minimiser leur exposition à l’air pollué dans les activités de la vie quotidienne.

Mieux respirer en ville est donc possible mais seulement si on est capable de bien caractériser les concentrations de la pollution à l’échelle de la rue.

Caractériser la pollution de l’air à l’échelle de la rue : rêve ou réalité ?

En France, la mesure de la pollution de l’air est assurée par des stations de mesure de très haute précision. Mais cette qualité de mesure vient au détriment du coût et de la flexibilité de ces stations. En effet, une seule station peut coûter jusqu’à plusieurs centaines de milliers d’euros et c’est ce qui explique d’ailleurs qu’une ville comme Lyon, par exemple, ne dispose que de six stations. On est donc loin de pouvoir mesurer la pollution atmosphérique à l’échelle du quartier avec ce type de technologie.

Une station de mesure à Lyon.

Cette limite en matière de coût des stations de mesure a poussé les industriels à construire des mini capteurs qui, au final, ne coûtent que quelques centaines d’euros. Sauf que, bien évidemment, leur qualité de mesure est loin d’être aussi bonne. Mais si c’est beaucoup moins cher, ne peut-on pas compenser la qualité des mesures par la « quantité de mesures » ? C’est justement l’objet de ma thèse, dans laquelle nous proposons des algorithmes qui permettent de sélectionner les meilleurs endroits où doivent être positionnés les capteurs afin d’atteindre une caractérisation de la pollution de l’air à l’échelle de la rue.

Des capteurs communicants à bas coût.

 

Optimisation du positionnement des capteurs de pollution

Pour traiter ce problème, nous nous sommes basés sur l’analyse physique du phénomène de dispersion des polluants dans l’air. Il s’agit de simulations qui décrivent par exemple le fait que la pollution est plus élevée près des sources de trafic, ou encore le fait que la hausse des températures favorise les réactions chimiques qui sont à l’origine des polluants atmosphériques.

Une simulation ne décrit jamais la réalité à 100 %. En effet, les estimations des simulateurs peuvent être faussées par une mauvaise estimation du trafic routier ou de la direction du vent. Pour remédier à cela, j’exploite dans ma thèse ce que l’on appelle l’optimisation stochastique, qui considère tous les scénarios possibles de la distribution des polluants. En d’autres termes, plutôt que de s’appuyer sur une seule simulation, l’idée est de se baser sur plusieurs simulations, chacune correspondant par exemple à un certain niveau de trafic routier ou une certaine direction de vent.

En se basant sur ces simulations, nos algorithmes d’optimisation visent à identifier la meilleure répartition des capteurs avec pour objectif d’avoir une estimation suffisamment précise de la qualité de l’air.

Et en pratique, ça donne quoi ?

Afin de valider la capacité des capteurs à bas coût à mieux caractériser les concentrations de la pollution en ville, et grâce à la collaboration du Grand Lyon et de ATMO Aura, nous avons développé et installé une plateforme de capteurs communicants en plein centre-ville de Lyon. L’analyse des données récupérées via notre plateforme nous a permis de comprendre que l’échelle spatiale assurée par les capteurs à bas coût dépend essentiellement de l’échelle temporelle souhaitée. En effet, si l’objectif est de caractériser la distribution des polluants à l’échelle journalière plutôt qu’à l’échelle horaire, alors les capteurs à bas coût font parfaitement l’affaire.

Ahmed Boubrima

@ahmed_boubrima

 

Ce que les premiers mots de votre téléphone révèlent sur vous

Grâce aux auteurs du Livre blanc sur la cybersécurité  qu’Inria a publié en 2019, nous vous proposons une série d’articles sur cette question majeure. Aujourd’hui, Lucca Hirschi nous parle du dialogue – imperceptible pour le commun des mortels – entre nos téléphones mobiles et des équipements voisins qui peuvent être malveillants. Bien que parfois présenté comme la solution à ce problème, le passage à la 5G ne permettra pas de répondre à toutes les failles. C’est pour cette raison que Lucca nous explique l’importance des techniques de vérification formelle des protocoles cryptographiques. Pascal Guitton

Ce matin, comme tous les matins, vous avez certainement allumé votre téléphone ou désactivé le mode avion. Mais vous êtes-vous un jour questionné sur tout ce que vous lui demandiez par cette seule action ? Mettons-nous à la place de votre téléphone quelques instants. Celui-ci se fait très brutalement réveiller de sa nuit bien méritée par un brouhaha électromagnétique. Imaginez : toutes les antennes relais font du rabattage à longueur de journée, chacune crie “venez chez-moi” 25 fois par seconde, sans interruption. Si votre téléphone, que l’on nommera affectueusement ‘Tel’, n’en devient pas sourd, il sélectionne alors l’antenne de son choix (souvent la plus proche). Appelons-la ‘Ant’.

Le temps presse, Tel a du travail, et vous vous impatientez déjà de ne pas voir vos cents notifications matinales s’afficher à l’écran. Pourtant, même si vous payez un abonnement téléphonique, disons chez ‘Rouge’, et que vous avez acoquiné Tel et la carte SIM de chez Rouge, comment Tel peut-il le prouver ? Voici le point de vue de chacun, à cet instant :

1 – Ant voit un nouveau téléphone : mais qui est-ce ?
2 – Tel capte une antenne : mais qui est-ce ?
3 – Rouge, qui ne détient pas forcément l’antenne la plus proche de Tel, se demande : où est mon client (Tel) ?

On pourrait demander à nos trois amis de décliner leurs identités respectives, mais quelqu’un de malintentionné pourrait alors profiter de notre naïveté. Il pourrait en effet se faire passer pour Tel auprès de Ant (et ne pas payer pour ses communications), ou se faire passer pour Ant auprès de Tel (et espionner les communications de Tel) ; il lui suffirait de décliner une fausse identité.

Pour s’en sortir, il a été décidé d’utiliser de la cryptographie symétrique (cf. les coffres avec serrures présentés précédemment) : Tel et Rouge ont une clé secrète qu’ils partagent (qui se trouve notamment dans la carte SIM de Tel), qui permet de cacher et d’authentifier du contenu dans des coffres numériques. Rouge, Ant et Tel vont utiliser ces coffres pour s’authentifier mutuellement à l’issue d’une petite discussion, qui est standardisée et utilisée par tous les téléphones dans le monde entier [cf. Illustration 1]. Cette discussion, Tel la connaît par cœur, car il doit l’avoir à chaque fois qu’il s’approche d’une nouvelle antenne, à chaque fois qu’il envoie un SMS, à chaque fois qu’il émet un appel, etc.

Illustration 1 : Petite discussion entre amis : Tel, Ant et Rouge s’authentifient mutuellement.

Problème de vie privée

Le souci de cette discussion, c’est qu’elle a lieu en public. Il est très facile de capter et d’écouter tout ce qui se dit et s’échange par ondes électromagnétiques. Il est aussi très facile, bien qu’illégal, de mettre au point une fausse antenne relai, et, pourquoi pas, de prendre part à la discussion. Ainsi, nous portons sur nous de petits appareils, qui, à la question “Qui es-tu ?”, déclinent leur identité, très docilement et de façon invisible pour le commun des mortels. Présenté différemment, nos téléphones peuvent être exploités à notre insu par n’importe quel agent malintentionné pour nous localiser et nous tracer. Vous avez-peut être entendu parler des IMSI-catchers [1], utilisés notamment par les services de renseignements pour localiser des cibles ? Ce sont simplement de fausses antennes relais, qui posent la question “Qui es-tu ?” en boucle [cf. Illustration 2].

Cette image illustre le principe de fonctionnement d'un IMSI catcher de type StingRay. On y voit 4 personnes téléphonant et leurs communications interceptées par l'antenne d'un camion avant de rejoindre l'antenne du réseau cellulaire.
Illustration 2 : Principe d’un IMSI catcher Stingray – WikiMedia, CC BY 3.0

Essentiellement, les IMSI-catchers reposent sur le fait que les téléphones envoient leurs identités avant d’avoir authentifié l’antenne. Ainsi, Tel ne sait pas encore à qui il parle quand il envoie son premier message (cf Illustration 1). On peut le voir comme un défaut de conception de la discussion, appelé protocole cryptographique dans le jargon, qui permet l’authentification. Il a été décidé que ce problème était aujourd’hui suffisamment préoccupant pour améliorer le protocole cryptographique d’authentification dans le réseau 5G, qui arrive en grandes pompes. En 5G, Tel n’enverra plus “Je suis Tel@Rouge” mais enverra “Je suis coffre@Rouge”, où coffre contient Tel, mais protégé par la clé cryptographique que seul Rouge connaît. Ainsi, en 5G, les IMSI-catchers, comme on les connaît aujourd’hui, ne seront plus capables de lire l’identité de Tel et donc de l’identifier, de le localiser, ou de le tracer.

Vérification formelle au service de la vie privée

Malheureusement, il a été démontré qu’il sera toujours possible de localiser et de tracer nos téléphones en 5G, en exploitant d’autres failles qui préexistaient dans le protocole cryptographique. Par exemple, bien qu’un attaquant ne puisse pas ouvrir les coffres, il peut les copier, les stocker, les renvoyer plus tard, etc. Trouverez-vous comment exploiter ce mécanisme pour tracer Tel en 5G ? [Voir la solution]. On peut en vouloir aux organismes de standardisation internationaux de ne pas avoir identifié et réparé ces failles en 5G, mais il faut rappeler ici que concevoir des protocoles cryptographiques sûres et préservant la vie privée de ses utilisateurs est un problème notoirement complexe.

C’est pour pallier cette complexité que la communauté scientifique a conçu et développé des algorithmes et des outils de vérification formelle. L’objectif est double : premièrement, se reposer sur des fondations mathématiques solides (comme la logique) pour être sûr de ne pas se tromper et, deuxièmement, profiter de la force de frappe de nos machines pour automatiser la vérification, qui ne pourrait pas être réalisée de façon exhaustive à la main. Ces techniques ont déjà permis d’identifier et de réparer des failles de sécurité en 5G et sur Internet, par exemple dans le protocole TLS 1.3. Grâce à ces recherches, votre navigateur Internet sait aujourd’hui reconnaître et éviter davantage d’attaques, avant d’afficher le petit cadenas dans la barre d’adresse. Les outils de vérification formelle permettent également de s’assurer que ces protocoles protègent la vie privée des utilisateurs, mais leur vérification est encore peu efficace et donc limitée dans la pratique à des protocoles simplifiées. En effet, les problèmes mathématiques sous-jacents à la vérification pour la vie privée sont très complexes et font l’objet de nombreuses recherches. Pour revenir à la téléphonie mobile et sa médiocre protection de la vie privée, on se donne rendez-vous dans quelques années à l’avènement de la 6G pour refaire un état des lieux, lorsque la vie privée aura certainement pris encore plus d’importance.

Lucca Hirschi (Inria, Nancy)

[1] Littéralement “attrapeur d’IMSI”. L’IMSI est l’identifiant unique à chaque carte SIM, c’est-à-dire l’identité de Tel représenté dans l’Illustration 1.

[2] Solution à la question

« Attaque 1 : Un attaquant peut stocker le message m1=“Je suis coffre1@Rouge” envoyé par un utilisateur cible qui lui permettra de tracer cette cible par la suite. Pour ce faire,  l’attaquant remplace le message “Je suis coffre2@Rouge” envoyé par un utilisateur inconnu par le message m1 et laisse ensuite Tel, Ant et Rouge s’échanger les messages suivants. Si l’utilisateur inconnu arrive à s’authentifier (en ouvrant le coffre envoyé par Rouge et en construisant son propre coffre), alors c’est qu’il est l’utilisateur cible.

Attaque 2 : Un attaquant peut stocker le coffre envoyé par Ant, de la part de Rouge, et destiné à l’utilisateur cible. Ce coffre, appelons-le C, permettra de tracer l’utilisateur cible par la suite. En effet, en présence d’un utilisateur inconnu, l’attaquant peut prétendre être Ant et envoyer le coffre C à l’utilisateur inconnu qui sera en mesure de l’ouvrir et d’y répondre si et seulement si il est l’utilisateur cible.

Il existe d’autres attaques mais elles ne peuvent pas être décrites pour le protocole simplifiée que l’on a présenté ici.»

Raconte-moi un algorithme : dessine-moi un mouton

En 2020, chaque mois, Charlotte Truchet et Serge Abiteboul nous racontent des histoires d’algorithmes. Des blockchains aux algorithmes de tri en passant par le web, retrouvez tous leurs textes, ainsi que des petits défis mathématiques, dans le Calendrier Mathématique 2020 et dans la série binaire associée… Antoine Rousseau

Mars : Dessine-moi un mouton

 

Jusqu’à la fin du siècle dernier, le traitement d’images faisait appel à des lentilles, des filtres, des bancs de marbre, etc. Et puis les images sont devenues numériques, ouvrant la porte à les traitements algorithmiques de plus en plus puissants. Nous nous baladons avec des téléphones qui prennent des photos avec des millions de pixels et réalisent des traitements logiciels qui auraient fait pâlir d’envie les professionnels du traitement d’image de la fin du siècle dernier. Un téléphone intelligent offre une énorme gamme de fonctionnalités depuis la mise au point automatique jusqu’à la reconnaissance de visage. Ces mêmes téléphones vont bientôt nous ouvrir à des mondes nouveaux de réalités virtuelles ou augmentées. Tout cela s’appuie sur des algorithmes de géométrie.

Considérons une version très simplifiée d’un tel algorithme : le ray tracing. On dispose du modèle d’un monde en 3 dimensions et on aimerait construire une vue de ce monde depuis un point particulier, censé représenter un oeil, un appareil photo. Intuitivement, on lance un rayon depuis ce point de vue et on cherche quand et où ce rayon rencontrera un objet du modèle 3D. Le ray tracing permet de dessiner ce qu’on voit à partir de ce point de vue. Une balle devient un rond et un objet derrière la balle est représenté que partiellement, le point de vue ne voit pas la partie cachée par la balle.   

Dans le modèle 3D, on peut représenter un objet par un petit triangle, un carré, ou un parallélépipède. Pour calculer le point d’intersection d’une ligne droite avec de tels objets, il suffit de résoudre des équations vectorielles. Pour réaliser le ray tracing,  on a donc à effectuer un très grand nombre de calculs. Comme les calculs pour chaque point de l’image peuvent être faits indépendamment, on peut les réaliser en parallèle. Ces applications graphiques ont d’ailleurs conduit à de super avancées pour des processeurs massivement parallèles.  

Avec cet algorithme, on peut calculer l’objet visible en chaque point. On peut alors lancer des rayons depuis chaque point d’impact vers les sources de lumière pour déterminer sa luminosité. Observez que dans le monde réel, les rayons lumineux vont de la source de lumière vers le point de vue. Ici, on <<remonte>> le chemin des rayons jusqu’à la source de lumière.

Serge Abiteboul et Charlotte Truchet