Internet, IP un protocole universel ?

Grâce à sa souplesse et son universalité, internet est devenu le moyen de communication principal entre les hommes et avec les machines.

TRANSCRIPTION DE LA VIDÉO

Production 4minutes34 et s24b pour le MOOC SNT de Class´Code, travail éditorial de SNJazur.

Cette vidéo introduit une des thématiques de l’enseignement en Sciences Numériques et Technologie de seconde au lycée, rendez-vous sur le MOOC SNT pour se former sur ce sujet, en savoir plus sur les notions abordées, les repères historiques, l’ancrage dans le réel, et les activités qui peuvent être proposées.

Jean-Marie Hullot, informaticien visionnaire, technologiste exceptionnel

Jean-Marie Hullo crédit photo Françoise Brenckmann

Jean-Marie Hullot fut un très grand professionnel de l’informatique. Outre les apports scientifiques du début de sa carrière de chercheur IRIA détaillés plus loin, peu de personnes ont eu des impacts aussi forts et permanents sur l’informatique de Monsieur Tout-le-monde. On lui doit directement les interfaces et interactions graphiques et tactiles modernes, développés d’abord à L’IRIA, puis chez NeXT computers, dont la superbe machine est restée dans les mémoires et a servi en particulier à Tim Berners-Lee pour créer le World Wide Web, et enfin chez Apple à travers le Macintosh et son système MacOSX puis l’iPhone, véritables révolutions dans le domaine qui ont largement engendré le développement de l’informatique conviviale à grande échelle que nous connaissons maintenant, avec en particulier la révolution des smartphones.

Ces interfaces particulièrement élégantes et intuitives ont marqué une nette rupture avec tout ce qui s’était fait avant, et qu’on a d’ailleurs largement oublié. Il faut bien comprendre qu’elles résultent de la conjonction d’un goût esthétique très sûr et de la création et de la maîtrise de nouvelles architectures de programmation subtiles et éminemment scientifiques, que Jean-Marie Hullot avait commencé à développer lorsqu’il était chercheur à l’IRIA. Un autre apport majeur a été celui des mécanismes de synchronisations d’appareils divers, ici Macs, iPhones et iPads, pour que les calendriers, listes de choses à faire ou autres soient automatiquement à jour dès qu’on les modifie sur un des appareils, sans besoin de la moindre transformation et quels que soient les réseaux utilisés. Cette transparence maintenant habituelle était difficile à réaliser et inconnue ailleurs.  Il faut rappeler que le domaine concerné de l’IHM locale et synchronisée est profond et difficile, et les réussites de ce niveau y sont fort rares. Celle de Jean-Marie Hullot chez NeXT puis Apple, particulièrement brillante, a aussi demandé de très nombreuses interactions avec des designers et surtout directement avec Steve Jobs, dont l’exigence de qualité était légendaire.

Mais, avant sa carrière industrielle, Jean-Marie Hullot a fait bien d’autres apports scientifiques de premier plan. Après l’École normale supérieure de Saint-Cloud, il  s’est vite passionné pour la programmation, particulièrement en LISP. Cela s’est passé à l’IRCAM où se trouvait alors le seul ordinateur en France vraiment adapté à la recherche en informatique, le PDP-10 exigé par Pierre Boulez pour monter cet institut. S’y trouvaient en particulier Patrick Greussay, auteur de VLISP et fondateur de l’école française de LISP, et Jérôme Chailloux, auteur principal du système Le_Lisp qui a longtemps dominé la scène française de l’Intelligence Artificielle et auquel Hullot a beaucoup participé et apporté.

Avec sa rencontre avec Gérard Huet, dont il suivait le cours de DEA à Orsay, il rejoint l’IRIA à Rocquencourt pour son travail doctoral. Il débuta sa recherche en réécriture de termes, problématique issue de la logique mathématique et de l’algèbre universelle, et par suite essentielle aux fondements mathématiques de l’informatique. Parti de l’algorithme de complétion décrit dans l’article séminal de Knuth et Bendix, il réalisa un système complet de complétion de théories algébriques, incluant les dernières avancées en traitement des opérateurs commutatifs et associatifs, permettant la transition avec le calcul des bases polynomiales de Gröbner. Le logiciel KB issu de son travail de thèse avait une algorithmique particulièrement soignée, permettant d’expérimenter avec des axiomatisations non triviales, comme par exemple la modélisation canonique des déplacements du robot de l’Université d’Edimbourg. La renommée de ce logiciel lui valut une invitation d’un an comme chercheur invité au Stanford Research Institute en 1980-1981. Là, en tandem avec Gérard Huet, il développa les fondements de la théorie de la réécriture algébrique, alors en balbutiement. Son article Canonical forms and unification, présenté à l’International Conference on Automated Deduction en 1980, présente un résultat fondamental sur la surréduction qui permit d’établir le théorème de complétude de la procédure de narrowing (Term Rewriting Systems, Cambridge University Press 2003, p. 297.)

Sa thèse de Doctorat à l’Université Paris XI-Orsay Compilation de formes canoniques dans les théories équationnelles fut soutenue le 14 novembre 1980. Point d’orgue de son travail en algèbre effective, elle devint la bible des chercheurs en réécriture, désormais domaine essentiel de l’informatique fondamentale. Elle fut le premier document technique français composé avec le système de composition TeX, alors en développement par Don Knuth à Stanford, où Jean-Marie Hullot s’y était initié. Il était frappé par l’étonnante qualité graphique des documents traités par TeX, mais aussi des écrans bitmap alors développés au laboratoire PARC de Xerox.

En 1981 il retrouve l’INRIA à Rocquencourt où démarrait le Projet National Sycomore dirigé par Jean Vuillemin, et que venait de rejoindre Jérôme Chailloux, concepteur du langage Le_Lisp. Il y découvrit le premier Macintosh, ordinateur commercial pionnier profitant des avancées de PARC (bitmap display, interface de fenêtres, ethernet) et du SRI (souris). Mais il a vite trouvé la façon dont ses interfaces étaient programmées assez infernale. Comme c’était l’époque de la naissance des langages objets, il a d’abord décidé de développer le sien au-dessus de Le_Lisp, nommé Ceyx, en privilégiant les aspects dynamiques non présents dans les autres langages de l’époque (il est ensuite passé à Objective C, langage du même type mais bien plus efficace.) Ce langage remarquable, dont l’implémentation était un bijou de simplicité et d’intelligence, a servi notamment à Gérard Berry pour écrire son premier compilateur Esterel.

Ce travail a débouché sur la création du premier générateur d’interfaces mêlant conception graphique directe et programmation simple, SOS Interfaces. C’est en présentant ce système aux idées très originales dans un séminaire à l’université Stanford qu’il a rencontré Steve Jobs, alors chassé d’Apple, et qui a immédiatement souhaité l’embaucher pour créer sa nouvelle machine NeXT. Même si cette machine n’a pas été un succès commercial, elle reste connue comme probablement la plus élégante jamais fabriquée, et a eu le rôle de précurseur de tout ce qui s’est passé ensuite.

Jean-Marie Hullot a ensuite pris le leadership des interfaces et interactions du nouveau Macintosh en tant que directeur technique du service des applications d’Apple. Ses créations et celles de son équipe marquent toujours l’informatique moderne. Il a ensuite quitté un moment Apple et la Californie pour s’installer à Paris. Là, Steve Jobs l’a rappelé pour régénérer l’esprit créatif d’Apple, mais il a refusé de revenir en Californie, et proposé plutôt de créer un téléphone, ou plutôt un smartphone comme on dit maintenant. Après quelques difficultés pour convaincre Steve Jobs qui n’y croyait pas trop, il a créé l’iPhone dans un laboratoire secret d’une vingtaine de personnes à Paris. La suite est connue, et assez différente de ce que disait Steve Ballmer lors de la première démonstration par Steve Jobs : « Cet objet n’a aucun avenir industriel » ! Avec plus d’un milliard d’exemplaires vendus, il s’agit probablement d’un des plus grands succès esthétiques et industriels de l’histoire.

En outre, il mena plusieurs entreprises technologiques en France. La société RealNames qu’il a créé en 1996 avait pour objet de doter le réseau Internet alors en plein essor, mais anarchique au niveau du nommage, d’un espace de nommage standardisé. Plus tard, il chercha à créer une infrastructure ouverte pour le partage de photographies, en suivant le modèle de l’encyclopédie libre Wikipedia , et créa la société Photopedia à cet effet. Ces entreprises n’ont pas été pérennes, mais elles ont permis à de nombreux jeunes professionnels de se former aux technologies de pointe, et d’essaimer à leur tour de nouvelles entreprises technologiques.

Mathématicien créatif, informaticien visionnaire, programmeur élégant, ingénieur rigoureux, technologiste hors-pair, esthète raffiné, Jean-Marie Hullot aura marqué son époque. Les résultats de son travail ont tout simplement changé le monde à tout jamais. La Fondation Iris, qu’il a créé avec sa compagne Françoise et dont l’objectif est de sauvegarder la fragile beauté du monde, continue de porter son message humaniste : http://fondationiris.org/.

Gérard Berry et Gérard Huet

Cet article est aussi accessible sur le site Inria.fr

 

 

Plus d’ambitions climatiques !

L’émergence du numérique, ce choc culturel auquel nous nous intéressons dans Binaire, peut également être interprétée comme un choc environnemental pour la planète : en quelques décennies, nos smartphones, nos ordinateurs ou encore le web ont déjà consommé beaucoup d’énergie et de ressources. Beaucoup, et de plus en plus… Françoise Berthoud, Jacques Combaz et Kevin Marquet sont membres du Groupement De Service EcoInfo : « Pour une informatique éco-responsable ». Ils signent ici une tribune proche de celle publiée sur le site de la Société Informatique de France (SIF). Antoine Rousseau

À l’échelle mondiale, les technologies du numérique sont responsables d’environ 4 % des émissions de gaz à effet de serre (GES), soit plus que celles engendrées par l’aviation civile ! Le secteur du numérique a aussi un taux de croissance particulièrement important (+8 % par an), et est responsable d’environ 10 % de la consommation électrique mondiale, tout cela sans compter les objets connectés et les systèmes embarqués que l’on retrouve par exemple dans l’électroménager ou les moyens de transport.

Ses impacts directs sur le changement climatique sont donc largement significatifs et en très forte croissance.

L’urgence climatique tend à focaliser notre attention sur les émissions de GES ; toutefois, l’extraction et le raffinage des métaux puis la production des composants nécessaires à la réalisation des équipements électroniques ainsi que leur recyclage, lorsqu’il n’est pas fait dans les règles de l’art, sont aussi des sources considérables de pollution : métaux lourds (cuivre, nickel, zinc, étain, plomb, arsenic, gallium, germanium, indium, mercure, sélénium, thallium), phtalates (plastifiants), solvants, composés chimiques perfluorés, dioxine, furane et autres métaux ou composés chimiques sont déversés directement dans le sol, les eaux ou polluent l’air. Ce type de pollution est local, contrairement aux GES qui ont un effet global. Pour autant, leurs impacts sur la qualité de l’air, des sols, et de l’eau ont de graves répercussions sur la santé des populations locales et contribuent à l’effondrement de la biodiversité.

Le développement des technologies numériques participe aussi de manière importante à l’épuisement de certaines ressources. De ce fait, au rythme actuel de production, les réserves seraient par exemple de 15 ans pour l’étain, de 16 ans pour l’or, de 20 ans pour l’argent, ou encore de 39 ans pour le cuivre, même si ces estimations doivent être prises avec précaution puisqu’elles ne tiennent compte que des réserves connues et ne considèrent pas les futures découvertes, les améliorations technologiques, ou les évolutions économiques. Malgré tout, et en dépit des progrès techniques, leur extraction finira par demander trop d’énergie, ce qui est illustré par la figure ci-dessous pour le cas du cuivre. Jusqu’à récemment, l’amélioration technologique a permis une augmentation continue de l’efficacité énergétique d’extraction (d’environ 1 % par an), et ce malgré la diminution en concentration du minerai de cuivre dans les exploitations. Du fait de limites physiques inhérentes aux processus d’extraction, cette tendance est en train de s’inverser et et la quantité d’énergie nécessaire à l’extraction du cuivre devrait s’envoler d’ici la fin du siècle selon certains spécialistes [1]. Ce schéma s’applique à plus ou moins long terme à toutes les ressources minières, ce qui limitera tôt ou tard nos capacités d’extraction.

Figure 2 : L’énergie nécessaire à l’extraction du cuivre devrait augmenter considérablement [1]

Le recyclage représente un espoir pour amortir l’épuisement des ressources, mais actuellement les taux de récupération des métaux dans les appareils électroniques sont faibles et ne dépassent pas 20 % pour les plus simples à recycler. Les porter à 80 % (et même à 100 % !) permettrait de retarder cet épuisement dans le contexte de demandes en croissance exponentielle observé actuellement, mais pas de s’inscrire dans un processus d’économie circulaire..

Figure 3 : Gain de temps permis par un fort taux de recyclage

Les besoins des technologies du numérique en ressources naturelles sont aussi sources de problèmes socio-environnementaux : exploitation de la population locale dans les mines, conflits d’accès à l’eau ou aux ressources elles-mêmes, conflits armés, etc.

La transition numérique nous promet la « dématérialisation » de produits ou services, mais la réalité montre des effets de « rematérialisation » importants qui peuvent limiter, annuler, voire inverser les bénéfices : par exemple, on estime que la mise en place de factures électroniques est néfaste d’un point de vue des émissions de GES à partir du moment où 35 % des factures sont imprimées par les usagers. De plus, les commodités introduites par les technologies numériques tendent aujourd’hui à multiplier la demande en services ou en produits, participant ainsi indirectement à l’accroissement de notre empreinte environnementale. Plus généralement, un des impacts sociétaux majeurs du numérique est son rôle dans l’accélération des échanges et des procédés de production. Par exemple, le numérique rend possible le trading haute-fréquence, facilite la gestion de l’approvisionnement en flux tendu, ce qui accélère les processus de production et incite à des modes de livraison rapides.

Sans remettre en cause les apports réels des technologies numériques dans la société, participant à notre confort et finalement notre bien-être, il est important de garder à l’esprit les coûts environnementaux associés (pollution, destruction des écosystèmes, réchauffement climatique, etc.). Le devenir des impacts environnementaux du numérique dépendra des technologies qui seront développées et adoptées (5G, véhicules autonomes, réalité virtuelle, intelligence artificielle, internet des objets, blockchain, etc.) et des comportements de consommation. Les politiques mises en place pour influer sur ces deux aspects revêtent ainsi un intérêt capital ; elles sont pourtant encore embryonnaires voire inexistantes.

Alors que la tendance est loin d’être à la sobriété numérique, ne devrions-nous pas aussi questionner la notion de progrès par rapport à la question environnementale ? Ces questions de responsabilité et d’éthique scientifique sont plus que jamais d’actualité, et en tant qu’informaticiens nous ne pouvons pas les éluder dans un contexte où les innovations techniques ont presque systématiquement une dimension numérique.

Françoise Berthoud (CNRS), Jacques Combaz (CNRS) et Kevin Marquet (Inria)

[1] : O. Vidal, conférence dans le cycle « Comprendre et Agir », INRIA ,2019

Ces océans qu’on modélise

Dans cet article à plusieurs voix, nous avons quelques petites histoires à raconter avec plusieurs objectifs. D’une part montrer comment l’informatique et les mathématiques appliquées permettent de modéliser nos océans si précieux et parfois en danger ; d’autre part informer étudiantes et étudiants en classes préparatoires qui font justement cette année un travail personnel encadré sur ce sujet , un TIPE*, que les chercheuses et chercheurs sont à leur contact pour les aider à trouver des ressources et conseiller si besoin. Antoine Rousseau et Thierry Viéville.
© INRIA / MOISE - CNRS / LEGI
Modèle idéalisé d’un océan du type Atlantique Nord © INRIA / MOISE – CNRS / LEGI

Arctique, Atlantique, Austral, Indien, Pacifique : les océans couvrent à eux seuls plus des deux tiers de la surface du globe ! Ils jouent un rôle essentiel dans la vie sur Terre et partout dans le monde, les océans font l’objet de multiples études tant leur taille les rend à la fois mystérieux et essentiels à la compréhension du système Terre. Dans un contexte de dérèglement climatique, ils sont observés à la loupe : compte tenu de leur inertie, on sait que l’état des océans aujourd’hui nous dit beaucoup sur le futur de la planète. Avec quelques scientifiques d’Inria, voyons comment les océans peuvent être modélisés par des équations puis simulés grâce à des algorithmes et enfin instrumentés afin de fournir des diagnostics sur leur état (c’est grave, docteur ?). Comprendre les océans, c’est aussi comprendre comment l’énergie qu’ils renferment pourrait être utilisée par nos sociétés.

Antoine ROUSSEAU (Inria-Équipe LEMON)

L��océan, c’est de la dynamique !

Etude de la dynamique océanique turbulente à super résolution © GEOSTAT /DYNBIO / MODIS AQUA et OSTIA.

La dynamique des océans est fabuleusement riche. Les mouvements y ont lieu sur une gamme d’échelles extrêmement large, allant de quelques dizaines de centimètres (du clapot, de petits tourbillons…) à des milliers de kilomètres (les grands courants qui traversent des océans entiers). L’ensemble de cette dynamique est modélisée, c’est-à-dire représentée mathématiquement, par des équations complexes, qui tentent de prendre en compte l’ensemble des phénomènes : l’eau de mer est un fluide plus ou moins salé, sur une terre en rotation, qui interagit avec l’atmosphère, et qui est soumis à l’attraction de la lune (entre autres). Face à une telle complexité, plutôt que de chercher à tout comprendre d’un coup (ce qui est voué à l’échec), il est souvent très instructif d’isoler des phénomènes. C’est ce qu’ont fait de nombreux océanographes depuis plus d’un siècle, et il est frappant de voir comment des modèles très simples expliquent tel ou tel aspect de la dynamique océanique. Citons par exemple en vrac la circulation de grande échelle engendrée par le vent (circulation de Sverdrup), la circulation créée par les différences de densité de l’eau de mer (circulation « thermohaline » et le modèle de Stommel), les grands courants de bord ouest tels le Gulf Stream ou le Kuroshio (effet Beta et couche de Munk), le phénomène de dérive (spirale d’Ekman) ou encore les multiples ondes qui se propagent, en surface ou dans la profondeur de l’océan (houle, ondes de marée, ondes de Rossby et de Kelvin, ondes acoustiques…).

Eric BLAYO (Inria Grenoble, Equipe AIRSEA)

L’Océan : un potentiel énergétique fabuleux

Depuis quelques années la production d’énergie renouvelable est un enjeu majeur de la société. Si la production électrique hydraulique à l’intérieur des continents, c’est-à-dire dans les barrages hydrauliques, est largement développée en France et dans le monde de nos jours, il n’en est pas de même pour le formidable potentiel des océans. Plusieurs types de procédés de récupération d’énergie marine peuvent être distingués en fonction de la forme de l’énergie qu’elle utilise : la marée, les vagues, les courants. Pour chacunes d’elles se posent des problèmes techniques, économique et environnementaux que les chercheuses et chercheurs, en industrie et à l’université, cherchent à résoudre:
• Comment optimiser le processus de récupération d’énergie ?
• Comment transporter l’énergie produite jusqu’au continent ?
• Comment estimer le potentiel d’un site de production et l’impact (sédimentaire ou sur l’éco-système) de l’implantation d’un dispositif de récupération d’énergie ?

Martin PARISOT (Inria Paris, Equipe Ange)

Assimiler les données dans les modèles océaniques

Pour effectuer une prévision de la circulation océanique, on dispose de modèles numériques qui sont la transcription, sous forme de programme informatique, des équations de la mécanique des fluides et de la thermodynamique. Ces modèles permettent, à partir de l’état de l’océan actuel, de prévoir l’évolution dans le temps de ce système, et ainsi fournir une prévision de l’état de la mer qu’il fera dans les jours qui viennent. Cependant on ne connait pas avec précision la valeur actuelle, à chaque endroit, des quantités physiques qui sont nécessaires pour constituer la condition initiale (le point de départ) des modèles de prévision. On dispose heureusement de multiples sources d’observation de l’océan (bouées, radars, satellites, …), qui fournissent une information relativement précise, mais encore trop partielle de cette condition initiale. C’est en mélangeant ces sources d’information hétérogènes que sont les différentes observations et les résultats des modèles numériques au moyen de méthodes dites d’assimilation de données que l’on recompose l’état actuel de l’océan. La principale difficulté réside dans l’estimation et la description des statistiques d’erreurs associées à ces différentes sources d’information, afin de trouver le meilleur compromis possible. Ce dernier point, déterminant pour la qualité de la prévision est toujours un champ de recherche actif.

Arthur VIDARD (Inria Grenoble, équipe AIRSEA)

La circulation grande échelle : le tapis roulant des mers

Modèle d’un océan du type Atlantique Nord. © INRIA / MOISE – CNRS / LEGI

De nombreux processus physiques gouvernent les courants marins (gravité, vents, rotation de la terre, attraction de la lune, topographie des fonds marins, effets de bord, etc.). Il existe un processus physique simple qui permet d’expliquer les grandes lignes des courants planétaires, comme le Gulf Stream ou le Kuroshio. En quelques mots, il s’agit du processus élémentaire de la mise en mouvement de deux fluides de densités différentes, dans un même contenant, sous l’effet de la gravité : le fluide le plus dense (plus lourd) descend, celui qui est moins dense (plus léger) monte. Dans l’océan, en raison des différences de température et de salinité, la densité de l’eau de mer n’est pas toujours constante, et ce phénomène donne naissance à ce que l’on nomme la circulation thermohaline : imaginer de gigantesques tapis roulants des mers qui transportent des masses d’eau phénoménales sur toute l’étendue du globe.

Malgré la simplicité du processus, les équations sous-jacentes restent extrêmement complexes, car elles reposent sur celles de la mécanique des fluides (équations de Navier-Stokes). Les mathématicien·nes et physicien·nes ont donc recours à la simulation numérique pour étudier, modéliser, comprendre ce phénomène. Ce phénomène peut également faire l’objet d’une expérience simple accessible à tou·tes ! (réf 1)

Maëlle NODET (Université de Versailles-St Quentin)

Calculs et énergies marines renouvelables

Le développement des techniques liés aux énergies marines renouvelables (EMR) est souvent associé à des simulations numériques très poussées (énergie éolienne, hydrolienne  ou encore houlomotrice), impliquant la conception et l’analyse de nouveaux algorithmes mathématiques. Ces derniers permettent en particulier de limiter la construction coûteuse de prototypes.

Pour obtenir un résultat sous forme numérique, le mathématicien décompose généralement son travail en une série d’étapes bien distinctes. La première consiste à fixer un modèle, c’est-à-dire un ensemble d’équations décrivant la physique du phénomène. Dans le cas des systèmes liés au EMR, le fluide est décrit des des équations aux dérivées partielles, par exemple l’équation de Navier-Stokes ou l’une de ses versions simplifiées (équation de Stokes, approximation par écoulement potentiel, équation de St-Venant…). Le dispositif extracteur (éolienne, bouée houlomotrice…) est quant à lui soit modélisé par l’intermédiaire de la mécanique des milieux continus, soit simplement par un solide fixe (hypothèse souvent considérée pour les pâles d’une éolienne par exemple). Le système global relève donc d’un champ de recherche appelé l’interaction fluide-structure, qui s’intéresse spécifiquement au couplage de modèles de mécanique des fluides et de mécanique du solide.

L’étape suivante est celle de la résolution numérique du modèle : il s’agit alors de construire des procédures de résolution numérique (des « schémas numériques », généralement approximatives) du système d’équations obtenu à l’étape précédente. Du point de vue mathématique, cette étape se traduit par une discrétisation en espace du domaine physique occupé par le dispositif et son environnement et d’une discrétisation en temps, si l’on considère les régimes transitoires. Les nombreux schémas qui peuvent être considérés (schémas Lax Friedrichs, Godunov, Roe, …) pour la simulation du fluide doivent alors prendre en compte l’interaction avec la machine sous forme de conditions de bord. Le travail mathématique consiste ici à évaluer, à l’aide de théorèmes, la qualité de l’approximation de la solution du modèle par la solution numérique (on parle d’analyse d’erreur).

Enfin, une fois la simulation validée, la procédure de calcul peut être utilisée en mode prédictif pour optimiser la technique : la géométrie de l’extracteur peut par exemple être modifiée de telle sorte que son rendement soit maximisé. Cette étape relève donc du champ de l’optimisation numérique où l’enjeu est de construire un algorithme itératif conduisant à l’optimisation d’une fonctionnelle (le rendement, par exemple). Les techniques utilisées sont d’ordre 0 (c’est-à-dire n’utilisant pas la dérivée de la fonctionnelle, comme l’algorithme du simplexe ou les algorithmes évolutionnaires), d’ordre 1 (mettant en jeu la dérivée de la fonctionnelle, i.e. son gradient, comme dans les algorithmes de gradient) voire d’ordre 2 (ayant recours à la dérivée seconde de la fonctionnelle, i.e. sa hessienne comme dans l’algorithme de Newton).

L’ensemble des techniques mathématiques mobilisées dans le cadre de la conception numérique de dispositifs extracteurs d’énergie marine est donc très vaste et va certainement se développer de manière importante dans les prochaines décennies, en particulier, par des collaborations plus poussées entre ingénieurs, mécaniciens et mathématiciens. Il donne bien sûr lieu à de nouvelles recherches spécifiques dans ces deux dernières communautés.

Julien SALOMON (Inria Paris, Equipe Ange)

Pour en savoir plus, rendez vous sur la page pixees avec toutes les références.

(*)Le Travail d’Initiative Personnelle Encadré est une épreuve commune à la plupart des concours d’entrée aux grandes écoles scientifiques. Il permet d’évaluer les étudiant·e·s non pas sur une épreuve scolaire mais à travers un travail de recherche et de présentation d’un travail personnel original. C’est un excellent moyen d’évaluer les compétences. Cela peut être aussi une épreuve inéquitable dans la mesure où selon les milieux on accède plus ou moins facilement aux ressources et aux personnes qui peuvent aider. Pour aider à maintenir les quitter les chercheuses et les chercheurs se sont mobilisés pour offrir des ressources et du conseil à toute personne pouvant les solliciter.

Claude Pair, pionnier de l’informatique

L’informatique avance vite, trop vite pour certains. C’est pourquoi le domaine mérite de temps en temps un regard dans le rétroviseur. C’est ce que nous allons faire avec Pierre Lescanne, Professeur à l’ENS de Lyon, un chercheur français en logique et informatique théorique. Pierre Lescanne nous parle d’un des grands pionniers de l’informatique, Claude Pair. Il nous ramène à cette époque où tout était à inventer, et en particulier l’enseignement de l’informatique. C’est d’ailleurs un peu un paradoxe de parler de coup d’oeil dans le rétroviseur au sujet de Claude Pair, un visionnaire qui a participé à faire sortir des limbes le monde numérique. Serge Abiteboul
Claude Pair, site d’Interstice

Le 14 juin, ses amis et ses anciens élèves célébreront les 85 ans de Claude Pair, un pionnier de l’informatique [1]. En 1962, Claude Pair, ancien élève de l’École normale supérieure, est professeur de classe préparatoire au lycée de Nancy. Il a découvert la programmation pendant son service militaire comme scientifique du contingent. Mais c’est lorsqu’il rejoint Nancy que sa carrière de chercheur en informatique débute quand, ayant appris qu’un langage de programmation révolutionnaire venait d’être décrit par un groupe international, sous le nom d’Algol, il lance une équipe de doctorants dans la réalisation d’un compilateur pour ce langage, c’est-à-dire d’un traducteur, vers la machine à laquelle l’équipe a accès à l’époque, un IBM 1620, qui est mis à leur disposition, la nuit, par le constructeur et qui se trouve à Metz à 60 km, sans autoroute. A l’époque de telles machines ne se programment qu’en langage machine (même pas en assembleur) et les programmes sont saisis grâce à des cartes perforées. Algol est un langage dont les descendants contemporains sont Python, Pascal ou Java. Pour les chercheurs de l’époque, le traduire en code exécutable par la machine est un casse-tête, car aucune des méthodologies qui font partie du bagage d’un informaticien d’aujourd’hui n’existe. Il faut tout créer, tout inventer et les jeunes chercheurs sous la conduite d’un des leurs s’en sortent. Le compilateur commence à fonctionner, mais finalement IBM coupe l’accès à son ordinateur, or c’est le seul dans leur environnement. Cela n’empêche pas les thèses d’être soutenues.

L’émergence de nouveaux concepts

IBM 1620, Wiki Common

Cette recherche empirique a cependant ouvert des horizons à Claude Pair qui a l’intuition que la technologie naissante est plus qu’une ingénierie et que l’« informatique » dont le nom vient d’être inventé est une véritable science, dont les concepts de base sont à inventer. Parmi ceux-ci, il découvre la pile, concept omniprésent, entre autres dans l’analyse syntaxique (l’analyse des programmes qui permet d’en découvrir la structure et de pouvoir les traduire). Pour cette analyse syntaxique, il invente une structure mathématique : le binoïde. En effet, il comprend qu’il faut attaquer l’informatique avec la culture qui est la sienne, celle des mathématiques. A l’époque les calculateurs servent surtout aux physiciens et aux mécaniciens et sont pour eux des outils. Ils sont peu intéressés par la conceptualisation du calcul et de ce qui lui est lié. La notion de binoïde n’a pas survécu, en tout cas pas sous ce nom, mais il est l’une des premières structures mathématiques dont la définition est récursive (on peut calculer sur elle) et c’est cela qui est intéressant. Ses travaux attirent l’attention d’une chercheuse hongroise, Rósza Péter, pionnière des fonctions récursives (ou fonctions calculables) dont elle a dégagé les bases dans les années 30. Il entretient avec elle une correspondance épistolaire en 1968-1969. Dès 1966, il comprend aussi comment une démarche algébrique, associée à l’utilisation d’une « pile », permet de concevoir des algorithmes de cheminement dans un graphe : existence d’un chemin , calcul du plus long chemin, calcul du plus court chemin, calcul de tous les chemins, etc. Le même algorithme abstrait s’instancie dans des algorithmes qui résolvent des problèmes différents. Cette approche innovante sera « redécouverte » de multiples fois, après lui. Mais il est encore insatisfait sur deux points : savons-nous ce qu’est un programme et comment enseigner la programmation ?

Enseignement de l’informatique, Académie des technologies

Comment enseigner la programmation ?

Avant tout, que réalise un programme ? En fait, un programme décrit un calcul dont le but est de résoudre un problème. Ce qui conduit à deux nouvelles questions. Qu’est-ce qu’un problème (informatique) ? Qu’est-ce qu’un calcul ? Avec son équipe nancéienne, il est l’un des premiers à se poser ces questions. Il comprend que les réponses se trouvent du côté de l’algèbre et de la logique, à l’époque peu diffusée en France.

Quand vous demandez à un débutant d’écrire un programme résolvant un problème, il ne sait pas par quel bout prendre la question. Claude Pair, que ce dilemme préoccupe, met au point une méthodologie qu’il appelle la méthode déductive de programmation qui propose une approche, rigoureuse et raisonnée, pour aborder la programmation et son initiation. Cette méthode repose sur un principe : « il faut partir du résultat ». Il faut ensuite définir quand ils se posent des sous-problèmes à résoudre, le tout étant associé à une disposition rigoureuse et standardisée pour définir et présenter les identificateurs et les notions que l’on introduit, tandis que le programme s’élabore par étapes.

Un chef de projet et un meneur d’hommes

Dès la réalisation du premier compilateur pour Algol, Claude Pair s’est révélé un leader incomparable, mais il ne s’arrête pas là ! Il dirige de nombreux doctorants (32 thèses sous sa direction et à ce jour, plus de 120 « descendants » docteurs). Il crée à Nancy ce qui est devenu l’un des meilleurs laboratoires français et européen du domaine. Il préside une université. En 1981, qui marque la fin de sa carrière de chercheur, il est appelé comme Directeur des lycées au Ministère de l’Éducation nationale, puis il devient recteur. Dès 1971, sentant que les nouveaux enseignants maîtrisent difficilement les tout nouveaux concepts qui émergent, il crée une école d’été annuelle. En 1985, il participe à la création de SPECIF, dont il est le premier président, et qui se transformera en la Société informatique de France. Il est actuellement impliqué dans la lutte contre l’inégalité des chances dans l’éducation.

En fêtant Claude Pair, nous revivons ainsi la naissance de l’informatique en France dont il est un des très grands acteurs.

Pierre Lescanne, Professeur à l’ENS de Lyon

[1] Colloque en l’honneur de Claude Pair, Nancy, 14 juin 2019, http://claudepair.fr/

Publicité en Ligne : reprenons la main !

Vous avez peut-être été stupéfaits par des pubs que vous recevez sur des plateformes du web, peut-être vous êtes-vous inquiétés. Vous avez sûrement entendu parler de Cambridge Analytica et d’autres manipulations de la foule des internautes. Tout cela est mystérieux, opaque. Les recherches de deux informaticiens grenoblois, Oana Goga et Patrick Loiseau, les ont amenés à étudier le sujet. Ils racontent à Binaire ce qu’ils ont appris.
Serge Abiteboul. 
Cet article est publié en collaboration avec The Conversation.

 

Clé de ciblage, Saint-Oma

La plate-forme de publicité de Facebook est fréquemment source de controverses en raison de potentielles violations de vie privée, de son opacité, et des possibilités de son utilisation par des acteurs malhonnêtes pour du ciblage discriminatoire ou même de la propagande destinée à influencer des élections. Pour répondre à ces problèmes, de nombreux gouvernements et activistes prônent une augmentation de la transparence et de la responsabilité de Facebook au sujet des publicités qui circulent sur la plateforme. Ainsi, par exemple, le Règlement Général sur la Protection des Données (RGPD) européen introduit un “droit à l’explication”. Toutefois, comment apporter de la transparence à un tel système reste une question largement ouverte sur le plan technique. En collaboration avec des chercheurs de l’institut Max Planck (Allemagne) pour les systèmes logiciels, de l’université de Northeastern (Etats-unis), et de l’université fédérale du Minas Gerais (Brésil), nous explorons les différentes sources de risques dans les plateformes de publicités des médias sociaux telles que celle de Facebook et des solutions pour les atténuer via des mécanismes de transparence.

Les abus sont facilités par certaines caractéristiques des plates-formes

Pour bien comprendre pourquoi le problème est à la fois répandu et complexe à résoudre, commençons par regarder comment ces plateformes fonctionnent. On peut distinguer principalement trois caractéristiques, inhérentes à leur fonctionnement, qui rendent la transparence à la fois plus importante et plus difficile :

  1. La plateforme offre aux publicitaires un canal de communication privé avec chacun de ses utilisateurs : son “mur”. Il est donc impossible de savoir quelles publicités un utilisateur particulier reçoit, qui sont les publicitaires qui le ciblent et pourquoi ; ce qui rend les abus extrêmement difficiles à détecter.
  2. N’importe quel utilisateur possédant un compte Facebook peut devenir un publicitaire en quelques minutes sans vérification d’identité. Il n’y a donc aucune barrière pour des acteurs mal intentionnés souhaitant exploiter le système.
  3. La plate-forme met à disposition des publicitaires une quantité énorme de données sur les utilisateurs pour cibler très précisément certains segments de la population avec des messages susceptible de résonner en eux. Les publicitaires peuvent cibler les individus satisfaisant une combinaison précise d’attributs, avec plus de 1000 attributs prédéfinis choisis dans une liste et plus de 240 000 attributs libres suggérés par la plateforme lorsque le publicitaire tape des mots clés. On peut cibler par exemple les utilisateurs “intéressés par les enfants, mais pas par The Economist, ayant récemment déménagé et vivant au code postal 38 000”. Les publicitaires peuvent également cibler des individus en particulier s’ils ont des informations appelées informations d’identification personnelle telles que l’email ou le numéro de téléphone.

Si on combine ces trois caractéristiques, on voit qu’un publicitaire peut cibler de façon très précise (ouvrant la voie à une manipulation potentielle) sans qu’il y ait de contrôle sur l’identité des publicitaires et sans qu’il n’y ait de possibilité pour un acteur extérieur (comme un régulateur) de vérifier l’absence d’abus.

« Privacy bulletin board spring 2015 » par westonhighschoollibrary  CC BY-SA 2.0

Un premier audit externe de l’utilisation de la plateforme

Puisque les publicités ciblées sont vues seulement par les utilisateurs ciblés en question, la seule façon d’auditer la plateforme est de collecter directement les publicités montrées aux utilisateurs sur leur mur. Pour permettre un tel audit externe, nous avons développé une extension de navigateur, AdAnalyst (https://adanalyst.mpi-sws.org), que les utilisateurs peuvent installer et qui collecte (de façon anonyme) des données sur les différentes publicités reçues. En utilisant les données de plus de 600 utilisateurs, nous avons pu réunir des éléments de réponses à quelques questions importantes pour bien comprendre comment la plateforme est utilisée et quelles sont les sources de risques potentiels :

Qui sont les publicitaires ? Notre analyse [1] révèle que 16% des publicitaires sont peu populaires (ils ont moins  de 1000 likes sur leur page Facebook) et que seuls 36% sont “vérifiés” (par un processus de vérification volontaire proposé par Facebook) et peuvent donc être tenus responsables de leurs publicités. Nous constatons aussi que plus de 10% de publicitaires visent des catégories de sujets potentiellement sensibles (e.g., information/politique, éducation, finance, médecine, droit, religion) ; il est donc crucial et urgent de pouvoir les monitorer !

Quelles stratégies de ciblage utilisent les publicitaires ? Une fraction importante des publicitaires (20%) utilisent des stratégies de ciblage qui, soit potentiellement envahissent votre vie privée (e.g., basées sur les informations d’identification personnelle ou sur des attributs de tierces parties collectés en dehors de la plateforme par des compagnies appelées “data brokers” qui les vendent ensuite à Facebook), soit sont opaques (e.g., utilisant la fonction “Lookalike audience” de Facebook qui laisse Facebook sélectionner les utilisateurs ciblés sur la base d’un algorithme de “similarité” privé). Cela représente une transition par rapport au mode de ciblage plus classique (et mieux compris) basé sur la localisation, sur les attributs démographiques ou de comportement, ou sur le re-ciblage (pratique qui consiste à montrer des publicités pour des produits que vous avez précédemment cherchés par vous-même).

Quels attributs les publicitaires utilisent-ils ? Même lorsque ce mode plus classique de ciblage sur les attributs est utilisé, il peut être source d’inquiétude. En effet, les attributs “voyage” ou “nourriture et boisson” restent les plus utilisés, mais une fraction surprenant de publicités (39%) utilisent des attributs libres qui sont beaucoup plus spécifiques et peuvent être beaucoup plus sensibles : on trouve par exemple des attributs tels que “connaissance du diabète de type 1”, ou un intérêt pour diverses organisations ou actions telles que “Adult Children of Alcoholics” (adulte dont les parents sont alcooliques) ou “Defeat Depression” (vaincre la dépression).

Les publicitaires adaptent-ils leurs publicités aux sujets ciblés ? Nous avons découvert que 65% des publicitaires adaptent effectivement le contenu de leurs publicités en fonction des attributs ciblés. Par exemple, Vice News (un site américain d’information généraliste) envoyait aux utilisateurs intéressés par “PC Magazine” (un magazine spécialisé dans la technologie) une publicité pour un article “A self-driving, flying taxi could soon be a reality” (un taxi volant autonome sera bientôt une réalité) et aux utilisateurs intéressés par le parti démocrate une publicité pour un article “Mr. Trump and Mr. Cohen have a lot of explaining to do” (M. Trump et M. Cohen ont beaucoup à expliquer). Si ces pratiques ne sont pas malveillantes en elles-mêmes et existent d’ailleurs aussi dans le monde déconnecté, elles requièrent une attention particulière dans le cas de la publicité en ligne car elles ouvrent la porte à une manipulation fine par l’intermédiaire du micro-ciblage. Dans un autre contexte, nous avons mis en évidence par exemple que cette pratique a été utilisée par la Russian Intelligence Agency pour envoyer des publicités clivantes de façon ciblée aux utilisateurs vulnérables pendant l’élection présidentielle américaine de 2016 [2].

Malgré des réponses intéressantes, cette étude du cas de Facebook ne révèle qu’une petite partie émergée de l’iceberg que représente l’écosystème de la publicité dans les médias sociaux et met surtout en lumière le besoin de travaux supplémentaires pour comprendre l’écosystème et son impact sur les utilisateurs.

« Don’t Be Evil » by oscarberg, CC BY-NC-SA 2.0

Quid des mécanismes de transparence offerts par la plateforme?

Pour répondre aux inquiétudes des utilisateurs, les plateformes ont récemment commencé à offrir des mécanismes de transparence. Facebook (en premier) a introduit un bouton “Pourquoi je vois cette pub ?” qui fournit aux utilisateurs une explication pour chaque publicité du type : “Une des raisons pour lesquelles vous voyez cette publicité est que Würth France souhaite atteindre les personnes intéressées par Industrie automobile, en fonction d’activités comme les Pages aimées ou les clics sur les pubs. D’autres raisons peuvent expliquer que vous voyiez cette publicité, notamment que Würth France souhaite atteindre les hommes de 24 à 58 ans qui habitent en France. Cette information est basée sur votre profil Facebook et les lieux où vous vous connectez à Internet.

Même si ces explications ne fournissent d’information que sur une petite partie du processus de délivrance des publicités (le choix de l’audience par le publicitaire), elle constituent a priori un bon début ; mais il est toutefois indispensable de les auditer afin de s’assurer de la qualité de l’information fournie aux utilisateurs ! Pour ce faire, nous avons créé des campagnes de publicité contrôlées ciblant les utilisateurs volontaires d’AdAnalyst et collecté les explications reçues que nous avons alors comparées aux paramètres effectifs des campagnes. Nos résultats [3] montrent que les explications fournies par Facebook sont loin d’être parfaites.

Nos expériences montrent d’abord que les explications de Facebook sont incomplètes d’une façon potentiellement inquiétante. Dans le détail, on observe que l’explication montre au plus un attribut même si plusieurs ont été utilisés pour le ciblage. Plus inquiétant, l’attribut montré est choisi de façon surprenante. Il est d’abord choisi en fonction du type d’attribut, en donnant la priorité aux attributs démographiques par rapport aux attributs d’intérêt et de comportement. Ensuite, l’attribut montré est celui qui a la plus grande prévalence (i.e., qui est partagé par le plus grand nombre d’utilisateurs de Facebook). Ne révéler que l’attribut le plus commun ne semble pas être en mesure de fournir des explications utiles pour les utilisateurs. Imaginez par exemple un publicitaire qui ciblerait des utilisateurs intéressés par le fascisme et ayant un téléphone portable, l’explication ne mentionnerait que l’attribut téléphone portable. En plus de donner une information très partielle, une telle explication apparaît facilement manipulable par un publicitaire mal intentionné qui pourra par exemple masquer un attribut rare et discriminatoire ou sensible en y ajoutant un attribut très commun.

Nos expériences ont aussi montré que les explications de Facebook suggèrent parfois des attributs qui n’ont en fait pas été utilisés par le publicitaire ; ce qui au minimum induit en erreur et risque de briser la confiance de l’utilisateur dans les mécanismes de transparence offerts.

Dans l’ensemble, cette étude nous met en garde sur le fait qu’il ne suffit pas de donner n’importe quelle explication pour apporter de la transparence ; et même si notre étude a été menée sur la plateforme de Facebook, cette conclusion s’applique à l’ensemble des plateformes. Des explications mal conçues peuvent être dangereuses car elles offrent seulement une partie de l’information, peuvent être facilement manipulées par des acteurs mal intentionnés et donne un faux sentiment de confiance. Il est donc crucial d’avancer sur des bases scientifiques rigoureuses pour définir des standards pour les explications si nous voulons que de tels mécanismes de transparence soient un succès.

Comment avancer vers plus de transparence ?

Il n’existe malheureusement pas de réponse définitive à cette question pour l’instant. Toutefois nous pensons qu’il est fondamental que la transparence soit apportée par des tierces parties et ne vienne pas directement des plateformes sans possibilité d’audit. C’est aussi pour aller dans cette direction que nous avons conçu l’outil AdAnalyst qui fournit aux utilisateurs des statistiques agrégées sur les publicités reçues, les publicitaires les ayant ciblés et les méthodes de ciblage utilisées mais aussi les autres attributs utilisés par un publicitaire pour d’autres utilisateurs. Nous espérons que cela donnera aux utilisateurs une vision plus complète de la façon dont ils sont affectés par la publicité sur Facebook pour qu’ils puissent en prendre conscience et se protéger contre les pratiques malhonnêtes—en attendant que la transparence soit mieux réglementée.

Oana Goga (CNRS, LIG) et Patrick Loiseau (Inria, LIG)

Pour aller plus loin :

AdAnalyst peut être téléchargé sur ce lien : https://adanalyst.mpi-sws.org.

[1] “Measuring the Facebook Advertising Ecosystem” A. Andreou, M. Silva, F. Benevenuto, O. Goga, P. Loiseau, A. Mislove. In NDSS 2019 (Network and Distributed System Security Symposium)

[2] “On Microtargeting Socially Divisive Ads: A Case Study of Russia-Linked Ad Campaigns on Facebook” F. Ribeiro, K. Saha, M. Babaei, L. Henrique, J. Messias, O. Goga, F. Benevenuto, K. Gummadi, E. Redmiles. In ACM FAT* 2019 (ACM Conference on Fairness, Accountability, and Transparency)

[3] “Investigating Ad Transparency Mechanisms in Social Media: A Case Study of Facebook’s Explanations” A. Andreou, G. Venkatadri, O. Goga, K. Gummadi, P. Loiseau, A. Mislove. In  NDSS 2018 (The Network and Distributed System Security Symposium)

Michel Serres est mort

Binaire est triste. Bon vent Michel !

Nous reprenons un entretien de Binaire avec lui.

Les mutations du cognitif

Un nouvel « Entretien autour de l’informatique ». Serge Abiteboul et Gilles Dowek interviewent Michel Serres, philosophe, historien des sciences et homme de lettres, membre de l’Académie française. Michel Serres revient sur un thème qui lui est cher, les mutations du cognitif, qu’il a déjà par exemple développé dans Petite Poucette, un immense succès d’édition (Le Pommier, 2012). Cet article est publié en collaboration avec TheConversation.

Michel Serres, professeur, auteur, membre de l’Académie Française, © Manuel Cohen

B : Vous avez écrit sur la transformation de l’individu par l’informatique. C’est un sujet qui intéresse particulièrement Binaire.

MS : Cette transformation se situe dans un mouvement très ancien. Avec l’écriture et l’imprimerie, la mémoire s’est externalisée, objectivée. L’informatique a poursuivi ce mouvement. Chaque étape a été accompagnée de bouleversements des sciences. L’informatique ne fait pas exception. Pour la connaissance, nous avons maintenant un accès universel et immédiat à une somme considérable d’information. Mais l’information, ce n’est pas encore la connaissance. C’est un pont qui n’est pas encore bâti. La connaissance est le prochain défi pour l’informatique. À côté de la mémoire, une autre faculté se transforme : l’imagination, c’est-à-dire la capacité à former des images. Perdons-nous la faculté d’imaginer avec toutes les images auxquelles nous avons accès sur le réseau ? Ou découvrons-nous un autre rapport à l’image ? Quant au raisonnement, certains logiciels résolvent des problèmes qui nous dépassent. Mémoire, imagination, raisonnement, nous voyons bien que toute notre organisation cognitive est transformée.

B : Au-delà de l’individu, l’informatique transforme toute la société.

MS : Je commencerais volontiers par les métiers. L’organisation sociale précédente, était fondée sur la communication et sur la concentration. Pour la communication, pensons aux métiers d’intermédiaires, de la « demoiselle du téléphone » au commerçant. Pour la concentration, pensons aux villes – concentrations de personnes et de pouvoir –, aux bibliothèques – concentration de livres, etc. L’informatique transforme ces deux éléments fondamentaux de nos sociétés. Pour la communication, nous assistons à la disparition des intermédiaires. Quant à la concentration, elle cède la place à la distribution. Par exemple, la monnaie émise par les banques centrales, concentration, sont remplacées par les crypto-monnaies, distribution.

Le lien social a également été profondément transformé. Par exemple, le nombre d’appel le plus important sur un téléphone portable, sont les appels des mères aux enfants. Cela bouleverse les relations familiales. Ce qui a changé également c’est que nous pouvons contacter n’importe qui, n’importe quand, la distance est donc abolie et nous sommes passés d’un espace métrique à un espace topologique. Nous interagissions avant avec les gens qui vivaient près de chez nous. Nous sommes devenus les voisins de tous ceux que nous retrouvons sur le réseau, même s’ils sont au bout du monde. Ça change toute la société qui est bâtie sur des relations.

Des habitants de Westchester en route vers la ville de New York, 1955. Photo de Guy Gillette

B : Est-ce que vous y voyez une intensification des liens sociaux ?

MS : Quantitativement c’est certain. On dit que les gens sont isolés, collés à leur téléphone portable. Quand j’étais jeune et que je prenais le métro, je n’étais pas en relation avec mes voisins. Maintenant, je suis au téléphone, je suis en relation avec quelqu’un. Contrairement à ce qu’on dit, je suis moins seul… Je parlais de solitude. Il faut distinguer entre la solitude et le sentiment d’appartenance. Avant l’informatique, on se disait français, chinois, gascon, breton, chrétien, etc.  C’étaient nos appartenances, qui se sont construites dans un monde qui ne connaissait pas l’informatique. Par exemple, nous vivons encore dans des départements découpés pour que nous puissions aller du chef-lieu n’importe où en une journée de cheval. Cela n’a plus aucun sens.

Ces groupes se sont presque tous effondrés. L’informatique nous oblige à construire de nouvelles appartenances. C’est ce qui fait le succès des réseaux sociaux. Nous cherchons aveuglément de nouveaux groupes.

B : Le réseau social d’une personne était naguère déterminé par son voisinage. Aujourd’hui, on peut choisir des gens qui nous ressemblent. N’existe-t-il pas un risque de s’enfermer dans des appartenances ?

MS : Oui. Mais cela augmente nos libertés. Les aristocrates qui se rencontraient disaient « Bonjour, mon frère », ou « mon cousin ». Un aristocrate s’est adressé à Napoléon en lui disant, « Bonjour, mon ami », pour insister sur le fait que Napoléon ne faisait pas partie de l’aristocratie. Napoléon lui a répondu : « On subit sa famille, on choisit ses amis. »

Non, le risque principal des réseaux sociaux aujourd’hui, ce n’est pas l’enfermement, ce sont les bobards, les rumeurs, les fausses nouvelles. Nous avons vu les dangers énormes de rumeurs, de haine. Voilà, nous avons un problème sérieux.

Nous ne savons pas encore mesurer les effets de ces bobards. Les bobards ont-ils déterminé l’élection de Donald Trump ? Mais la question est plus générale. Ce que nous  savons, c’est qu’il y a eu Trump, le Brexit, Poutine, Erdogan, etc. La cause de cette vague vient de la peur que les gens ont du monde qui nous arrive. Et cela est en partie la faute de l’informatique. Nous autres, héritiers des lumières du XVIIIe siècle, nous avions une confiance presque absolue, trop forte peut-être, dans le progrès. Ces événements nous rappellent que tout progrès a un coût. C’est le prix à payer pour l’accès universel à toute l’information. Tout moyen de communication est à la fois la meilleure et la pire des choses. Il faut vivre avec cela.

Cela donne une idée de la morale nouvelle. Monsieur Bush a parlé de l’axe du mal comme s’il y avait Saint-Georges d’un côté et de l’autre le dragon. Mais, dès que l’on combat le mal, on devient le mal et Saint-Georges se transforme en dragon. Le mal est intimement mélangé au bien. Cela donne une sorte de philosophie du mélange. Leibniz a un mot là-dessus : un accord de septième, une dissonance bien placée peut donner à une composition quelque chose de bien supérieur à l’accord parfait.

Michel Serres © Plantu (Merci Michel et Plantu)

B : Dans cette société qui se transforme, ne faut-il pas également que la politique se transforme ?

MS : vous avez raison. Nous avons connu une bascule de culture énorme du fait des sciences dures, de la physique, la chimie, la médecine, etc. et de l’informatique bien sûr. Ces transformations ont été conditionnées par les sciences dures, moins par les sciences humaines. Pourtant ceux qui nous gouvernent sont surtout formés aux sciences humaines. C’est une catastrophe dont on ne mesure pas l’ampleur. Le décideur, le journaliste… ceux qui ont la parole, en savent peu sur les sciences dures. C’est très dangereux du fait que la politique doit être repensée en fonction du monde contemporain. Ils ne peuvent pas continuer à décider de choses qu’ils ne comprennent plus.

On le voit tous les jours. Dernièrement, Laurent Fabius m’a invité pour La nuit du droit, avec une très grande partie réservée à l’environnement. Il y avait des juristes, des philosophes, des sociologues, etc., pas un savant. J’ai dit à Fabius : nous allons décider de choses que nous ne comprenons pas. Oh, nous avons des informations, me répondit-il. Vous avez des informations, mais vous n’avez pas la connaissance !

B : Et le citoyen qui vit ces crises ?

MS : Le citoyen vit un monde tout à fait nouveau, mais il est dirigé par des gens qui viennent de mondes complètement anciens. Donc, même s’il ne comprend pas ce qu’il vit, le citoyen est déchiré. Les crises politiques que nous traversons viennent de là. Elles sont fondamentalement épistémologiques. On construit, au nord de Paris, un Campus Condorcet exclusivement consacré aux sciences humaines. L’université de Saclay, au Sud, est principalement consacrée aux sciences dures. On met des dizaines de kilomètres entre les deux. Cultivés ignorants ou savants incultes. La tradition philosophique était exactement l’inverse.

B : Cette séparation nous désespère autant que vous. Mais il semble qu’il y ait une prise de conscience, qu’on commence à ressentir le besoin de faire sauter ces frontières ?

En période de crise, les problèmes majeurs sont tous interdisciplinaires. Le gouvernement est partagé en spécialités. Prenez le chômage. Il touche le travail, l’éducation, l’agriculture… Un gouvernement en petits morceaux ne peut plus résoudre ces problèmes interdisciplinaires.

Nous sommes des scientifiques qui continuons une route qui a conduit à l’informatique avec Turing. Nous avons l’idée d’une histoire, d’un progrès. Gouverner, ça veut dire tenir le gouvernail, savoir où on est, d’où on vient, où on va. Aujourd’hui, il n’y a plus de cap, uniquement de la gestion. Il n’y plus de gouvernement parce qu’il n’y a plus d’histoire. Et il n’y a plus d’histoire parce qu’il n’y a plus de connaissance des sciences. Ce sont les sciences dures qui ont fait le monde moderne, pas l’histoire dont parlent les spécialistes de sciences humaines. Il faut conjuguer les deux. L’informatique a un rôle essentiel à jouer, y compris pour transformer les sciences humaines.

Des informaticiens doivent apprendre à devenir un peu sociologues, un peu économistes, etc. Et les chercheurs en sciences humaines doivent devenir un peu informaticiens. C’est indispensable d’avoir les deux points de vue pour plonger dans le vrai monde.

B : Peut-être pourrions-nous conclure sur votre vision de cette société en devenir ?

C’était mieux avant; Le Pommier

MS : La dernière révolution industrielle a généré des gâchis considérables. Par exemple, on a construit des masses considérables de voitures qui sont utilisées moins d’une heure par jour. Je ne partage pas le point de vue de Jeremy Rifkin qui parle de l’informatique comme d’une nouvelle révolution industrielle. La révolution industrielle accélère l’entropie, quand la révolution informatique accélère l’information. C’est très différent.

Une autre différence avec une révolution industrielle tient du travail. À chaque révolution industrielle, des métiers ont disparu, et d’autres ont été inventés. Les paysans, par exemple, sont devenus ouvriers. Il est probable que l’informatique détruira beaucoup plus d’emplois qu’elle n’en créera. Nous n’avons pas les chiffres parce que la révolution est en marche, mais il faut s’y préparer. Dans la société d’hier, un homme normal était un ouvrier, un travailleur. Ce ne sera plus le cas dans celle de demain. C’est aussi en cela que nous ne sommes pas dans une révolution industrielle.

Le travail était une valeur essentielle. Dans la société de demain, peut-être dans cinquante ans, le travail sera une activité rare. Il nous faut imaginer une société avec d’autres valeurs. Le plus grand philosophe de notre siècle sera celui qui concevra cette nouvelle société, la société de l’otium, de l’oisiveté. Qu’allons-nous faire de tout le temps dont nous disposerons ?

Serge Abiteboul, Inria & ENS, Paris, Gilles Dowek, Inria & ENS Paris Saclay