Dissident , la révolte du slow web

Un fil rouge :  l’autonomisation

Tariq Krim a eu la chance de découvrir l’informatique très jeune, au début des années 80, et les modems deux ans plus tard. Un fil conducteur relie ses (multiples) aventures entrepreneuriales, Netvibes, créé en 2005, Jolicloud, lancé en 2008, et Dissident.ai, son dernier projet débuté fin 2017 : donner aux utilisateurs les moyens de prendre en main leur vie numérique, comme les pionniers de l’informatique personnelle le faisaient.

Netvibes cherchait à faciliter l’accès à l’information via une page personnelle faite de widgets et s’appuyant sur les flux RSS, particulièrement en vogue dans le Web 2.0 alors naissant.

Jolicloud était lui un système d’exploitation indépendant, précurseur du Chromebook de Google, et qui a compté 1 million d’utilisateurs. L’innovation de l’OS était de mettre en avant les services cloud qui commençaient à se développer, à l’image de Box ou de Spotify. Cette vision de l’informatique reposant sur des services à distance s’est retrouvée dans nos smartphones… mais sous le contrôle de 2 acteurs, Apple avec iOS et Google avec Android.

Jolicloud proposait des alternatives aux GAFA, mais paradoxalement, les pouvoirs publics commençaient dans le même temps à faire appel aux géants établis pour moderniser leur équipement – dans l’Éducation nationale, par exemple. La vision avait beau être la bonne, et le produit apprécié, il s’est vite révélé difficile de rivaliser avec les mastodontes du numérique, et malgré son succès, Jolicloud s’est arrêté en 2015. Pour mieux renaître, tel le phénix, sous la forme de Dissident. Mais n’allons pas trop vite.

Les désillusions du numérique

Si Tariq s’est bien forgé une conviction, c’est que l’interface (logicielle) définit l’accès au monde, spécifie ce qu’on peut ou ne pas faire, et que ce n’est pas toujours pour le mieux. Tariq aimerait apporter des réponses à ce qu’il voit comme trois problèmes de nos vies numériques.

Premièrement, l’uniformisation des services. « Tout le monde possède les 10 mêmes applications sur son smartphone » se désole Tariq. Par l’intégration verticale des fonctionnalités (OS, paiement, identité, communication, commerce…) au sein de leurs produits, les GAFA en sont arrivés à leurs positions dominantes, et font tout pour nous inciter à rester enfermé.e.s dans leurs écosystèmes.

Ensuite, la mise en silos des données. Si Steve Jobs avait mis son navigateur Safari au centre de l’expérience du premier iPhone, et qu’il réfléchissait à laisser les données accessibles par n’importe quelle application, la structure de l’OS s’est rapidement réorientée vers des applications séparées formant autant de silos. Car chacune gère ses propres données, accessibles via sa seule interface. Android aurait pu prendre le contrepied, mais il n’en a rien été… Bref, les fichiers partagés par une variété de logiciels, ça fleure bon l’ordinateur, pas le smartphone. Et l’argument lié à la sécurité ne convainc pas Tariq, le stockage des données sur des serveurs et leurs fuites régulières ne présente pas l’allure d’une panacée.

Enfin, la tyrannie de la facilité. Les algorithmes choisissent pour nous. On ouvre l’application et on n’a plus qu’à se laisser faire. Pour Tariq, « on nous impose de nous comporter comme des ados attardé.e.s ». On nous promettait des services simples ; nous nous retrouvons avec des outils qui nous infantilisent. Face à un internet qui, de son point de vue, a rétréci notre champ de vision plutôt qu’élargi les horizons, Tariq veut nous ramener à l’internet existant juste avant l’avènement des smartphones. Ce qu’il défend, c’est l’idée d’un slow web – inspiré du mouvement slow food – qui donne aux utilisateurs les moyens de quitter la superficialité. Il s’agit de prendre son temps, de s’imposer plus d’exigence, ce qui nous conduit à Dissident.

La plateforme du slow web

L’ambition de la plateforme est de nous aider à reprendre le contrôle de notre vie numérique. Grâce à l’utilisation des API des différents services que nous utilisons tou.te.s au quotidien, ainsi qu’aux possibilités de contrôle rendues aux utilisateurs par le RPGD, chacun peut organiser l’information comme il le souhaite. Le mot “dissident” renvoie à ces dissidents qui en URSS voulaient réfléchir par eux mêmes et s’échangeaient les livres interdits. Dans cette optique, Dissident.ai propose pour le moment 3 produits : Desktop, Reader et Library :

Desktop est un… bureau web. Il agrège tous les fichiers disséminés dans différents services (Dropbox, Box, Google Drive, Slack…) et permet donc une recherche unifiée. Le tout vous permet d’en profiter où que vous soyez, grâce à des lecteurs vidéo, musical et de documents capables de lire de nombreux formats de fichiers.

Reader, quant à lui, est une réinvention du lecteur de flux RSS, à un âge où le texte n’est plus le médium dominant. On y retrouve ainsi, à la façon de Desktop, une agrégation de services qui forment autant de sources d’information et de contenus : YouTube, Soundcloud, Facebook, Medium… Au delà de la commodité d’avoir tout sous la main, le grand avantage pour l’utilisateur réside dans la possibilité de définir ses propres classements de l’information, donc de ne plus dépendre de ceux imposés par les différents acteurs.

Enfin, The Library rassemble une vaste somme d’œuvres et de documents du domaine public, des livres aux films en passant par des pièces numérisées de la Réunion des Musées Nationaux ou encore les archives de la NASA.

Ces trois services partagent les mêmes principes de design : des interfaces neutres, sans logo, qui mettent l’utilisateur au centre, en servant ses seuls intérêts. Aucun souci par exemple pour transférer un fichier depuis Google Drive vers Dropbox, quand leur intérêt respectif est de vous enfermer dans leur usage. L’ambition de remettre le pouvoir dans les mains des utilisateurs fait donc de Dissident un acteur agnostique des entreprises qui proposent les services sur lesquels il s’appuie. Comme l’explique Tariq, « mon problème n’est pas de savoir si mes données sont chez Facebook ou Google, mais si on m’en limite les accès et les usages ».

Quand on vise l’empowerment (l’autonomisation) de ses utilisateurs, le modèle économique est le meilleur révélateur de la sincérité de la démarche. Chez Dissident, le choix est limpide : un seul modèle, celui de l’abonnement, à 5 euros par mois. Point de flicage, ni de données stockées, ils jouent seulement les orchestrateurs d’API. Pour le moment, les utilisateurs de Dissident sont plutôt des travailleurs de la connaissance, qui ont besoin des contenus du Web pour leur travail. La plateforme est à leur créativité ce que Slack est à leurs communications. « On a jamais eu autant de moyens de créer des liens que des frontières ». Prenant le contre-pied de la morosité ambiante, Tariq et Dissident nous invitent à soutenir les premiers plutôt qu’à stérilement déplorer les secondes.

Serge Abiteboul, Inria et ENS, Paris, Tom Morisse, Fabernovel

Blockchain publique : la fin des tiers juridiques de confiance ?

Les blockchains constituent un sujet au cœur de l’actualité des technologies numériques. Sur le plan juridique, elles suscitent également de nombreuses interrogations dont celle de la disparition annoncée des tiers de confiance, spécialement des tiers juridiques de confiance. Lêmy Godefroy, spécialiste du droit du numérique à l’Université Côte d’Azur, nous livre ici son point de vue sur le possible devenir des tiers juridiques de confiance dans l’univers des blockchains publiques. Thierry Vieville

Lire, écrire, exécuter, trois mots qui résument les fonctionnalités des blockchains. Cette technologie s’apparente à un registre recevant des données lues par tous les participants si la blockchain est publique ou par quelques personnes si elle est privée. Associée aux smart contracts qui recèlent un potentiel varié d’usages (paiement d’intérêts, versement d’indemnités, blocage d’un objet connecté, etc.), elle sert de support à l’exécution automatisée d’instructions si certaines conditions prédéterminées sont remplies. La particularité de la blockchain publique réside dans son caractère ouvert et décentralisé. Aucun intermédiaire n’est nécessaire pour valider des informations préalablement à leur enregistrement sur le réseau1. C’est en cela que cette technologie conduirait à se passer des tiers juridiques de confiance (agents de l’état-civil, huissiers de justice, notaires, juges, etc.) dont la caution est remplacée par la transparence du processus, la visibilité des opérations et la détention d’une copie du registre par l’ensemble des membres. Toutefois, cette décentralisation montrerait des limites qui amènent à s’interroger sur la nécessité d’en appeler in fine à ces tiers pour jouer le rôle d’interface entre l’extérieur et l’intérieur de la blockchain ou de régulateur des systèmes blockchain.

La confiance par la démultiplication des contrôles internes à la blockchain

Les transferts de données (unités monétaires, informations personnelles, relations d’affaires, etc.) de pair à pair au moyen des blockchains reposent sur la démultiplication d’un contrôle décentralisé. Les utilisateurs adoptent le protocole qui établit les modalités de validation et d’enregistrement sur le réseau. Par le procédé du minage, ce sont encore eux, alors appelés mineurs, qui s’assurent que les opérations sont conformes.

Les mineurs se substituent aux tiers de confiance habituellement chargés par les parties de transcrire une pièce ou d’effectuer un ordre de transactions. Toutefois, si chaque usager de la blockchain peut théoriquement être mineur, tous n’ont pas les moyens de l’être et seuls ceux qui possèdent une force de calcul suffisamment importante – et, partant, une grande puissance économique – pour résoudre des problèmes mathématiques complexes sont capables de procéder aux opérations de vérification du respect du protocole. Autrement dit, ce pouvoir décentralisé est censitaire2, ce qui génère des doutes sur l’organisation démocratique des blockchains publiques et des craintes d’accaparement de leur gouvernance, les mineurs détournant à leur profit ce pouvoir originellement voulu collaboratif et participatif3.

Pour contrecarrer cette dérive vers une centralisation contrainte4, un nouveau protocole appelé « iota » a été imaginé dans le domaine des cryptomonnaies. Alors que les mineurs sont rémunérés pour chaque validation effectuée, « iota » repose sur la règle selon laquelle l’utilisateur qui demande l’inscription d’une transaction doit en valider deux réalisées par d’autres membres. Chaque utilisateur est donc réellement un validateur d’autant que la preuve de travail n’exige pas de puissance de calcul élevée et peut être accomplie par des terminaux comme l’ordinateur portable ou le téléphone.

Il n’en demeure pas moins que ce contrôle informatique du respect du protocole et de la validité formelle des transactions (identité certifiée, compte approvisionné, acte signé, etc.) n’atteste pas de leur conformité au droit. Les tiers juridiques de confiance seraient ainsi de retour à l’interface du monde réel et de la blockchain.

Les tiers juridiques de confiance à l’interface du monde réel et de la blockchain

Les smart contracts intégrés à une blockchain illustrent pleinement le besoin de contrôle juridique des cas qui déclenchent l’application programmée d’instructions. Or, celle-ci dépend de données provenant de l’extérieur de la blockchain : le bien n’a pas été livré, un dommage a été causé, le vol de telle compagnie a décollé avec retard, etc. Par construction, une blockchain ne peut pas récupérer ces informations par elle-même. Celles-ci doivent lui être apportées. C’est ainsi que le concept d’oracle a été créé. Un oracle fournit un service qui consiste à entrer une donnée extérieure dans la blockchain à un instant prédéfini. Ultérieurement, le smart contract va rechercher cette information stockée sur la blockchain pour lancer sa programmation.

Certains systèmes qui délèguent à la technologie la tâche de produire de la sécurité recourent à des oracles automatisés pour garantir que les données insérées dans la blockchain sont fidèles à la réalité. Ils fonctionnent selon le procédé de la « preuve d’honnêteté » (TLS Notary proof)5 ou du consensus (consensus-based oracle)6.

Mais leur intervention laisse en suspens le problème de la conformité juridique de l’information déposée sur la blockchain. La réintroduction d’un tiers de confiance humain dans un rouage pourtant trustless s’imposerait, par exemple, quand il s’agit de vérifier l’identité civile d’une personne, la légalité d’un titre de propriété ou encore l’existence d’une créance. Les traditionnels tiers juridiques de confiance se verraient sollicités comme validateurs d’un fait, d’un document, d’un état, etc.

Cette recentralisation questionne sur la régulation des systèmes blockchains et, notamment, sur leur gouvernance.

La régulation des blockchains : quelle gouvernance ?

Différents modes de régulation sont envisageables.

Une régulation souple par un mécanisme de normalisation à l’échelle internationale pourrait être mise en place. Cette normalisation, d’application volontaire, énoncerait les exigences minimales requises pour assurer la fiabilité des blockchains.

Des mesures typiquement techniques seraient également une piste. Par exemple, pour préserver le secret des données, l’idée a été émise de reporter sur la blockchain non pas l’information brute elle-même, mais son empreinte digitale. Celle-ci servirait de preuve du dépôt et sa lecture serait possible uniquement par des personnes autorisées7.

Enfin, un droit des systèmes blockchain pourrait reposer sur le triptyque législateur/juge/arbitre.

La loi organiserait les fonctionnalités de la blockchain. Les règles de preuve en vigueur pourraient y être transposées. La force probante des informations importées serait celle d’un acte sous seing privé (c’est à dire sois signature privée) ou authentique selon qu’un tiers juridique de confiance aurait attesté ou non de la réalité des données.

Quant au juge, il interviendrait sur saisine des parties pour apprécier la légalité de la formation et de l’exécution des smart contracts (par exemple en cas de codage de conditions illicites ou manifestement abusives) ou pour prononcer des sanctions (dommages-intérêts après l’annulation d’un accord invalidé). Cette intervention judiciaire aurait lieu dans le cadre d’un règlement contentieux du litige né après qu’un contrat automatisé eut causé un dommage ou soulevé une contestation.

Mais il est également possible que l’une des clauses d’un smart contract, dans un contexte de résolution amiable, prévoie une disposition qui bloque le programme et engendre un mécanisme de règlement alternatif des conflits par un arbitre dont la décision interférerait sur la blockchain par l’entrée de nouvelles variables.

Blockchain publique et tiers juridique de confiance se complémenteraient ainsi pour une sécurité accrue indispensable au développement de cette technologie.

Lêmy Godefroy, Maître de conférences spécialisée en droit du numérique, au GREDEG de l’Université de Nice Côte d’Azur.

Pour en savoir plus :

Notes :

1 Les blockchains privées recourent de manière privilégiée au minage par tiers de confiance.

2  Antoine Garapon, « La blockchain va-t-elle remplacer tous les tiers de confiance ? », interview de Primavera De Filippi, France Culture, 15 février 2018.

3 Voir par exemple la controverse entre le Bitcoin Core et le Bitcoin Unlimited.

4 D’autres techniques de minage ont été imaginées comme le « minage par consensus ». « Un algorithme permet à des nœuds maîtres du réseau de se mettre d’accord entre eux sur les opérations à accepter. L’identité des nœuds maîtres est connue ». Ou encore le « minage par preuve d’enjeu ». Dans ce cas de figure, « un des utilisateurs est désigné pseudo-aléatoirement avec une probabilité proportionnelle à sa fortune détenue sur la blockchain. Ce modèle fait donc porter la responsabilité du minage sur ceux qui ont le plus d’enjeu dans la blockchain [et] (…) qui ont le plus intérêt à maintenir la confiance dans le système » (Jean-Baptiste Pleynet, « Le minage expliqué aux non-initiés », https://medium.com/@JB_Pleynet/le-minage-expliqu%C3%A9-aux-non-initi%C3%A9s-b511b5a33117).

5 Cette preuve, publique et vérifiable, garantit que la donnée entrée sur la blockchain est identique à celle qui a été récupérée par l’oracle. Par conséquent, si l’oracle automatisé entre dans la blockchain une donnée non-conforme à la donnée réelle, cette information erronée sera repérée par les participants de la blockchain. https://www.ethereum-france.com/les-oracles-lien-entre-la-blockchain-et-le-monde/

6  https://www.ethereum-france.com/les-oracles-lien-entre-la-blockchain-et-le-monde/ Si tous les oracles automatisés transmettent la même information, alors celle-ci peut être considérée comme pertinente. https://www.mindfintech.fr/files/documents/Etudes/Landau_rapport_cryptomonnaies_2018.pdf

7 Primavera De Filippi, Aaron Wright, Blockchain and the law, Harvard University Press, 2018.

Science du qubit, science des données

Un nouvel « Entretien autour de l’informatique ». Serge Abiteboul et Claire Mathieu interviewent Julia Kempe. Julia est une brillante mathématicienne, physicienne, et informaticienne. C’est une des meilleures spécialistes mondiales en informatique fondamentale et, en particulier, en informatique quantique. A partir de l’automne, elle dirigera le Center for Data Science de New York University. Cet article est publié en collaboration avec The Conversation.
Julia Kempe, CDS

Binaire : tu es une scientifique très cosmopolite. Peux-tu nous raconter un peu d’où tu viens ?

Je suis née en Allemagne de l’Est, d’origine russe et allemande. Je suis allée dans une école spécialisée en maths en Allemagne de l’Est à l’âge de 14 ans. Nous avions déjà des cours de programmation. Quand le mur est tombé, je suis allée en Autriche et j’ai étudié les maths et la physique à Vienne, avec un semestre en Australie dans un programme d’échange. Puis je suis allée en France où j’ai fait un DEA d’Algèbre à Paris 6, en géométrie algébrique. Mais mes intérêts ont toujours été pluridisciplinaires, et j’ai enchainé avec un DEA de physique théorique à l’École Normale Supérieure. Et puis, il y a eu la découverte par Peter Shor du premier algorithme quantique. Dans les années 90, j’ai passé deux thèses en même temps, une en maths à Berkeley, et l’autre en informatique à Télécom Paris avec Gérard Cohen, toutes les deux sur des aspects des calculs quantiques. Ensuite, j’ai eu un poste au CNRS en informatique. J’ai eu la chance de travailler dans l’équipe de Miklos Santha à Orsay. À l’époque, l’informatique quantique était encore un domaine tout nouveau. En 2007, je suis partie pour 4 ans en Israël comme professeur d’informatique à l’université de Tel-Aviv. Puis je suis rentrée en France, et un peu plus tard j’ai rejoint un fonds d’investissement américain. Ma culture scientifique générale y a été très utile même si mes compétences en informatique quantique ne servaient pas. Récemment, j’ai pris un poste de professeur d’informatique à New York University ; je serai directrice du Centre de Sciences des Données.

B : tu es mathématicienne, informaticienne, physicienne. Si on te demandait de choisir entre les trois ?

Je n’ai pas à choisir. Ce qui m’a attiré à l’informatique, c’est la rigueur, la précision que cela exige, comme en mathématiques. En informatique, on réalise des choses concrètes, des calculs, et j’aime ça. Et puis, les méthodes que l’on développe et les problèmes que l’on traite viennent de domaines très divers. C’est une grande aide pour moi que d’avoir des connaissances dans plusieurs disciplines. D’une part ça m’aide à comprendre les domaines d’application dans lesquels je travaille, et d’autre part, j’ai plus de facilité à travailler avec des personnes de ces domaines, qui ont toutes des cultures différentes.

Représentation d’un qubit par une sphère de Bloch.

B : pourrais-tu expliquer simplement l’informatique quantique ?

L’informatique classique est fondamentalement basée sur le traitement de signaux binaires. L’état d’un interrupteur ou d’un bit en mémoire est soit 0 soit 1. En mécanique quantique, les particules quantiques se trouvent dans un état qu’on appelle « superposé », c’est un peu 0 et un peu 1. On appelle qubit ces bits quantiques qui sont à la fois dans l’état 0 et dans l’état 1. Quand on cherche à observer un qubit, on va trouver soit un 0 ou un 1. L’observation a changé l’état de la particule en choisissant entre les deux.

B : le but c’est d’arriver à réaliser beaucoup de calculs en parallèle ?

Avec un vecteur de n qubits, on a en même temps 2n valeurs. Si on arrive à faire des calculs avec de tels vecteurs, on arrive en quelque sorte à faire tous les calculs en même temps. C’est comme si on réalisait 2n calculs « en parallèle ». Le problème c’est qu’à la fin, il se peut qu’il n’y ait qu’un seul de ces calculs qui ait réussi, et c’est son résultat qui nous intéresse . Ce résultat est quelque part et la difficulté, c’est de l’isoler. L’art des algorithmes quantiques est d’effacer de façon judicieuse tous les calculs qui n’ont pas abouti.

B : est-ce que, avec le quantique, on pourrait arriver à réaliser rapidement des calculs comme la factorisation ?

L’algorithme de Shor explique comment factoriser de grands nombres en facteurs premiers de manière efficace. On ne sait pas faire cela avec l’informatique classique. Les algorithmes qu’on connaît prennent un temps exponentiel. D’ailleurs, une grande partie de la cryptographie très utilisée dans nos vies quotidiennes est basée sur le fait qu’on ne sait pas factoriser rapidement un nombre premier. Ce problème de factorisation, on arrive à le résoudre dans le modèle quantique avec l’algorithme de Shor. Évidemment, pour que cela devienne réalisable en pratique, il faudrait savoir construire un ordinateur quantique qui manipule des grands nombres de qubits. On n’y est pas encore.

P, NP, PSPACE sont des classes de problèmes de complexité classiques BQP : problèmes qui peuvent être résolus en temps polynômial par un algorithme quantique avec une erreur bornée

B : est-ce que l’informatique quantique remet en cause la théorie de la complexité traditionnelle de l’informatique ?

La théorie de la complexité étudie ce qu’on peut faire avec un ordinateur étant donné des ressources limitées en temps et en espace. On peut faire des études comparables à partir d’un modèle quantique. Un travail de recherche passionnant actuellement, c’est que certaines classes de complexité quantique sont équivalentes à des classes classiques. On obtient aussi des résultats de réductions passionnants comme : « si un problème peut être résolu dans modèle classique avec une complexité particulière, alors il peut aussi l’être dans le modèle quantique avec telle complexité. » Il y a tout un panorama de classes de complexité. C’est vrai que, comme en complexité classique, ce n’est pas simple de « séparer » les classes de complexité.

B : voit-on arriver ces ordinateurs quantiques ? Y a-t-il des résultats concrets pratiques ?

Quand j’ai commencé, à la fin des années 90, les expérimentateurs prédisaient un ordinateur quantique dans 10 ans ; les plus prudents parlaient de 20 ans. Il s’est déjà passé vingt ans et on attend toujours ! En réalité, dans le monde de la recherche, quand on vous dit dans 10 ans, il faut souvent comprendre : « je n’en sais rien ». Malheureusement il y a eu beaucoup de survente. Les ordinateurs quantiques ne savent même pas encore factoriser des chiffres autour de 10 000 à cause de l’accumulation des erreurs. Nous avons encore des problèmes à régler avant d’arriver à quelque chose d’intéressant. On est encore très loin de pouvoir utiliser l’algorithme de Shor.

B : mais est-ce qu’on avance ?

Oui ! Vraiment. Nous sommes dans une période de transition car nous assistons à des tentatives concrètes de Google, d’IBM… Avec des machines à 50 qubits. C’est passionnant car, à partir de grosso modo 50, nous arrivons à des phénomènes qu’on ne peut plus simuler avec des ordinateurs classiques ; 250, c’est à peu près leur limite.
Si on ne sait pas encore faire un ordinateur quantique général, on pourrait utiliser les machines quantiques qu’on sait construire pour simuler des phénomènes physiques qu’on ne sait pas simuler autrement actuellement.

B : qu’est-ce qui t’a fait choisir de vivre aux USA ?

Il y avait beaucoup de paramètres. J’aime vivre en France mais je voulais faire quelque chose de nouveau, travailler dans un fonds d’investissement, et pour cela, New York, c’était le bon endroit. Je ne pensais pas y rester six ans. J’avais de jeunes enfants et avec de jeunes enfants, c’est difficile de faire une recherche qui demande de s’immerger dans des problèmes complexes de façon prolongée. Je n’exclus pas de revenir en France, mais pour l’instant l’occasion ne s’est pas présentée.

B : ce travail dans les fonds d’investissement est–il aussi un travail scientifique ?

Nous utilisons une approche « quantitative » des fonds d’investissement. Nous partons de téraoctets de données financières. Nous remplaçons les intuitions des traders des années 80 par de l’analyse scientifique de données. Nous développons des théories, des modèles, et nous les testons pour détecter des signaux qui nous permettent de prédire les évolutions des marchés financiers. La difficulté est que les données dont nous disposons ne sont jamais parfaites. C’est tout un art de les nettoyer pour en extraire les informations pertinentes. C’est de la science des données. Cela ressemble beaucoup à un travail universitaire mais nous ne publions pas et le critère ultime de succès pour nous, c’est si ça rapporte de l’argent. Mes collègues sont, pour beaucoup, mathématiciens ou physiciens, et c’est une grande aide pour moi que d’avoir fait des études pluri­dis­ci­plinaires.

B : ce genre de travail existe-t-il aussi en France ?

Oui, en France il y a en particulier CFM, un fonds d’investissement dirigé par un physicien, Jean-Philippe Bouchaud, avec de nombreux employés qui viennent du monde de la physique statistique. Ils retrouvent finalement des méthodes assez semblables à celles qu’ils utilisaient en physique, avec les expérimentations, la définition de modèles mathématiques, l’analyse de données, la simulation, la validation des résultats à la lumière de la réalité des données, etc.

Un problème particulier assez classique que nous rencontrons est celui du « sur-apprentissage » (overfitting en anglais). Avec suffisamment de paramètres, je peux ajuster les paramètres du modèle de façon à correspondre exactement aux données disponibles. Seulement, le modèle peut être trop exactement ajusté aux exemples et ne pas s’adapter aux données futures. On est un peu comme les astrophysiciens : ils ont une seule donnée, l’univers tel qu’il existe, et nous n’avons que les données financières sur une seule réalisation du monde financier tel qu’on l’observe. Comme les astrophysiciens, il faut faire avec. Et si on a fait du sur-apprentissage, on va juste rater une évolution du marché qui ne s’est pas passée exactement comme dans le passé…

C’est facile de se tromper. Le temps de demi-vie d’un fonds d’investissement est de 18 mois en moyenne, parce que des erreurs sont faites, souvent à cause de sur-apprentissage.

B : que vas-tu faire à NYU ?

Je vais faire de la recherche en science des données. Je vais essayer d’appliquer, par exemple, mes compétences sur le traitement du bruit à des données autres que financières.

B : quelle est la présence féminine dans ces domaines ?

Dans le fonds d’investissement, nous étions 2 femmes chercheuses sur 55. Au CDS (centre de sciences des données), nous sommes entre 1/4 et 1/3 de femmes. Il y a un nombre relativement élevé de femmes en sciences des données, plus que dans d’autres domaines de l’informatique. Je crois que l’aspect pluridisciplinaire attire les femmes. Et comme les chercheurs en data science sont habitués à une diversité de disciplines scientifiques, cela les rend peut-être plus ouverts à une diversité des genres.

B : as-tu un conseil à donner aux étudiants ?

Nous vivons un temps où il y a beaucoup de données numériques, de plus en plus de calculs sur ces données. Chacun doit apprendre à se servir de ces données, et en même temps à être prudent avec elles. Il faut par exemple être conscient des problèmes de biais qui peuvent exister dans des données dont on se sert dans des domaines critiques.

Je pense que les étudiants dans toutes les disciplines devraient avoir une solide expérience de programmation et maitriser la compréhension des données numériques.

Entretien réalisé par Serge Abiteboul et Claire Mathieu

Références

Du Shape aux inventeurs du numérique

Lors des journées du patrimoine, faites une chose rare : venez découvrir les inventeurs du numérique. Une visite guidée de l’exposition « du Shape aux inventeurs du numérique » est proposée samedi 15 septembre 2018 sur le site d’Inria à Rocquencourt, près de Versailles. C’est une occasion unique de rentrer au cœur de l’histoire de la recherche française en informatique. Marie-Agnès Enard et Thierry Viéville.
© Inria / Photo G .Scagnelli

L’exposition retrace l’aventure humaine du site Inria de Rocquencourt et des activités de recherche qui y ont été menées de 1952 à nos jours. Animée par des scientifiques d’Inria, institut de recherche en science du numérique, cette exposition est à destination de tous les publics.

La première partie de l’exposition permet de s’immerger dans la période d’après-guerre avec l’installation sur le site des troupes alliées en Europe et de comprendre le contexte du Plan Calcul et de la naissance de l’IRIA (ancien acronyme d’Inria) après le départ de l’OTAN en 1967.

L’exposition s’articule autour de la reconstitution de bureaux-type des différentes époques «charnières» du déploiement de la micro-informatique et des réseaux. Des équipements «phares», emblématiques de chaque époque sont présentés et remis en service. Des vidéos et des panneaux d’affichage racontent les principales évolutions techniques, les faits majeurs de l’histoire de l’informatique tels que :

  • – Les origines de l’informatique, les fondateurs et fondatrices, la machine de Turing, l’histoire des algorithmes, la mécanographie et les cartes perforées, les langages de l’informatique
  • – L’histoire des réseaux, Arpanet, la naissance d’internet et le World Wide Web,
  • – La machine à écrire
  • L’histoire des supports numériques,
  • – L’histoire de la souris informatique et celle du clavier,
  • – Le logiciel libre et les systèmes d’exploitation,
  • – L’histoire d’Apple
  • – Le Minitel

L’exposition illustre également comment les environnements de travail étaient rudimentaires avant l’apparition des ordinateurs et comment ils se sont complexifiés ensuite. C’est une occasion pour le jeune public de comprendre “comment on faisait avant���. 

© Inria / Photo G .Scagnelli

Les époques

1952 à 1966 : installation, création et départ des troupes alliées – Le calcul avant l’électronique

1967 à 1979 : création de l’Iria ; la mécanographie et l’arrivée de l’ordinateur en 1971

1980-1990 : apparition du Minitel, la micro-informatique apparaît dans les bureaux, déploiement des Mac et de la souris informatique

1990 – 2000 : le travail en réseau apparaît grâce à l’Internet – les télécommunications se démocratisent avec l’apparition du BeBop

2000 à nos jours : la convergence (mobilité, télécommunications, IA…)

Infos pratiques

Horaires : samedi 15 septembre de 10h à 17h30.
Adresse : Inria, domaine de Voluceau (RD307) – 78150 Rocquencourt.
Accès gratuit sur présentation d’une pièce d’identité.
Stationnement gratuit.
Accessible aux personnes à mobilité réduite.
Contact : expo@inria.fr

Rémy Taillefer

Pour en savoir plus :

https://journeesdupatrimoine.culture.gouv.fr/
https://www.inria.fr/

* Supreme Headquarters Allied Powers Europe (Grand Quartier général des puissances alliées en Europe de l’OTAN)

Détecter le faux, sécuriser le vrai

Nous avons déjà parlé de bobards dans Binaire, par exemple avec l’article de Benjamin Thierry. Cette fois, c’est Thierry Berthier, chercheur en cybersécurité et intelligence artificielle, qui vient nous en parler. Thierry est Chief Technical Officer d’Aletheion, une startup de cybersécurité financière qui développe des outils pour protéger les entreprises des fakenews. L’informatique a soulevé le problème. L’informatique avec, par exemple, l’intelligence artificielle et la blockchain, est convoquée pour le résoudre. Serge Abiteboul
Thierry Berthier

Depuis Sun Tzu, les sciences militaires s’appuient sur la déception, terme désignant l’ensemble des mesures et contremesures à mettre en œuvre pour induire en erreur son ennemi. On y retrouve les ruses de guerre, les leurres, les déformations crédibles de la réalité et les falsifications en tout genre. Désormais, ce sont les fausses données numériques ou Architectures de Données Fictives (ADF) qui sont utilisées pour « intoxiquer » une cible. A l’ère de Turing, les ADF sont massivement utilisées durant la phase initiale d’ingénierie sociale de nombreuses cyberattaques. Elles exploitent le facteur humain et les biais cognitifs pour amener la cible à cliquer sur la pièce jointe contenant un logiciel malveillant, pour cliquer sur un lien corrompu ou pour divulguer ses identifiants et mot de passe. Près de 90% des cyberattaques débutent par un leurre numérique contenant des données fictives. Cette réalité systémique place le facteur humain au centre de la chaine de sécurité et l’identifie comme le maillon le plus faible. La montée en puissance de l’intelligence artificielle augmente encore la menace en offrant des capacités nouvelles de création d’ADF complexes, immersives et cohérentes.

Dans l’échelle des menaces numériques, la cybercriminalité financière occupe une place prépondérante. Elle est à la fois très rentable, facilement déployable et bien moins risquée pour l’attaquant que le braquage physique d’une banque ! Les cyberfraudes impactent aujourd’hui tout le spectre des entreprises, de la petite PME jusqu’au grand groupe industriel. Les arnaques au Président, les attaques FOVI (aux Faux Ordres de Virement), aux faux fournisseurs, au faux changement de RIB, ou aux faux supports techniques se sont généralisées. 93% des entreprises françaises ont été victimes d’au moins une tentative de FOVI depuis 2016. Deux tiers d’entre elles ont détecté (à temps) l’attaque mais le tiers restant a effectué le virement frauduleux. A l’échelle mondiale, le préjudice déclaré cumulé sur les trois dernières années dépasse les 6 milliards de dollars. Ces attaques sont construites selon des scénarios variables mais elles partagent une trame opérationnelle commune. L’attaquant usurpe l’identité d’une autorité interne ou externe à l’entreprise et amène son interlocuteur à effectuer un virement en urgence et de manière confidentielle. Pour rendre crédible l’usurpation d’identité, il s’appuie sur de faux sites web imitant un site officiel, sur de faux documents crédibles et sur une phase d’ingénierie sociale intense qui lui permet de collecter des renseignements exploitables concernant sa future victime.

L’ADF peut être utilisée à plus grande échelle pour déstabiliser le cours d’une action d’une entreprise cotée en bourse. L’objectif de l’attaquant est de créer artificiellement une forte et éphémère volatilité sur un titre ciblé afin d’exploiter ces variations brutales. Il peut alors spéculer à la baisse puis à la hausse en avance du marché. Pour cela, il lui suffit de produire un communiqué officiel crédible, usurpant l’identité du service de communication du groupe ciblé et d’annoncer des baisses de résultats, des difficultés financières ou une fusion acquisition inamicale. Le communiqué est alors diffusé auprès des agences de presse spécialisées qui, si elles ne détectent pas le caractère frauduleux du message, le diffusent à leur tour, induisant un FlashCrash sur le titre. Ce type d’attaque par HoaxCrash ne dure jamais plus de 5 à 6 minutes, le temps qu’un démenti soit publié, souvent par l’attaquant lui-même, entrainant la remontée du cours à son niveau initial. Les « HoaxCrash en V » peuvent induire de fortes turbulences boursières. Ils provoquent des préjudices financiers pour les acteurs qui ont tenu compte de la fausse information dans leurs stratégies à court terme. Lorsqu’ils se répètent, les HoaxCrash nuisent à l’image et la réputation de l’entreprise ciblée.

Une fois mis en place, les ADF agissent comme des leurres cognitifs immersifs de plus en plus difficilement détectables par le cerveau humain.   Comment lutter contre ces attaques ?

L’intelligence artificielle donne de bons résultats dans la détection des tentatives de fraudes bancaires et des cyberattaques. L’apprentissage automatique appliqué à la cybersécurité a montré son efficacité dans la détection des menaces persistantes avancées et des attaques furtives en s’appuyant notamment sur l’analyse du comportement des utilisateurs. Ces techniques exploitent de grands volumes de données issues du système d’information pour identifier très en amont, les séquences caractéristiques d’attaques. Le traitement automatique du langage naturel est utilisé pour analyser le contenu d’un mail et ses métadonnées à la manière d’un filtre anti-spam. Le texte est préalablement décomposé en « token » signifiants. Ceux-ci sont ensuite confrontés à des motifs typiques de scénarios de fraude. Une métrique adaptée permet d’évaluer la proximité du message reçu avec un message d’attaque typique, de calculer un indice de véracité et un indice d’impact de ce message. En cas de forte similarité avec un message frauduleux, des alertes sont envoyées en temps réel pour bloquer au plus tôt les mécanismes destructeurs des FOVI et des HoaxCrash. L’intelligence artificielle agit alors comme un assistant bienveillant donnant l’alerte quand nos fragilités biologiques nous poussent vers le piège numérique.

Enfin, une architecture Blockchain couplée à une identification forte et/ou biométrique de l’émetteur à l’entrée de la chaîne de blocs s’avère utile pour sécuriser la transmission de documents et lutter contre les attaques par usurpation d’identité. C’est cette complémentarité de l’IA et de la Blockchain qui assure la robustesse du dispositif et qui apporte une réponse pertinente au problème plus global des fake news.

Thierry Berthier, Chercheur en cybersécurité & cyberdéfense, CTO Aletheion

Pour aller plus loin, il faudra attendre :

From Digital Traces to Algorithmic Projections, Thierry Berthier et Bruno Teboul, À paraître  le 1 octobre 2018, ISTE Wiley – Elsevier. Version françasie en janvier 2019

Informatique, éthique et régulation

Un nouvel « Entretien autour de l’informatique ». Serge Abiteboul et Claire Mathieu interviewent Noëlle Lenoir, juriste, magistrate et femme politique. Première femme et plus jeune membre jamais nommée au Conseil constitutionnel, ministre des Affaires Européennes entre 2002 et 2004, elle a occupé de nombreuses fonctions, et en particulier a suivi la mise en œuvre de la loi informatique et libertés française. Elle parle à Binaire des liens entre le droit et l’informatique. Cet article est publié en collaboration avec The Conversation.
Noëlle Lenoir, Wikipédia

Binaire : pouvez-vous nous parler de votre carrière ?

Je suis de formation juridique. En 1982, alors que j’étais administrateur au Sénat depuis près de 10 ans, le sénateur Jacques Thyraud, alors rapporteur du budget de la justice, m’a demandé de venir diriger les services de la CNIL, dont j’ai été pratiquement la première directrice. Si le contexte était radicalement différent de celui d’aujourd’hui, la problématique de l’informatique et des libertés était finalement assez similaire. La protection des données était et est restée rattachée aux droits de l’homme, ce qui veut dire que toute collecte et tout traitement de données est vue potentiellement comme une atteinte aux libertés. C’est la marque de fabrique européenne. Toutefois, le « la » a été donné par la France dès les années 80. À la CNIL, j’ai participé à la mise en place des services et de l’institution elle-même. À mon avis, encore aujourd’hui, il n’y a pas assez de techniciens parmi les membres du collège de la CNIL ; par exemple, il devrait y avoir de droit un statisticien et un historien archiviste. Protection des données ne doit pas vouloir dire en effet destruction du patrimoine numérique national.

J’ai ensuite intégré le Conseil d’État, qui était très impliqué dans le droit de l’informatique. J’y ai participé à un rapport sur le sujet. Appelée en 1988 à diriger le cabinet de Pierre Arpaillange, ministre de la justice, j’y suis demeurée deux ans à m’intéresser au droit pénal en pleine transformation avec la préparation du nouveau code Pénal. Puis en 1990, le Premier ministre, Michel Rocard, m’a demandé de conduire une mission sur le droit de la bioéthique dans une perspective internationale et comparative. La France n’avait pas de législation tandis que le programme de décryptage du génome humain et la procréation médicalement assistée posaient des problèmes juridiques entièrement nouveaux. Comme vous le savez, la bioéthique inclut des problématiques liant la génétique à l’informatique comme le décryptage du génome humain ou les tests génétiques prédictifs. Ma mission, qui s’est conclue par un rapport remis au Président de la République et au Premier ministre, a débouché sur le dépôt de la première loi française de bioéthique que j’avais contribué à préparer.

Nommée en 1992 au Conseil constitutionnel, j’ai été confrontée à des lois de bioéthique. Une fois terminé mon mandat en 2001, je suis allée enseigner le droit de la bioéthique et le droit européen à la faculté de droit de Columbia, à New York, en tant que visiting professor. Ce fut pour moi une très belle expérience. J’y ai découvert des méthodes d’enseignement très différentes des nôtres, plus interactives, moins directives, moins savantes, mais plus vivantes.

Ensuite, ce furent deux années passionnantes comme ministre des Affaires européennes (2002-2004), à l’heure de l’élargissement de l’Europe aux États de l’Europe centrale et orientale. Certains de ces pays étaient déjà en avance en matière d’informatisation de la société ; c’était et cela reste en particulier le cas de l’Estonie. J’ai visité en 2002 à Tallinn la salle du Conseil des ministres entièrement informatisée, les ministres ayant chacun leur ordinateur, et au diable les documents papier !

Je suis aujourd’hui avocate dans un cabinet américain, Kramer Levin, dont la maison-mère est à New-York. Après m’être spécialisée en droit de la concurrence, une discipline à la frontière du droit et de l’économie, je développe actuellement mon expertise en droit de l’informatique et de la protection des données personnelles. Ma formation de publiciste me conduit à travailler aussi sur des dossiers en droit public, dont fait partie le droit de la protection des données. Enfin, je suis centrée également sur la compliance, c’est-à-dire tout ce qui peut contribuer à aider les entreprises à prévenir, détecter et lutter contre la corruption, en application de la loi dite Sapin II. Ce que permet l’utilisation des hotlines par exemple à travers lesquelles tout salarié ou tout tiers à l’entreprise peut faire remonter des informations sur des infractions commises ou en voie de l’être. De même, le contrôle des transactions financières dans le cadre de la lutte contre le blanchiment d’argent passe-t-il essentiellement par des procédures informatisées. Le droit et l’informatique ont beaucoup de points en commun, ne serait-ce que les logiques qui les sous-tendent.

B : vous avez participé aux débuts de la CNIL. Comment voyez-vous cette institution ?

A l’époque, les « autorités administratives indépendantes » telle que la CNIL, dotées de prérogatives règlementaires autant que répressives, étaient toutes nouvelles. Pour moi, ces autorités relèvent d’un concept libéral, venu des États-Unis, qui veut qu’entre l’État et les opérateurs économiques, des institutions étatiques, mais indépendantes, aient le pouvoir de faire évoluer la norme juridique en fonction de l’évolution des technologies et de l’économie. Depuis environ 40 ans, on assiste à l’émergence d’une nouvelle forme de droit, plus ou moins contraignant, qui est négocié ou au moins discuté avec les acteurs économiques. Mais par ailleurs, les normes (recommandations, lignes directrices, règlements etc.) produites par ces autorités sont assorties de sanctions pécuniaires extrêmement lourdes. Elles sont certes le fruit de discussions entre l’autorité et l’entreprise contrevenante qui peut exercer ses droits de la défense ; mais l’autorité dispose d’une force de frappe qui lui donne un pouvoir considérable pour faire respecter ses recommandations. Pensez que la CNIL peut infliger des amendes allant jusqu’à 4% du chiffre d’affaires mondial, ce qui peut littéralement mettre à genoux une entreprise, lorsqu’en plus, l’amende prononcée fait chuter son cours de bourse. Même quand des amendes ne sont pas prononcées à l’encontre des opérateurs défaillants, les avertissements par exemple émis par ces autorités peuvent être rendus publics, à grand renfort de communiqué de presse, avec tous les dommages en terme de réputation que cela implique. Parmi les principales autorités administratives indépendantes, en dehors de la CNIL qui a été précurseur, on peut citer l’autorité de la concurrence, l’ARCEP, le Conseil supérieur de l’audiovisuel ou encore la récente agence anti-corruption.

La CNIL, elle, est exclusivement compétente en matière de protection des données personnelles des personnes physiques, c’est-à-dire de la vie privée. L’informatique constitue un formidable progrès dans la gestion de l’information des individus, mais peut mettre en danger leurs libertés si elle fait l’objet d’une utilisation pernicieuse. La loi Informatique et Libertés en France, et le Règlement général européen sur la protection des données (RGPD) applicable depuis mai de cette année tentent de réaliser un arbitrage entre développement technologique et économique et protection des libertés.

Je me souviens que les principaux sujets d’intérêt pour la CNIL étaient à l’époque, avant Internet et le web, d’abord les fichiers de police et de renseignements, les fichiers de la sécurité sociale, et les fichiers fiscaux mis en place pour déceler dans les déclarations les anomalies susceptibles de déclencher des contrôles.

René Carmille, créateur du numéro de code individuel et de l’Insee

Le but était avant tout d’éviter l’interconnexion des fichiers administratifs. Cela était tabou et l’est encore. Le numéro de sécurité sociale (le NIR) était et reste considéré comme dangereux en soi, et il fallait éviter à tout prix qu’il ne serve aux interconnexions de fichiers. Permettez-moi en lien avec ce numéro d’évoquer l’histoire dramatique d’une personne exceptionnelle, René Carmille. Il a créé sous l’Occupation le Service National Statistique (qui deviendra l’INSEE en 1946) et le code individuel des citoyens qui deviendra le numéro de sécurité sociale. Seulement ce numéro a été détourné de sa vocation par le ministre de la Justice Raphaël Alibert pour distinguer les juifs et les tsiganes, et organiser les départs pour le STO. Carmille rentre dans la Résistance, cache des fichiers pour mettre au point un dispositif de mobilisation contre l’ennemi, fabrique de fausses cartes d’identité pour les juifs et les résistants. Arrêté à Lyon en 1944, atrocement torturé par Klaus Barbie, il meurt en 1945 au camp de Dachau. L’ENA devrait donner son nom à une de ses promotions, comme l’a fait en 2008-2009 l’EMCTA (Ecole militaire du corps technique et administratif).

Le numéro de code individuel créé par René Carmille est demeuré une sorte d’épouvantail. Ce n’est, à mon avis, plus justifié du fait de tous les autres moyens d’interconnexions de fichiers disponibles aujourd’hui.

Pour revenir à la CNIL, à ses débuts, lorsque j’y travaillais, elle s’intéressait à deux autres sujets qui paraissent préhistoriques aujourd’hui : le premier était celui de la vente par correspondance, car cela scandalisait qu’on puisse s’échanger des fichiers d’adresses. Le vrai sujet était le droit des personnes de ne pas être sollicitées par la publicité et de pouvoir demander à être retirées des fichiers. Ce que la CNIL a acté. Le second sujet avait trait aux travaux statistiques. Je dois dire qu’à mon grand étonnement, l’INSEE était la tête de turc de certains membres de la CNIL. Ceux-ci soulignaient que les chercheurs en général, et les statisticiens en particulier, ne protégeaient pas convenablement la masse de données en leur possession, puisqu’ils ne fermaient même pas leurs bureaux à clé et qu’ils ne rangeaient pas leurs dossiers dans des tiroirs ! Aujourd’hui encore, chercheurs et statisticiens sont en butte à une méfiance injustifiée.

Ce qui, à mon avis, a le plus fondamentalement changé dans les législations de protection des données personnelles, c’est qu’aujourd’hui, elles ont un effet extraterritorial. Ainsi le RGPD s’applique, indépendamment du lieu où sont traitées les données (dans un cloud en Californie, par exemple) dès lors que la personne concernée est en Europe. Cela va très loin et en outre les conditions d’application de cette disposition ne sont cependant pas évidentes. Comme les Américains préparent eux-mêmes une législation semble-t-il fédérale sur la protection des données, il y aura certainement des conflits de lois ; un véritable casse-tête pour les juristes et les juges.

B : voyez-vous une transposition de ce qui a été mis en place pour la bioéthique dans le cadre du numérique ?

J’ai présidé deux comités de bioéthique [1], l’un auprès de la Commission européenne et l’autre à l’UNESCO. Au niveau européen, on a beaucoup travaillé sur le numérique : tests génétiques, dossier médical informatisé et accès aux données de santé, brevets sur le génome humain, etc. La bioéthique et le droit de la protection des données personnelles ont pour objectif commun d’aider à répondre à des situations concrètes inédites du fait des technologies nouvelles, et qui peuvent poser des questions de libertés individuelles, ou de vie privée. De plus, sans l’informatique, la biologie ne pourrait avancer.

B : maintenant se posent des questions d’éthique numérique qui dépassent le cadre de la médecine et de la biologie. Y a-t-il quelque chose à apprendre de l’expérience bioéthique ?

Le mot « éthique » est ambigu. Il recouvre à la fois une attitude, un comportement relevant de la responsabilité individuelle, et les mœurs, soit une notion sociétale renvoyant à des valeurs collectives. En 1983, François Mitterrand a créé le premier comité d’éthique au monde, non pas contre la science, mais parce que « Science sans conscience n’est que ruine de l’âme », selon l’expression de Rabelais.

Quelle est cette conscience ? Elle ne peut plus être totalement univoque dans un monde où les mœurs, c’est-à-dire les normes morales acceptées par la société, sont de plus en plus diversifiées sur un même espace. Dans un monde ouvert, des individus vivant côte à côte peuvent avoir des systèmes de valeurs différents. Les comités d’éthique n’essaient pas seulement de faire une synthèse. Ils rappellent les valeurs de base communes, mais à l’issue d’un débat ouvert entre philosophies et religions différentes : c’est l’éthique de la délibération. Les membres des comités d’éthique ont à l’origine des opinions et des sensibilités contrastées, et puis à la fin, ils trouvent un compromis acceptable par tous. Leurs décisions sont le fruit de rapports circonstanciés et documentés pour montrer qu’ils n’ont oublié aucun aspect de la question.

Pour autant, un comité d’éthique ne doit pas, selon moi, être relativiste. Il y a des principes intangibles sur lesquels notre société démocratique aujourd’hui grandement fragilisée par les intégristes et les fake news ne doit pas transiger : égalité entre les sexes, lutte contre le racisme, respect de la vérité, tolérance, solidarité, absence d’intention de nuire, etc.

En tant que Présidente du comité scientifique et éthique de Parcoursup, je constate que certaines informations au mieux approximatives, au pire tendancieuses ou erronées, circulent sur les réseaux sociaux, voire dans la presse. Tout se passe comme si, pour certains, il fallait systématiquement soupçonner les responsables politiques de vouloir le mal de la population, et en l’occurrence des jeunes. Au-delà de l’éthique de la génétique et de l’informatique, je plaide pour la mise en place d’une éthique de l’information technique et scientifique. Cette éthique aurait pour but de permettre aux citoyens de juger par eux-mêmes des avantages et inconvénients de systèmes techniques complexes traduisant des choix politiques, au lieu d’être condamnés à s’en remettre à des interprétations dont ils ne sont pas en mesure de vérifier la fiabilité.

B : pensez-vous que la transparence des algorithmes puisse améliorer nos vies ?

Le droit à la transparence, on ne peut pas en avoir une vision absolue. Il est un principe général du droit, ancien et bien connu, suivant lequel « il n’y a pas de liberté générale et absolue ». Ce n’est pas parce qu’on est un citoyen qu’il faut pouvoir être dans le bureau du Premier Ministre pour écouter ce qu’il dit et assister aux réunions auxquelles il participe ; pour moi, ce n’est pas ça, la transparence. Elle est un outil essentiel de la démocratie directe, qui doit coexister avec les outils de la démocratie représentative et ses institutions légitimes. Elle ne peut s’y substituer; précisément pour préserver les équilibres démocratiques.

La loi pour la République numérique du 7 octobre 2016 a introduit, dans le code des relations entre le public et l’administration, une disposition selon laquelle en cas de décision concernant un individu prise sur le fondement d’un algorithme, l’intéressé a droit, s’il le demande, d’obtenir de l’administration communication des principales caractéristiques du traitement.

De prime abord, je me suis demandé quel pouvait être l’intérêt d’obtenir ces données dès lors que l’immense majorité de nos concitoyens n’a pas été formée pour comprendre les algorithmes. Mais finalement, il y a dans ce nouveau droit un présupposé que je trouve intéressant : pour être un citoyen maître de son destin, il faut avoir aujourd’hui de solides notions d’informatique, comme on doit savoir lire et écrire couramment (ce qui n’est hélas toujours pas le cas en France). Pour que le droit à l’algorithme soit effectif, il faut soi-même en comprendre les codes et les mécanismes informatiques.

B : il y a donc un devoir d’enseignement des algorithmes ?

Il est sain que les citoyens veuillent comprendre l’action administrative. Parmi les libertés publiques, il y a pour moi le droit de comprendre les décisions de l’administration qui vous concernent. Le droit de connaître l’algorithme, c’est une manière d’obliger l’administration à expliquer les raisons pour lesquelles elle vous oppose telle ou telle décision. Il est rare que des décisions s’appuient sur un seul critère (par exemple, le droit de vote repose sur un critère essentiel, il faut avoir l’âge de la majorité). La plupart du temps, les décisions individuelles sont multicritères. C’est là qu’intervient l’algorithme qui n’est autre qu’un processus informatique pour appliquer ces critères multiples en fonction des instructions données pour leur application.

S’il est un enseignement à tirer de la récente publication de l’algorithme de Parcoursup assorti d’explicitations parfaitement claires, précises et techniques, c’est que du coup personne n’a plus mis en question cet algorithme et ce qu’il signifie en termes de choix public.

Malgré tout, l’exigence croissante de transparence dans tous les domaines révèle une certaine méfiance vis-à-vis des détenteurs de l’autorité. Autrefois, aucun élève n’aurait eu l’idée de contester ses notes ou l’appréciation de son professeur. A présent, on veut non seulement comprendre, mais remettre en cause. Je ne porte aucun jugement sur cette évolution, qui est ce qu’elle est. D’une certaine façon, il est normal que la gestion de masse à laquelle est conduit un État de 67 millions d’habitants comme la France ait pour contrepartie un certain éloignement du citoyen. Celui-ci cherche à le compenser en ayant davantage de prise sur les décisions qui le concernent et en se prémunissant contre un éventuel arbitraire administratif, ce qui est positif. Encore faut-il que notre société ne bascule pas dans la défiance entre citoyens, et vis-à-vis des institutions républicaines qui sont le ciment de la société.

B : que se passe-t-il dans le cas où les décisions sont prises par un logiciel ?

Bien avant l’entrée en vigueur du RGPD en mai dernier, il est un principe qu’a de longue date dégagé la CNIL, à savoir que les décisions administratives produisant des effets juridiques ne peuvent uniquement découler d’un traitement automatisé. Il faut une intervention humaine, encore que des exceptions soient maintenant prévues par la loi du 20 juin 2018 ayant modifié la loi informatique et libertés pour tenir compte du RGPD. Par ailleurs, est toujours ménagée la possibilité d’un recours devant une autorité ou un juge pour contester les fondements d’une décision prise sur la base d’un algorithme. C’est une avancée.

B : vous avez eu une carrière impressionnante. Auriez-vous des conseils en particulier pour les plus jeunes de nos lecteurs ?

Je dirais d’abord et avant tout aux jeunes en particulier qu’ils doivent avoir la curiosité du monde qui les entoure, avoir la soif d’apprendre. Aller à l’école, au collège, au lycée et à l’Université sont des privilèges dont sont privés beaucoup de jeunes à travers le monde. C’est en s’intéressant au monde, en apprenant sans cesse qu’on se construit et qu’on maîtrise du mieux possible sa vie. Je conseille fortement de lire et relire « Souvenirs et Solitude » de Jean Zay, l’un des plus grands ministres de l’Éducation nationale de la France.

Aujourd’hui, apprendre, cela veut dire acquérir des connaissances universelles, en informatique et en maths, autant qu’en relations internationales, histoire, littérature, en art.

Par ailleurs, force est de constater que nous vivons dans un monde où les idées toutes faites pullulent, et où via les réseaux sociaux, n’importe qui peut s’ériger en expert qu’il n’est pas, peut attaquer anonymement, et donc lâchement, n’importe qui pour lui nuire, peut organiser des boycotts contre n’importe quel pays ou n’importe quel organisme en propageant de fausses accusations ou rumeurs etc. C’est dangereux !

Là encore, pour maîtriser la quantité inépuisable d’informations que l’on reçoit de toutes parts, il faut avoir un niveau de conscience et de connaissances suffisant. L’esprit critique est un impératif catégorique dans la société actuelle. Il est l’antidote de l’intégrisme et du sectarisme, qu’il soit religieux ou politique, c’est-à-dire une condition essentielle de la liberté.

Enfin, il faut savoir écouter et ne pas s’enfermer dans des certitudes. J’ai eu des engagements politiques que je n’ai plus. Cependant, je n’ai jamais pensé que j’avais toujours raison contre mes contradicteurs. Bien-sûr, j’ai gardé de très fortes convictions ; ma vision de la société a évolué, mais pas mes principes. Et je n’ai pas l’intention de transiger sur mes valeurs, même si, lorsque je sens que mon interlocuteur est de bonne foi et connait son sujet, je suis prête à changer d’avis !

Entretien réalisé par Serge Abiteboul et Claire Mathieu

[1] Noëlle Lenoir a été présidente du Comité international de bioéthique de l’UNESCO de 1992 à 1999. Elle a ainsi été conduite à élaborer le premier instrument international sur le droit de la génétique — « La Déclaration universelle sur le génome humain et des droits de l’homme » — qui sera adopté en 1998 par l’Assemblée générale des Nations. En 1991, elle est également désignée par la Commission européenne, alors présidée par Jacques Delors, comme membre du Groupe européen d’éthique des sciences et des technologies nouvelles. Puis, en 1994, elle y est élue, puis réélue pour deux fois Présidente, par ses pairs. (Wikipédia 2018)