Le vote papier est-il réellement plus sûr que l’électronique ?

Pourquoi donc remettre en cause la supériorité du vote «papier», en matière de garanties de sécurité et transparence ? Le vote électronique suscite à raison de nombreuses craintes, en partie évoquées dans un précédent billet de Véronique Cortier, directrice de recherche au CNRS. Comment s’assurer de la confidentialité des votes ? Comment se convaincre que son bulletin a bien été pris en compte ? Comment assurer la sincérité du scrutin ? Ces questions sont parfaitement légitimes et les systèmes de vote électronique n’y apportent pas encore de réponse claire. Mais les mêmes questions se posent pour les scrutins qui ont recours au « papier ».

Le cas du vote traditionnel à l’urne

Le premier système de vote qui vient à l’esprit est le vote traditionnel à l’urne, où chaque électeur dépose son bulletin dans une urne. L’isoloir et l’enveloppe visent à assurer la confidentialité des votes. L’urne transparente et le dépouillement public permettent à tout à chacun de vérifier le décompte des voix. Même si des fraudes peuvent avoir lieu, le vote à l’urne offre un très bon niveau de sécurité, sous réserve que l’urne soit surveillée sans relâche, de l’ouverture du scrutin au dépouillement, par un groupe de personnes représentant si possible chaque partie en lice. La surveillance de l’urne semble une évidence mais n’est pas toujours facile à réaliser pour des élections à enjeux modérés où il est souvent difficile de trouver des volontaires pour tenir l’urne et assister au dépouillement.

Le vote par correspondance, un faux sentiment de sécurité

Si le vote traditionnel à l’urne est bien compris et offre de bonnes garanties en matière de confidentialité et de transparence, il en est autrement du vote par correspondance. Comment voter par correspondance ? Le principe le plus simple consiste à mettre son bulletin dans une première enveloppe, glissée dans une deuxième enveloppe signée par l’électeur (pour permettre l’émargement), le tout envoyé dans une troisième enveloppe expédiée au centre gérant l’élection. Comment s’assurer que les trois enveloppes ne seront pas ouvertes en même temps, brisant ainsi la confidentialité du vote ? Comment être certain que des bulletins n’ont pas été ajoutés (ou supprimés) avant le dépouillement ? L’électeur doit faire une entière confiance aux organisateurs de l’élection ainsi qu’à toute la chaîne de traitement. Des fraudes provenant de personnes malveillantes extérieures à l’organisation de l’élection sont également possibles. Il est techniquement facile d’imiter la signature de quelques abstentionnistes pour ajouter des votes de son choix. La participation étant souvent faible, le nombre de bulletins nécessaires pour modifier le résultat de l’élection est en général peu important.

Des attaques existent aussi sur des systèmes plus complexes

Des systèmes de vote par correspondance plus complexes ont été mis au point pour permettre un dépouillement mécanisé. Certains systèmes utilisent ainsi des codes à barres, notamment pour identifier (de façon anonyme) l’électeur. Le fait d’utiliser du papier rend le système rassurant mais pas sûr pour autant. Il a été démontré que, pour certains systèmes, il est possible de reconstituer l’ensemble des matériels de vote envoyés aux électeurs, ouvrant ainsi la porte à un « bourrage d’urne ».

Un bilan nuancé

À l’heure actuelle, il n’y a pas de raison de penser que le vote électronique puisse remplacer avantageusement le vote traditionnel à l’urne, pour les scrutins où l’urne est correctement surveillée. Non seulement le vote ��lectronique soulève de nouveaux défis techniques en matière de sécurité mais les solutions proposées sont complexes et accessibles uniquement à des spécialistes du sujet. Il semble impossible d’atteindre la simplicité du vote à l’urne.

La comparaison entre vote électronique et vote papier amène des conclusions plus nuancées en matière de vote par correspondance. Dans les deux cas, l’électeur n’a plus de contrôle direct sur l’urne et le dépouillement. Il s’agit donc d’exercer le même esprit critique sur les systèmes de vote électronique que sur leurs homoloques « papier », en analysant les risques liés aux enjeux du scrutin.

Véronique Cortier, CNRS – Nancy

69, année informatique

Retour vers le passé. On situe parfois les premières expériences de l’enseignement de l’informatique dans l’Éducation Nationale  dans les années 1970 ou 80. Une enseignante de classe préparatoire raconte à Binaire qu’elle a rencontré ses premiers algorithmes en 1969, alors qu’elle était en 5ème, au lycée  Paul Bert, à Paris. Un beau moment nostalgie. Serge Abiteboul et Colin de la Higuera.

Depuis 1968, notre classe expérimentait les nouveaux programmes de « mathématiques modernes », sous la houlette de notre professeur, Mme Juliette Berry. Notre lycée comportait une classe équipée pour des cours de cuisine – normal pour un lycée de filles, à l’époque … – et c’est là qu’un jour nous avons eu notre premier contact avec la machine «  Curta ». Ce calculateur, dont je me souviens particulièrement du cliquetis assez bruyant, fonctionnait avec un système de codage assez primitif …

exercices_berry
Extrait du cahier de cinquième, des feuilles reproduites avec des machines à alcool (d’où l’encre violette) que distribuait le professeur.

et bien sûr, pas d’écran, pas de souris : uniquement un gros rouleau de papier, et l’allure de ces anciennes machines de caisses dans les magasins. Personne ne prévoyait à ce moment-là l’essor de l’informatique !

Pour ma part, j’ai passé quatre années merveilleuses (tout le collège) dans la classe de Mme Berry. (Je profite de l’occasion pour rendre hommage à cette enseignante charismatique et si inspirée !) Nous travaillions sur des thèmes qui ne sont maintenant abordés qu’en classes préparatoires aux grandes écoles, hélas ! Les raisonnements rigoureux à l’époque ne nous faisaient pas peur, même si ce n’était pas toujours facile, et cinquante ans après, je bénéficie toujours de cette formation de qualité.

Après la découverte des Sciences Physiques au Lycée, dans la classe de Mme Charue, je me suis orientée vers cette discipline. Après un passage par les classes prépa de Louis le Grand, et l’ENS de Fontenay, puis l’agrégation,  j’enseigne depuis 1988 en classes préparatoires.

A priori, j’aurais pu ne jamais repenser à ce premier contact avec l’informatique. C’était sans compter sur l’Éducation Nationale, qui a demandé il y a deux ans aux enseignants de nos classes de prendre en charge un nouvel enseignement d’informatique. Aucun enseignant spécialisé n’ayant été prévu, je me suis donc retrouvée embarquée dans cette nouvelle aventure. J’ai découvert sur des livres d’informatique le nom de Gérard Berry, un des enfants de Juliette : Il était devenu un grand spécialiste de la discipline. Les souvenirs sont revenus, et en fouillant dans des cartons, j’ai  retrouvé mes cahiers de l’époque. La boucle était bouclée… J’y ai retrouvé des algorigrammes(*), dont j’avais oublié le détail, à vrai dire. Quel choc de constater que la forme était si proche de ce qui se fait d’aujourd’hui !

J’ai souvenir d’avoir alors travaillé  – déjà – à ces classiques de l’informatique : comment savoir si un nombre est premier ? Comment chercher un pgcd, ou un ppcm ? Des expériences équivalentes ont-elles eu lieu dans des lycées de garçons ? C’est probable, mais je n’ai aucune information sur le sujet.

Alors, en ce début de l’année 2015, destinée à promouvoir les femmes en informatique, il faut le dire haut et fort : oui, les filles ont été des pionnières en ce domaine !

Catherine Leiser

(*) Organigramme de programmation, c’est-à-dire une représentation graphique de l’enchaînement des opérations et des décisions effectuées par un programme d’ordinateur.

organigramme_Berry_2
Extrait du cahier de cinquième, des feuilles reproduites avec des machines à alcool (d’où l’encre violette) que nous distribuait notre professeur, et que nous devions coller dans le cahier.
Berry_Organigramme
Algorigramme. Les coloriages sont garantis d’époque.

Et pour finir, deux poèmes écrits à Mme Berry par ses élèves. Ils ont été lus par Madame la Ministre Najat Vallaud-Belkacem lors de la remise de la médaille d’or du CNRS à Gérard Berry.


PoèmeClasse-1PoèmeClasse-2

Le climat dans un programme informatique ?

Entretien autour de l’informatique : Olivier Marti, climatologue

Selon l’Agence américaine océanique et atmosphérique et la Nasa, l’année 2014 a été la plus chaude sur le globe depuis le début des relevés de températures en 1880. (Voir l’article de l’Obs). Depuis les débuts de l’informatique, la climatologie se nourrit des progrès de l’informatique et du calcul scientifique, et en même temps leur propose sans cesse de nouveaux défis. Dans un entretien réalisé par Christine Froidevaux et Claire Mathieu, Olivier Marti, climatologue au Laboratoire des  Sciences du Climat et de l’Environnement, explique ses recherches en calcul scientifique et développement de modèles pour la climatologie, un domaine exigeant et passionnant.

Cet entretien parait simultanément en version longue sur le blog Binaire et en raccourcie sur 01Business.

OlivierMarti_3Olivier Marti

Le métier de climatologue

B : Qu’est-ce qui vous a amené à travailler en climatologie ?
OM : Dans ma jeunesse, j’ai fait de la voile. J’avais une curiosité pour la mer et un goût pour la géographie. J’ai choisi de faire l’ENSTA pour faire de l’architecture navale. Là, j’ai choisi l’environnement marin (aspect physique, pas biologie), et j’ai fait une thèse en modélisation, sur les premiers modèles dynamiques de  l’océan ; au début, on ne parlait pas beaucoup de climatologie, ça s’est développé plus tard. Il y a un aspect pluridisciplinaire important, ma spécialité étant la physique de l’océan. J’ai ensuite été embauché au CEA et ai travaillé sur les climats anciens. Par exemple, l’étude du climat du quaternaire amène à étudier l’influence des paramètres orbitaux sur le climat.

B : En quoi consiste votre métier ?
OM : Je fais du développement de modèle. Il faut assembler des composants : un modèle d’océan, un modèle d’atmosphère etc. pour faire un modèle du climat. Mais quand on couple des modèles, c’est-à-dire, quand on les fait évoluer ensemble, on rajoute des degrés de liberté et il peut y avoir des surprises. Il faut qu’informatiquement ces objets puissent échanger des quantités physiques. C’est surtout un travail empirique. On réalise beaucoup d’expériences en faisant varier les paramètres des modèles. C’est vrai aussi que depuis 25 ans, on se dit qu’il faudrait pousser plus loin les mathématiques (convergence numérique, stabilité, etc.), marier calcul scientifique et schémas numériques. En climatologie, on n’a pas accès à l’expérience, c’est mauvais, du point de vue de la philosophie des sciences. On peut faire quelques expériences en laboratoire, mettre une plante sous cloche avec du CO2, mais on n’a pas d’expérience pour le système complet. La démarche du laboratoire est donc de documenter l’histoire du climat. Il y a d’abord un travail de récolte et d’analyse de données, puis une phase de modélisation : peut-on mettre le “système Terre” en équations ?

B : Allez-vous sur le terrain?
OM : J’y suis allé deux fois. En général, on fait en sorte que les gens qui manipulent les données sur l’ordinateur aient une idée de comment on récolte ces données, pour qu’ils se rendent compte, par exemple, qu’avoir 15 décimales de précision sur la température, c’est douteux. J’ai fait une campagne en mer, de prélèvement de mesure d’eau de mer et d’éléments de biologie marine. Lors des campagnes en mer, la plupart des analyses se font en surface sur le bateau : on a des laboratoires embarqués sur lesquels on calibre le salinomètre, etc. J’ai aussi fait une campagne dans le désert du Hoggar, pendant une semaine, pour récolter les sédiments lacustres (il y a 6000 ans, là-bas, il y avait des lacs). Récolter les pollens qui sont dans les sédiments, ça exige des procédés chimiques un peu lourds, donc on ne le fait pas sur place.

Hoggar-Grenier-230Collecte de données dans le Hoggar

B : Qu’est-ce qui motive les chercheurs en climatologie ?
OM : Il n’y a pas un seul profil, car c’est pluridisciplinaire. Chez nous, il y a des gens qui viennent de la dynamique des fluides et d’autres de l’agronomie. Ce n’est pas forcément facile de travailler ensemble ! Les gens qui font du calcul scientifique, quand ils arrivent, n’ont pas de compétences en climatologie, mais en travaillant sur les climats, ils ont l’impression d’être plus utiles à la société que s’ils développaient un logiciel pour faire du marketing par exemple. Ils participent à un projet d’ensemble qui a un rôle dans la société qui est positif, et c’est motivant.

B : Quels sont les liens de votre domaine avec l’informatique ?
OM : On évite d’utiliser le mot « informatique », car cela regroupe des métiers tellement différents. L’informatique en tant que discipline scientifique est bien sûr clairement définie, mais assez différemment de son acception par l’homme de la rue. Nous parlons de calcul scientifique. L’équipe que je dirigeais s’appelle d’ailleurs CalculS. Dans ma génération, si des personnes telles que moi disaient qu’elles faisaient de « l’informatique », elles voyaient débarquer dans leur bureau des collègues qui leur demandaient de “débugger » les appareils. Il y avait une confusion symptomatique et j’aurais préféré que le mot «informatique» n’existe pas. La Direction Informatique du CEA regroupait bureautique et calcul scientifique. Maintenant au contraire, le calcul scientifique ne dépend plus de la direction informatique. Les interlocuteurs comprennent mieux notre métier. Notre compétence n’est pas le microcode, et nous ne savons pas enlever les virus des ordinateurs.

Développer des modèles

B : Utilisez-vous des modèles continus ou discrets ?
OM : Les zones géographiques sont représentées par une grille de maille 200 km (l’océan a une grille plus fine). Le temps, qui est la plus grande dimension, est discret, et on fait évoluer le système pas à pas. Il faut entre 1 et 3 mois pour simuler entre 100 et 1000 ans de climat. On ne cherche pas à trouver un point de convergence mais à étudier l’évolution… On s’intéresse à des évolutions sur 100 000 ans ! Il y a des gens qui travaillent sur le passé d’il y a 500 millions d’années, et d’autres sur le passé plus récent. Nous, on essaie de travailler sur le même modèle pour le passé et pour le futur. Donc, par rapport aux autres équipes de recherche, cela implique qu’on n’ait pas un modèle à plus basse résolution pour le futur et un autre à plus haute résolution pour le passé. L’adéquation des modèles sur le passé est une validation du modèle pour le futur, mais on a une seule trajectoire du système – une seule planète dont l’existence se déroule une seule fois au cours du temps. Nos modèles peuvent éventuellement donner d’autres climats que celui observé, et cela ne veut pas forcément dire qu’ils sont faux, mais simplement qu’ils partent d’autres conditions initiales. On peut faire de la prévision climatique, mais on ne peut pas travailler sur des simulations individuelles, il faut étudier des ensembles. En particulier, les effets de seuil sont difficiles à prédire. On a besoin de puissance de calcul.

B : Dans votre domaine, y a-t-il des verrous qui ont été levés ?
OM : Cette évolution a eu lieu par raffinements successifs. Maintenant on sait que ce sont plutôt les paramètres orbitaux qui démarrent une glaciation, mais que le CO2 joue un rôle amplificateur, et on ne comprend pas complètement pourquoi. On se doute qu’aujourd’hui le climat glaciaire s’explique en partie parce que l’océan est capable de piéger plus de CO2 en profondeur, et je travaille en ce moment pour savoir si au bord du continent antarctique, où l’océan est très stratifié, on peut modéliser les rejets de saumure par la glace de mer ; on essaie de faire cette modélisation dans une hiérarchie de modèles pour voir s’il y a une convergence, ou pour quantifier tel phénomène qu’on n’avait pas identifié il y a 30 ans et qui joue un rôle majeur. L’effet  de la saumure est variable selon qu’elle tombe sur le plateau continental ou non. Pour modéliser ces effets, il faut représenter la topographie du fond marin de façon fine, mais là on tombe sur un verrou, parce qu’on ne sait pas modéliser le fond de l’océan. On alterne les simulations longues à basse résolution simplifiée des rejets de sel, avec les modèles à plus haute résolution. Il y a des verrous qui sont levés parce qu’on sait faire des mesures plus fines au spectromètre et parce que la puissance de calcul augmente.

B : Dans dix ou vingt ans, qu’est-ce que vous aimeriez voir résolu?
OM : D’une part, en tant qu’océanographe, j’aimerais comprendre toute la circulation au fond de l’océan – c’est quelque chose de très inerte, de très lent, sauf quelques courants un peu plus rapides sur les bords. Il y a des endroits de l’océan qui sont très isolés à cause du relief. Je voudrais des simulations fines de l’océan pour comprendre son évolution très lente. On progresse, et un jour ce sera traité à des échelles pertinentes pour le climat.
D’autre part, dans l’atmosphère, on tombe sur d’autres problèmes – ainsi, les grands cumulo-nimbus tropicaux, ce sont des systèmes convectifs. Quand on a une maille à 100 km, on essaie d’en avoir une idée statistique. Quand on a une maille à 100 m, on résout ces systèmes explicitement. Mais entre les deux, il y a une espèce de zone grise, trop petite pour faire des statistiques mais trop grande pour faire de la résolution explicite. Dans 50 ans, on pourra résoudre des systèmes convectifs dans des modèles du climat. On commence à avoir la puissance de calcul pour s’en rapprocher.
Plus généralement c’est un exercice assez riche que de prendre des phénomènes à petite échelle et d’essayer de les intégrer aux phénomènes à grande échelle géographique, pour voir leur effet. L’écoulement atmosphérique est décrit par les équations de Navier-Stokes mais on ne peut pas résoudre toute la cascade d’effets vers les petites échelles, alors on fait de la modélisation. On se dit : il doit y avoir une certaine turbulence qui produit l’effet observé sur l’écoulement moyen. On observe les changements de phase, et il y a tout un travail pour essayer de modéliser cela correctement.
Mais c’est très difficile, dans les articles scientifiques, quand quelqu’un a fait un progrès en modélisation, de le reproduire à partir de l’article – d’une certaine façon, cette nouvelle connaissance est implicite. L’auteur vous donne ses hypothèses physiques, ses équations continues, mais ne va pas jusqu’à l’équation discrète et à la façon dont il a codé les choses, ce qui peut être une grosse partie du travail. On commence désormais à exiger que le code soit publié, et il y a des revues dont l’objectif est de documenter les codes, et dont la démarche est de rendre les données brutes et les codes disponibles. Sans le code de l’autre chercheur, vous ne pouvez pas reproduire son expérience. Mais ce sont là des difficultés qui sont en voie de résolution en ce moment.

 compterUn supercalculateur

Les super-calculateurs sont de plus en plus complexes à utiliser.

Dans mon travail, je suis plutôt du côté des producteurs de données. Il y a des climatologues qui vont prendre les données de tout le monde et faire des analyses, donc vous avez un retour sur vos propres simulations, ce qui est extrêmement riche. C’est très intéressant pour nous de rendre les données disponibles, car on bénéficie alors de l’expertise des autres équipes. Cela nous donne un regard autre sur nos données. D’ailleurs, il y a  une contrainte dans notre domaine : pour les articles référencés dans le rapport du GIEC, les données doivent obligatoirement être disponibles et mises sous format standard. C’est une contrainte de garantie de qualité scientifique.

B : Y a-t-il libre accès aux données à l’international ?
OM : Tous les 6 ou 7 ans, le rapport du GIEC structure les expériences et organise le travail à l’international. Il y a eu une phase, il y a 10 ans, où on  voulait rassembler toutes les données dans un lieu commun, mais ce n’est pas fiable, il y a trop de données. Maintenant on a un portail web (ESGF) qui permet d’accéder aux données là où elles sont. Les gens peuvent rapatrier les données chez eux pour les analyser mais quand il y a un trop gros volume, pour certaines analyses, ils sont obligés de faire le travail à distance.

B : Parlons du « déluge de données, du big data. Vous accumulez depuis des années une masse considérable de données. Il y a aussi des problèmes pour les stocker, etc.
OM : Le big data, pour nous, c’est très relatif, car il y a plusieurs ordres de grandeur entre les données que nous avons et ce qu’ont Google ou Youtube par exemple. 80% du stockage des grands centres de la Recherche publique est le fait de la communauté climat-environnement. Notre communauté scientifique étudie la trajectoire du système, pas l’état à un seul instant. Il y a des phénomènes étudiés sur 1000 ans pour lesquels on met les données à jour toutes les 6 heures (les gens qui étudient les tempêtes par exemple). Mais c’est vrai que le stockage devient un problème majeur pour nous. GENCI finance les calculateurs, mais ce sont les hébergeurs de machines, le CNRS etc., qui financent les infrastructures des centres.

B : Qu’est-ce que les progrès de l’informatique ont changé dans votre domaine, et qu’est-ce que vous pouvez attendre des informaticiens ?
OM : Il y a une plus grande spécialisation. Lorsque j’étais en thèse, un jeune doctorant avait les bases en physique, mathématiques et informatique pour écrire un code qui tournait à 50% de la puissance de la machine. On n’avait pas besoin de spécialiste en informatique. Les physiciens apprenaient sur le tas. Maintenant l’évolution des machines fait qu’elles sont plus difficiles à programmer en programmation parallèle pour avoir un code pertinent et performant, et du coup  les physiciens doivent collaborer avec des informaticiens. Les super-calculateurs sont de moins en moins faciles à utiliser.  En ce qui concerne la formation, les jeunes qui veulent faire de la physique, et arrivent en thèse pour faire de la climatologie ne sont pas du tout préparés à utiliser un super-calculateur. Ils commencent à être formés à Matlab et à savoir passer des équations à des programmes, mais quand on met entre leurs mains un code massivement parallèle en leur disant de modifier un paramètre physique, on a vite fait de retrouver du code dont la performance est divisée par 10, voire par 100 ! On a besoin de gens  qui comprennent bien l’aspect matériel des calculateurs, (comprendre où sont les goulots d’étranglement pour faire du code rapide), et qui sachent faire des outils pour analyser les endroits où ça ralentit. En informatique, les langages de programmation ont pris du retard sur le matériel. Il y a un travail qui est très en retard, à savoir, essayer de faire des langages et compilateurs qui transforment le langage du physicien en code performant. Il faut beaucoup d’intelligence pour masquer cette complexité à l’utilisateur. Aujourd’hui c’est plus difficile qu’il y a vingt ans.

B : Votre travail a-t-il des retombées sociétales ou économiques ?
OM : Nos docteurs sont embauchés chez les assureurs, cela doit vouloir dire que notre travail a des retombées pour eux ! Il y a aussi EDF qui s’intéresse à avoir une vision raisonnable de ce que sera le climat pour l’évolution des barrages, l’enfouissement des déchets nucléaires, etc. Mais, la « prévision du climat », on en a horreur : nous, on fait des scénarios, mais on ne peut pas maîtriser, en particulier, la quantité de gaz à effet de serre qui seront rejetés dans l’atmosphère par l’homme. On fait des scénarios et on essaie d’explorer les climats possibles, mais on évite de parler de prévisions. On participe vraiment à la collaboration internationale pour essayer de faire des scénarios climatiques. Il y a une partie validation – la partie historique, instrumentale, bien documentée, qui permet de voir quels sont les modèles qui marchent bien – et une partie où on essaie de comprendre ce qui ne marche pas. Il y a toute une problématique de mathématiques et statistiques pour l’évolution dans le futur.

B : Y a-t-il beaucoup de femmes chercheurs dans votre domaine?
OM : Cela dépend de ce qu’on appelle « mon domaine ». Dans le laboratoire, il y a un bon tiers de femmes. Mais c’est qu’on est dans les sciences de la Terre. En biologie, il y en a plus de la moitié. Dans les sciences dures, en physique, il y en a moins. Dans les réunions de climatologues, il y a environ un tiers de femmes. Mais dès qu’on est dans une réunion d’informaticiens la proportion chute à moins de 10%. C’est extrêmement frappant. Il y a plus de femmes, mais dans la partie informatique et calcul scientifique, cela ne s’améliore pas beaucoup.

B : Y a-t-il autre chose que vous aimeriez ajouter?
OM : Il faut faire attention de distinguer modélisation et simulation. Nous, on fait de la modélisation : on commence par faire un modèle physique, puis on discrétise pour faire un modèle numérique, puis on fait du code. La simulation c’est ce que vous faites une fois que vous avez le code, le modèle informatique.

Olivier Marti, CEA, Laboratoire des Sciences du Climat et de l’Environnement

DemarcheSimulationLa démarche itérative de la simulation

Qu’est-ce qu’un bon système de vote ?

C’est la question que Binaire a posée à Véronique Cortier, Directrice de recherche au CNRS à Nancy. Cette spécialiste de la sécurité informatique nous répond.

De nombreux scrutins se font désormais par voie électronique. L’actualité est très riche en la matière avec les élections au sein de l’UMP (qui finalement seront faites en version papier) ou les élections professionnelles au sein du Ministère de l’Éducation Nationale. Le vote électronique concerne également de nombreux scrutins dont le nombre d’électeurs est plus limité comme l’élection de conseils (conseil d’administration, conseil scientifique, ou simplement conseil de collège ou de lycée). L’irruption des scrutins par voie numérique (on parle de « vote électronique ») soulève de nouveaux enjeux en termes de garanties de bon fonctionnement et de sécurité informatique : comment m’assurer que mon vote sera bien pris en compte ? Est-ce qu’un tiers peut savoir comment j’ai voté ? Puis-je faire confiance au résultat annoncé ? Nous faisons ici un tour d’horizon des propriétés souhaitables pour le vote électronique en nous appuyant sur l’exemple du vote traditionnel à l’urne tel qu’il est organisé en France lors des élections municipales par exemple.

Vote à New-York vers 1900Salle de vote à New-York en 1900 (E. Benjamin Andrews – Source Wikimedia)

1. Confidentialité : le maître mot !

Nul ne doit connaître le vote d’un électeur. Dans le cas d’un vote à l’urne, on parle alors d’un vote à bulletins secrets : l’électeur glisse son bulletin dans une enveloppe, à l’abri des regards dans l’isoloir. Pour des élections à enjeux importants, la confidentialité stricte ne suffit pas : un électeur ne doit pas pouvoir révéler comment il a voté, même s’il le souhaite. Pourquoi donc ? Tout simplement pour se protéger contre l’achat de vote ou la coercition. Si je peux prouver comment j’ai voté, alors il m’est possible de vendre mon vote : contre une certaine somme d’argent (ou sous la menace), je peux donner une preuve que j’ai bien voté comme un tiers l’aurait souhaité. C’est pour cette raison que, lors d’un vote à l’urne, ni l’enveloppe ni le bulletin ne doivent porter un quelconque signe permettant d’identifier l’électeur, sous peine d’être considérés comme nuls. Notons au passage que le vote traditionnel à l’urne permet donc l’abstention forcée : il est possible de forcer un électeur à voter « nul » en lui demandant d’apposer sur son bulletin un signe particulier, convenu à l’avance. La présence de signe peut être vérifiée lors du dépouillement public.

2. Sincérité et transparence du scrutin : un contrat de confiance

Le principe même d’une élection est que les électeurs dans leur ensemble acceptent de se conformer au résultat de l’élection. Encore faut-il avoir confiance en la sincérité du scrutin, c’est-à-dire pouvoir se convaincre que le résultat de l’élection correspond bien aux votes exprimés par les électeurs. On parle alors de vérifiabilité. Toujours dans le cas d’un vote traditionnel à l’urne, et quitte à surveiller l’urne toute la journée, il est possible de s’assurer que son bulletin est bien présent dans l’urne (vérifiabilité individuelle) et que les bulletins proviennent tous bien d’électeurs légitimes (vérifiabilité de la légitimité). Puis lors du dépouillement public, chacun peut se convaincre que le décompte des voix correspond bien aux bulletins déposés par les électeurs (vérifiabilité universelle).

3. Disponibilité et accessibilité : le vote pour tous !

Tous les électeurs doivent pouvoir voter. Voter ne doit pas demander de compétence technique particulière et doit rester accessible à des personnes en situation de handicap. D’autre part, il doit être possible de voter à tout moment pendant la durée du scrutin. Dans le cas du vote à l’urne, il est ainsi important que les bureaux de vote soient accessibles, en nombre suffisant et suffisamment longtemps pour éviter de longues files d’attente.

Qu’en est-il dans le cas du vote électronique ?

Si chaque électeur peut juger de la disponibilité et de l’accessibilité d’un système de vote, force est de constater qu’il est difficile de juger de la confidentialité et de la transparence en matière de vote électronique puisque le fonctionnement de ces systèmes est inconnu dans la grande majorité des cas. Par exemple, le fonctionnement du système mis en œuvre lors des précédentes élections au sein de l’UMP n’est pas public. On peut alors se tourner vers les recommandations de la CNIL (Commission Nationale de l’Informatique et des Libertés) en matière de vote électronique. La CNIL insiste notamment sur le fait que le bulletin doit être chiffré avant d’être envoyé : « Le bulletin de vote doit être chiffré par un algorithme public réputé « fort » dès son émission sur le poste de l’électeur et être stocké dans l’urne, en vue du dépouillement, sans avoir été déchiffré à aucun moment, même de manière transitoire. » Lors du dépouillement, il doit être impossible de faire le lien entre un bulletin et l’électeur correspondant. Ces recommandations visent à empêcher des personnes malveillantes d’avoir accès aux votes des électeurs lors du déroulé du scrutin ou du dépouillement, même s’il reste difficile de se prémunir contre des attaques menées directement sur l’ordinateur de l’électeur (un ordinateur infecté par un virus pourrait modifier le choix de l’électeur ou tout simplement l’envoyer à une personne tierce).

La transparence, grande oubliée des systèmes électroniques actuels.

Si la confidentialité des votes semble être au centre des préoccupations des sociétés commercialisant des systèmes de vote électronique (d’après leurs brochures commerciales), la transparence du scrutin est actuellement le parent pauvre du vote électronique. Point d’urne visible, point de dépouillement public ! Et bien sûr, toujours pas d’information sur les méthodes utilisées. Même si des précautions sont prises et que des « experts en informatique » ont pu avoir accès au système, l’électeur, lui, n’a a priori aucun moyen de s’assurer que son bulletin a bien été déposé dans l’urne, ni que le résultat annoncé correspond aux bulletins reçus. Les électeurs n’ont actuellement pas d’autre choix que de faire confiance aux autorités de l’élection et aux éventuels experts indépendants qui ont analysé le système.

De « nouvelles » solutions existent (depuis 20 ans déjà !)

La recherche en informatique a réalisé des progrès importants dans les 20 dernières années en matière de vote et de cryptographie. Il est désormais possible de mettre en œuvre des systèmes de vote qui ont une urne publique, sur une page web par exemple. Tout électeur peut vérifier que son bulletin est présent dans l’urne et peut vérifier le décompte des voix, sans remettre en cause la confidentialité des votes. Les lecteurs curieux pourront lire l’article « Vote par Internet » sur Interstices pour en apprendre un peu plus sur cette nouvelle génération de systèmes de vote électronique. Bien sûr, ces systèmes sont eux-mêmes loin de résoudre tous les problèmes du vote électronique, mais il est certainement possible de faire mieux que ce qui est proposé par les dispositifs actuellement déployés.

Je vous donne rendez-vous dans un prochain article pour tenter de répondre à la question suivante : le vote papier est-il réellement plus sûr que le vote électronique ?

Véronique Cortier CNRS – Nancy

Binaire, un an

Binaire, le blog du Monde sur l’informatique, fête son premier anniversaire. Son mot d’ordre : parler d’informatique… à tous. Cet entretien avec Serge Abiteboul, créateur du blog, a été réalisé par Mathilde de Vos. Il est publié conjointement sur le site de la SIF et sur inria.fr.

L’informatique participe aux changements profonds du monde et a joué un rôle essentiel dans les grandes innovations des dernières décennies. Pourtant bien des gens ignorent cette science et les technologies associées, de ses aspects les plus formels aux enjeux de société qui lui correspondent. Qu’est-ce que l’informatique ? Quel sont ses progrès, ses dangers, ses impacts, ses enjeux ? Quels métiers ? Comment l’enseigner ? Voilà quelques questions auxquelles le blog Binaire tente de répondre et de sensibiliser ses lecteurs. Lancé sous l’égide de la Société informatique de France (SIF) ce blog hébergé par lemonde.fr est animé par des scientifiques et des professionnels du monde de la recherche (Inria, ENS Cachan, universités), en première ligne desquels Serge Abiteboul.

Serge Abiteboul

« J’étais président du Conseil scientifique de la SIF, et je me demandais à quoi nous pouvions servir. Je me suis rendu compte que le grand public ne connaissait rien de l’informatique. Quand on découvre trois bouts d’os en Afrique, les journaux en parlent immédiatement. Mais quand il y a une grande découverte en informatique, comme la conception de PageRank, l’algorithme qui classe les pages web avec un impact sur la vie de chacun, vous ne verrez pas une ligne dans les médias.

Aucune science n’a évolué autant que l’informatique durant les 50 dernières années. Les informaticiens n’ont pas l’habitude d’expliquer ce qu’ils font. Ils doivent donc apprendre, ce qu’ont appris à faire les scientifiques des autres sciences depuis plus longtemps, à raconter leurs travaux. L’objectif de Binaire, c’est de répondre à ce besoin : expliquer cette science qu’est l’informatique, répondre aux questions sur ce sujet omniprésent dans la société.

Quand Le Monde m’a invité à ouvrir ce blog, ma seule demande a été de le faire avec une petite équipe. Il fallait publier environ 2 ou 3 articles par semaine, et je ne pouvais pas y arriver seul si je voulais continuer à faire de la recherche. La première surprise de cette expérience, c’est le plaisir que j’ai pris à travailler avec l’équipe, dans une ambiance extraordinaire. Nous publions plus d’articles que prévu en ne mettant en ligne que ce que nous avons envie. Notre seule règle : nous faire plaisir en parlant d’informatique. Nous nous amusons !

La deuxième excellente surprise a été de nous apercevoir que quand on demande à quelqu’un d’écrire, on a presque toujours des retours positifs. Écrire un article, ça demande beaucoup de temps, c’est un vrai travail. Mais nous avons collectivement envie de parler de nos métiers, nous avons envie de raconter l’informatique. Et je trouve que d’ailleurs les contributeurs en parlent plutôt bien ! J’ai été passionné par de nombreux articles, par exemple cet entretien avec Henri Maitre, professeur à ParisTech, sur les images, ou celui avec Françoise Combes, qui est astronome.

Nos projets pour 2015 ? Continuer à développer des rubriques récurrentes. Nous allons poursuivre une série d’entretiens avec de grands témoins, pour essayer de définir ce qu’est l’informatique. Françoise Tort, maître de conférences à l’ENS Cachan, a commencé un panorama de l’enseignement de l’informatique, pour montrer ce qui se fait en dehors de la France. Et puis il va y avoir une série d’articles sur Alan Turing, pour accompagner la sortie du film « The Imitation Game », une autre pour parler du vote électronique, une autre est à l’étude sur l’art numérique…

Nous sommes d’ailleurs preneurs d’idées et de demandes. Des lecteurs nous proposent des articles, des informaticiens qui ont envie d’écrire ; nous pouvons leur donner cette opportunité. Un de nos buts est de faire éclore des talents de raconteurs de l’informatique. »

The Imitation Game : et si vous préfériez l’original ?

2012 a été l’année du centenaire de la naissance d’Alan Turing. Cette icône de l’informatique a été célébrée dignement. A la fin du mois, sort un film biographique sur Turing, un blockbuster, « The Imitation Game ». Binaire se devait d’accompagner l’événement et a donc demandé leurs réactions à plusieurs amis. Nous démarrons avec Jean Lassègue, philosophe des sciences. Il remet en jeu quelques idées reçues. Serge Abiteboul.

alan-turing-rayclid-binaire-blog

J’avais eu l’occasion de passer un an à Oxford il y a presque trente ans. J’étais alors tombé par hasard sur la biographie de Turing écrite par le mathématicien Andrew Hodges, Alan Turing, The Enigma. Je fus immédiatement subjugué par ses qualités littéraires : la beauté de cette prose, les exergues du poète Walt Witman, mais aussi la culture britannique – des rites propres aux écoles secondaires à la campagne anglaise – me parlaient d’un monde que je connaissais bien mieux que la logique mathématique que j’avais commencé à étudier cette année-là. Je lus le livre d’une traite et le relus un certain nombre de fois dans les années qui suivirent, pendant lesquelles Turing fut pour moi tout à la fois une sorte d’interlocuteur, une grille d’interprétation et une source d’interrogation sur la façon dont la science s’inscrit dans le siècle.

Me voici de retour à Oxford. Entre temps, Turing est devenu l’une des figures les plus célèbres de l’histoire de l’informatique et, ce 18 décembre, on joue, au cinéma de Walton Street où j’allais de temps en temps à l’époque, le film de Morten Tyldum « The Imitation Game » qui porte sur la biographie de Turing et qui sortira en France le 28 janvier 2015. Quoi de plus normal, vingt-huit ans après avoir quitté Oxford, que d’aller voir ce film, et de renouer, sur le mode d’une fiction, avec ce qui allait devenir l’un des thèmes majeurs de mes préoccupations pendant les années qui suivirent ? Le film allait me rappeler encore une fois, s’il le fallait, combien il est difficile de parler d’un scientifique sans tomber dans l’hagiographie ou le grand spectacle, et ce, même quand le film est basé sur le livre si réussi d’Andrew Hodges.

TheImitationGameJe ne compte pas faire une critique détaillée du film, décidément trop « théâtral » pour moi, même s’il m’a paru bien servi par les acteurs et qu’il peut sans doute permettre à un spectateur qui ignorerait tout de la vie de Turing de se faire une première idée du rôle capital qu’il joua pendant la guerre quand, en décryptant les messages codés envoyés aux sous-marins allemands faisant le blocus de l’Angleterre, il réussit à déjouer le blocus et raccourcit de ce fait la guerre de deux ans en sauvant des milliers de vies humaines. Cependant, réussir à faire tourner l’intrigue autour du couple Alan Turing / Joan Clarke, mathématicienne avec qui il fut fiancé à l’époque où ils faisaient tous les deux partie de l’équipe de décryptage, tient pour moi d’un véritable prodige quand on sait, comme le montre d’ailleurs le film, que Turing était homosexuel et que son homosexualité lui valut condamnation pénale et contribua à son suicide. D’autres films récents, relevant plus du genre « documentaire » (voir en fin de blog) me paraissent plus proches de la vérité historique.

Je m’en tiendrai à un aspect particulier du film de Tyldum parce qu’il témoigne d’une attitude générale : sa fidélité stricte à l’interprétation de la biographie écrite par Andrew Hodges. Or il se trouve que, malgré les qualités éminentes que je reconnais volontiers au livre de Hodges dans lequel j’ai tant appris, je suis devenu, au fil du temps, fondamentalement en désaccord avec son interprétation. Le film « The Imitation Game », par fidélité à Hodges, me semble donc fondamentalement infidèle à Turing et c’est de cela dont je voudrais parler. Il ne s’agit pas seulement d’un débat entre spécialistes sur quelques vagues points de détail de l’histoire intellectuelle de Turing qui n’intéressent qu’eux et qui n’ont aucune portée. Il s’agit au contraire d’un point fondamental qui distingue deux façons radicalement différentes de concevoir la nature de l’informatique en général et le cadre philosophique et épistémologique de ses résultats.

L’interprétation canonique du parcours intellectuel de Turing

Voilà comment je vois la façon dont Hodges interprète la vie et l’œuvre de Turing, appuyée en cela par toute une tradition dérivée de l’empirisme logique dont l’audience est aujourd’hui mondiale, comme les cérémonies, hommages, colloques et événements pour le centenaire de Turing l’ont montré de par le monde en 2012. La notion fondamentale à étudier serait celle d’« intelligence » et la question pertinente à se poser serait celle de savoir si elle peut être conçue de façon mécanique ou pas. La réponse de Turing à cette question serait alors conçue comme le travail consistant à faire évoluer la mécanisation du renseignement (‘intelligence’ pris au sens anglais de collecte des données par les services secrets, ce qui renvoie au travail de Turing sur le décryptage au moyen de la machine Enigma des codes allemands pendant la guerre) à l’intelligence artificielle (‘intelligence’ pris au sens de l’esprit, ce qui renvoie à la construction du premier ordinateur et l’idée que le fonctionnement du cerveau est analogue à celui d’un ordinateur) : l’originalité – immense – de Turing serait ainsi d’avoir accompli ce passage du « renseignement » à l’« esprit » en s’en tenant strictement au paradigme mécanique tel qu’il a été pleinement réalisé par l’ordinateur. Dans cette optique, le « jeu de l’imitation », rebaptisé « Test de Turing » pour les besoins de la cause, deviendrait capital parce qu’il serait un « test » – entendez un algorithme mécanisable – qui prouverait que la notion d’intelligence peut se concevoir comme détachée du support biologique de l’humanité et peut dès lors se transférer à un ordinateur, à peu près comme un logiciel peut tourner sur n’importe quel type de machine, pourvu qu’il s’agisse d’un ordinateur digital.

C’est à cette interprétation que je m’oppose parce qu’elle reconduit la différence logiciel et matériel (en reproduisant ce faisant un dualisme de l’âme et du corps) au lieu de tenter de penser cette différence et de la concevoir comme rendant possible une dynamique de leur rapport.

Un indice devrait tout d’abord nous mettre immédiatement la puce à l’oreille : qu’en est-il, dans cette interprétation désormais canonique, du travail de Turing en biologie théorique ? Il passe à la trappe, purement et simplement. Or je rappelle d’une part que les recherches de Turing en biologie théorique ont occupé toutes les dernières années de sa vie entre 1950 et 1954 une fois qu’il eut définitivement abandonné toute recherche fondamentale en informatique et d’autre part qu’il considérait ses résultats dans ce domaine comme aussi fondamentaux que ceux de son article de 1936 fondant la théorie de la calculabilité. S’agit-il donc seulement d’un passe-temps secondaire que l’on pourrait oublier, le temps d’un film grand public, ou minorer, comme dans l’interprétation canonique du parcours intellectuel de Turing ? C’est impossible si l’on veut rendre justice à ce que Turing disait de son propre travail en biologie théorique. Il faut donc reprendre complètement le cadre interprétatif proposé par Andrew Hodges et revenir à ce qui fait le nerf de la preuve de son argumentation, le jeu de l’imitation.

Le jeu de l’imitation

Contrairement à la façon dont il est présenté dans le film de Tyldum, suivant en cela la majorité des interprètes puisqu’une entrée « Turing test » se trouve depuis longtemps dans le dictionnaire anglais Collins(*), le « jeu de l’imitation » ne consiste pas à montrer qu’il n’est pas possible de distinguer les réponses d’un homme des réponses d’un ordinateur convenablement programmé à qui on poserait des questions pendant une durée de jeu de cinq minutes et en cachant à l’interrogateur tout indice tenant à l’apparence physique des joueurs, c’est-à-dire en se limitant à des réponses imprimées. Le jeu est plus complexe car il est constitué de deux étapes distinctes, indispensables pour tenter d’obtenir le résultat escompté : l’indifférence entre les réponses humaines et les réponses de la machine et, partant, la « preuve » que l’intelligence mécanique est possible. Dans la formulation du jeu décrite par Turing dans son seul article de philosophie publié en 1950 dans la revue Mind, trois joueurs participent au jeu. L’un, appelé l’interrogateur, est séparé des deux autres, un homme et une femme, et doit tenter de deviner qui est l’homme et qui est la femme – bref doit tenter de déterminer quelle est la différence physique maximale entre deux êtres humains. Une fois en position d’échec pendant un certain temps, relativement court, la seconde étape du jeu consiste à remplacer le joueur masculin par un ordinateur convenablement programmé sans prévenir l’interrogateur et à se demander si celui-ci sera capable de déceler qu’il n’a plus affaire au même joueur mais que celui-ci a été remplacé par un ordinateur, bref que la différence entre humains et ordinateurs dans la deuxième étape du jeu ne sera pas plus décelable que la différence des sexes entre les humains dans la première.

Je soutiens que le jeu tel qu’il est décrit par Turing ne peut pas parvenir au résultat escompté pour une raison très simple : pour réussir à monter une partie du jeu, il faudrait à la fois prendre en compte la différence physique entre homme et femme dans la première étape et la différence physique entre un être humain et un ordinateur dans la seconde – car il faut avoir la capacité de choisir deux joueurs physiquement les plus opposés – et ne pas prendre en compte cette différence physique – puisqu’il s’agit de parvenir à la conclusion que la mise en échec de l’interrogateur a une portée universelle qui rend toute différence physique entre les joueurs indifférente. Bref, la conclusion à laquelle le jeu doit parvenir détruit les conditions de possibilité de sa propre construction. Autrement dit, pour que tout lecteur de l’article puisse parvenir à faire sienne la mise en échec de l’interrogateur et la conclusion que l’intelligence artificielle est bien réelle, il faudrait que tout lecteur puisse à la fois se dire que, s’il était à la place de l’interrogateur dans le jeu, il serait lui aussi mis en échec dans les deux étapes du jeu tout en se disant aussi qu’il doit cependant être toujours capable de faire physiquement la différence entre les deux joueurs (masculin et féminin dans la première étape, féminin et mécanique dans la seconde) pour monter une partie. Bref, la différence physique entre les joueurs doit en même temps être à tout jamais indécelable tout en étant pour toujours présupposée pour que le jeu puisse fonctionner. La position exigée de la part du lecteur quant à la détermination du rapport d’identité ou de différence entre humain et ordinateur est donc un indécidable au sens technique que ce terme revêt depuis l’article de Turing de 1936 puisque les condition d’accès à cette information rendent impossibles l’accès à l’information en question.

Déterminisme prédictif ou pas

Comment concevoir alors le jeu de l’imitation et plus globalement l’article de Turing de 1950 ? En remarquant qu’il y a une toute autre superposition dans cet article que celle existant entre les deux sens de la notion d’intelligence dont j’ai parlé plus haut. Turing remarque en effet que l’ordinateur en tant que machine physique est une machine « laplacienne » (relevant du déterminisme prédictif) mais que le monde physique ne l’est généralement pas pour des raisons ayant trait à la nature même de la matière, susceptible de comportements chaotiques (relevant du déterminisme non-prédictif). C’est donc la superposition de ces deux sens du déterminisme qui fait le fond de l’article de Turing et il faut le lire à ces deux niveaux : le niveau « grand public » (celui du film de Tyldum) dans lequel on débat (littéralement : à n’en plus finir pour des raisons ayant trait à l’indécidabilité dont j’ai parlé plus haut) pour savoir si et comment une machine peut être considérée comme « intelligente » et le niveau « de l’indécidable » dans lequel on sait pertinemment que la véritable question n’est pas là mais qu’elle se situe dans le rapport entre le calculable et l’incalculable et que ce rapport est précisément celui que Turing a exploré tout au long de sa vie et ce, jusqu’en biologie où les formes vivantes persistent – pour le temps de leur vie – à la frange du chaos qui mettra un terme à leur cohérence interne, comme l’a si profondément montré Giuseppe Longo (cf. F. Bailly & G. Longo, Mathématiques et sciences de la nature; La singularité physique du vivant, Hermann, 2007 et G. Longo & M. Montévil, Perspectives on Organisms: Biological Time, Symmetries and Singularities, Springer, Berlin, 2014).

Il y a donc une continuité théorique totale dans le parcours de Turing, que l’on pourrait résumer dans cet aphorisme quasi-mallarméen dans son aspect paradoxal : jamais un surcroît de programmation n’abolira le non-programmé, comme le prouve la théorie de la programmation. Turing est en effet parvenu à montrer les limitations internes à la théorie de la programmation à partir de cette théorie même. Un problème capital se pose alors : comment réussir à manifester et à explorer plus avant ce non-programmable si c’est seulement dans son rapport au programmable qu’il devient pensable ?

Où se situe le non-programmable ?

Turing passera le reste de sa vie, après son article de 1936, à essayer de répondre à cette question et la réponse qu’il a élaborée continue d’occuper le champ de la recherche aujourd’hui. Celle-ci me paraît être la suivante : la production de formes cohérentes que ce soit dans la pensée (l’invention du concept de machine de Turing, par exemple) ou dans la nature (l’apparition des formes vivantes, par exemple) est une manifestation de ce non-programmable.

Je soutiens que l’article de 1950 dans lequel Turing propose à la sagacité de son lecteur le « jeu de l’imitation » est une méditation sur les deux notions de la « pensée » et de la « nature » et plus encore sur leurs rapports. Or, pour avancer plus avant sur cette question difficile, on ne peut pas envisager la « pensée » ou la « nature » comme des notions fixées une fois pour toutes dont on pourrait étudier les produits complètement constitués (telle pensée, telle forme vivante) : il faut au contraire envisager la « pensée » et la « nature » comme des processus d’individuation progressive de formes. Or Turing a proposé, dans les dernières années de sa vie, un modèle de développement des formes vivantes à partir de brisures de symétrie dans la matière physique et c’est, à mon sens, en poursuivant une idée analogue sur le mode du désir qu’il construit le jeu de l’imitation quand il s’agit de rendre compte de l’invention du concept de « machine de Turing » : il s’agit de savoir si on peut remplacer la pensée d’un homme par un ordinateur à partir d’une brisure de symétrie dans la matière, c’est-à-dire d’une différence physique.

Vu sous cet angle, le jeu de l’imitation prend une tout autre tournure que celle de savoir si la « pensée » est un concept universel, indifféremment incarné dans l’être humain ou l’ordinateur : il consiste en la description d’un processus d’individuation d’une forme de la pensée (l’invention du concept de « machine de Turing » chez l’individu Turing) et du rapport ambivalent que cette forme entretient avec les deux modalités (programmable et non-programmable) de son incarnation possible ­– le jeu devenant alors typique d’un « double entendre » (comme on dit en anglais !). De ce point de vue, la différence physique entre les joueurs et, en tout premier lieu, comme Turing n’a pas manqué de le voir, la différence des sexes, joue un rôle capital dans la dynamique du jeu puisque c’est son possible dépassement, pour les formes vivantes que nous sommes, qui en fait le moteur. L’aphorisme quasi-mallarméen dont je parlais plus haut prend alors la forme suivante : jamais un surcroît de programmation n’abolira la différence des sexes, comme le suggère le jeu de l’imitation.

Aussi peut-on dire que si le jeu parvenait à ses fins, la différence des sexes serait effectivement dépassée et la sexualité personnelle de Turing définitivement cachée. Turing apprit, à ses dépens, que ce n’était pas le cas et il y a presque de la prophétie dans le jeu de l’imitation, comme le film de Tyldum le laisse d’ailleurs entendre, lui qui finit par avouer la nature de sa sexualité après un interrogatoire de police et qui fut condamné à une castration chimique.

La signification générale du parcours de Turing ne se situe donc pas, selon moi, dans le passage d’un sens de la notion d’intelligence à un autre (on en resterait à une perspective algorithmique visant à étendre indéfiniment le périmètre du calculable, ce que l’informatique n’a pas manqué de faire depuis qu’elle existe) mais dans le passage de la forme au sens du formalisme et de ses limitations internes à la forme au sens de la production des formes, idéales comme celles de la machine de Turing ou naturelles comme celles des formes biologiques, en se plaçant d’emblée du point de vue du rapport programmable / non-programmable. Et c’est évidemment dans cette production que se situe l’énigme de l’invention des formes que ce soit celle produite par Turing dans le concept de machine de Turing ou que ce soit celle produite par la nature. Il reste encore un film à faire sur le sujet, et il n’y a aucune raison de ne pas espérer le voir réalisé un jour.

Jean Lassègue, CNRS – Institut Marcel Mauss, École des Hautes Études en Sciences Sociales.

(*) Test de Turing : test visant la capacité de l’ordinateur à penser, requérant que la substitution cachée d’un participant par un ordinateur dans un dialogue par télétype soit indétectable pour le participant humain qui reste. » On va voir combien cette description est trompeuse.

Filmographie

  • Le modèle Turing, de Catherine Bernstein, produit par CNRS Images
  • La drôle de guerre d’Alan Turing, de Denis van Waerebeck, récemment passé sur Arte
  • The strange Life and Death of Dr Turing, de Christopher Sykes, produit par la BBC (en ligne sur YouTube).

Bibliographie

  • F. Bailly & G. Longo, Mathématiques et sciences de la nature; La singularité physique du vivant, Hermann, 2007
  • G. Longo & M. Montévil, Perspectives on Organisms: Biological Time, Symmetries and Singularities, Springer, Berlin, 2014

Des ordinateurs au-dessus des attaques

On l’a déjà raconté dans Binaire, le monnaie cryptographique bitcoin est une révolution. Ce qu’on mesure moins c’est que les principes utilisés pour la faire fonctionner ont introduit des idées qui vont bien au-delà de l’intérêt qu’il y a à disposer d’un système de paiement sécurisé ne s’appuyant sur aucune autorité centrale. C’est ce que nous raconte Jean-Paul Delahaye.

Le fonctionnement du bitcoin a fait entrevoir la possibilité d’une nouvelle classe d’ordinateurs aux propriétés étonnantes : ils ne pourront être compromis par aucune attaque, leurs calculs seront fiables à un degré bien supérieur à tout ce qu’on connaît, et toute personne disposant d’un accès à Internet pourra les utiliser. Le seul inconvénient de ces nouvelles machines sera leur lenteur et leur mémoire réduite comparée à celle de nos machines de bureau ou même de nos smartphones. Cependant, si sacrifier un peu de la vivacité de nos machines et réduire leurs fantastiques capacités de stockage d’information conduit ces nouvelles venues à être bien plus robustes, alors des champs d’applications innombrables leur seront ouverts.

Ces machines que nous appellerons — on va voir plus loin pourquoi — « machines à blockchain » ne sont localisées nulle part et n’existent que dans le réseau. Elles s’appuient sur des protocoles d’échanges de messages entre ordinateurs usuels fonctionnant sur des schémas de réseaux pair à pair (c’est-à-dire sans nœud central détenteur de droits particuliers). Leur force vient du consensus nécessaire à chaque opération qu’elles exécutent. Leur mémoire, la blockchain, se construit page par page — block par block — sans jamais que rien n’y soit effacé, et c’est un fichier numérique qui existe en milliers d’exemplaires identiques… comme notre génome qui se trouve présent dans chacune de nos cellules. Les pages de la blockchain sont liées les unes autres par un procédé numérique qui les solidarise aussi fermement que les anneaux d’une chaîne (d’où le nom blockchain). La multiplication du fichier des données centrales de la machine la rend incorruptible : si l’une des copies de la blockchain est perdue, il reste toutes les autres. Les calculs de cet ordinateur sont eux aussi faits des milliers de fois sur des milliers de machines (ordinaires) différentes qui se contrôlent les unes les autres et qui sont disséminées sur la terre entière, travaillant prudemment et sans hâte car se coordonnant sans cesse et n’avançant que lorsqu’il y a consensus. La redondance de l’information et du calcul interdit toute erreur, ou plutôt la rend si improbable qu’on peut confier à ces machines à blockchain multiples et auto contrôlées des tâches inconcevables sur une machine isolée toujours susceptible d’être attaquée, défaillante ou isolée du réseau.

Blockchain.info_logo_2014-01-27blockchain.info

La première de ces tâches à l’origine de leur conception a été la création d’une sorte de monnaie, entièrement numérique qui vaut aujourd’hui environ 3 milliards d’euros, le bitcoin. Les volontaires qui donnent une partie de la puissance de leur machine pour participer à ces ordinateurs collectifs, redondants et disséminés se nomment des mineurs dans le cas de la machine à blockchain du bitcoin et c’est sans doute le nom qui leur sera appliqué pour toutes les machines de cette nouvelle classe, dont on commence à comprendre le potentiel général.

Parmi les disciplines qui ont rendu possible cette nouvelle génération de calculateurs, n’oublions pas de mentionner les mathématiques de la complexité.  En effet, la gestion coordonnée des opérations de ces machines sécurisées et la préservation de leur mémoire sont fondées sur des primitives cryptographiques qui interdisent toute corruption du fichier principal (la blockchain), toute manipulation frauduleuse de ce qu’elles font, mais aussi tout oubli de ce qu’elles ont déjà fait. Ces ordinateurs ne peuvent pas effacer leur mémoire qui témoignera sans limitation de temps de tout ce qu’ils auront fait depuis le premier jour de leur fonctionnement — le 3 janvier 2009 pour la machine du bitcoin. La conception théorique de ces machines s’appuie de manière essentielle sur les progrès de la cryptographie mathématique qui se fonde elle-même sur la théorie de la complexité de l’informatique. Ces deux théories ont depuis 40 ans, mis à la disposition de tous, des fonctions sûres réalisant parfois ce qu’on considérait impossible. Parmi ces opérations, il y a :

  • la signature des messages : pas d’usurpation possible de l’identité de celui qui écrit sur la blockchain ;
  • le chiffrage des données quand il est nécessaire : le bitcoin n’utilise pas ce type de secret, mais d’autres ordinateurs à blockchain en ont besoin ;
  • le calcul d’empreintes ; c’est ce qui permet d’avoir la certitude qu’on ne change aucun bit d’information dans un fichier, et on utilise cette fonction pour attacher les pages d’une blockchain comme les anneaux d’une chaîne ; et
  • les « preuves de travail » qui assurent qu’un contenu en calcul (un long travail impossible à accélérer)  est déposé dans un fichier ; ce contenu rend impossible la contrefaçon d’une blockchain.

Ces calculateurs décentralisés et redondants se multiplient aujourd’hui : il en existe déjà plusieurs centaines, pour l’instant presque tous inspirés de près de celui du bitcoin et utilisés pour gérer des crypto-monnaies concurrentes. Cependant on en étend les possibilités — projet Ethereum —, on apprend à les faire interagir entre eux par la méthode des sidechains  qui autorisent la circulation de l’un à l’autre des informations et des devises numériques. On imagine toutes sortes de nouvelles applications : système de messagerie ; votes sécurisés sans aucune possibilité de tricherie ; contrats sans tiers de confiance ; systèmes de séquestre permettant de déposer de l’argent sur la blockchain par exemple en attendant qu’un engagement soit tenu ; dépôt de messages chiffrés ; systèmes d’horodatage pour déposer des brevets ou des preuves d’antériorité  infalsifiables sans avoir à faire appel à une autorité centralisée,  etc.

Comme nous l’indiquions au début, la redondance a comme prix une moindre vitesse de calcul et une plus faible capacité de stockage d’information. Nick Szabo (le concepteur probable du bitcoin ; il ne le reconnaît pas, mais de nombreux indices convergent vers l’idée qu’il est Satoshi Nakamoto le signataire du document à l’origine du bitcoin) a évalué cette perte à un facteur 10 000, ce qui paraît énorme. Cependant, n’oublions pas que la loi de Moore énonce une multiplication par 10 des performances moyennes des dispositifs informatiques tous les cinq ans. Elle a été vérifiée en gros depuis 40 ans produisant un gain de performance supérieur au million. La perte de performance des machines a blockchain leur laisse donc une capacité comparable à nos machines de 1990… que nous ne trouvions pas ridicules à l’époque ! Pour de nombreux problèmes, on acceptera de faire un sacrifice sur la virtuosité computationnelle et informationnelle d’un ordinateur en échange d’une sécurité améliorée et rendue presque parfaite. Les calculateurs classiques resteront dominants bien évidemment, mais les nouveaux venus dans les domaines où la confiance est centrale seront peut-être les seuls à pouvoir faire face.

Gageons que ces machines à blockchain vont changer quelques habitudes et forcer à revoir le train-train de l’informatique contemporaine — particulièrement dans le monde bancaire et financier. Car personne ne peut nier que ce qui est proposé aujourd’hui est incapable de garantir la sécurité que chacun attend, comme la récente affaire Sony l’a montrée, une affaire parmi cent autres.

Jean-Paul Delahaye, Professeur, Université de Lille 1

Pour aller plus loin