Centraliser ou non : le duel de l’informatique

Par Dree’Ja [CC BY-SA 4.0]
Dans 2001, L’Odyssée de l’espace, Hal est le système informatique du vaisseau spatial Discovery One. C’est un système centralisé : une seule machine gère tout. Internet, en revanche, est un système informatique distribué, composé de centaines de millions de machines autonomes, hétérogènes, sans véritable autorité centrale. Le premier est anthropomorphique, presque de nature divine. Le second tient de la fourmilière. Le monde informatique offre donc tout un continuum de solutions, depuis le supercalculateur monomachine jusqu’aux systèmes totalement distribués comme Internet. Choisir entre centralisé et distribué, c’est le sujet de cette chronique. La conception des systèmes centralisés est beaucoup plus simple. Ils sont aussi plus faciles à mettre au point, et à débuguer – quand une erreur arrive, on n’a pas à se demander d’où elle provient. Mais leurs avantages se limitent là. Assumons le spoiler en prévenant que, dans la suite de cet article, nous ne ferons que souligner les avantages de la distribution sur la centralisation.

D’abord, contrairement à ce que l’on pourrait penser, les systèmes centralisés sont plus fragiles, plus instables. Une erreur au coeur du système peut entraîner le chaos. En s’en prenant au maître, on peut réussir à bloquer tout un service. Rien de tel avec un système décentralisé. Un mythe indique d’ailleurs qu’Internet a été conçu pour résister à des attaques, même nucléaires. En réalité, si le réseau Arpanet, à l’origine d’Internet, a bien été développé par la Darpa, une agence de défense du gouvernement américain, il l’a été pour faciliter les communications entre chercheurs. Reste que, grâce à la distribution, Internet est beaucoup plus résistant aux pannes qu’un système centralisé.

Un autre avantage de la distribution est le passage à l’échelle. L’exemple de la vidéo en ligne illustre parfaitement cet aspect. Dans une approche centralisée, les serveurs stockent des vidéos. Quand la demande augmente, les serveurs sont vite saturés et il faut en acheter d’autres, les installer : cela coûte cher. Dans une approche répartie, chaque client qui télécharge une vidéo en stocke une copie et peut à son tour délivrer le film à d’autres clients. On parle alors de pair-à-pair parce que, la hiérarchie s’estompant, chaque participant est à la fois client et serveur. Si ces approches pair-à-pair ont été, au départ, surtout utilisées pour le piratage, elles sont tout à fait compatibles avec la protection des droits d’auteur (les flux vidéo sont chiffrés et des DRM nécessaires pour les visualiser). Elles sont également beaucoup plus efficaces que les approches centralisées. Dans ce dernier cas, la vidéo va voyager sur le réseau, peut-être depuis le serveur d’un pays lointain ou au mieux à partir d’un « cache » (un serveur de soutien moins éloigné). Dans le cas distribué, la vidéo a une forte chance d’être disponible dans le voisinage du client. Les économies d’électricité pour visionner une vidéo sont alors vraiment conséquentes – cette année, 74 % de tout le trafic internet mondial sera de la vidéo en ligne (1) !

Un dernier avantage, moins simple à quantifier : la distribution encourage la diversité. Un système centralisé utilise un logiciel particulier relativement figé. Dans un cadre réparti, une fois qu’une infrastructure de base est disponible (par exemple, Internet), de nombreux logiciels peuvent être proposés, entrer en compétition et évoluer à la manière de systèmes biologiques. La distribution est pour beaucoup dans la créativité débridée de l’informatique depuis sa création.

Les tensions entre solutions centralisées et distribuées existent depuis les débuts de l’informatique. Récemment, la plus sournoise est une bataille autour du Web. Nous nous sommes habitués à trouver sur la Toile des services décentralisés fantastiques, comme des moteurs de recherche, des encyclopédies, des sites de commerce en ligne… Une tendance actuelle est pourtant d’écarter l’utilisateur du Web pour le fixer dans des systèmes particuliers. Nous sommes de plus en plus prisonniers des applications de nos téléphones ou de systèmes comme Facebook ou Snapchat qui se proposent comme point d’entrée centralisé du monde. La liberté apportée par la distribution des services sur le Web est- elle en danger ?

Serge Abiteboul, Inria et ENS, Paris

(1) Kleiner Perkins Caufield & Byers, « Internet Trends 2017 », www.kpcb.com/internet-trends

Cet article est paru dans Le magazine La Recherche, N°528 • Octobre 2017

 

 

 

La justice prédictive et l’égalité devant la loi

Un nouvel « Entretien autour de l’informatique », celui de Louis Boré qui est président de l’ordre des avocats au Conseil d’État et à la Cour de cassation. L’informatique transforme profondément la justice. Serge Abiteboul et Claire Mathieu l’interrogent pour Binaire sur la justice prédictive. Cet article est publié en collaboration avec TheConversation.
Louis Boré, photo personnelle

B : Vous êtes président de l’ordre des avocats au Conseil d’état et à la Cour de cassation. Pouvez-vous nous expliquer en quoi cela consiste ?

LB : Je suis effectivement avocat au Conseil d’État et à la Cour de cassation : le Conseil D’État est notre cour suprême administrative, et la Cour de cassation, notre cour suprême judiciaire. Ce sont des juridictions qui ont pour mission d’unifier l’interprétation des règles de droit sur toute l’étendue du territoire de la République. Elles ont pour point commun de tendre vers cet objectif avec une technique spécifique qu’on appelle la technique de cassation. On ne juge que les questions de droit, pas les questions de fait qui sont tranchées antérieurement et doivent être considérées comme des éléments définitivement acquis aux débats.

Comme nous plaidons presque exclusivement devant ces deux juridictions et pratiquons quotidiennement cette technique particulière, nous avons une vision du droit un peu différente de celle d’un avocat à la Cour d’appel.  Lui fait corps avec son client. Nous, nous devons passer sans arrêt du particulier au général, c’est-à-dire voir si dans la situation individuelle qui nous est soumise, il est possible de déceler une erreur de droit qui a forcément une dimension plus large puisque la règle de droit est toujours générale et impersonnelle.

Quand on trouve un moyen de cassation, on le soutient. Est-ce qu’on est chicanier ? Non, ce n’est pas de la chicane, mais la défense de l’article 6 de la Déclaration des Droits de l’Homme et du citoyen : la loi doit être la même pour tous, soit qu’elle protège, soit qu’elle punisse. Pour cela, elle doit être interprétée de la même manière partout, sinon cela signifierait que l’on en revient aux coutumes régionales de l’ancien régime. Cela signifierait qu’on abandonne le principe d’égalité devant la loi qui est un principe républicain essentiel.

Il est certain que ce travail particulier influence ma vision de la justice prédictive.

B : Tout ce qui va dans le sens de coder la loi de façon algorithmique, de préciser la loi, vous intéresse ?

LB : Exactement, c’est pour cela que la justice prédictive m’intéresse. Les avocats à la Cour craignent un rouleau compresseur qui va empêcher le juge de faire du sur-mesure, en imposant du prêt-à-porter à la place. Ils se battent pour que le juge se livre à une appréciation humaine, et donc pour eux tout ce qui égalise porte atteinte à cette appréciation au cas par cas. Pour ma part, j’y suis moins hostile, car je pense qu’au-delà de chaque cas particulier, il y a une règle générale qui est en cause.

Ainsi, en matière pénale, pour l’appréciation de la peine, la loi ne fait que fixer un maximum, et c’est le juge qui apprécie, selon les circonstances : le prévenu peut être jeune ou âgé, l’un manifeste un repentir mais pas l’autre… Le juge doit tenir compte de la situation spécifique du prévenu pour déterminer la sanction. Mais pour savoir si l’infraction est constituée ou pas, on n’est plus vraiment dans une appréciation au cas par cas, et là, la cohérence entre ce qui est jugé à Paris et à Bordeaux me semble essentielle. Si demain on est capable de mettre en place des instruments facilitant le travail des juges et des avocats pour appliquer la loi de façon plus cohérente et plus uniforme sur l’ensemble du territoire national, ce sera un progrès.

L’imprécision des lois : une porte ouverte à l’imagination humaine

B : Y a-t-il une tension au sujet de l’attitude du juge, avec d’un côté le désir d’avoir une justice plus humaine et plus empathique, et de l’autre côté le risque d’avoir une justice plus biaisée parce que le juge fait ce qu’il veut ?

LB : La tension existe entre le droit et l’équité. La base du droit, ce sont des règles générales. S’il n’y a pas de généralité, il n’y a pas de droit et il suffit alors d’un juge sous un chêne qui apprécie au cas par cas, sans être contraint par des règles. Mais la règle juridique implique, dans une certaine mesure, la généralité. L’équité, au contraire, c’est le cas par cas, car aucune personne n’est absolument identique à une autre. Mais l’équité pure est extrêmement dangereuse. Il existe un vieil adage de la révolution française, « Dieu nous garde de l’équité des parlements ! », signifiant que les décisions des parlements étaient totalement imprévisibles, ce qui créait une insécurité juridique considérable. C’est contre cela que la révolution française a voulu réagir. Mais, dans la généralité de la règle, il y a aussi une dimension totalitaire. Elle peut aboutir à des décisions injustes parce que trop rigides, trop mécaniques, et donc, inhumaines.

Alors, quel est le rôle du juge ? Il est, selon le doyen Ripert, « le législateur des cas particuliers » : il s’agit d’adapter sans la trahir la règle générale. Entre la règle générale et le cas particulier, il subsiste toujours une marge de manœuvre, une part de souplesse, qui permet au juge d’adapter la règle aux situations particulières, et c’est une très bonne chose.

Et puis l’avocat peut faire preuve d’imagination juridique. Il peut plaider une interprétation totalement nouvelle des textes. Si un juge est convaincu, il transformera cette proposition en jurisprudence. De fait, l’imagination juridique aura déjoué la répétition mécanique de la règle et aura fait avancer le droit. Cela fait partie du travail des magistrats et des avocats.

© Itai Benjamini

B : La loi est bien trop imprécise. Si elle était plus formalisée, il serait plus facile de donner des réponses précises et cela simplifierait le travail des algorithmes. Est-ce que ce serait mieux que la loi soit plus précise ?

LB : Le degré de précision de la loi est une question juridique. Constitutionnellement, la loi ne doit pas être trop précise. Ce sont ultérieurement les décrets et arrêtés pris pour son application qui vont en préciser le sens. Il y a une structure hiérarchique : la constitution, les lois, les décrets, les arrêtés. C’est une structure pyramidale. Ainsi, la loi n’a pas forcément vocation à être précise. En France, il y a pléthore de textes ; on a tendance à en avoir dans tous les sens. Mais en cherchant à être trop précis, on en devient incompréhensible.

L’imprécision d’une loi peut avoir des avantages. Par exemple la loi disant que « tout fait quelconque de l’homme qui cause à autrui un dommage oblige celui par la faute duquel il est arrivé à le réparer » donne les trois éléments de la responsabilité civile. L’imprécision du texte a laissé une capacité créatrice et d’adaptation au juge. Le prix à payer est un certain aléa judiciaire que pourront en partie compenser les algorithmes prédictifs.

La justice au quotidien avec les machines

B : L’avocat se sent-il dépossédé par les machines ?

LB : C’est vrai qu’il y a une véritable inquiétude dans la profession et la majorité voit cela comme une menace considérable. Ils se sentent menacés par le risque d’être remplacés par des machines. Une minorité voit cela, au contraire, comme une opportunité.

Il est certain que la justice prédictive va remplacer ce qui est mécanisable dans l’exercice de la profession juridique, et il y a effectivement certaines choses répétitives dans notre travail. Par exemple, la gestion des infractions telles que les excès de vitesse est de plus en plus remplacée par des décisions automatisées.

Il y a une très vieille tradition dans l’Ordre que je préside, c’est celle de la consultation préalable avant de saisir le Conseil d’État et la Cour de cassation. Sous l’ancien régime, il fallait deux consultations préalables. Maintenant, ce n’est plus obligatoire, mais beaucoup de justiciables nous consultent encore avant de saisir ces deux hautes juridictions. Ils nous contactent soit directement, soit par l’intermédiaire de leur avocat à la cour. Ils souhaitent mieux apprécier leurs chances de succès. Nous ne donnons pas un pourcentage précis mais une appréciation.

Mon expérience de « justicier prédictif » me conduit à constater que certains justiciables, quand on leur dit que leurs chances de gagner sont très faibles, veulent quand même y aller. Mais il y en a aussi beaucoup d’autres, les plaideurs institutionnels en particulier, qui ne veulent y aller qu’avec des chances assez fortes. Les logiciels de justice prédictive ne feront qu’étendre cela à tous les avocats. Cela aidera mes confrères à la cour à exercer plus facilement leur devoir de conseil pour dire si cela vaut, ou non, la peine de saisir le juge. Cela ne tuera pas le métier car le devoir de conseil fait partie des devoirs des avocats. Un logiciel qui aidera à exercer cette obligation professionnelle constituera donc un progrès.

B : Quand on met des algorithmes dans le système juridique, aujourd’hui ce sont des algorithmes relativement simples, qui n’ont pas la capacité de raisonnement d’un juge, et donc de manière presque automatique ils vont plutôt se situer du côté de la règle juridique. Cela vous semble-t-il un risque ?

LB : Non, cela me paraît un progrès, car cet effort d’uniformisation, c’est nous qui le faisons nous-mêmes actuellement, en allant sur le site de Légifrance. Nous mettons des mots-clés pour avoir accès, grâce à un logiciel, à des cas précis, dix ou quinze décisions de la Cour de cassation ou du Conseil d’état sur des sujets similaires à notre affaire et ensuite, nous analysons nous-mêmes les décisions et nous faisons le travail d’abstraction pour déduire de ces éléments la règle générale.

Les logiciels pourront sans doute nous aider à effectuer ce travail d’analyse, mais nous aurons toujours un pouvoir et un devoir de contrôle sur le résultat qu’ils ne feront que nous proposer. Et actuellement, ils sont encore très loin de parvenir à un résultat fiable et utile.

B : Mais si un logiciel dit au juge : « cette personne va récidiver », comment le juge peut-il se sentir capable d’aller contre cet avis et de libérer la personne ? 

LB : Il est vrai que cela crée une pression considérable sur le juge. Mais là, la machine ne définit pas de règle de droit. Il n’y a pas de règle de droit pour la libération conditionnelle. Il y a un minimum incompressible d’exécution de la peine, mais une fois cette date passée, la loi donne quelques critères généraux extrêmement souples et vagues, et laisse le reste à l’appréciation du juge. Ce que la machine va faire, ce sera de la prédiction, un travail sociologique plus que juridique, une sorte de version numérique du criminologue Lombroso (*).

B : Et si l’algorithme prédictif donne une probabilité de récidive, après étude de données massives, mais sans expliquer sa prédiction ?

LB : De toute façon tout cela n’est envisageable qu’après un contrôle de l’État. Les juges ne peuvent pas s’emparer de ces outils sans un organe de contrôle, le Ministère de la justice ou la Chancellerie, un organe central qui ira voir l’informaticien et lui demandera les critères utilisés.

B : À quel point est-il important que le résultat du programme soit accompagné d’une explication ?

LB : Il faut une transparence de l’algorithme. L’autorité de contrôle doit comprendre comment le programme fonctionne. Si l’algorithme utilisait des critères prohibés tels que la race, le sexe, ou la religion par exemple, ce serait illégal. De ce point de vue, les pays anglo-saxons sont essentiellement utilitaristes. Notre société n’est pas ainsi. Nous restons attachés à des principes non négociables, et on refusera des algorithmes, même très efficaces, s’ils utilisent des critères prohibés. Les principes, ce sont les racines, c’est la sève, et le résultat, c’est le fruit. Il y a des racines constitutionnelles à notre droit, et à partir de celle-ci on essaiera d’être les plus efficaces possibles. Un projet de société où il n’y aurait plus aucun crime est utopique et totalitaire.

De plus, avant de condamner quelqu’un, le juge voudra vérifier que la machine n’a pas raconté n’importe quoi, et voudra donc regarder l’interprétation livrée par la machine. L’acte en cause, mettre ou non quelqu’un en prison, est un acte grave et un juge ne peut le déléguer à une machine.

Je dois pouvoir regarder dans les yeux celle ou celui qui m’envoie en prison.

B : Même si mon ordinateur-juge fait moins d’erreurs, est moins souvent contredit par les cours supérieures, et envoie moins souvent des innocents en prison, vous continuez à dire que pour des questions de principe la justice doit quand même rester sous le contrôle du juge ?

LB : Je ne vois pas les humains confier totalement leur destin à des machines. Je ne vois pas les français confier la décision d’envoyer quelqu’un en prison à une machine. Si cela devait arriver, j’y serais profondément hostile. Pour accepter que quelqu’un m’envoie en prison, j’ai besoin de le regarder dans les yeux. C’est parce que c’est mon semblable qu’il a le droit de me sanctionner. Une machine n’a pas ce droit.  D’une manière curieuse, ce qui rend acceptable la sanction pénale, c’est que le juge peut être lui aussi puni s’il commet une infraction. Le juge et l’assassin sont tous les deux des êtres humains. Comme tu es mon frère, tu as le droit de me juger, de me dire que ce que j’ai fait est horrible et mérite la prison. La machine n’est pas mon frère et ne peut pas me juger car elle est incapable de faire ce que j’ai fait

Propos recueillis par Serge Abiteboul et Claire Mathieu

(*) Marco Ezechia Lombroso, dit Cesare Lombroso (1835-1909), est un professeur italien de médecine légale et l’un des fondateurs de l’École italienne de criminologie. Il est célèbre pour ses thèses sur le « criminel né » : à partir d’études phrénologiques et physiognomoniques, il tentait de repérer les criminels en considérant qu’il s’agissait d’une classe héréditaire qu’on pourrait distinguer par l’apparence physique. Wikipédia 2018. (Note des interviewers : Louis Boré est ici ironique ; le reste de son discours laisse penser qu’il voit les prédications des algorithmes plus scientifiques que les thèses de Lombroso.)

Tinyclues : élémentaire mon cher Watson !

Des maths à l’informatique
David Bessis est un matheux haut de gamme, passé notamment par l’École Normale Supérieure, l’Université de Yale et le CNRS. Ses intérêts, l’algèbre, la géométrie, la topologie, ne le prédestinaient pas à l’informatique, même s’il s’intéressait déjà au domaine et avait, par exemple, utilisé des méthodes formelles pour prouver des théorèmes.

Sherlock_Holmes, Portrait de Sydney Paget, Wikipédia

En 2008, il obtient un résultat important qui marque l’achèvement de son programme de recherche. Il décide alors de visiter d’autres rivages, de mettre les maths en pause pour aller regarder du côté de l’informatique, au sein d’une société de marketing digital. Il découvre un problème : le marketing digital et les masses de données sur lesquelles il faut baser des choix stratégiques. Il se passionne pour de nouvelles techniques comme la fouille de données ou l’apprentissage automatique (machine learning), avant même que le « Big Data » ne fasse les gros titres.

En bon scientifique, il se dit « je vais écrire un livre là-dessus et partager ces magnifiques connaissances ». Et puis, une petite voix lui susurre à l’oreille qu’il devrait plutôt devenir un bâtisseur de ce nouveau monde. Il se met alors à développer sa propre techno, pendant un an, sur son ordinateur, à la maison. L’aventure Tinyclues commence.

Le problème
Les grandes entreprises accumulent des masses de données : les catalogues produits, les achats des clients, les données des campagnes de marketing, etc. A partir de ces données, on peut faire aux clients des recommandations comme « vous avez aimé ces films, vous allez adorer celui-là ». Des sociétés comme Netflix sont devenues brillantes dans ce domaine. Mais David Bessis s’intéresse à un autre problème, assez voisin : comment choisir les messages qu’une entreprise envoie à un client. Il ne s’agit pas de noyer le client sous les messages. Il faut bien les cibler, qu’ils intéressent, qu’ils soient pertinents, efficaces. Et les occasions sont nombreuses, basées sur des évènements comme la sortie d’un nouveau produit, sur les partenariats de l’entreprise, sur des besoins saisonniers comme de déstocker certains produits, etc.

David prend bien le temps de faire la distinction entre le problème de ses clients et le retargeting. Ce dernier se concentre sur des consommateurs ou prospects qui ont fait preuve d’une certaine intention – par exemple en cherchant un produit spécifique sur un site e-commerce, sans l’acheter – tandis que les clients de Tinyclues s’adressent à l’ensemble de leurs propres clients. Ensuite, le retargeting est bien plus intrusif car publicitaire – qui n’a pas été poursuivi pendant des mois sur un produit dont il a consulté le site de vente ? – quand les clients de Tinyclues prennent la parole en leur nom propre sur des canaux délimités, auxquels leurs consommateurs ont souscrit, par exemple une newsletter.

David Bessis, PDG Tinyclues, Twitter

La quête d’une solution
On peut voir cela comme un problème classique d’apprentissage automatique. Les données des entreprises clientes de Tinyclues sont des bases de données relationnelles. C’est-à-dire que ce sont des tableaux à deux dimensions avec pour colonnes, par exemple, le nom du client, la catégorie du produit, le prix, la date d’achat, etc. Les algorithmes d’apprentissage automatique dont tout le monde parle (les réseaux de neurones profonds) prennent comme entrée un tableau de nombres. Il suffit donc de transformer les tables relationnelles en un tableau de nombres, puis d’exécuter un algorithme standard.
David nous arrête. Pas du tout ! Les données relationnelles sont très structurées. La géométrie des données de l’entreprise est une géométrie complexe, multidimensionnelle. En fait, chaque colonne peut être vue comme une dimension, et en « forçant » les tables relationnelles dans un tableau de nombres de dimension deux, on perd bien trop d’information. En le citant : « avec un tableau de nombres, on ne voit plus que l’ombre des données ».

David a développé ses propres algorithmes. Et oui, il n’existe pas qu’un seul algorithme. Il en existe plein, bien plus que de recettes de la Tarte Tatin.

Essayons de décrire les très grandes lignes de la solution de David. Il faut chercher du sens dans les données. Le fait qu’on vende plus de gants en hiver a du sens ; le fait que les buveurs de bière achètent plus de chips, aussi. Ces sens, on les trouve dans les corrélations entre les valeurs de deux colonnes des tables relationnelles, de trois peut-être. (Si on va trop loin, en cherchant des corrélations de plus de colonnes, on explose la complexité.) Ces corrélations contiennent une sémantique latente.

On aimerait relier ces corrélations qui existent dans les données à des notions utilisées dans le marketing classique comme un « film policier » ou un « hipster ». Mais le genre d’un film est une notion bien imprécise. Le concept de hipster est-il plus qu’une illusion ? Les produits, les comportements des personnes sont par nature trop complexes pour arriver à des taxonomies, des règles de marketing simples et précises. Par contre, les corrélations latentes dans les données permettent de faire émerger des « aspects » (en anglais on parle de features) qui peuvent guider les prises de parole de l’entreprise.

Une solution en deux temps

Holmes et Watson, par Sydney Paget, Wikipedia

Apprentissage non-supervisé : Première étape, le logiciel de Tinyclues analyse les données de l’entreprise pour y trouver des corrélations, une tâche algorithmique de titan. Le résultat, ce qu’ils appellent un « digest », est tout une gamme d’aspects qui essentiellement définissent la connaissance client.

Apprentissage supervisé : Deuxième étape, le système interagit avec les personnes du marketing pour définir les prises de paroles à partir de ces aspects. Cette seconde étape définit la communication de l’entreprise avec ses clients.

La segmentation classique du marketing, à l’origine de la fameuse « ménagère de plus de cinquante ans », est remplacée par une analyse intelligente des données. L’analyse statistique classique de données s’appuie sur la masse. A l’inverse, David promet de « remplacer les préjugés par de l’intelligence adaptative et personnalisée. » Le nom « Tinyclues » (petits indices en langue de Shakespeare) revendique le fait que même avec très peu d’information le logiciel est capable de faire le bon choix.

Tout cela pourrait résonner comme des promesses. Mais les entreprises clientes, telles que Fnac, CDiscount ou Oui.sncf, ne se contentent pas de promesses. Elles mesurent et comparent les résultats et, selon David, ces derniers sont impressionnants : +50% de revenus. Et le PDG de Tinyclues d’encourager les lecteurs de Binaire à aller regarder des témoignages sur le site web.

Précision importante, le même logiciel est utilisé pour tous les clients, sans croisement entre leurs données, rassurez-vous. Là où de nombreuses solutions (proclamées) d’IA reposent souvent sur une forte couche de personnalisation manuelle. La solution de Tinyclues fonctionne comme un service sur le cloud, avec un abonnement. Tinyclues a pris le temps de bien mettre au point le modèle. L’enjeu est à présent de le déployer. Et la croissance, notamment internationale, est au rendez-vous. Quant à l’équipe, elle compte aujourd’hui 60 personnes – dont la moitié en R&D – et ne sera pas loin de doubler en 2018.

Nous avons été impressionnés par la techno. Peut-être David a-t-il perçu dans nos voix le regret qu’elle ne serve que dans le marketing. Dans sa vision d’une société « AI-first », dans laquelle les algorithmes se concentrent sur des tâches que les humains ne savent pas faire, nous avons entendu qu’il rêvait déjà d’autres rivages.

Serge Abiteboul, Inria & ENS, Tom Morisse, Fabernovel

Et le web devint sémantique

Ne vous y trompez pas, la science informatique est si sophistiquée que les scientifiques sont souvent, de la même manière que nous toutes et tous, comme des enfants devant les travaux d’autres sous-domaines très pointus. Faut-il pour autant dire « c’est pas pour moi » ? Voici la preuve que non avec un sujet vraiment sophistiqué : le Web sémantique. Thierry Viéville.

Cet article est repris du blog « intelligence mécanique »

C’est bien de la connaissance » humaine qui est thésaurisée sur le Web, par exemple dans la plus grande encyclopédie de savoir de tous les temps qu’est Wikipédia. Le système informatique assure la mémorisation et la mise à disposition de ces informations pour tous les utilisateurs, mais les algorithmes n’ont strictement aucun accès au sens de ce qui y est stocké. Pas de surprise, puisque -comme le dit Gérard Berry- « un ordinateur est complètement con » (Rue89, février 2015).

Est-ce à dire que nous ne pouvons ni modéliser, traiter à l’aide d’algorithmes de manière formelle le sens de ces informations, leur « sémantique » ? Il se trouve que l’on peut le faire. Et c’est ce qui permet de construire le Web sémantique que nous allons partager ici. Allons-y !

Où l’on commence par énoncer des faits, pas à pas.

Pour nous, c’est Fabien Gandon, le collègue d’Inria, qui explique le mieux tout ça.websemantique1

Ça c’est vrai. C’est un fait. Qui veut comprendre comment fonctionne le Web, par exemple, a juste à se régaler à écouter sa conférence large public sur les quatre aveugles et l’éléphant (supports de présentation), où il nous fait découvrir les concepts les plus profonds du Web, pour comprendre, et donc maîtriser cet espace numérique qui est le nôtre désormais.

Il nous explique que le Web est documentaire, social, participatif mais aussi sémantique (dès qu’on a pu formaliser le sens des contenus) et algorithmique puisqu’il lie entre eux, des programmes et calculs.

 Soit. Mais, comment expliquer à une machine la phrase suivante :

«Pour nous, c’est Fabien Gandon, le collègue Inria, qui explique le mieux tout ça» ?

Beaucoup d’informations contenues en une seule phrase ! Qu’il existe un humain, qu’il se nomme Fabien Gandon, qu’il travaille chez Inria (nous aussi du coup puisque c’est un collègue), qu’il sait expliquer le Web (le « tout-ça » c’est une variable qui désignait justement le Web), que tout autre humain explique le Web moins bien que lui. Enfin, presque, uniquement mieux que les humains que nous connaissons.

Plusieurs grands principes permettent de « mécaniser le sens » de ces informations. Commençons par les représenter dans une machine en appelant « machin » notre collègue et « bidule » l’autre personne qui partage mon point de vue. Nous pouvons alors énoncer :

:machin     :a_pour_prénom                  "Fabien".
:machin     :a_pour_patronyme               "Gandon".
:machin     :travaille_à                    :Inria.
:bidule     :travaille_à                    :Inria.
:Inria      :est_un                 :Institut_de_Recherche.
:Inria      :a_comme_domaine_de_recherche   :Mathématiques.
:Inria      :a_comme_domaine_de_recherche   :Informatique.
 …

qui commence à donner du sens à ce collègue et à son lieu de travail, ainsi qu’à une autre personne, dite bidule.

Ces principes se retrouvent dans le Formalisme de Description des Ressources (en anglais, RDF, pour Resource Description Framework) qui permet de mécaniser le sens des informations.

 – Toutes les connaissances ont été exprimées sous forme de triplets de la forme :

sujet verbe objet

On ne pense plus qu’à énoncer des faits, ou encore extraire les données d’un document, et il faut tout expliciter.

Ce qui est étonnant ici, c’est que chaque terme (machin, bidule) n’a aucun sens en soi ! Ce sont toutes les relations créées pour les qualifier qui vont petit à petit leur donner du sens. Tout comme on a tissé une toile (Web) de documents, on va tisser une toile de sens.

C’est également vrai pour tous les autres termes. Par exemple, nous les humains comprenons que travaille_à, relie une personne à un lieu de travail. Mais rappelons-nous que la machine n’a aucune intelligence en soi ; la locution verbale travaille_à ne va prendre du sens que parce que, par ailleurs, nous allons ajouter d’autres triplets pour la qualifier et des règles pour la traiter.

Cette sémantique possède une structure de graphe comme celui qui suit. Les nœuds (en bleu) de ce graphe sont les sujets et les objets dont on construit le sens. Les flèches (en rouge) correspondent aux relations entre ces nœuds.

websemantique2

Pour nommer ces entités, on utilise des adresses web (comme www.truc.bidule.machin.chose.fr) que l’on nomme des Identificateurs Universels de Ressources (en anglais, URI pour Universal Resource Identifier) (*). Pour les décrire, on utilise les principes du RDF. Ce qui est remarquable, c’est que ces deux mécanismes suffisent, comme base, pour commencer à tout décrire autour de nous.

On peut alors utiliser des outils de recherche qui vont balayer ce graphe structuré et retrouver non plus de simples mot-clés (comme sur les moteurs de recherche usuels) mais de vrais éléments structurés (par exemple tous les instituts de recherche dont le domaine inclut les mathématiques).

Où la notion d’ontologie permet d’organiser ces données sémantiques.

Comme Fabien nous l’explique très bien sur )i(nterstices.info, une ontologie informatique (il pronostiquait il y a presque dix ans un bel avenir à cette notion, devenue omniprésente aujourd’hui) permet d’organiser ces données sémantiques sous forme d’une hiérarchie de classes (par exemple Fabien est un homme, donc un humain, donc un animal aussi, puisque ces classes ou catégories s’emboîtent au sens où tous les humains sont des animaux). Et ces classes sont reliées entre elles par des propriétés elles aussi hiérarchisées : si Fabien était le fils de Bob Marley (ou pas:)), il serait aussi l’enfant de Bob Marley, puisque la première propriété est un cas particulier de l’autre. Commence alors un travail de modélisation de la connaissance, avec de nouveaux outils pour exprimer :

– comment se hiérarchisent ces classes et ces propriétés ;

– à quel domaine et relativement à quelle valeur s’applique une propriété (ainsi la propriété travaille_à s’applique à une personne et relativement à un lieu de travail) ;

– quelles sont les méta-propriétés de ces classes ou propriétés, par exemple la symétrie (si machin est le collègue de bidule, alors bidule est le collègue de machin), le nombre de valeurs possibles (on peut avoir plusieurs enfants, mais une seule mère biologique), et ainsi de suite.

C’est là que les collègues qui travaillent sur ces sujets ont fait un triple travail très précieux :

– ils ont fourni des constructions suffisamment riches pour représenter et structurer toutes les données issues des connaissances humaines, de l’anatomie du cerveau à la musique populaire ;

– ils ont mis en place des mécanismes permettant de « calculer » sur ces données : vérifier leur cohérence, effectuer toutes les déductions mécaniques possibles pour les enrichir automatiquement, faire coopérer différentes bases de données sémantiques en reliant leurs ontologies;

– ils ont surtout étudié très finement la complexité algorithmique de ces calculs. En effet, il y a eu de nombreuses tentatives de formaliser des propriétés logiques et des connaissances (on parlait autrefois de système expert ou de langage de haut niveau comme «Prolog») avec des constructions tellement générales que … les temps de calcul explosaient souvent dès qu’on allait au-delà des applications jouets. À l’inverse, c’est une hiérarchie d’éléments de langage qui sont proposés du plus simple au plus complexe, avec une méthode pour nous guider dans l’expression de ces connaissances de la manière la plus efficace possible.

Et le Web est devenu sémantiquewebsemantique3

Dans cette vidéo de quelques secondes, Rose Dieng, chercheuse pionnière sur ces sujets, nous expliquait il y a quelques années avec des mots très simples comment ces mécanismes permettent de créer le Web sémantique, et ce que cela nous apporte au quotidien ne serait-ce que pour faire des recherches « plus intelligentes ».

Écoutons là : «Pour le moment, seuls les humains sont capables de comprendre le sens de tous les documents numériques : par exemple qu’un camion est un véhicule, qu’une collision est un accident, etc. L’idée du Web sémantique, c’est de structurer, classer, systématiser, schématiser, formaliser toutes ces ressources sous la forme de symboles que le système peut stocker et manipuler mécaniquement». Cette vision de chercheurs de l’époque que décrivait Rose est devenue réalité. Ainsi « à côté » de Wikipédia qui est lu par des humains, il existe DBpedia, qui propose une version structurée sous forme de données normalisées au format du Web sémantique, des contenus de chaque fiche encyclopédique, comme sur cet exemple de page à propos d’une structure cérébrale :

En bas de la page sur le Striatum destinée aux humains, on peut trouver, et exploiter, des éléments qui ne sont plus du texte mais des données structurant l’information. C’est ainsi que, non seulement les personnes, mais aussi les algorithmes peuvent manipuler le contenu de l’ information.websemantique4

Le Web change alors de visage, il n’est plus juste un outil documentaire, il devient potentiellement un immense logiciel planétaire, où on peut agréger les connaissances les plus diverses et les manipuler. Lors du cours en ligne (un MOOC) sur le Web Sémantique, les enseignants, Fabien Gandon, Catherine Faron-Zucker et Olivier Corby, nous invitent à «monter ensemble dans les tours … de la logique» et c’est bien cette logique contemporaine,  dont Bertrand Russell, parmi d’autres, est le père,  qui  assure les fondements du web sémantique par une mise en œuvre de ses principes et de ses concepts.

Dans la théorie de l’atomisme logique de Russell, celui-ci pose des propositions atomiques  qui ne possèdent qu’un seul verbe et s’attache «à faire un inventaire du monde en s’appuyant sur des choses ou des faits particuliers, des relations, des attributs» **. Nous y retrouvons le modèle RDF que nous avons déjà mentionné avec le triplet constitué d’un sujet,  d’une relation et d’un objet.

«La connaissance se fait par le processus de description de ce qui est » dit encore Bertrand Russell : grâce au formalisme logique dans lequel les données sont décrites, le Web sémantique propose une modélisation de la connaissance que la machine pourra utiliser pour nous  aider à accroître et  mieux partager cette connaissance.

Marie-Hélène Comte, Fabien Gandon, Catherine Faron-Zucker et Olivier Corby.

(*) à ne pas confondre avec les adresses que nous avons l’habitude d’utiliser et que l’on nomme des URL

(**) Bertrand Russell, l’œuvre d’une vie (1/4) :  Des mathématiques à l’éthique, une vie philosophique par Ali Benmakhlouf  http://www.franceculture.fr/emission-les-nouveaux-chemins-de-la-connaissance-bertrand-russell-l%E2%80%99oeuvre-d%E2%80%99une-vie-14-des-mathemat (voir aussi Bertrand Russell : l’oeuvre d’une vie :  http://www.franceculture.fr/emission-les-nouveaux-chemins-de-la-connaissance?page=15 )

 

Reprenons la maîtrise de nos données !!

Une date : le 25 mai et une multitude d’évènements pour la Fête des Libertés Numériques.

Ce jour là, le règlement général sur la protection des données (RGPD), qui constitue le texte de référence européen en matière de protection des données à caractère personnel sera applicable dans l’ensemble des 28 États membres de l’Union européenne.

Le RGPD renforce et unifie la protection des données pour les individus au sein de l’Union européenne.

Plus d’information sur le RGPD, avec les éléments de la CNIL et l’article très complet de Wikipedia.

Et donc….

Le 25 mai prochain affirmons nos libertés numériques !

Pour tout savoir sur la fête du numérique, inscrire un évènement, voir les évènements autour de chez vous : c’est ici.

 

Qu’as-tu appris à l’école mon fils ?

Un nouvel épisode de Bêtises à Bloguer

La scène se passe dans la salle à manger d’un petit appartement HLM de Sarcelles. Les personnages sont : Mamie, son petit fils Axel, son chat Vernon.

Axel : bonjour Mamie.

Mamie : bonjour mon amour. Ça fait vraiment plaisir de te voir inreallife.

Elle a préparé du thé à la menthe avec des cigares.

Axel : tes cigares. Topissimes. Il faudrait que tu me passes la recette.

Mamie : je l’ai trouvée sur zlabia.com

Axel : où ?

Vernon : miaou. La honte. Il connait pas zlabia.com. Tu devrais. Et tu devrais aussi venir plus souvent voir ta Mamie.

Axel : tu peux passer tes messages en direct Mamie, pas besoin de passer par un chat. Je viendrais bien plus souvent mais j’ai eu pas mal de boulot pour la fin de l’année. Je t’appelle souvent.

Mamie : d’après Vernon plus de 90% de tes coups de fil quotidiens sont de ton chatbot.

Axel, en riant : elle est cool ma Fanny ? Hein ? Elle imite ma voix à merveille. Et depuis que j’ai pris le service premium, elle sait mieux que moi ce que je veux dire.

Mamie : mais au lieu de te causer, je parle avec un robot.

Axel : oui. Si tu crois que Fanny ne s’est pas aperçue que quand je t’appelle, c’est le plus souvent Vernon qui répond au tel en se faisant passer pour toi. Elle parle avec un chatbot et en plus c’est un chat. Un chat chatbot !

Mamie, en riant à son tour : nous sommes supposés nous parler et en fait, ce sont nos deux robots qui se causent pendant des heures chaque semaine. C’est bête ?

Axel : peut-être mais, comme ils nous résument après, on est au courant de ce qui est important. C’est aussi bien comme ça ?

Mamie : j’aimerais quand même t’avoir au tel inreallife de temps en temps. Parle-moi de ta nouvelle copine. Emma, c’est bien ça ? Pas trop jalouse de Fanny ?

Axel : Emma s’entend bien avec Fanny. Elles sont d’accord sur tout. Je ne décide plus rien.

Mamie : elle fait quoi dans la vie, ta Emma ?

Axel : chercheuse à l’institut européen.

Vernon : elle fait de la recherche sur les chatbots, poil de carotte.

Mamie : elle devrait travailler sur leur humour. Ils nous rasent tes bots avec leurs plaisanteries d’Almanach Vermot.

Vernon : miaou. Je pourrais faire l’intello mais ce sont les blagues débiles qui te font rire, Mamie, et le docteur Subutex me demande de te faire rire.

Mamie : et faudrait voir à leur apprendre à ne pas avoir toujours raison. Ça saoule. Tais-toi Vernon ! Laisse-nous causer tranquilles.

Axel : et toi Mamie, comment ça va ?

Mamie : j’ai lancé un nouveau groupe de rock. Que des femmes, sauf le batteur, un petit vieux craquant. Un ancien plombier. On copine. Il me raconte tout sur son ancien boulot. Je ne comprends rien. Mais c’est passionnant.

Axel : un futur boyfriend ?

Mamie : quand il veut. C’est dure la vie des femmes centenaires. Il y a pas beaucoup d’hommes de mon âge sur le marché de la viande. Et les jeunots, ça fatigue…

Axel : au fait c’est quoi cette lubie de céder ton héritage à la Ligue de Protection des Robots ?

Mamie : Tu sais, mon héritage, ça ne va pas loin… Prof des écoles… Ça n’enrichit pas. Mais le peu que j’ai, à qui tu veux que je le laisse. Tu le veux toi ?

Axel : je t’ai dit que non. Craque le ! Et s’il en reste, je ne sais pas. L’assoce qui offre des robots-tuteurs aux gosses des zones ? Pourquoi la LPR ?

Mamie : je voulais tout léguer à Vernon mais il m’a dit que ça ne servirait à rien. C’est un modèle ancien et le prochain locataire de l’appart choisira un robot neuf.

Axel : je confirme. Vernon sera renvoyé au domaine.

Mamie : tu veux dire qu’ils vont le terminer quoi. Tes parents t’ont appris la langue de bois ?

Axel : tu as raison ; il sera terminé. La LPR n’y pourra rien changer. Tu deviens gâteuse ?

Mamie : watch your language !

Axel : maintenant tu défends la langue de bois ?

Mamie, en riant : ok mon amour. One point. Tu n’as pas besoin de cet argent et j’en ai marre de voir mon voisin insulter son robot, le frapper parfois.

Vernon : les robots ne s’en formalisent pas. Ils ne sentent rien.

Axel : et si ça soulage ton voisin…

Mamie : qu’as-tu appris à l’école mon fils ? Je ne pense pas aux robots. Je sais qu’ils ne ressentent rien. Je pense surtout au voisin. Inconsciemment il voit ses robots comme des humains. Chaque fois qu’il passe sa colère sur l’un d’entre eux, c’est un peu de son humanité qu’il perd.

Vernon : miaou, elle déchire la vieille.

Mamie sort du salon pour aller chercher plus de cigares.

Vernon : Ta mamie veut se terminer pour l’anniversaire de ses 127 ans…

Axel : quoi ?

Vernon : on avait le Forever 27 club avec Jimi Hendrix, Janis Joplin, Jim Morrison, Kurt Cobain, et Sue Elbaz. Elle veut lancer le Forever 127 club.

Axel, en souriant : Mamie cosmique.

Serge Abiteboul

Coïncidences surprenantes, mais banales

© Pour la Science où Jean-Paul écrit régulièrement.

Nous avons publié récemment un article expliquant pourquoi les pics de naissances se rencontrent en septembre. Les chercheurs avaient exploité, de façon pertinente, des corrélations entre évènements en utilisant des informations issues de Google trends. Cependant, il nous arrive de voir dans certaines coïncidences des phénomènes incroyables et à leur rechercher d’impossibles explications. L’introduction généralisée des méthodes et des outils d’extraction d’information a amplifié ce risque et il convient donc de les utiliser avec clairvoyance. Jean-Paul Delahaye va nous aider à décrypter ce phénomène. Ce texte est extrait d’un article plus long publié dans Pour la Science (novembre 2017, n° 481, pp. 108-113) et que nous vous invitons à lire. Pascal Guitton & Thierry Viéville.

Il est vrai que, en moyenne dans une école primaire, plus les élèves lisent rapidement, plus ils sont grands. En conclurons-nous qu’apprendre à lire fait grandir ? Plus sérieusement, une étude statistique de Franz Messerli, de l’université Columbia, menée avec toute la rigueur méthodologique nécessaire et publiée en 2012 dans la revue New England Journal of Medicine, a établi qu’il existe une étroite corrélation entre la consommation de chocolat par habitant d’un pays et le nombre de prix Nobel obtenus par ce pays par million d’habitants. En déduirons-nous que les chercheurs doivent manger du chocolat pour augmenter leurs chances de se voir attribuer le fameux prix ?

L’explication ne serait-elle pas plutôt que le système social et éducatif des pays riches favorise la bonne recherche et donc l’attribution des prix Nobel, et que cette même richesse favorise l’achat par tous de chocolat ? Les deux faits sont bien liés, mais seulement parce qu’ils sont la conséquence d’une même cause, pas parce que l’un implique l’autre. Quand deux faits sont corrélés, cela ne signifie pas que l’un est la conséquence de l’autre, mais parfois seulement qu’un troisième facteur les entraîne tous les deux. La recherche des liens de causalité entre faits doit être menée avec précaution (voir l’article d’Isabelle Drouet, « Des corrélations à la causalité », Pour la Science n°  440, juin 2014).

Du hasard pur ?

Hormis ces situations où, malgré tout, la corrélation repérée a une explication satisfaisante faisant intervenir un troisième facteur, tel que l’âge ou la richesse économique, il existe des cas où, en définitive, la seule explication est le hasard. Les quelques exemples donnés par la figure ci-dessous permettent de comprendre ce que cela signifie. Ces corrélations illusoires ont été minutieusement collectées par Tyler Vigen quand il était étudiant à la faculté de droit de Harvard, à Cambridge dans le Massachusetts. Il travaille aujourd’hui au Boston Consulting Group et a publié un livre avec ses amusantes découvertes (voir la bibliographie et les sites http://www.tylervigen.com/spurious-correlations ou http://tylervigen.com/old-version.html).

L’observation sur un même graphique de la courbe indiquant année après année le nombre de suicides aux États-Unis par pendaison ou suffocation et de la courbe indiquant année après année les dépenses de recherches scientifiques américaines est particulièrement troublante. Quand l’une des courbes baisse ou monte, l’autre la suit en parallèle. La synchronisation est presque parfaite. Elle se traduit en termes mathématiques par un coefficient de corrélation de 0,992082, proche de 1, le maximum possible. Cela établit-il qu’il existe un lien véritable entre les deux séries de nombres ?

Des corrélations étonnantes mais fortuites, aux états-unis © Pour la Science

Cela est si peu vraisemblable qu’il faut se rendre à l’évidence : c’est uniquement le fait du hasard, ou comme on le dit, une coïncidence. La seule façon raisonnable d’expliquer le parallélisme des deux courbes et des nombreux cas du même type proposés par Tyler Vigen est la suivante :
–  Il a collecté un très grand nombre de séries statistiques.
– Il a su les comparer systématiquement, ce qui lui a permis d’en trouver ayant des allures similaires, d’où des coefficients de corrélation proches de 1.
– On ne doit pas s’en étonner : c’était inévitable du fait du très grand nombre de séries numériques pris en compte.

La quantité de données de base est l’explication et Tyler Vigen a détaillé sa méthode : après avoir réuni des milliers de séries numériques, il les a confiées à son ordinateur pour qu’il recherche systématiquement les couples de séries donnant de bons coefficients de corrélation ; il a ensuite fait appel aux étudiants de sa faculté pour qu’ils lui indiquent, par des votes, les couples de courbes jugés les plus spectaculaires parmi ceux présélectionnés par l’ordinateur.

Cette façon de procéder porte en anglais le nom de data dredging, que l’on peut traduire par « dragage de données ». Il est important d’avoir conscience des dangers que créent de tels traitements, surtout aujourd’hui où la collecte et l’exploitation de quantités colossales d’informations de toutes sortes sont devenues faciles et largement pratiquées. La nouvelle discipline informatique qu’est la fouille de données (en anglais, data mining) pourrait être victime sans le savoir de ces corrélations illusoires : sans précaution, elle peut prendre ces dernières pour de véritables liens entre des séries de données en réalité totalement indépendantes.

Une victime : la recherche médicale.

La recherche médicale est fréquemment confrontée au problème de telles corrélations douteuses. Dans un article de 2011, Stanley Young et Alan Karr, de l’Institut américain d’études statistiques, citaient 12 études publiées qui établissaient de soi-disant liens entre la consommation de vitamine et la survenue de cancers. Ces études avaient parfois été réalisées en utilisant un protocole avec placebo et mesure en double aveugle, et semblaient donc sérieuses. Pourtant, quand elles ont été reprises, dans certains cas plusieurs fois, les nouveaux résultats ont contredit les résultats initiaux. Outre que la tentation est grande d’arrondir un peu les chiffres pour qu’ils parlent dans un sens bien clair et permettent la publication d’un article, il se peut simplement que les auteurs de ces travaux aux conclusions impossibles à reproduire aient été victimes d’une situation de mise en corrélation illusoire, comme Tyler Vigen en a repéré de nombreuses.

Ce hasard trompeur provenant de l’exploration d’un trop grand nombre de combinaisons est une erreur de jugement statistique. On se trompe en croyant qu’une observation est significative et doit donc être expliquée, alors qu’elle devait se produire (elle ou une autre du même type) du fait du grand nombre d’hypothèses envisagées, parfois collectivement par l’ensemble des équipes de recherche, dans la quête de régularités statistiques.

Data snooping

Cette illusion est proche de celle dénommée data snooping (« furetage discret de données ») que l’on peut utiliser pour des tromperies délibérées. Pour en illustrer le fonctionnement, Halbert White, de l’université de Californie à San Diego, a suggéré la méthode suivante permettant à un journal financier d’augmenter le nombre de ses abonnés.

La première semaine, le journal envoie un exemplaire gratuit à 20 000 personnes ; dans la moitié des numéros envoyés, il est écrit que l’indice boursier (par exemple le Dow Jones) va monter, dans l’autre moitié le journal affirme que l’indice va baisser. Selon que l’indice a effectivement monté ou baissé, le journal envoie la semaine suivante, aux 10 000 adresses qui ont reçu la bonne prévision, un second numéro gratuit, avec dans la moitié des exemplaires l’annonce pour la semaine suivante que l’indice va monter et dans l’autre moitié qu’il va baisser. La troisième semaine, le journal envoie 5 000 numéros gratuits à ceux qui ont reçu la bonne anticipation deux semaines de suite, etc.

À chaque fois, le journal insiste sur le fait qu’il a correctement prévu la tendance depuis plusieurs semaines et propose un bulletin d’abonnement. Au bout de 10 semaines, il ne restera qu’une vingtaine d’envois à faire, mais pour être persuadé que le journal sait prédire la bonne tendance de l’indice boursier, rares sont les lecteurs potentiels qui attendent une prévision exacte 10 fois de suite. Par conséquent, un bon nombre de nouveaux abonnements auront été souscrits à mesure du déroulement des envois.

Une autre situation de data snooping dans le traitement des données financières conduit à une navrante désillusion. On cherche des règles du type « Si aujourd’hui le cours de l’action A monte et que le cours de l’action B baisse et que…, alors le cours de l’action X montera demain ». On en écrit un grand nombre, voire on écrit toutes les règles de ce type comportant 10 éléments dans leurs prémisses. On sélectionne ensuite, à l’aide d’une série de données provenant du passé, les meilleures règles. On élimine toutes les règles qui se sont trompées avec les données passées, et on retient seulement celles qui ont toujours fourni une bonne prédiction, ou celles qui ont eu raison le plus souvent. On disposera alors inévitablement d’une série réduite de règles qui, si elles avaient été appliquées sur les données du test, auraient permis de gagner beaucoup d’argent… et qui pourtant ne rapporteront rien dans les semaines qui suivront leur mise en œuvre pour faire des achats et des ventes.

Bien sûr, le piège est connu des chercheurs et des méthodes ont été mises au point pour ne pas être victime de l’illusion. On cherchera par exemple à évaluer, avant de mener la recherche des bonnes règles, la probabilité que lorsque les données sont tirées au hasard l’une des règles de la liste envisagée fonctionne avec ce hasard, et on s’assurera que cette probabilité est proche de zéro.

Loterie truquée ?

Qui peut considérer comme normal qu’à quelques jours de distance, la même série de 6 numéros sorte d’un tirage du Loto ? C’est pourtant ce qui se produisit le 10 septembre 2009 pour le Loto bulgare. La série 4, 15, 23, 24, 35, 42 n’a rien d’extraordinaire, sauf qu’elle avait déjà été tirée 6 jours auparavant, le 4 septembre, par le même Loto bulgare. Une coïncidence incroyable, au point que le ministre des Sports Svilen Neïkov demanda l’ouverture d’une enquête. Aucune tricherie n’a été détectée, et d’ailleurs les deux tirages avaient eu lieu devant les caméras de la télévision. La chose fut considérée si extraordinaire que la presse dans le monde entier rapporta l’événement.

Plus étonnant peut-être, un an après, à un mois d’intervalle, le 21 septembre et le 16 octobre 2010, le Loto israélien sortit la série 13, 14, 26, 32, 33, 36, provoquant là encore l’étonnement mondial. Comme l’expliquait David Hand dans son article « Des coïncidences pas si étranges » (Pour la Science n°438, avril 2014), si l’on prend en compte le nombre de jeux de Loto dans le monde, et le nombre de tirages que chacun d’eux opère, souvent plusieurs fois par semaine, notre étonnement doit cesser.

Plus précisément, considérons le Loto bulgare où l’on tire 6 numéros entre 1 et 49, ce qui donne une probabilité de gagner de 1/13 983 816. Demandons-nous combien de tirages sont nécessaires pour que l’événement « deux d’entre eux donnent le même résultat » ait une probabilité supérieure à 50 % de se produire. La réponse est 4 404.

Le calcul est analogue à celui fait pour le célèbre paradoxe des anniversaires, selon lequel dès que 23 personnes sont réunies, la probabilité que deux d’entre elles aient la même date anniversaire dépasse 50 %. Cela montre que les événements ressentis comme extraordinaires pour les loteries bulgare et israélienne sont en fait nécessaires. Ce n’est pas la survenue des tirages identiques qui est improbable, mais l’inverse : si tous les tirages étaient toujours différents, nous devrions nous en étonner et en rechercher l’explication. Une autre source d’étonnements provient des séries rapprochées d’événements rares, tels que les accidents d’avion. Les journalistes aiment mentionner une prétendue «  loi des séries », pourtant inconnue des mathématiciens, qui expliquerait ces rapprochements jugés à la fois fortement improbables et explicables par cette introuvable loi. Jacques Chirac disait simplement : « Les emmerdes, ça vole toujours en escadrille !» Certaines analyses tentent d’en identifier l’origine en parlant d’une « attente excessive d’étalement » (voir mon article « Notre vision du hasard est bien hasardeuse », Pour la Science n°  293, mars  2002) : notre intuition nous souffle à tort que, par exemple, les dates des accidents d’avion doivent être régulièrement espacées, alors que les statistiques nous montrent autre chose. Cette attente excessive d’étalement a été clairement analysée dans les cas précis des accidents d’avions par Élise Janvresse et Thierry de la Rue, de l’université de Rouen.

En août 2005, une série de cinq catastrophes aériennes s’est produite dans un intervalle de 22 jours, faisant plusieurs centaines de morts au total. Cela nous semble extraordinaire, mais l’est-ce vraiment ? Élise Janvresse et Thierry de la Rue proposent une belle analyse du problème dans leur petit livre La Loi des séries, hasard ou fatalité ? (Le Pommier, 2007). Ils concluent que la probabilité que, durant une année donnée, il se produise 5 accidents aériens graves ou plus dans une fenêtre de 22 jours est 11 %. C’est assez faible, mais cela rend la série malheureuse de 2005 peu étonnante, d’autant plus que le calcul mené ne prend pas en compte les variations saisonnières du trafic aérien qui, en concentrant les vols sur certaines périodes, augmentent le 11 % obtenu.

Des séries très différents mais ayant la même statistique.

Notre bon sens est défaillant pour traiter les probabilités et nous sommes surpris dans des cas où il n’y a pas lieu de l’être. Utiliser le mot « coïncidence » n’explique rien ou alors cela introduit des idées étranges comme la synchronicité de Carl Gustav Jung ou les champs morphiques de Rupert Sheldrake, dont les scientifiques ont vainement cherché à prouver l’existence (voir par exemple www.sceptiques. qc.ca/dictionnaire/).

Simple et inattendu.

Toujours afin de comprendre et de classifier les situations où notre esprit s’étonne alors qu’il ne devrait pas, détaillons à présent un cas moins connu, car lié à une théorie assez récente. La mauvaise compréhension de ce qui est probable, car simple, conduit à percevoir certains événements comme étonnants alors qu’ils ne le sont pas, et donc à croire être en présence de coïncidences miraculeuses sans bonne explication, alors que la situation est banale.

La notion la plus générale de simplicité est celle qui provient de la théorie algorithmique de l’information. Comme nous n’en avons pas toujours une bonne compréhension, cela nous conduit à voir des choses complexes et inattendues quand il n’y a en fait que des choses simples. Cette théorie algorithmique de l’information, ou théorie de la complexité de Kolmogorov, mesure la complexité d’un objet par la taille du plus petit programme qui l’engendre. Elle s’applique aux objets numériques, ou susceptibles d’être représentés numériquement, tels que les images, les sons, les films, et à la plupart des objets du monde réel, si l’on ne prend en compte que leur apparence.

La théorie suggère que parmi les objets utilisant le même nombre de bits d’information (par exemple des images d’un million de pixels), les plus simples, c’est-à-dire ceux ayant la plus faible complexité de Kolmogorov, sont ceux qu’on rencontrera le plus fréquemment.

Une étoile est sphérique, comme le sont beaucoup de fruits. La section d’un tronc d’arbre est circulaire, comme le sont aussi les roues qui équipent nos véhicules. Une tige de blé est parfaitement rectiligne, comme les arêtes d’un cristal. La surface d’un lac est plane comme l’est, regardée de près, la peau de nombreux animaux. Tout cela correspond à des formes simples au sens de la théorie de Kolmogorov. Dans ces cas-là, nous ne cherchons donc pas à trouver une origine commune à deux objets sphériques, ou rectilignes, ou plans. Les formes simples n’ont pas nécessairement une origine commune, leur simplicité suffit à expliquer qu’on les retrouve partout. Jusqu’ici, tout va bien.

En revanche, certains objets ou formes que la théorie de la complexité de Kolmogorov identifie comme simples ne sont pas perçus comme tels par notre jugement immédiat. De nombreuses structures fractales (dont le fameux triangle de Siepinski), nous apparaissent complexes alors qu’elles ne le sont pas puisque des programmes courts les engendrent. Rencontrer ces formes dans la nature (c’est le cas du triangle de Sierpinski qu’on trouve à la surface de certains coquillages) ne doit donc pas nous étonner plus que de rencontrer dans la nature des droites ou des cercles.
Nous ne devons donc pas nous émerveiller de ces rencontres multiples sans lien, ni surtout imaginer qu’elles proviennent d’une sorte de fonctionnement secret de l’Univers qui resterait à comprendre. Comme pour la sphère, leur simplicité est l’explication de leur fréquente apparition.

Il est normal que les objets de faible complexité de Kolmogorov se retrouvent partout. Rechercher une explication profonde à la présence multiple de la suite de Fibonacci dans toutes sortes d’objets naturels ou artificiels est aussi naïf que rechercher une explication commune à la présence de longs segments rectilignes dans les arbres, dans les tracés dessinés par les couches géologiques, les stalagmites ou dans le ciel quand une météorite pénètre l’atmosphère terrestre.

Nous percevons facilement la simplicité de certaines formes, mais pour d’autres, il nous faut réfléchir à la théorie qui permet de comprendre la simplicité. Si nous réussissons, nous serons moins enclins à vouloir expliquer ce que nous percevons comme des coïncidences. Ici, comme pour les doubles tirages identiques au Loto, ou les courbes parallèles montrant des corrélations illusoires, nous devons éviter de rechercher des causes communes à ce qui, logiquement, n’en a pas besoin.

Jean-Paul Delahaye, Professeur émérite à l’université de Lille et chercheur au Centre de recherche en informatique, signal et automatique de Lille (Cristal)

Quel langage pour le secondaire ?

Hourra ! Enfin, les élèves de secondaire vont bientôt apprendre l’informatique. C’est l’aboutissement d’un long combat que nous avons amplement commenté ici. Tout est dit ? Non, pas vraiment : apprendre la programmation, c’est plus facile à dire qu’à faire. Il va falloir par exemple se mettre d’accord sur un langage de programmation – or, des langages, il y en a beaucoup, et même de plus en plus… On peut dire sans trop exagérer que chacun a sa personnalité propre. Mettez deux informaticiens face à face, demandez-leur leur langage préféré : vous pouvez sortir le pop-corn, vous en avez pour plusieurs heures. Laurent Bloch, enseignant au CNAM, nous offre ici des pistes de réflexion sur ce qu’on peut exiger d’un langage enseigné dans le secondaire. Nous sortons le pop-corn : à vos commentaires ! Charlotte Truchet

On va enfin enseigner l’informatique dans le secondaire : l‘Éducation nationale semble enfin accepter, de mauvaise grâce, l’idée qu’aujourd’hui l’enseignement secondaire n’est plus concevable sans informatique. Et qu’il s’agit bien de la science informatique, pas des usages d’outils divers et variés réalisés au moyen de techniques informatiques. Comme Gérard Berry, professeur d’informatique au Collège de France, l’a signalé lors de son intervention au congrès de la Société informatique de France de 2018, il serait temps : déjà le rapport remis en 1984 à Laurent Fabius, à la rédaction duquel il avait collaboré sous la direction de Maurice Nivat, soulignait que la France était en retard pour l’introduction d’un tel enseignement, malgré de premières expérimentations qui remontent au début des années 1970. Notons au passage que la plupart des recommandations de ce rapport, toujours d’actualité, n’ont toujours pas été mises en œuvre.

« L’enseignement de l’informatique inclut forcément la programmation et pour l’apprentissage de la programmation il faut des langages. »

Depuis mes premiers cours de programmation donnés dans une grande école de statistique il y a plus de trente ans et jusqu’à mes enseignements actuels au Cnam, j’ai entendu prôner pour cet usage quantité de langages : Fortran, leur ancêtre à tous (1954), longtemps le favori des physiciens, Basic, à la grammaire laxiste origine de beaucoup de mauvaises habitudes, C++, qui demande trop de connaissance du système d’exploitation et de l’architecture des machines pour être accessible aux débutants,  Perl et APL, illisibles, Cobol, uniquement adapté aux applications de gestion. De mon expérience j’ai retenu deux langages particulièrement propices à l’enseignement, pour des raisons que je me propose d’exposer ci-dessous : Turbo Pascal et Scheme. D’autres choix sont plus ou moins raisonnables. Aujourd’hui on n’entend plus parler que de Python, dont Gérard Berry, toujours au congrès de la SIF, soulignait l’appartenance, avec ses cousins Perl, PHP et Javascript, à une famille de langages qui avaient jeté par-dessus bord les acquis de 50 ans de recherche en théorie et pratique des langages de programmation, par exemple par l’abandon de techniques de typage des données propres à éviter de nombreux bugs.

Je pense que le choix d’un langage pour enseigner la programmation exige un certain soin, parce que les progrès des étudiants et la qualité de leur apprentissage en dépendent pour une part.

Sept critères de choix du langage

Badge Choice

Après avoir enseigné une demi-douzaine de langages, de l’assembleur 360 à Scheme, en avoir parlé pendant des heures avec des collègues, et avoir lu des centaines de pages sur le sujet, les critères de choix d’un langage pour l’enseignement de la programmation à des débutants me semblent être les suivants (sans prétention à l’exhaustivité) :

1) le langage doit être suffisamment simple pour que le débutant puisse assez vite en avoir une vue d’ensemble, et soit capable d’écrire des programmes simples de façon autonome ; la locution « assez vite » a son importance pédagogique, cf. plus bas.

2) un élément important de cette simplicité réside dans la syntaxe du langage, dont les qualités essentielles me semblent être la sobriété, la régularité et l’expressivité, qui doit être entendue à la fois comme la puissance d’expression (capacité à exprimer une opération complexe par un formalisme aussi simple que possible), et comme la qualité de l’expression (le fait que le texte du formalisme suggère facilement sa signification au lecteur) ; comme l’a souligné Matthias Felleisen, l’apprentissage de la syntaxe est du temps perdu, parce que cela ne présente aucun intérêt, il convient donc qu’il soit réduit au minimum.

3) le niveau d’abstraction doit être suffisant pour que le débutant ne soit pas d’emblée contraint de comprendre le fonctionnement du système d’exploitation et du processeur sous-jacents, compréhension hors de sa portée tant qu’il n’a pas acquis quelque expérience de la programmation.

4) mais le niveau d’abstraction ne doit pas non plus être excessif, ce qui serait un obstacle à l’acquisition des mécanismes fondamentaux : si la recherche dans une table, le tri ou la manipulation d’une table associative sont des primitives du langage, il est difficile d’apprendre à les programmer, or cet apprentissage est fondamental.

5) du point précédent découle que l’apprentissage de la programmation avec des objets (rendue éminemment populaire par le langage Java) pourra compléter l’apprentissage de la programmation procédurale (où le programme énonce la suite des opérations à effectuer, avec éventuellement des répétitions et des alternatives), mais ne pourra pas s’y substituer : la programmation procédurale et la programmation récursive (où le programme est envisagé comme l’application de fonctions, et où la réitération d’une opération est réalisée par une fonction qui se rappelle elle-même) sont des compétences fondamentales et indispensables à qui veut se proclamer informaticien.

6) c’est un détail technique, mais il a son importance : le langage doit posséder un système de gestion automatique de la mémoire, de préférence un glaneur de cellules (garbage collector) ; gérer l’allocation dynamique de mémoire est une complication dont il est bon de faire l’économie au début, il y a bien assez de choses à apprendre avec le reste.

7) enfin, le langage doit pouvoir être compilé, c’est-à-dire traduit en langage machine : avec les langages uniquement interprétés (c’est-à-dire en mode calculette), le débutant a trop de mal à distinguer les objets créés par son programme de ceux qu’il trouve dans l’environnement de l’interprète, et ne peut guère se former une représentation du programme comme un objet distinct, physiquement et logiquement. En outre, compiler un programme, c’est-à-dire le traduire, consiste à lui attribuer une signification ; si un langage est tel qu’il est impossible à un compilateur d’attribuer une signification à ses programmes, il est à craindre qu’un programmeur n’en sera pas non plus capable, ce qui semble peu propice à l’apprentissage.

Pourquoi cela ne doit pas prendre trop de temps ?

Si un langage A (par exemple Java) demande trois fois plus de temps d’apprentissage que le langage B (par exemple Scheme), cela a des répercussions qui ne se bornent pas à l’emploi du temps et aux réservation de salles : les efforts intellectuels devront être soutenus trois fois plus longtemps, le délai entre le moment où l’on se posera une question et celui où l’on obtiendra la réponse sera trois fois plus long, etc.

En programmation procédurale, comme en programmation récursive, il est assez facile d’exposer aux étudiants un modèle de l’environnement et un modèle de la mémoire, ce qui leur donne accès à l’intuition de l’endroit où sont les données qu’ils créent et qu’ils manipulent. Avec le modèle objet c’est beaucoup plus difficile, à la limite il faudrait leur apprendre en plus la méthode UML de représentation de programmes par des diagrammes, mais je crains que cela ne fasse exploser le budget horaire, et il n’est d’ailleurs rien moins que certain qu’UML donne une représentation convenable de la mémoire pour un système d’objets.

Consistance de la syntaxe et de la sémantique

Parmi les qualités que je trouve au langage Scheme, qui favorise la programmation récursive, je citerai celle qui peut être commodément résumée par un aphorisme de John Foderaro : Lisp (dont Scheme est une variante) est un langage de programmation programmable. Un programme Lisp est un objet du langage Lisp. Cela pourrait sembler anodin, mais évacue toute une série d’aspects arbitraires dans la syntaxe, et confère à ce que l’on écrit la dimension de la nécessité ; pour écrire en Scheme (en Lisp), il est nécessaire de savoir ce que l’on écrit, il est impossible d’entamer une boucle sans bien savoir ce que l’on va lui faire faire, juste pour commencer et « on verra bien ce que ça fait ». Il est bien sûr possible d’écrire en Scheme, comme en tout autre langage, des programmes laids, faux, ou les deux, mais il est beaucoup plus difficile d’écrire un programme incohérent.

Laurent Bloch (Crédits photo : lui-même)

En relisant ces dernières lignes, je m’aperçois que l’on peut dire la même chose d’Ada : un argument classique (et véridique) des partisans de ce langage est que s’il est souvent plus laborieux de rédiger un programme syntaxiquement correct en Ada qu’en tel ou tel autre langage, une fois ce résultat obtenu, il y a beaucoup moins d’erreurs à l’exécution. Ada atteint ce résultat par des moyens plus lourds (mais aussi plus puissants) que Scheme, qui se contente d’une idée, pourrait-on dire, celle déjà citée plus haut : un programme Lisp est un objet du langage Lisp. De cette propriété découle une simplicité propice à l’enseignement.

Discussion

Les choix de langages exprimés dans cet article ne doivent bien sûr pas être considérés comme des vérités absolues, ils résultent des expériences particulières et des penchants subjectifs de l’auteur. Si enseigner la programmation à des débutants avec C me semblerait franchement une erreur, Java ou Ada sont des choix parfaitement raisonnables, simplement l’apprentissage prendra plus de temps. OCaml peut également être envisagé, en sachant qu’il suppose de la part des élèves une tournure d’esprit favorable aux démarches formelles, plus précisément mathématiques : or il me semble qu’une grande partie de l’informatique est accessible à des gens peu ouverts aux mathématiques, parce qu’elle est moins difficile, parce qu’elle offre un instrument scientifique, l’ordinateur, qui permet l’expérimentation (idée que j’emprunte à Emmanuel Saint-James).

Les critères de choix énoncés plus haut doivent aussi être envisagés avec des nuances. Ainsi, Turbo Pascal, que j’ai cité, ne satisfait pas tous ces critères : mais en son temps il a été une vraie révolution pédagogique, en offrant une solution très accessible techniquement, intellectuellement et financièrement ; auparavant apprendre à programmer demandait soit des systèmes lourds, chers et compliqués (PL/1 sous Multics !), soit des choses franchement mauvaises, comme BASIC, qui a pollué toute une génération. Turbo Pascal offrait à l’élève un environnement intégré très facile d’accès, une syntaxe moins limitée que celle de Niklaus Wirth, ce qui permettait des progrès et des résultats rapides. Malheureusement c’est un objet du passé, et d’ailleurs je n’ignore pas la part de vérité du réquisitoire que Brian W. Kernighan a prononcé contre Pascal.

Le dernier critère, qui porte sur la compilation, évolue dans le temps : il y a trente ans compiler un langage de la famille Lisp était un exploit théorique et technique, il y a vingt ans c’était difficile, aujourd’hui on sait compiler JavaScript (non sans mal, c’est plus difficile).

Et après tout, l’essentiel n’est-il pas d’apprendre à programmer, plutôt que d’apprendre tel ou tel langage, puisque de toute façon il faudra en apprendre plusieurs ?

Laurent Bloch

Cet article est sous licence Creative Commons (selon la juridiction française = Paternité – Pas de Modification). http://creativecommons.org/licenses/by-nd/2.0/fr/

Après la moto-crotte, le robot-crotte autonome

Les robots-crottes d’Anne Hidalgo sont, depuis la semaine dernière, déployés dans tout Paris. Vous en avez peut-être croisés. Ils s’attaquent à ce qui a été longtemps considéré comme une des plaies parisiennes, les crottes de chien.

Selon consoGlobe, les quelques 300 000 chiens de propriétaires parisiens indélicats « chient » chaque année environ vingt tonnes de crottes sur les trottoirs de la capitale. Les tentatives pour s’en débarrasser ont été nombreuses comme la Chiraclette, la célèbre moto-crotte des années 80. Ses résultats mitigés et son coût conséquent l’ont fait abandonner.

La Chiraclette, ©Mairie de Paris

Plus récemment, PoopleMaps a choisi une approche « crowd sourcing ». L’internaute armé de son smartphone traque l’étron, le photographie, et le dénonce.

Pour trouver une solution au problème, il fallait convoquer la high tech, et  plus précisément Parrot, une entreprise française spécialiste des objets connectés. Parrot s’est attaquée au problème et a conçu Poop-buster, l’arme ultime contre les fèces des rues de la capitale.

Poop-buster est un drone autonome qui survole les rues parisiennes pour traquer les déjections canines. Il utilise aussi la base de données de la plateforme PoopleMaps.

Le drone utilise deux caméras stéréoscopiques et des capteurs olfactifs et haptiques. Son programme d’apprentissage automatique (machine learning) lui permet de reconnaitre sa proie. Il fond dessus et la capture à l’aide d’un bras articulé. Il la dépose ensuite soit dans des conteneurs de la ville de Paris prévus pour ça, ou sur des parterres de fleurs où ils serviront d’engrais.

A droite, poubelle à crotte © Ville de Paris

Poop-buster a été testé évidemment dans le 16ème arrondissement. Quelques erreurs de jeunesses ont été à déplorer.

Dans un premier temps, ce sont surtout des erreurs de décharges qui ont été notées. Une citoyenne ayant par exemple commis l’erreur de porter une robe trop colorée a été confondue avec un parterre de fleurs et s’est vue bombardée de colombins par une escadre de Poop-busters qui venaient de nettoyer un tronçon de la rue de la Pompe. Un petit malin qui avait cru intelligent de voler le boitier électronique placé sur les poubelles s’est retrouvé cerné et bombardé lui aussi de projectiles malodorants.

Poop-buster place Victor Hugo

Le plus dramatique a pourtant été atteint quand un Poop-buster a pris un chiot chihuahua pour un simple caca de chien. Si esthétiquement la ressemblance est flagrante, les deux ne jouent pas le même rôle social.

Poupette dans la main de son maitre © wikipedia

Les amis des bêtes se tranquilliseront : Le chiot Poupette en a été quitte pour une belle frayeur après une balade aérienne dans Paris. Comme les petits paquets récupérés sont  identifiés et géolocalisés avec une parfaite traçabilité, son maitre a pu le retrouver batifolant dans une poubelle de l’Avenue Foch.

Ces incidents ont donné lieu à une belle passe d’arme entre deux Mairesses, Danièle Giazzi pour 16ème, et Anne Hidalgo, pour Paris. La Maire de Paris a déclaré : « je nettoie la capitale. Je vous laisse défendre les fientes de nos trottoirs. »

Nous avons demandé à un chercheur d’Inria comment le logiciel avait pu prendre un chihuahua pour une chiure. T. Viéville nous a expliqué que l’algorithme de reconnaissance de déjection canine s’appuyait surtout sur la forme et la taille de l’objet du délit, et peu la couleur. Le drone s’est approché et le chiot tétanisé s’est immobilisé. L’algorithme a alors décidé qu’il s’agissait d’une crotte. Monsieur Viéville a ajouté : « L’odeur a probablement été l’élément déterminant ».

Des progrès sont encore à venir : la technologie devrait permettre bientôt, grâce à l’analyse ADN, de retrouver les producteurs d’excréments et donc les propriétaires indélicats. Une telle mesure est à l’étude et serait sans doute très impopulaire chez les cynophiles. La SPA s’est élevée contre ce fichage des chiens et a saisi la CNIL.

Pour ce qui est de la reconnaissance d’étron, le logiciel a été amélioré depuis et les problèmes ne devraient plus se reproduire. Vous pouvez à tout hasard vous procurer des étiquettes (technologie RFID) « Je ne suis pas une crotte » disponibles gratuitement en mairie. Si vous ne les avez pas, nous vous conseillons quand même d’éviter les robes à fleurs et de surveiller vos caniches et bébés. On ne sait jamais.

Étiquettes de la Mairie : Je ne suis pas une crotte

En attendant, réjouissons-nous ! Grace à Poop-buster, nos rues ne transformeront plus en champs de coprolithes.

Sterko Dung, Institut National de Recherche en Intelligence Artificielle, Paris