Papier-Mâché, la publication scientifique facile à digérer !

Vous savez quoi ? La science est un bien commun … à la disposition de toutes et tous, et pas forcément « filtré » par des médias surtout quand il leur faut mettre en avant que le sensationnel pour garantir l’audience. Ah oui … mais comment lire directement des contenus souvent en anglais, pire encore : en « jargon ». C’est qu’une équipe de jeunes scientifiques nous propose de remonter à la source de l’information en nous mâchant le travail : découvrons leur initiative.

Avec la flambée des fakenews, il est important de pouvoir remonter à la source de l’information. Dans le cas de contenus scientifiques, les sources les plus fiables correspondent aux publications scientifiques : elles sont le
moyen par lequel les équipes scientifiques partagent leur travaux au reste de leur communauté de spécialistes. Ces publications sont difficiles d’accès car écrites en langage scientifique, la plupart en anglais et encore souvent d’accès payant … mais alors, comment se renseigner lorsqu’on ne fait pas partie de ces spécialistes ?
Or, il suffit souvent d’une bonne remise dans le contexte et d’un bon schéma pour comprendre une recherche de pointe. C’est justement là que Papier-Mâché intervient !

Site de vulgarisation de publications scientifiques né en février 2020, son objectif est de rendre les publications scientifiques accessibles et compréhensibles pour contribuer à une science partagée, ouverte et abordable pour les francophones.

Et cela, dans toutes les disciplines : de l’histoire à l’informatique en passant par la biologie, les mathématiques et la littérature (et bien d’autres encore) !
L’idée est simple : une publication scientifique → un papier mâché. Ceux-ci se déclinent en deux niveaux de lecture : un niveau « tout public » compréhensible sans pré-requis pour les curieuses et les curieux et disponible pour chaque publication scientifique. Il est accompagné le plus souvent d’une version plus technique pour des personnes déjà sensibilisées au sujet.

Le concept de Papier Maché en un diagramme. ©papiermachesciences.org

Pour que la vulgarisation de la publication soit la plus juste et la plus digeste possible, le contenu de nos articles est écrit et relu par des spécialistes du sujet. Cette première relecture par les pairs vérifie la rigueur scientifique, la fidélité à la publication, les données et la mise en contexte. Puis, une révision de style et de forme est réalisée par des scientifiques non spécialistes du sujet.

En plus de fournir une source d’information, les papiers mâchés peuvent être utilisés comme support de cours pour illustrer la littérature scientifique, l’histoire des sciences, une démarche expérimentale particulière, la vulgarisation ou encore l’édition scientifique. Des pages annexes apportent quelques notions d’épistémologie et présentent la méthodologie scientifique et le système actuel de publications des recherches scientifiques.N’hésitez pas à venir lire nos papiers mâchés. Vous pouvez également nous contacter sur papiermache[at]zaclys[point]net pour toute question, et nous suivre sur notre compte Twitter @PapierMache_Sci.
Si vous avez envie de contribuer, c’est par ici : https://papiermachesciences.org/contribuer/.
Petite précision importante : il n’est pas possible de vulgariser ses propres travaux de recherche !

Arthur, Audrey, Aurélien, Eléonore, Jérémy, Lucile et Pierre.

Ouvrez, ouvrez les logiciels


Binaire lance une nouvelle rubrique autour des “communs du numérique”. Les communs sont des ressources partagées, gérées et maintenues collectivement par une communauté qui établit les règles qui les gouvernent. Les communs se déclinent bien avec le numérique :  logiciels opensource, données ouvertes, science ouverte, accès ouvert, etc.

Nous interviewons Stéfane Fermigier, un acteur de l’opensource depuis 30 ans, un activiste qui a fondé un grand nombre d’associations et de fédérations du logiciel libre comme l’AFUL, EuroLinux, le GTTL du Pôle Systematic, le CNLL, en France et l’APELL, au niveau européen.  Il a aussi fondé Nuxeo, un leader en France des logiciels ouverts pour la gestion de contenus pour les entreprises et récemment acquis par Hyland. Il dirige actuellement Abilian, une startup qui développe du logiciel libre pour le cloud et propose des solutions pour entreprises.


Binaire : on va parler de logiciel libre. Pourrais-tu nous donner une définition rapide ?

SF : c’est un logiciel qui peut être utilisé, étudié, modifié, répliqué par n’importe qui. Nous pouvons tous librement le partager et participer à son amélioration. Il fait partie de notre patrimoine commun. On parle aussi en anglais d’open source, pour mettre l’accent sur l’importance de la collaboration autour du code source de ces logiciels, et aussi pour lever l’ambiguïté de l’expression d’origine, “free software« , qui peut laisser penser, à tort, que la gratuité est une caractéristique essentielle de ces logiciels.

Binaire : comment sait-on ce qu’on a le droit de faire avec un tel logiciel ?

SF : on lui attache une licence qui précise ces droits, et les devoirs associés. Les licences se distinguent par les droits qu’elles accordent aux auteurs et le degré de liberté qu’elles donnent pour l’utilisation du code. La situation peut être plus ou moins complexe. Parfois un même logiciel peut être distribué sous deux licences : une comme logiciel libre protégé contre certaines utilisations commerciales, et une autre pour une entreprise qui voudrait l’utiliser dans un cadre propriétaire. Il peut aussi arriver qu’un logiciel soit libre, mais pas certaines de ses extensions, qui répondent à des besoins plus spécifiques.

Cette image représente le symbole Copyleft, un copyright renversé (le C est inversé par une symétrie verticale)
Le symbole Copyleft, un Copyright renversé – Par Zscout370, wikimedia.org

Binaire : entrons directement dans les questions existentielles. Le logiciel libre est-il devenu une commodité bien acceptée ? Ou est-ce toujours une zone de conflit ?

SF : bien du chemin a été parcouru depuis la définition du logiciel libre par Richard Stallman(*) en 1984, et le logiciel libre a atteint sa maturité au cours des 10 dernières années. D’une certaine façon, on a gagné : les logiciels libres sont massivement présents dans les logiciels d’internet, du web, du cloud, notamment. Mais il continue d’exister des pressions ou des mécanismes qui viennent contrecarrer cette progression et réduire les bénéfices qu’elle apporte à l’ensemble de la société, d’autant qu’il y a une asymétrie de moyens très forte entre les entreprises, majoritairement des TPE/PME, et les communautés qui font vivre le logiciel libre, d’une part, et les éditeurs de solutions propriétaires, d’autre part. Il faut utiliser pour cela en particulier le levier de la commande publique. Pourquoi les administrations ne s’équipent-elles pas plus avec des logiciels libres plutôt que de s’enfermer dans des logiciels propriétaires qui sont comme autant de rentes qui coûtent cher à l’État ? Depuis 2016, la loi en France prévoit un “encouragement” des administrations à utiliser le logiciel libre, mais en pratique les actions sont très limitées, et il manque une véritable politique industrielle du logiciel libre en France et en Europe.

Binaire : peut-on chiffrer la part des logiciels libres dans l’économie ?

SF : ce n’est pas simple, pour plusieurs raisons. La dernière étude du CNLL l’estime, d’un point de vue financier, à 10% environ du marché en France, et à peu près pareil en Europe. Mais cette mesure sous-estime fortement l’impact du logiciel libre sur l’ensemble de l’économie, car elle s’attache uniquement à sa valeur marchande ainsi qu’à celle des services associés. On peut aussi estimer la valeur de l’effort de développement autour des logiciels libres, car leur code source est public, mais pas la comparer à celle de logiciels propriétaires, dont le code n’est pas accessible.

Ce qu’on peut dire c’est que quasiment 100% des entreprises qui produisent du logiciel utilisent aujourd’hui des logiciels libres en production ou en développement, et que c’est un marché dynamique, qui progresse plus vite que la moyenne du secteur informatique.

Binaire : les gens ne comprennent pas toujours bien le modèle économique du logiciel libre. Tu peux nous en parler ?

SF : j’aime plutôt parler “des” modèles économiques parce que le domaine est surtout marqué par une grande diversité. En France, les entreprises du logiciel libre sont des TPE pour un peu moins des deux tiers, des PME pour un peu moins du tiers et des grandes entreprises pour 5% d’entre elles. La plupart fournissent des services autour des logiciels libres, mais plus de la moitié sont éditeurs de logiciels libres, souvent les deux. Parmi leurs clients, on trouve de tout, principalement en B2B : des petites et grandes entreprises, des administrations, des associations, etc.

Binaire : tu es un spécialiste des logiciels libres pour le cloud. Quelle est la situation dans ce domaine ? 

SF : Pas simple (rire). Les grandes entreprises américaines du Cloud comme Amazon, Google ou Microsoft utilisent beaucoup de logiciels libres, mais elles les incluent dans des solutions globales dont ni les logiciels, ni les procédures d’exploitation ne sont publics, si bien qu’il est difficile pour un client de passer facilement de l’un à l’autre de ces fournisseurs. Cela remet en cause l’un des bénéfices majeurs du logiciel libre : l’absence de vendor locking. De plus, il est rare qu’elles contribuent financièrement à la création et à la maintenance des logiciels libres qu’elles utilisent, ce qui est une forme de captation de valeur et ne permet pas d’irriguer toute la chaîne de production des logiciels libres, la menaçant à terme.

A contrario, je milite depuis 20 ans pour que la valeur créée par l’usage des logiciels libres soit équitablement répartie entre tous les acteurs de la chaîne de valeur : utilisateurs, éditeurs, intégrateurs (et autres sociétés de service), opérateurs de cloud à présent.

Binaire : et ces communautés des logiciels libres, comment les décrirais-tu ?

SF : très diverses. Ce sont souvent des écosystèmes organisés autour d’associations. Ça peut être autour de langages de programmation comme Python, Java ou PHP ou de communautés territoriales. Le CNLL est une association d’entreprises, qui vise à représenter la filière du logiciel libre en France (et indirectement en Europe). On trouve aussi du militantisme citoyen comme à l’APRIL ou à l’AFUL. Les membres de ces communautés peuvent se retrouver pour échanger dans des bars, des tiers lieux, des entreprises en fin de journée, ou pour des rencontres virtuelles en utilisant par exemple des outils de visioconférence libres comme Big Blue Button ou Jitsi. Il y a aussi des grandes messes où tout le monde se retrouve une fois par an.

Parmi toutes ces communautés, on constate pour la plupart des gens un partage de valeurs communes, ainsi que, souvent, des intérêts économiques communs. Il peut y avoir aussi des désaccords, par exemple sur le “meilleur” langage de programmation ou sur le meilleur éditeur de texte, ou encore sur des sujets plus politiques, comme par exemple le rôle que l’état ou les entreprises doivent jouer dans le développement de l’écosystème du logiciel libre.

Binaire : ces valeurs, on les retrouve plus généralement dans les “communs du numérique”, le sujet de notre rubrique. Est-ce que tu es aussi sensible à ces notions plus larges d’ouverture ?

SF : bien sûr ! D’abord, c’est important pour nous de toujours positionner les logiciels libres lorsqu’on parle de ces sujets, qui sont souvent plus généraux. En particulier, les logiciels libres et les données libres se combinent bien ensemble. On les retrouve ensemble depuis la Loi Lemaire (Loi pour une République numérique), dans le Rapport d’Éric Bothorel pour une politique publique de la donnée, et plus récemment dans la récente circulaire Castex qui annonce la création prochaine d’une mission logiciel libre et communs numériques à la DINUM. On retrouve dans ces trois documents l’idée de demander aux administrations d’ouvrir leurs données et également de s’appuyer le plus possible sur des logiciels libres.

Le besoin d’une approche combinée entre logiciels libres et données ouvertes est particulièrement évident dans le cas de l’apprentissage automatique, qui est actuellement le principal outil pour faire de l’intelligence artificielle. Si vous proposez un service basé sur un logiciel d’apprentissage automatique, vous pouvez me donner accès à son code, si je n’ai pas accès aux données d’entraînement, je n’ai pas la moindre chance de comprendre ce qu’il fait vraiment ou d’améliorer le système.

Serge Abiteboul, Inria et ENS, Paris, François Bancilhon, sérial-entrepreneur

(*) Richard Matthew Stallman est un programmeur brillant et fondateur du mouvement du logiciel libre. Il est notamment à l’origine du projet GNU et de la licence de logiciel libre GNU. Il milite également contre les DRM, la gestion des droits numériques.

Les communs numériques

On vous explique les attaques supply chain

La créativité des malfaiteurs numériques ne connait pas de limite. Nos amis Charles Cuveliez, Jean-Michel Dricot et Jean-Jacques Quisquater nous parlent d’un type d’attaque, dite « supply chain » qui exploitent les vulnérabilités des logiciels complexes entraînées par la cascade de composants nécessaires à leur conception. Laissons-leur la parole ! Pascal Guitton

L’attaque SolarWinds, du nom d’un logiciel de gestion de réseaux professionnels, dont une mise à jour contaminée a impacté des dizaines de milliers de clients dans le monde, semble faire partie des menaces imparables

On nous répète sans arrêt qu’il faut installer les mises à jour des programmes dès qu’elles arrivent parce qu’elles fixent peut-être des trous de sécurité. Si de surcroit, elles nous parviennent automatiquement par le biais du vendeur lui-même, de manière sécurisée, pourquoi s’en inquiéter ? Et voilà qu’en installant l’une d’elles, on contamine son réseau ; c’est ce qu’on appelle les attaques supply chain. Un pirate s’infiltre dans votre réseau via un partenaire, un fournisseur, dans ce cas via une mise à jour d’un de ses programmes.

C’est que pour concevoir des produits numériques, la chaîne de valeur est devenue d’une complexité inouïe avec chaque maillon fournissant le composant souvent essentiel dans le produit final. Mais parfois, la hiérarchie des responsabilités entre développeurs majeurs et sous-traitants « en cascade » est tellement diluée, qu’on ne peut plus la tracer avec certitude et ainsi assurer la sureté d’un composant. »

Graphe de dépendance visualisant la complexité du logiciel Parrot (environ 250.000 lignes de code C). Image produite par Bram Adams et extraite du Dossier: Les systèmes complexes. Le Magazine de l’Université de Mons. T. Mens & M. Goeminne

En plus, ces attaques supply chain sont attirantes :  compromettre un logiciel, c’est avoir une porte d’entrée chez les milliers de clients qui l’ont acquis sans s’échiner à forcer la porte. C’est le client lui-même qui le fait pour vous en installant la mise à jour vérolée.

Ces logiciels peuvent avoir un rôle central comme, pour SolarWinds, contrôler le réseau de l’entreprise. Ces logiciels demandent aussi souvent des privilèges élevés pour s’installer de façon à être plus efficaces, ce que nous leur accordons facilement : pensons aux antivirus, aux logiciels d’accès à distance au réseau de l’entreprise… Ces logiciels communiquent beaucoup avec l’extérieur pour les mises à jour et l’envoi de données de télémétrie.  C’est autant de trafic dans lequel peut se cacher celui des pirates qui vont même parfois interdire aux mises à jour « légitimes » de parvenir au bon endroit. Une fois dans le réseau, le logiciel compromis, et par conséquent l’attaquant, a accès à tout : il est vu comme légitime par le système infecté.

Comment le malfaiteur s’y prend-t-il ?

Le malfaiteur cherche à s’infiltrer dans le réseau de la société qui a conçu le logiciel : il peut alors compromettre les mises à jour qu’elle s’apprêtait à distribuer en y insérant son propre code. Le pirate peut également contourner la signature du code (code signing en anglais), c’est-à-dire la preuve que le logiciel reçu dans la mise à jour est bien celui qui, au caractère près, a été mis au point par l’équipe de développement officielle.

Plus subtil : il peut compromettre ou utiliser des vulnérabilités des codes open source qui sont réemployés dans des logiciels existants, y compris ceux des sociétés privées qui y piochent (et elles ont bien raison !). Le dernier rapport de Synopsys paru en avril 2021 est à cet égard édifiant : il a audité plus de 1500 codes et a ainsi découvert que 84 % d’entre eux contenaient au moins une vulnérabilité dans l’open source qu’ils utilisaient. Pire : 60 % des codes contenait une vulnérabilité à haut risque. Selon le domaine d’activités, de 70 % à 89 % des logiciels qui sont développés contiennent de l’open source sauf dans les télécoms et le e-commerce.

Les pirates proposent parfois leurs propres bibliothèques en ne changeant qu’une lettre par rapport à la version correcte. Les développeurs distraits ne s’en rendent pas compte et les intègrent alors dans leur logiciel !

Enfin, le malfaiteur peut également s’infiltrer chez un fournisseur ou un sous-fournisseur de la société qui a conçu le programme.

Les pirates qui recourent à ces attaques sont hautement spécialisés et très compétents. Ils élaborent une liste de cibles les intéressant et sur lesquelles ils se concentreront une fois l’attaque lancée pendant qu’ils laisseront toutes les autres entreprises infectées avec un réseau compromis. Les attaquants vont ensuite introduire du logiciel supplémentaire sur les systèmes des « heureux élus » pour exfiltrer les données qu’ils convoitent. Ils ne vont pas dépenser beaucoup d’argent à mettre au point cette attaque juste pour tout détruire.

Cette image la rupture de la chaîne de confiances. Elle montre sur la gauche un éclaté d'un ordinateur en multiples composants, au milieu une chaîne avec un maillon rompu et à droite l'ordinateur de l'utilisateur
Rupture de la chaîne de confiance. Conçue par les auteurs.

Comment en est-on arrivé là ?

Le monde du logiciel est rempli de paradoxes : son écosystème est massivement basé sur la confiance (par exemple via les communautés open source) et massivement interdépendant puisque fait de briques diverses et de réutilisations de logiciels à large échelle, ce qui expose cette industrie à des vulnérabilités systémiques. Les interdépendances maillées sont, en général une source de résilience pour éviter des défaillances en cascade car un système dépendant linéairement d’un autre peut le faire s’effondrer.  Mais dans le monde cyber, cette connectivité peut, au contraire, faciliter les effondrements en cascades dans les industries basées sur un fonctionnement en réseaux comme les télécoms, l’énergie ou les services financiers. Pour se prémunir, il faut notamment introduire de la diversité dans les architectures et les produits utilisés, de la même façon, au fond, que la monoculture ou le monoélevage intensif créent un terrain propice aux infections véritables cette fois. Franchement, est-il raisonnable de n’utiliser qu’un seul logiciel pour gérer tout un réseau ? Est-il normal que le même fournisseur puisse équiper toutes les sociétés du top 500 US ? C’était le cas d’Orion : son logiciel, SolarWinds, était au centre de tout : gestion du réseau, de l’infrastructure, gestion de performances, etc. C’est un risque de concentration inacceptable.

Autocollant portant l'inscription "Trust me, I am a software developper (police blanche sur fond noir)
Trust me. Extrait du site teepublic.co

Les clients doivent prendre l’hypothèse qu’ils sont perméables.

Ce n’est pas parce qu’un logiciel reçoit un label de confiance parce qu’il a été testé, qu’il restera digne de confiance sur un temps long.  Le résultat d’un test n’est valable que le jour où il a été réalisé et par ailleurs, on sait qu’il n’est que partiel parce qu’il est totalement impossible de tester l’exhaustivité des configurations et des conditions d’usage (même si des techniques existent pour contourner cette impossibilité). La valeur de la certification et du test ne repose que sur l’équipe qui les ont réalisés. Ils ne doivent pas créer un faux sentiment d’invincibilité d’autant plus qu’un label « tested and approved » fièrement mis en avant va décourager des organismes indépendants de retester et les clients de les payer : à quoi bon ?

Quelle serait la solution ultime ?

Mais alors, comment garantir que tous les composants d’un logiciel ou d’un produit sont sûrs ? Il y a des solutions techniques comme les certificats, à clé publique/clé privée, les mêmes qui garantissent en cascade que site web que vous contactez est bien celui qu’il prétend être. Ces certificats de garantie d’origine contrôlée se valident en cascade, dans une chaine de confiance qu’on pourrait appliquer à tous les sous-traitants dans l’écriture d’un programme par exemple. Mais ces infrastructures à clé publique prendront des années à se mettre en place. Peut-être la solution viendra-t-elle d’une utilisation originale (et rapide) d’un blockchain ?

On peut faire des dues diligences, inspirées de celles qui se font quand une société A veut acheter une société B qui doit alors se mettre à nu. La due diligence, appliqué aux logiciels critiques, impliquerait d’avoir accès à toutes les facettes du développement du code, comment il a eu lieu, avec toute l’assurance-qualité requise. Il faudrait énumérer et connaitre les sous-traitants, les freelances impliqués, leur nationalité…

On doit aussi s’assurer que la société qui a développé le logiciel publie bien les vulnérabilités de ses produits

On doit contrôler qu’elle intègre les pratiques de sécurité aussi dans le développement du code et qu’elle connait bien tous ses sous-traitants et les sous-traitants de ses sous-traitants (et en rester là en termes de couches successives de sous-traitants).

La liste des contrôles n’est pas finie : applique-t-elle l’analyse de code statique et dynamique, fait-elle une revue manuelle du code, fait-elle des tests de pénétrations de son logiciel. Son code est-il vérifié par un tiers ? Comment gère-t-elle la distribution des correctifs ? Se soumet-elle à des audits ?

Une fois en fonctionnement, on peut imposer aux logiciels lorsqu’ils discutent avec Internet de n’y accéder que de manière restreinte vers une seule adresse IP et le site avec les mises à jour. Au moins si le logiciel essaie de s’en écarter, c’est une alerte de son détournement mais ce n’est pas la panacée. Les adresses IP peuvent changer et le vendeur peut lui aussi utiliser un cloud pour fournir le service.

Enfin on peut exiger plus de tests de l’intégrité du logiciel de la part du client ou les imposer via les régulateurs, ce qui mécaniquement en fera baisser le coût. C’est vrai qu’on peut espérer qu’une obligation créera un appel d’air pour plus d’acteurs sur ce marché, donc plus de concurrence….

Il y a du pain sur la planche en termes de prévention. Il ne reste à court terme que de privilégier la résilience.

Charles Cuvelliez et Jean-Michel Dricot (Ecole Polytechnique de Bruxelles, Université de Bruxelles), Jean-Jacques Quisquater (Ecole Polytechnique de Louvain, Université de Louvain

 

 

 

Des bibliothèques aux logiciels : une histoire d’amour !

Logo du Bulletin des Bibliothèques de France qui permet aux professionnels de l’information de partager sur toutes les nouvelles facettes de ces métiers.
C’est si important, pour toutes celles et tous ceux qui vont nous suivre dans l’histoire de l’humanité, de préserver notre patrimoine, y compris immatériel. Mais qu’en est-il de nos logiciels ? Donnons la parole à Sabrina Granger qui du haut de ses bibliothèques va nous expliquer, pourquoi et comment thésauriser ses productions intellectuelles humaines.  Pierre Paradinas, Serge Abiteboul et Thierry Viéville.

« Louis, je pense que c’est le début d’une belle amitié » : déclaration d’amour des professionnels de l’information au patrimoine logiciel1

1Vous aurez reconnu la célèbre citation d’Humphrey Bogart dans Casablanca.

Logotype du patrimoine culturel immatériel (PCI) adoptée par l’UNESCO en 2003.

Nous ne nous battons pas tous à armes égales : dès lors qu’il s’agit de sensibiliser le plus grand nombre aux enjeux historiques et culturels d’une cause, les protecteurs de patrimoines à belles dorures partent avec une longueur d’avance comparativement aux défenseurs de patrimoines intangibles (#BeingStephaneBern). Et dans le cas des logiciels, le défi est double puisqu’il s’agit aussi de faire évoluer le regard que posent citoyens et décideurs publics sur ce patrimoine. En effet, la préservation du patrimoine logiciel ne se réduit pas à des enjeux économiques et gestionnaires, même s’ils sont présents. Ce patrimoine est certes technique mais aussi culturel : les logiciels façonnent nos savoirs et découlent des partis pris des personnes qui les écrivent. Dans son discours prononcé à Londres le 21 juin 1936 au secrétariat général élargi de l’Association internationale des écrivains pour la défense de la culture, Malraux déclarait : « Toute civilisation est en cela semblable à la Renaissance et fait son propre héritage de tout ce qui, dans le passé, lui permet de se dépasser. » Les logiciels s’inscrivent pleinement dans cette perspective car ils traduisent un état de l’économie des connaissances. Mais ils sont fragiles aussi. Roberto di Cosmo souligne que nous vivons une période charnière : des millions de logiciels se développent dans une multiplicité de silos à la durée de vie variable et aux gouvernances évolutives. Ce contexte appelle des mesures de conservation spécifiques et urgentes.

Le premier programme écrit par une personne humaine : un mécanisme de calcul des nombres de Bernoulli dans la note G d’Ada Lovelace (1843), pour tourner sur une « machine analytique ».

Mais quelle contribution apporter à ce gigantesque édifice quand on n’est pas un expert de l’informatique ? Précisément parce que la tâche est titanesque, elle appelle des expertises plurielles. Si les professionnels de l’information ne sont pas forcément les acteurs auxquels on pense spontanément lorsqu’on aborde le sujet de la préservation des logiciels, ils peuvent pourtant jouer un rôle essentiel aux côtés des experts en informatique. Tout d’abord, ces professionnels sont rompus aux méthodes et aux techniques d’organisation de flux de données. Dans la culture populaire, le geste professionnel du bibliothécaire pour remettre de l’ordre dans le chaos consiste surtout à dire « chut » dans une salle de lecture déjà silencieuse. Dans la vraie vie, les professionnels de l’information moissonnent des entrepôts où des données sont disséminées afin de créer des passerelles et de donner une cohérence pour l’utilisateur final. Ils ont aussi fait évoluer les objets sur lesquels porte leur expertise en contrôle de la qualité des données : si les bibliothécaires continuent de décrire des documents imprimés pour les rendre identifiables par tous, ils déploient aussi ces compétences dans de nouveaux domaines. C’est ainsi qu’est née la collaboration entre l’équipe de l’archive logicielle Software Heritage et les documentalistes du pôle « Information et Edition Scientifique » d’Inria, pour rendre le code source accessible et réellement disponible.

En outre, les professionnels de l’information ont également développé des compétences dans le domaine de la médiation. Par ailleurs, leur habitude de nouer des partenariats, notamment avec le monde associatif, rend ces professionnels particulièrement aptes à créer un lien entre le patrimoine logiciel et l’ensemble des citoyens. La question est ici politique. Dans l’enseignement supérieur comme dans la lecture publique, les professionnels de l’information ont investi le terrain en développant des actions visant à réduire la réticence que peut susciter le domaine logiciel parmi les publics qui en sont les plus éloignés. Il ne s’agit pas uniquement de vulgariser des notions, mais de fournir des outils conceptuels ainsi que des compétences, dans une logique d’encapacitation.

Le dernier dossier du Bulletin des bibliothèques de France met ainsi en lumière plusieurs initiatives de médiation émanant de professionnels de l’information  ici et En donnant envie au plus grand nombre de s’emparer du patrimoine logiciel, sur le plus long terme, ces actions peuvent aussi contribuer à une plus forte diversité des auteurs de programmes informatiques. Le panel des créateurs de logiciels reste encore très homogène, même si progressivement, la situation évolue.

Certes, on attend encore le documentaire sur le patrimoine logiciel à base d’effets de contre-plongées et d’intérieurs dont on pousse les portes dorées avec l’œil qui brille (#BeingStephaneBern bis). Mais ce patrimoine différent possède bel et bien une dimension culturelle et s’avère passionnant, même pour les néophytes de l’informatique, pour peu qu’on dispose de quelques clés que les professionnels de l’information sont bien décidés à remettre au plus grand nombre. Alors, oui, c’est sans doute le début d’une très belle amitié autour du code source.

Sabrina Granger, Rédactrice en chef du Bulletin des Bibliothèques de France, Responsable adjointe du Pôle Editions de l’Enssib – Direction de la Valorisation, Référente « Science ouverte » de l’Enssib.

En savoir plus :
Software Heritage : pourquoi et comment construire l’archive universelle du code source, Roberto di Cosmo, Bulletin de la Société Informatique de France, N°10, avril 2017

Immortel Michel Serres

Il y a 2 ans, Michel Serres nous quittait. Bien au delà de binaire dont l’équipe était, et est restée, fan absolu de ce grand Monsieur, ce « nous » désigne la société dans son ensemble tant il savait s’adresser avec ces mots simples à chacun.e d’entre nous notamment quand il parlait du numérique.

En 2007, à l’occasion des 40 ans d’Inria à Lille, Michel avait embarqué plusieurs milliers de personnes en leur expliquant simplement en quoi la révolution numérique bouleversait notre société. Nous vous proposons d’écouter ou de réécouter cette conférence. Laissez vous embarquer dans son récit qui reste encore aujourd’hui tellement d’actualité.

Faites-vous plaisir : prenez une heure de votre temps et dégustez !

binaire

Cette photo montre Micel SERRES souriant, un micro à la main
Michel SERRES – WikiPedia CC BY-SA 3.0

D’autres moments à passer avec Michel Serres :

Et une magnifique fresque en hommage à Michel Serres dévoilée le 4 juin à Agen.

Cette image montre une fresque à base de bleus et de blanc représentant Michel Serres. Elle est affiché sur un bâtiment du campus Micel serres à Agen et contient une citation : "Le savoir rend libre, le savoir rend heureux".
Fresque sur le campus Michel Serres à Agen. Auteurs : Freddy Spinati, Aurélien et Ben Mougin (Association la Streetarterie)

 

Turing à la plage – L’intelligence artificielle dans un transat

Cet article est paru chez nos amis d’interstices.

Un livre de Rachid Guerraoui et Lê Nguyên Hoang (Collection A la plage, Dunod, juin 2020)

Le titre de ce livre pourrait laisser croire à une nouvelle biographie d’Alan Turing dans la lignée du film « Imitation game » ou de la pièce « La machine de Turing » or il n’en est rien. Le sous-titre, « L’Intelligence Artificielle dans un transat », a toute son importance : il s’agit d’une introduction, très accessible, à l’intelligence artificielle. Le lien avec Turing ? Des références permanentes à ses écrits, des citations qui mettent en avant l’aspect précurseur de Turing, des extraits de ses articles qui parlent de l’informatique telle que nous la connaissons, ses questionnements qui sont toujours d’actualité.

Le livre commence avec les notions d’algorithmes et de machines, des dispositifs tout d’abord mécaniques puis électroniques qui réalisent ces algorithmes. Très vite, la formalisation de la notion d’algorithme et ses limites — qui ont constitué le cœur des travaux d’Alan Turing avant guerre, avec en particulier la fameuse machine de Turing, modèle théorique d’algorithme — sont abordées. Les progrès pratiques, en termes de puissance de calcul, y sont présentés.

Or les algorithmes sont le composant fondamental des intelligences artificielles. De plus en plus souvent, les performances des intelligences artificielles nous surprennent, comme nous le montre le livre, que ce soit en battant des champions aux jeux d’échecs ou de go, ou en reconnaissant des chats dans des images. Le livre présente aussi, rapidement, les notions de complexité des problèmes et les questions encore ouvertes en ce domaine, comme « P versus NP » ou « P versus NC » (voir l’article la théorie de la complexité algorithmique).

Turing avait anticipé le fait que, quand la difficulté des tâches à résoudre augmente, la difficulté à écrire les algorithmes correspondants deviendrait intraitable par un humain et il avait déjà proposé, en 1950, le principe des learning machines, principe sous-jacent aux algorithmes auto-apprenants, très présents dans l’intelligence artificielle que nous connaissons aujourd’hui.

Se pose alors la question de savoir distinguer une intelligence humaine d’une intelligence artificielle : du célèbre « test de Turing » publié en 1950 à d’autres expériences (de pensée ou non), de l’art avec ce que cela suppose de créativité, aux algorithmes inspirés par la nature comme les automates cellulaires ou les algorithmes génétiques, différentes approches sont exposées.

Avant de conclure sur la « théorie hérétique » de Turing que nous vous laissons le plaisir de (re-)découvrir, les auteurs présentent aussi les facettes inquiétantes de l’utilisation des intelligences artificielles, qu’il s’agisse d’usages malveillants ou d’effets secondaires non anticipés et non désirés.

Ce livre peut tout à fait se lire à la plage, dans un transat, dans un hamac ou sous un plaid au coin du feu : il aborde très clairement les notions fondamentales de l’intelligence artificielle, avec une grande variété et une grande pertinence dans les exemples choisis. S’il faut toutefois mettre un léger bémol à cet enthousiasme, on pourra parfois regretter une transposition de certains résultats de l’informatique à la vie de tous les jours, comme par exemple avec le choix de cette citation de Scott Aronson au sujet de la question « P versus NP » : « Si P = NP, alors le monde est un endroit profondément différent de ce qu’on imagine habituellement. Il n’y aurait aucune valeur spécifique au « saut créatif », aucun fossé séparant le fait de résoudre un problème et celui de reconnaître la validité d’une solution trouvée. Tous ceux capables d’apprécier une symphonie seraient Mozart ; tous ceux capables de suivre un raisonnement étape par étape seraient Gauss. » Certes les auteurs ne sont pas responsables de cette citation, mais ils ont choisi de relayer une telle extrapolation, peut-être quelque peu excessive.

Nathalie Revol

 

L’intelligence artificielle au service des maladies mentales

Avec peu d’évolution dans les traitements médicaux et un manque criant de moyens humains, financiers, et thérapeutiques, les maladies mentales demeurent le parent pauvre de la médecine contemporaine. L’intelligence artificielle pourrait apporter des solutions dans l’aide au diagnostic et au suivi de certaines maladies comme la schizophrénie. Nous faisons le point sur la question avec Maxime Amblard dans cet épisode du podcast audio.

Cet article est repris en miroir d’un contenu de la revue scientifique amie Interstices.

Écoutez l’interview de Maxime Amblard

Télécharger le podcast

Maxime Amblard

Tandis que la crise sanitaire ne fait qu’accentuer les difficultés dans la prise en charge des troubles psychiatriques, les sciences du numérique ouvrent de nouvelles voies dans le traitement et le suivi de ces pathologies.

Comme nous l’explique Maxime Amblard, l’intelligence artificielle (IA) peut être utile dans le suivi de certaines maladies mentales comme la schizophrénie, à la fois dans le cadre d’un diagnostic précoce, pour une meilleure détection et prise en charge du patient en amont, mais aussi en aval pour gérer les crises liées à la pathologie. Le chercheur, spécialisé dans le traitement automatique des langues (TAL) — un domaine pluridisciplinaire impliquant la linguistique, l’informatique et l’intelligence artificielle — nous présente, à travers deux projets de recherche dans lesquels il est impliqué, MePheSTO et ODIM, les moyens par lesquels l’IA peut contribuer au suivi des maladies mentales.