Lena fait ses adieux

© CNRS / Femmes & Sciences
Dans beaucoup de domaines de la recherche en informatique, il existe  des « objets » que l’on retrouve dans grand nombre d’articles pour illustrer des résultats. Ainsi des dialogues entre Alice et Bob pour la cryptographie, de l’affichage de « Hello world » pour les langages de programmation, de la théière pour la synthèse d’images, etc. Pour l’analyse et le traitement d’images, c’est l’image d’un mannequin suédois, Lena Forsén, qui ser[vai]t d’image de référence depuis les années 70’s. L’IEEE, association dédiée à l’avancement de la technologie au profit de l’humanité et qui  regroupe plusieurs centaines de milliers de membres  [1], vient de demander aux auteurs d’articles publiés dans ses revues et ses conférences de la remplacer par une autre image. Florence SEDES qui est professeure d’informatique (Université Paul Sabatier à Toulouse et présidente de ) nous explique pourquoi. Pascal Guitton

Il était une fois….

Recadrée à partir des épaules, la photo centrale de Playboy du mannequin suédois Lena Forsén regardant le photographe de dos fut l’étalon improbable des recherches en traitement d’image, et l’une des images les plus reproduites de tous les temps. « Miss November », playmate d’un jour, aura vu son unique cliché pour le magazine sublimé.

Peu après son impression dans le numéro de novembre 1972 du magazine PlayBoy, la photographie a été numérisée par Alexander Sawchuk, professeur assistant à l’université de Californie, à l’aide d’un scanner conçu pour les agences de presse. Sawchuk et son équipe cherchaient de nouvelles données pour tester leurs algorithmes de traitement d’images : la fameuse page centrale du magazine fut élue, et ce choix justifié par la présence d’un visage et d’un mélange de couleurs claires et foncées. Heureusement, les limites du scanner ont fait que seuls les cinq centimètres encadrant le visage ont été scannés, l’épaule nue de Forsén laissant deviner la nature de l’image originale, à une époque où la pornographie et la nudité étaient évaluées différemment de ce qu’elles le sont désormais.

Etalon d’une communauté, la madone ès image processing…

Dès lors, la photo est devenue une image de référence standard, utilisée un nombre incalculable de fois depuis plus de 50 ans dans des articles pour démontrer les progrès de la technologie de compression d’images, tester de nouveaux matériels et logiciels et expliquer les techniques de retouche d’images. L’image aurait même été une des premières à être téléchargée sur ARPANET, son modèle, Lena, ignorant tout de cette soudaine et durable célébrité.

Lena, vraie étudiante suédoise à New York, modèle d’un jour, a enfin droit à faire valoir sa retraite : l’IEEE a publié un avis à l’intention de ses membres mettant en garde contre l’utilisation continue de l’image de Lena dans des articles scientifiques.

« À partir du 1er avril, les nouveaux manuscrits soumis ne seront plus autorisés à inclure l’image de Lena », a écrit Terry BENZEL, vice-président de l’IEEE Computer Society. Citant une motion adoptée par le conseil d’édition du groupe : «La déclaration de l’IEEE sur la diversité et les politiques de soutien telles que le code d’éthique de l’IEEE témoignent de l’engagement de l’IEEE à promouvoir une culture inclusive et équitable qui accueille tout le monde. En accord avec cette culture et dans le respect des souhaits du sujet de l’image, Lena Forsén, l’IEEE n’acceptera plus les articles soumis qui incluent l’image de Lena».

L’IEEE n’est pas la première à « bannir » la photo de ses publications : en 2018, Nature Nanotechnology a publié une déclaration interdisant l’image dans toutes ses revues de recherche, écrivant dans un édito que «…l’histoire de l’image de Lena va à l’encontre des efforts considérables déployés pour promouvoir les femmes qui entreprennent des études supérieures en sciences et en ingénierie… ».

De multiples raisons scientifiques ont été invoquées pour expliquer cette constance dans l’utilisation de cette image-étalon, rare dans nos domaines : la gamme dynamique (nombre de couleurs ou de niveaux de gris utilisées dans une image), la place centrale du visage humain, la finesse des détails des cheveux de Lena et la plume du chapeau qu’elle porte.

Dès 1996, une note dans IEEE Trans on Image Processing déclarait, pour expliquer pourquoi le rédacteur n’avait pas pris de mesures à l’encontre de l’image, que «l’image de Lena est celle d’une femme attirante», ajoutant : «Il n’est pas surprenant que la communauté des chercheurs en traitement d’images [essentiellement masculine] ait gravité autour d’une image qu’elle trouvait attrayante».

Le magazine PlayBoy aurait pu lui-même mettre un terme à la diffusion de l’image de Lena : en 1992, le magazine avait menacé d’agir, mais n’a jamais donné suite. Quelques années plus tard, la société a changé d’avis : «nous avons décidé d’exploiter ce phénomène», a déclaré le vice-président des nouveaux médias de Playboy en 1997.

Lena Forsén elle-même, « sainte patronne des JPEG » a également suggéré que la photo soit retirée. Le documentaire Losing Lena a été le déclencheur pour encourager les chercheurs en informatique à passer à autre chose :  «il est temps que je prenne moi aussi ma retraite […] »[2].

“Fabio is the new Lena”

Fabio Lanzoni, top model italien, sera, le temps d’une publication, le « Lena masculin » : dans « Stable image reconstruction using total variation minimization », publié en 2013, Deanna Needell and Rachel Ward décident d’inverser la vision du gender gap (inégalités de genre) en choisissant un modèle masculin.

La légende a débordé du cadre purement académique : en 2016, « Search by Image, Live (Lena/Fabio) », de l’artiste berlinois Sebastian Schmieg, utilise le moteur de recherche d’images inversées de Google pour décortiquer les récits de plus en plus nombreux autour de l’image (tristement) célèbre de Lena [3] : l’installation est basée sur une requête lancée avec l’image de Lena vs. une lancée avec l’effigie du blond mâle Fabio. Son objectif est d’analyser la manière dont les technologies en réseau façonnent les réalités en ligne et hors ligne. Beau cas d’usage pour la story de notre couple !

De Matilda à Lena….

Alors qu’on parle d’effet Matilda et d’invisibilisation des scientifiques, pour le coup, voilà une femme très visible dans une communauté où les femmes sont sous-représentées !

Quel message envoie cet usage d’une photo « légère », indéniablement objectifiée, pour former des générations d’étudiant.e.s en informatique ? Comment expliquer l’usage par une communauté d’un matériel désincarné, alors que le sujet pouvait être considéré comme dégradant pour les femmes ?

Comment interpréter l’usage abusif, irrespecteux du droit d’auteur, du consentement et de l’éthique, par une communauté très masculinisée d’une seule et unique image féminine ? Effet de halo, biais de confirmation ou de représentativité ? L’ancrage du stéréotype est ici exemplaire.

Amélioration d’image avec le logiciel libre gimp © charmuzelle

Alors, conformément aux préconisations de l’IEEE, remercions Lena d’avoir permis les progrès des algorithmes de traitement d’images. Engageons-nous désormais à l’oublier, marquant ainsi  « un changement durable pour demain », et à accueillir toutes les futures générations de femmes scientifiques !

Florence SEDES, Professeur d’informatique (Université Paul Sabatier, Toulouse),

[1] https://ieeefrance.org/a-propos-de-ieee/

[2] https://vimeo.com/372265771

[3] https://thephotographersgallery.org.uk/whats-on/sebastian-schmieg-search-image-live-lenafabio

 

Science et scientifiques : des points de détail pour l’extrême-droite ?

Observer, décrire, modéliser et analyser pour comprendre le monde réel, puis l’observer plus efficacement en retour : tel est le cercle vertueux de toute démarche scientifique. Avec un axiome chevillé à l’esprit de chaque scientifique : les savoirs ainsi accumulés doivent être au service de l’humanité toute entière. Ces savoirs ont démontré que l’existence du dérèglement climatique n’est pas une opinion, mais un fait malheureusement avéré et mesurable, aux causes identifiées (essentiellement, les émissions de gaz à effet de serre). Que les êtres humains relèvent tous d’une même espèce, au sens biologique du terme, et que le concept de race humaine n’a aucun fondement scientifique. Qu’il n’y a jamais eu de différence de capacité intellectuelle entre les femmes et les hommes, ni entre aucun des groupes et sous-groupes ethniques et culturels qui constituent l’humanité. Et plus récemment que la vaccination anti-Covid est efficace. L’accumulation des savoirs au profit de l’humanité ne peut prospérer que via une coopération mondiale, ouverte, et garantie par une liberté académique totale.

Or l’extrême droite propose – notamment – la suppression du droit du sol et la préférence nationale au point d’effectuer des distinguos entre français mono-nationaux et bi-nationaux. Elle promeut le renforcement physique et juridique des frontières sous couvert de préoccupation sécuritaire et de bien-être économique. Elle minimise la portée des travaux du GIEC sur le climat. Elle manifeste une méfiance à peine voilée à l’endroit des scientifiques en général et fait aujourd’hui encore le lit des théories complotistes anti-vaccinales concernant la Covid. Ce faisant, elle contrevient directement à plusieurs des principes édictés par la « Déclaration universelle des droits de l’Homme et du citoyen ». Elle porte en outre atteinte à la libre circulation des êtres humains, des biens et des idées, circulation pourtant indispensable aux progrès de la science et de la raison.

C’est pourquoi, nous, Société informatique de France, porteurs de valeurs humanistes et d’une science informatique – libre et ouverte – interagissant avec les autres sciences pour mieux appréhender le réel, appelons avec la plus vive énergie à faire barrage à l’extrême-droite pour que notre pays demeure celui des Lumières, de la rationalité, de la liberté, de l’égalité et de la fraternité.

Télécharger le communiqué.

L’autopsie numérique en réalité mixte : une révolution pour la médecine légale?

L’autopsie traditionnelle, telle que nous la connaissons, pourrait-elle bientôt être remplacée par une méthode plus moderne et moins invasive grâce aux avancées en réalité mixte (MR)? Une équipe de recherche internationale a exploré les opportunités et les défis de l’autopsie numérique en utilisant des techniques de visualisation immersives. Leur étude révèle des perspectives prometteuses pour améliorer les pratiques de la médecine légale tout en réduisant les impacts émotionnels et culturels des autopsies physiques.

Ajouter de l’immersion pour l’autopsie

Depuis longtemps, les légistes analysent des données intrinsèques en 3D sur des écrans 2D, une tâche qui nécessite une reconstruction mentale complexe. L’émergence des technologies de réalité mixte (MR pour Mixed reality)) offre des possibilités prometteuses pour l’autopsie numérique en permettant aux légistes une immersion dans ces données 3D combinée à des techniques d’interaction appropriés avec les jeux de données [1, 2]. L’utilisation de ces technologies à des fins d’analyses de données et génération de savoir est souvent regroupée sous le terme « Immersive Analytics » [1]. Les bénéfices en terme d’immersion, de collaboration, ou de génération de savoir ont été étudiés dans plusieurs domaines et sont notamment visibles lorsque les données sont spatiales ou multi-dimensionnelles. Dans cette étude [3], les auteurs explorent l’utilisation de techniques de visualisation et d’interaction immersive en réalité augmentée permettant l’autopsie numérique à travers l’analyse d’imagerie en 3D, tout en impliquant les utilisateurs finaux, à savoir les praticiens légistes, dans un processus de conception dit « centré sur l’utilisateur ». L’étude s’est par conséquent déroulée en quatre phases de retour d’expérience utilisateur :

  1. Interviews Formatives : Six experts du domaine ont été interviewés pour identifier les opportunités et exigences de la réalité augmentée dans le domaine des autopsies.
  2. Atelier de Travail : Quinze pathologistes ont participé à un atelier pour identifier les limitations du prototype initial et proposer de nouvelles idées d’interaction leur permettant d’analyser les jeux de données nécessaires à leurs travail.
  3. Validation Qualitative : Deux séries de tests utilisateurs ont été menées pour évaluer des prototypes successifs avec des techniques d’interaction novatrices.
  4. Étude Qualitative : Validation finale des prototypes avec cinq experts utilisant la réalité augmentée pour des cas réels d’autopsie.

Techniques de Visualisation Immersive

Le projet a développé plusieurs techniques pour améliorer l’interaction et l’analyse des données médicales en 3D :

  • Tunnel de Couleurs : Permet d’enlever virtuellement les tissus mous pour examiner des structures plus profondes.
  • Forme de Découpe : Utilisation d’une boîte de découpe flexible pour isoler un volume d’intérêt.
  • Gomme : Outil permettant de retirer des voxels ( ou »volume pixel », similaire à un pixel mais dans un espace 3D.) de données indésirables ou artefacts.
  • Curseur Zoomable : Technique permettant de manipuler avec précision les tranches d’images obtenues par tomodensitométrie (images de scanneur médical) grâce à un contrôle de gain ajustable.

Toutes ces techniques sont visibles sur une démonstration du prototype vidéo accessible en ligne:

 Le retour des experts

Les médecins légistes et radiologues impliqués dans l’évaluation du prototype ont souligné le potentiel de la réalité augmentée pour améliorer l’autopsie numérique, notamment sur les points suivant.

  • Accessibilité des données : La réalité mixte permet aux praticiens d’accéder facilement aux données dans n’importe quel environnement, y compris à distance, et de visualiser le corps entier en taille réelle.
  • Interaction naturelle : Les gestes manuels intuitifs remplacent l’utilisation de la souris et du clavier, facilitant ainsi l’exploration des données tout en portant des gants.
  • Enseignement et démonstration : Cette technologie offre une méthode d’enseignement plus immersive et réaliste pour les étudiants en médecine légale et peut être utilisée pour des démonstrations en salle d’audience.
  • Réduction des autopsies physiques : En combinant les images 3D et les nouvelles techniques de visualisation, il est possible de réaliser des autopsies virtuelles qui sont moins invasives et respectueuses des croyances culturelles et religieuses et permettent donc d’éviter les autopsies « physiques » pour les cas les plus simples.

Malgré les avantages, l’étude a aussi mis en évidence certaines limitations actuelles des technologies de MR, comme le champ de vision limité, les problèmes de suivi des gestes, et la résolution des images. Les chercheurs ont également souligné la nécessité d’une formation adéquate pour maîtriser ces nouveaux outils.

Cette étude ajoute donc à l’ensemble des preuves de l’utilité des technologies immersives pour analyser des données volumétriques ou spatiales [4,5,6]. Cependant, il faut considérer que le passage à la réalité augmentée tout en obtenant une précision d’interaction fidèle peut-être, à minima aujourd’hui, couteux car il nécessite d’utiliser des systèmes de tracking des mains précis et, pour le moment, onéreux.

Lonni Besançon, Assistant Professor, Linköping University, Sweden.

[1] Marriott, K., Schreiber, F., Dwyer, T., Klein, K., Riche, N. H., Itoh, T., … & Thomas, B. H. (Eds.). (2018). Immersive analytics(Vol. 11190). Springer.

[2] Besançon, L., Ynnerman, A., Keefe, D.F., Yu, L. and Isenberg, T. (2021), The State of the Art of Spatial Interfaces for 3D Visualization. Computer Graphics Forum, 40: 293-326. https://doi.org/10.1111/cgf.14189

[3] Vahid Pooryousef, Maxime Cordeil, Lonni Besançon, Christophe Hurter, Tim Dwyer, and Richard Bassed. 2023. Working with Forensic Practitioners to Understand the Opportunities and Challenges for Mixed-Reality Digital Autopsy. In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems (CHI ’23). Association for Computing Machinery, New York, NY, USA. https://doi.org/10.1145/3544548.3580768. https://enac.hal.science/hal-03999121/document 

[4] B. Lee, D. Brown, B. Lee, C. Hurter, S. Drucker and T. Dwyer, « Data Visceralization: Enabling Deeper Understanding of Data Using Virtual Reality, » in IEEE Transactions on Visualization and Computer Graphics, vol. 27, no. 2, pp. 1095-1105, Feb. 2021, https://doi.org/10.1109/TVCG.2020.3030435

[5] Shringi A, Arashpour M, Golafshani EM, Rajabifard A, Dwyer T, Li H. Efficiency of VR-Based Safety Training for Construction Equipment: Hazard Recognition in Heavy Machinery Operations. Buildings. 2022; 12(12):2084. https://doi.org/10.3390/buildings12122084 

[6] Wang, X., Besançon, L., Rousseau, D., Sereno, M., Ammi, M., & Isenberg, T. (2020, April). Towards an understanding of augmented reality extensions for existing 3D data analysis tools. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-13). https://doi.org/10.1145/3313831.3376657

Quand les citations scientifiques dérapent : la découverte des « références furtives »

L’image du chercheur qui travaille seul en ignorant la communauté scientifique n’est qu’un mythe. La recherche est fondée sur un échange permanent, tout d’abord et avant tout pour comprendre les travaux des autres et ensuite, pour faire connaître ses propres résultats. La lecture et l’écriture d’articles publiées dans des revues ou des conférences scientifiques sont donc au cœur de l’activité des chercheurs. Quand on écrit un article, il est fondamental de citer les travaux de ses pairs que ce soit pour décrire un contexte, détailler ses propres sources d’inspiration ou encore expliquer les différences d’approches et de résultats. Etre cité par d’autres chercheurs, quand c’est pour de « bonnes raisons », est donc une des mesures de l’importance de ses propres résultats. Mais que se passe-t-il lorsque ce système de citations est manipulé ? Une récente étude [1], menée par une équipe de « détectives scientifiques », révèle une méthode insidieuse pour gonfler artificiellement les comptes de citations : les « références furtives ». Lonni Besançon et Guillaume Cabanac, deux des membres de cette équipe, nous présentent ici leurs résultats.  Pascal Guitton et Serge Abiteboul. Article publié en collaboration avec theconversation.

Les dessous de la manipulation

Le monde de la publication scientifique et son fonctionnement ainsi que ses potentiels travers et leurs causes sont des sujets récurrent de la vulgarisation scientifique. Cependant, nous allons ici nous pencher tout particulièrement sur nouveau type de dérive affectant les citations entre articles scientifiques, censées refléter les apports et influences intellectuelles d’un article cité sur l’article citant. Les citations de travaux scientifiques reposent sur un système de référencement qui est standardisé : les auteurs mentionnent explicitement dans le texte de leur article, a minima le titre de l’article cité, le nom de ses auteurs, l’année de publication, le nom de la revue ou de la conférence, les numéros de page… Ces informations apparaissent dans la bibliographe de l’article (une liste de références) et sont enregistrées sous forme de données annexes (non visibles dans le texte de l’article) qualifiées de métadonnées, notamment lors de l’attribution du DOI (Digital Object Identifier), un identifiant unique pour chaque publication scientifique. Les références d’une publication scientifique permettent, de façon simplifiée, aux auteurs de justifier des choix méthodologiques ou de rappeler les résultats d’études passées. Les références listées dans chaque article scientifique sont en fait la manifestation évidente de l’aspect itératif et collaboratif de la science. Cependant, certains acteurs peu scrupuleux ont visiblement ajouté des références supplémentaires, invisibles dans le texte, mais présentes dans les métadonnées de l’article pendant son enregistrement par les maisons d’édition (publishers). Résultat ? Les comptes de citations de certains chercheurs ou journaux explosent sans raison valable car ces références ne sont pas présentes dans les articles qui sont censés les citer.

Un nouveau type de fraude et une découverte opportuniste

Tout commence grâce à Guillaume Cabanac (Professeur à l’Université Toulouse 3 – Paul Sabatier) qui publie un rapport d’évaluation post-publication sur PubPeer, un site où les scientifiques discutent et analysent les publications. Il remarque une incohérence : un article, probablement frauduleux car présentant des expressions torturées [2], d’une revue scientifique a obtenu beaucoup plus de citations que de téléchargements, ce qui est très inhabituel. Ce post attire l’attention de plusieurs « détectives scientifiques » dont Lonni Besançon, Alexander Magazinov et Cyril Labbé. Ils essaient de retrouver, via un moteur de recherche scientifique, les articles citant l’article initial mais le moteur de recherche Google Scholar ne fournit aucun résultat alors que d’autres (Crossref, Dimensions) en trouvent. Il s’avère, en réalité, que Google Scholar et Crossref ou Dimensions n’utilisent pas le même procédé pour récupérer les citations : Google Scholar utilise le texte même de l’article scientifique alors que Crossref ou Dimensions utilisent les métadonnées de l’article que fournissent les maisons d’édition. 

Pour comprendre l’étendue de la manipulation, l’équipe examine alors trois revues scientifiques. Leur démarche comporte 3 étapes. Voici comment ils ont procédé:

  • dans les articles (HTML/PDF) : ils listent d’abord les références présentes explicitement dans les versions HTML ou PDF des articles ;
  • dans les métadonnées Crossref : Ensuite, ils comparent ces listes avec les métadonnées enregistrées par Crossref, une agence qui attribue les DOIs et leurs métadonnées. Les chercheurs découvrent que certaines références supplémentaires ont été ajoutées ici, mais n’apparaissaient pas dans les articles.
  • dans Dimensions : Enfin, les chercheurs vérifient une troisième source, Dimensions, une plateforme bibliométrique qui utilise les métadonnées de Crossref pour calculer les citations. Là encore, ils constatent des incohérences.

Le résultat ? Dans ces trois revues, au moins 9 % des références enregistrées étaient des « références furtives ». Ces références supplémentaires ne figurent pas dans les articles mais uniquement dans les métadonnées, faussant ainsi les comptes de citations et donnant un avantage injuste à certains auteurs. Certaines références réellement présentes dans les articles sont par ailleurs « perdues » dans les métadonnées.

Les implications et potentielles solutions

Pourquoi cette découverte est-elle importante ? Les comptes de citations influencent de façon pervasive les financements de recherche, les promotions académiques et les classements des institutions. Elles sont utilisées de façon différentesuivant les institutions et les pays mais jouent toujours un rôle dans ce genre de décisions. Une manipulation des citations peut par conséquent conduire à des injustices et à des décisions basées sur des données fausses. Plus inquiétant encore, cette découverte soulève des questions sur l’intégrité des systèmes de mesure de l’impact scientifique qui sont mises en avant depuis plusieurs années déjà [3]. En effet, beaucoup de chercheurs ont déjà, par le passé, souligné le fait que ces mesures pouvaient être manipulées mais surtout qu’elles engendraient une compétition malsaine entre chercheurs qui allaient, par conséquent, être tentés de prendre des raccourcis pour publier plus rapidement ou avoir de meilleurs résultats qui seraient donc plus cités. Une conséquence, potentiellement plus dramatique de ces mesures de productivité des chercheurs réside surtout dans le gâchis d’efforts et de ressources scientifiques dû à la compétition mise en place par ces mesures [5,6]. 

Pour lutter contre cette pratique, les chercheurs suggèrent plusieurs mesures :

  • Une vérification rigoureuse des métadonnées par les éditeurs et les agences comme Crossref.
  • Des audits indépendants pour s’assurer de la fiabilité des données.
  • Une transparence accrue dans la gestion des références et des citations.

Cette étude met en lumière l’importance de la précision et de l’intégrité des métadonnées car elles sont, elles aussi, sujettes à des manipulations. Il est également important de noter que Crossref et Dimensions ont confirmé les résultats de l’étude et qu’il semblerait que certaines corrections aient été apportées par la maison d’édition qui a manipulé les métadonnées confiées à Crossref et, par effet de bord, aux plateformes bibliométriques comme Dimensions. En attendant des mesures correctives, qui sont parfois très longues voire inexistantes [7], cette découverte rappelle la nécessité d’une vigilance constante dans le monde académique. 

Lonni Besançon, Assistant Professor, Linköping University, Sweden.

Guillaume Cabanac, professeur d’informatique à l’Université Toulouse 3 – Paul Sabatier, membre de l’Institut Universitaire de France (IUF), chercheur à l’Institut de recherche en informatique de Toulouse (IRIT).

[1] Besançon, L., Cabanac, G., Labbé, C., & Magazinov, A. (2024). Sneaked references: Fabricated reference metadata distort citation counts. Journal of the Association for Information Science and Technology, 112. https://doi.org/10.1002/asi.24896 

[2] Cabanac, G., Labbé, C., & Magazinov, A. (2021). Tortured phrases: A dubious writing style emerging in science. Evidence of critical issues affecting established journals. arXiv preprint arXiv:2107.06751.

[3] Crous CJ. The darker side of quantitative academic performance metrics. S Afr J Sci. 2019; 115:1–3. https://doi.org/10.17159/sajs.2019/5785.

[4] Academic Research in the 21st Century: Maintaining Scientific Integrity in a Climate of Perverse Incentives and Hypercompetition Marc A. Edwards and Siddhartha Roy Environmental Engineering Science 2017 34:1, 51-61

[5] Chalmers I, Glasziou P. Avoidable waste in the production and reporting of research evidence. The Lancet. 2009; 374(9683):86–9. https://doi.org/10.1016/S0140-6736(09)60329-9.

[6] Besançon, L., Peiffer-Smadja, N., Segalas, C. et al. Open science saves lives: lessons from the COVID-19 pandemic. BMC Med Res Methodol 21, 117 (2021). https://doi.org/10.1186/s12874-021-01304-y 

[7] Besançon L, Bik E, Heathers J, Meyerowitz-Katz G (2022) Correction of scientific literature: Too little, too late! PLoS Biol 20(3): e3001572. https://doi.org/10.1371/journal.pbio.3001572  

 

La souveraineté numérique avec le logiciel libre, grande absente de la campagne pour les Européennes en France

L’apport du logiciel libre pour la souveraineté numérique notamment en Europe commence à être compris. Pourtant, on peut s’inquiéter de l’absence de ce sujet dans la campagne pour les Européennes en France. Stéphane Fermigier, coprésident de l’Union des entreprises du logiciel libre et du numérique ouvert (CNLL, Conseil national du logiciel libre) aborde le sujet. Pierre Paradinas et Serge Abiteboul

La souveraineté numérique, que nous définirons comme une autonomie stratégique pour les États, les entreprises et les citoyens dans le domaine du numérique (logiciels, données, matériels, infrastructures…), apparaît sous-représentée dans le débat politique actuel, en particulier en France où la campagne pour les élections européennes ne met pas suffisamment en lumière cet enjeu crucial. Ce manque d’attention est préoccupant compte tenu de l’importance croissante des technologies numériques dans notre société et de notre dépendance envers des acteurs principalement américains et asiatiques.

Un peu de contexte

Le logiciel libre, ou open source, représente un pilier fondamental pour atteindre la souveraineté numérique. Ce type de logiciel, dont le code source est public et que chacun peut modifier, améliorer et redistribuer, accélère l’innovation ouverte, évite l’enfermement technologique (lock-in) au sein de plateformes propriétaires et renforce l’autodétermination numérique des utilisateurs. Selon la Commission européenne, l’open source « accroît notre capacité à agir de manière indépendante pour préserver nos intérêts, défendre les valeurs et le mode de vie européens et contribuer à façonner notre avenir.”

En dépit d’une contribution économique significative — représentant 10 % du marché des logiciels et services informatiques en France, soit plus de 6 milliards d’euros de chiffre d’affaires annuel — le logiciel libre ne reçoit pas l’attention politique proportionnelle à son impact. La législation française, notamment la Loi pour une République Numérique de 2016, a bien tenté de promouvoir son usage dans l’administration publique en “encourageant” son adoption, mais les initiatives restent insuffisantes.

À l’échelle de l’Union européenne, des efforts ont été entrepris, comme en témoignent les Stratégies Open Source de la Commission européenne pour les périodes 2014-2017 et 2020-2023, qui visent à augmenter la transparence, à améliorer la sécurité des systèmes informatiques et à stimuler l’innovation au sein des services publics. Toutefois, pour que l’Europe progresse réellement vers une autonomie numérique, il est essentiel que ces engagements soient non seulement renouvelés pour la mandature à venir du Parlement et de la Commission, mais aussi significativement élargis pour impacter plus que les services informatiques de la Commission, si importants soient-ils.

Les grands partis français aux abonnés absents

Le CNLL, qui représente la filière française des entreprises du logiciel libre, a élaboré et diffusé un questionnaire auprès des principaux partis candidats aux Européennes de juin. Aucun des grands partis sollicités à de multiples reprises et par différents canaux n’a donné suite.

Cette absence de réponse des grands partis est la marque soit d’un désintérêt, soit d’une absence d’expertise sur ces sujets cruciaux, et dans tous les cas nous apparaît comme une faute majeure face aux enjeux.

À ce jour, seuls deux petits partis, Volt France et le Parti Pirate, ont répondu à ce questionnaire (réponse de Voltréponse du Paris Pirate), en reconnaissant pleinement l’importance de la souveraineté numérique et en proposant des stratégies claires pour intégrer davantage le logiciel libre dans la politique numérique européenne.

Le Parti Pirate, fidèle à son engagement historique envers l’idéologie du logiciel libre, adopte le slogan “argent public, code public”, qui affirme que tous les logiciels financés par des ressources publiques doivent être libres et ouverts. Cette position s’inscrit dans une vision plus large visant à transformer l’administration publique en intégrant le logiciel libre pour renforcer l’indépendance, la transparence et réduire les coûts.

Volt France, de son côté, reconnaît également le rôle stratégique du logiciel libre dans la quête de souveraineté numérique, mais adopte une approche qui inclut la création d’une infrastructure numérique européenne autonome. Ils envisagent des mesures législatives et des financements spécifiques pour soutenir le logiciel libre, y compris un Small Business Act européen qui garantirait un soutien aux PME, notamment celles offrant des solutions de cloud et de logiciels libres. Cette initiative vise à favoriser la compétitivité et à réduire la dépendance vis-à-vis des géants technologiques non européens.

En comparaison, le Parti Pirate se concentre davantage sur les aspects éthiques et communautaires de la technologie, cherchant à démocratiser l’accès au logiciel libre et à en faire une norme dans toute l’administration publique, alors que Volt aligne ses initiatives sur les objectifs stratégiques plus larges de l’Union européenne, visant à positionner le continent comme un acteur compétitif et indépendant sur la scène numérique mondiale. Les deux partis promeuvent par ailleurs une intégration approfondie du logiciel libre dans les systèmes éducatifs pour sensibiliser et éduquer la prochaine génération sur les avantages de l’open source.

Que faire?

Les réponses de Volt France et du Parti Pirate, ainsi que celle des principaux partis allemands à un questionnaire similaire à celui du CNLL, nous donnent la matière à relancer le débat public sur la souveraineté numérique et le soutien à l’écosystème du logiciel libre en France et en Europe, en alignant de nombreuses propositions concrètes, au niveau national comme européen, autour d’une stratégie cohérente et volontariste, visant entre autres à soutenir un écosystème européen robuste de développeurs et d’entreprises spécialisées dans l’open source.

En premier lieu, il faut donner la priorité aux solutions open source dans les marchés publics, sauf lorsque des alternatives propriétaires sont absolument nécessaires. L’adoption d’une politique « Open Source First » au niveau de l’UE garantira que tous les nouveaux projets numériques financés par l’UE examinent d’abord les options open source. De plus, la stratégie numérique de l’UE devra être renouvelée pour inclure un soutien spécifique aux projets open source, en proposant des directives claires pour leur adoption et leur maintenance.

Pour financer efficacement cette transition vers l’open source, il faudra allouer au moins 10 % du budget numérique de l’UE au soutien direct de ces projets. Cela inclut des subventions pour la recherche et le développement, la création d’un fonds permanent pour l’open source visant à assurer l’amélioration continue et la sécurité des systèmes, ainsi que l’implémentation de métriques pour suivre et rapporter les progrès.

Le soutien aux petites et moyennes entreprises (PME) européennes spécialisées dans l’open source est également crucial, en leur garantissant une part significative de la commande publique (“Small Business Act”), par des allégements fiscaux ciblés et des subventions spécifiques, et par la facilitation de l’accès aux programmes de recherche financés par l’UE. Un réseau de clusters ou de hubs d’innovation open source à travers l’Europe fournira un soutien technique et commercial essentiel, ainsi que des fonds de démarrage pour les start-up du secteur.

En outre, pour combattre la pénurie de compétences et améliorer la compréhension des technologies ouvertes, il est vital d’intégrer l’éducation au logiciel libre (en tant qu’outil aussi bien qu’objet d’étude) dans les curriculums à tous les niveaux de l’éducation et par un soutien à des formations professionnelles, initiale et continue. L’UE pourra également financer une large campagne de sensibilisation aux avantages des technologies et des solutions open source.

Pour finir ce survol rapide, l’implication des communautés open source dans les processus législatifs et réglementaires est indispensable. La création d’un conseil consultatif européen sur l’open source, représentatif de la diversité de l’écosystème, permettra une interaction continue et productive entre les décideurs et la communauté open source, enrichissant ainsi la formulation des politiques numériques avec des recommandations éclairées et pragmatiques.

Observons qu’aucune de ces propositions ne tranche par sa radicalité. Pour ne donner qu’un exemple, la préférence pour le logiciel libre dans la commande publique est déjà inscrite dans la loi en Italie depuis 2012 et en France, pour le secteur plus restreint de l’enseignement supérieur, depuis 2013. La France se distingue par ailleurs par la notion d’ “encouragement” à l’utilisation du logiciel libre par l’administration, ainsi que l’obligation de “préserver la maîtrise, la pérennité et l’indépendance de [ses] systèmes d’information”, inscrites dans la loi République Numérique de 2016. D’autres propositions sont directement inspirées de rapports parlementaires, comme celui du député Philippe Latombe sur la souveraineté numérique.

Conclusion

La souveraineté numérique, bien que cruciale pour l’autonomie stratégique de l’Europe, est négligée dans la campagne actuelle pour les élections européennes en France. Seuls Volt France et le Parti Pirate ont réellement abordé ce sujet, et ont mis en avant l’importance des logiciels libres et de l’open source comme pilier de cette souveraineté. Leurs propositions convergent vers un renforcement de l’utilisation du logiciel libre dans les administrations publiques, l’éducation et le secteur privé pour garantir une Europe plus autonome et moins dépendante des géants technologiques extra-européens.

Il est essentiel que d’autres partis prennent également position sur ces enjeux pour enrichir le débat et proposer une politique numérique européenne cohérente et dynamique. Les mesures proposées, telles que l’adoption généralisée de solutions et technologies ouvertes, le soutien financier accru aux PME du secteur de l’open source, et la formation axée sur les technologies libres, sont fondamentales pour construire un écosystème numérique robuste et ouvert. Cela implique aussi et avant tout une volonté politique affirmée doublée d’une vision systématique, et notamment une collaboration étroite entre tous les acteurs de l’écosystème numérique européen ouvert. La prochaine législature européenne a ainsi une opportunité, mais également une responsabilité, de repenser profondément notre approche du numérique afin de construire un avenir numérique plus résilient et autonome pour l’Union européenne.

Stéfane Fermigier, co-président du CNLL et fondateur d’Abilian