Enseignement de l’informatique : quelle histoire !

Ça y est, nos jeunes apprennent enfin l’informatique à l’école, mais … comment en sommes-nous enfin arrivés là ? De nombreux acteurs ont œuvré avec acharnement depuis des décennies, au premier rang desquels se trouve l’association EPI qui fête ses 50 ans cette année. Jacques Baudé, son ancien président, nous raconte l’histoire du déploiement de l’informatique pédagogique dans l’enseignement général en France, des années 1950 à 2021. Au menu : les premiers équipements, séminaires, expériences dans des lycées, langage de programmation en français, introduction dans l’enseignement avec ses aléas, avant la mise en place de l’enseignement de l’informatique actuelle, fort aussi de travaux en didactique sur ces sujets.

 

Ayant vécu, comme acteur et témoin, ce demi siècle d’introduction de l’enseignement de l’informatique dans le système éducatif, Jacques Baudé  nous permet de refaire cet itinéraire, en rassemblant  pour les spécialistes quelques jalons des moments les plus importants, pour découvrir et aller plus loin dans la compréhension de cette période pas encore traitée par les historiens.
© Inria / Photo G. Scagnelli

En préambule au document en partage ci-dessous, nous vous proposons de tester vos connaissances sur cette histoire avec ce petit quiz :

1. L’informatique existait avant Internet et le web, mais quand ?
    1. Pas plus de 10 ans avant
    2. Environ 20 ans avant
    3. Au moins 30 ans avant
2. Y a-t-il eu des fabricants français d’ordinateur ?
    1. Bien sûr !
    2. Ah ben non
3. Quand sont apparus les tout premiers enseignements d’informatique dans le secondaire ?
    1. Dans les 60’s.
    2. Dans les 70’s.
    3. Dans les 80’s.
4. Au millénaire précédent, quels sont les deux ordinateurs de la liste ci-dessous utilisés pour l’enseignement ?
    1. TO 7.
    2. Mitra 15.
    3. Iphone 22.
    4. IBM 1234.
5. La spécialité enseignement NSI (Numérique et Sciences Informatiques) en classe de terminale :
    1. Existe depuis plus de dix ans.
    2. N’existe pas en France, mais uniquement aux États Unis et en Chine.
    3. Est déployée depuis 2020.
    4. N’existe heureusement pas, malgré des tentatives, de l’imposer.
6. Un algorithme, c’est :
    1. Une suite d’instructions et d’opérations réalisées, dans un ordre précis, pour résoudre un problème.
    2. Pour un nombre réel strictement positif a, son algorithme est le nombre en base b à la puissance de laquelle il faut élever b pour obtenir a.
    3. Le rythme musical que les informaticiens aiment fredonner en phase de codage.
    4. Un théorème du fameux algébriste Al Khawarizmi.
7. Apprendre l’informatique, ça veut dire ?
    1. Apprendre à écrire des logiciels, par exemple, coder des jeux.
    2. Comprendre comment fonctionnent et utiliser les réseaux sociaux.
    3. Connaître les principales technologies utilisées dans les ordinateurs et les réseaux.
    4. Maîtriser la pensée algorithmique.
    5. Pouvoir réparer l’ordinateur de mamie.
    6. Savoir écrire un logiciel en langage de programmation.
    7. Comprendre comment est codée l’information dans les données. numériques.
    8. Apprendre toutes les marques d’ordinateurs, leurs prix et leurs caractéristiques techniques.

Pour creuser vos connaissances sur le sujet, nous vous invitons à découvrir l’article de Jacques Baudé qui nous raconte cette grande et complexe aventure :

Éléments pour un historique de l’informatique dans l’enseignement général français. Sur sept décennies (PDF)

Et parce qu’on est sympa, vous pouvez aussi vérifier vos résultats :

1. C // 2. A // 3. B // 4. A et B // 5. C // 6. A // 7. A, B, C, D, F et G

Serge Abiteboul, Marie-Agnès Enard, Pascal Guitton & Thierry Viéville

 

Les USA, cible des rançongiciels et bouclier pour l’Europe ?

Attaquant autant les individus que les organisations (entreprises, hôpitaux…), les rançongiciels (ou ransomware en anglais) sont devenus un des fléaux les plus répandus dans le monde numérique. Nos amis Lorenzo Bernardi, Charles Cuveliez et Jean-Jacques Quisquater nous expliquent le fonctionnement de ces logiciels et s’interrogent sur les conséquences des législations qui sont discutées actuellement aux Etats-unis : déplaceront-elles les cibles de ces attaques vers d’autres zones géographiques ? Pascal Guitton et Thierry Viéville.

Le 13 octobre dernier, la députée LREM Valéria Faure-Muntian a publié un rapport pour l’Assemblée nationale relatif à la cyber-assurance qui préconise d’interdire aux assureurs de payer les rançons. C’est un choix sociétal qui a pris de l’avance outre-Atlantique avec une effervescence législative dans le même sens : interdire le paiement des rançons pour stopper cette criminalité très rentable. De fait, si la France et l’Europe ne font rien, les hackers risquent de déferler chez nous si, aux USA, il n’est plus possible de payer (discrètement) les rançons.  La sénatrice démocrate E. Warren a ainsi proposé une loi qui imposerait de déclarer les paiements de rançon dans les 48 heures pour toutes les sociétés. Un site web serait mis en place pour permettre aussi à tout un chacun de déclarer sur base volontaire les paiements de rançon. Le Department of Homeland Security ou DHS (le ministère américain de l’intérieur) aurait alors la tâche d’exploiter ces données (le montant, les devises utilisées – crypto ou pas – et tout ce que la victime a pu comprendre/apprendre du gang avec qui il a négocié).

Image de Maulucioni extraite du site WikiMedia.

L’objectif ? Comprendre l’écosystème criminel, dans une optique ‘follow the money’ qui manque, c’est vrai, à la plupart des lois qui imposent de notifier des incidents de sécurité. Cela dit, une telle obligation et la publicité négative qui en résulterait pourraient aussi dissuader les entreprises de payer la rançon et les conduire à se mettre ainsi dans une situation parfois irrécupérable.

Déclarer un incident dans un laps de temps aussi court, en pleine crise, n’est pas un cadeau : il y a d’autres priorités à gérer. Ce n’est pas comme rapporter une brèche de sécurité dans les 72 heures de sa découverte comme l’impose le RGPD : une fois découverte, elle a déjà eu lieu et il n’y a plus rien à gérer d’autre que les dégâts, déjà actés.

Dans une autre proposition de loi, elle aussi déposée en septembre, c’est dans les 24 heures cette fois que les organisations de plus de 50 personnes seraient obligée de déclarer le paiement de rançon et les opérateurs d’infrastructure critiques devraient rapporter leurs incidents de sécurité  dans les 72 heures. Les autorités devraient poursuivre activement toutes les sociétés qui ne respecteraient pas cette obligation et leur interdire de devenir sous-traitant des administrations fédérales. L’autorité compétente, le CISA (agence américaine de cybersécurité et de sécurité des infrastructures), aurait ainsi, d’après les auteurs de la loi, une vue globale des cyberattaques sur le territoire américain.

Cryptomonnaie aussi

Les cryptomonnaies ne sont pas oubliées : une proposition de loi du Sénat américain chargerait le département du Trésor de suivre activement le minage des cryptomonnaies dans le monde. Le résultat de leur analyse serait communiqué au Congrès :  il s’agirait de voir quel pays régule ou, au contraire, encourage les cryptomonnaies. Il faut dire qu’en plus d’être un moyen de paiement des rançons, elles sont accusées de bien d’autres maux : redémarrage des centrales à charbon pour faire face à la demande d’électricité pour le minage, pénurie de microprocesseurs et hausse des prix, dues, dit-on, à la demande de puces pour le minage aussi. On imagine facilement l’étape suivante : les USA qui appliqueraient des sanctions aux pays trop complaisants. La Chine n’en ferait pas partie car elle vient d’interdire toutes les transactions en cryptomonnaie.

La soudaine inflation de lois, très opérationnelles, du côté US est impressionnante. Elle traduit et s’attaque au manque de compréhension des rançongiciels, à leur étendue et aux dégâts qu’elle engendre. Le FBI, dans une audition au Sénat en marge du dépôt de ces lois, a annoncé qu’en 2020, 350 millions de dollars avaient été payés en rançon rien qu’aux USA, une augmentation de 311 % par rapport à 2019. La moyenne des rançons payées est de 300 000 USD.

La victime idéale

Aucun pays européen ne va aussi loin et encore moins la Commission européenne au nom de tous. Mais on peut se demander si les USA ne sont pas déjà en retard d’une guerre : la société KE-LA connue pour ses capacités d’infiltration du dark web a mis en évidence le profil idéal de victime d’un rançongiciel en analysant les forums d’acheteurs d’accès aux entreprises. Car les hackers ne veulent plus perdre de temps à d’abord pénétrer dans le réseau des victimes. Leur temps précieux se concentre sur l’attaque et le blocage de l’entreprise, la partie utile, en fait.

Par profil idéal, il faut comprendre le portrait de la société qui paiera facilement une rançon. Elle est américaine, avec un chiffre d’affaires de 100 millions de dollars. Pour la moitié des acheteurs d’accès, qui, au fond, sur ces forums, ne font rien d’autre que de publier un cahier de charge, la victime ne doit pas être active dans le secteur médical ni dans l’éducation, un peu pour des raisons éthiques disent-ils, un peu parce qu’elles n’auront pas les moyens de payer la rançon.

L’accès est payé jusqu’à 100 000 USD, en moyenne 56 000 USD. Il peut aussi y avoir une partie de la rançon partagée. L’accès n’est pas forcément un accès au réseau de la victime lui-même mais toute forme de point d’entrée : dans une base de données, un serveur courriel (comme ce fut le cas pour la vulnérabilité sir Microsoft Exchange), un site web. Si cet accès ne peut être utilisé pour répandre un rançongiciel, il servira à bien d’autres « plaisirs » : minage, installation d’un malware qui sera ensuite redistribué aux gens qui vont sur le site désormais contaminé, collecte de données dans la base de données infiltrée, utilisation des ressources infiltrées pour du spam ou phishing. Les Etats-unis sont de loin le pays  le plus recherché dans les « cahiers des charges » avec 47 % des demandes. Le Canada vient ensuite pour 37 %, l’Australie pour 37 % et enfin, l’Europe, tous pays confondus pour 31 %. Que se passera-t-il quand les 47 % d‘attaques vers les USA devront trouver d’autres preneurs ? Et évidemment, les pays de l’ex-Union Soviétique restent toujours en dehors des accès recherchés, comme quoi règne toujours la règle selon laquelle on ne mord pas la main de celui qui vous nourrit.

Comment se fait-on piéger par un rançongiciel ?

Qu’on se le dise, puisque la vague américaine de rançongiciels va refluer vers nos côtes : les emails restent un point d’entrée préféré, car simple, des rançongiciels, via une pièce attachée ou un lien à cliquer vers un exécutable qui relâche un ransomware. Il y a aussi les sites web infectés, sous le contrôle des pirates, à partir desquels rien qu’en y navigant ou en cliquant sur un lien, un malware ou un rançongiciel peut être téléchargé sur votre machine. Ce malware pénètre via des plugins vulnérables du navigateur web et arrive en arrière-plan sans qu’on s’en rende compte. Ces points d’entrée un peu trop évidents pour lesquels l’utilisateur final porte hélas souvent une lourde responsabilité de leur donner une suite justifient, ô combien, les ennuyantes restrictions que les salariés rencontrent dans leur entreprise : ne pas pouvoir accéder à un site web sans qu’il ne passe par un filtre de classification de son contenu et de reconnaissance de son innocuité (au point de devoir attendre 24 heures si ce site n’a jamais été identifié auparavant). Les liens dans les emails ne sont plus cliquables tels quels : ils vous redirigent vers un site relais qui sert de bouclier testeur du site réellement accédé auquel vous n’accéderez d’ailleurs qu’à travers ce bouclier.

Image extraite du site wezengroup

Il y a des rançongiciels plus sophistiqués qui tirent profit de vulnérabilités non corrigées dans le système IT de l’organisation qui auront été identifiées auparavant par d’autres. Pour échapper à la détection, le rançongiciel peut s’installer morceau par morceau mais en tout cas, une fois qu’il s’active, après avoir bien reconnu le réseau de la victime, on estime qu’il peut chiffrer 1000 fichiers sur un laps de temps entre 16 s et 18 min (pour échapper à la détection de par sa lenteur). Soit le rançongiciel chiffre à l’aide des primitives de chiffrement contenus dans le système d’exploitation de la machine même (Linux, iOS, Windows), soit ce sont des primitives de chiffrement faites maison pour leurrer les outils de détection qu’un processus de chiffrage est en cours d’exécution. Souvent, des copies des fichiers de la victime sont exfiltrées avant leurs chiffrements avec une menace de les dévoiler publiquement si l’entreprise ne paie pas la rançon. Mais la tentation de payer (et de ne rien dire) l’emporte car si bâtir une réputation exige beaucoup de temps, il peut suffire d’un cyber incident pour la détruire. Et pourtant, ce souci de discrétion est souvent vain car sur les forums spécialisés dans le dark web, les gangs de rançongiciels auront tôt fait d’annoncer qu’ils ont frappé une nouvelle victime, non pour se vanter mais pour avertir d’autres acteurs de la chaîne de valeur qu’ils peuvent prendre le relais (récolter le paiement,…). C’est la raison pour laquelle il vaut mieux, en tant que victime être le premier à annoncer avoir été impacté par un rançongiciel : la transparence paie et montrera que vous gérez la situation. Autre erreur fatale : rapidement réinstaller les machines, ne garder aucune trace de ce qui s’est passé. C’est permettre au hacker de revenir par la même porte par laquelle il est entré la première fois car on n’aura pas pris le temps de comprendre comment il a pu venir. Effacer les fichiers chiffrés ou redémarrer les machines pour stopper le rançongiciel sont des réflexes naturels mais, dans un cas, on perd aussi la clé de déchiffrement qui se trouve parfois cachée dans le fichier chiffré. Dans le deuxième cas, le hacker peut le repérer et bloquer la machine elle-même en représailles.

Tout sauf paniquer

Quand un rançongiciel est détecté, il faut déconnecter les machines infectées, déconnecter le réseau et les espaces de stockage partagés (et ce n’est pas le moment de chercher la carte du réseau). Les réseaux en un seul tenant seront désavantagés car on ne pourra pas en isoler certaines parties.  Il faut sécuriser ses sauvegardes, les déconnecter si possible, stopper toutes les synchronisations entre serveurs qui propageraient les fichiers chiffrés à la place du rançongiciel. Toutes les techniques qui permettent de se mouvoir latéralement dans le réseau doivent être désactivées (veillez à les documenter et à les connaitre pour votre propre réseau) comme par exemple les serveurs virtuels reliant des serveurs physiques et les machines virtuelles (stoppez-les quand c’est possible, ne les éteignez pas car ils peuvent contenir des infos précieuses sur le rançongiciel, les clés utilisées pour chiffrer,…).. Et ce n’est pas parce qu’un rançongiciel a été détecté et isolé que vous en êtes quitte.  Certains sont disséminés en plusieurs exemplaires sur le réseau pour prendre le relais en cas d’isolement et de neutralisation du premier.

Il est intéressant de déterminer le type de ransomware qui vous a frappé, par exemple via le message que vous aurez reçu : vous pourrez alors à l’aide d’experts déterminer son modus operandi et mieux réagir qu’en mode « on déconnecte tout, on réfléchit après ». Vous saurez ainsi, par l’expérience d’autrui, si ce rançongiciel peut redémarrer plus tard quand vous pensez qu’il a fini son œuvre ou s’il est susceptible de revenir après un redémarrage, ce qui pose la question de sa persistance dans le réseau. Il faut aussi déterminer par où il a pénétré dans votre système car en fonction de ce point d’entrée, vous saurez quelle partie du réseau sera atteinte et quelles parties ne le seront pas, si vous avez appliqué une politique de segmentation forte du réseau. Cela ne sert à rien de stopper toute l’entreprise si on peut l’éviter mais qui arrive à garder la tête froide dans de telles circonstances ?

Quant à la question des outils de déchiffrement offerts par les autorités, ils fonctionneront d‘autant mieux que vous aurez été frappé par un rançongiciel ancien. Mais il en existe peu pour les rançongiciels récents. Quant aux sauvegardes, préparez-vous à être déçus : peu de sociétés en possèdent qui soient intégraux, les seuls capables de restaurer votre environnement dans l’état où il était avant l’attaque.  La plupart des organisations ont des sauvegardes fragmentées mises en place pour tenir compte d’une corruption isolée d’une base de données, d’un crash disque et non pas d’un chiffrement 360° de toute votre informatique.

L’initiative des Etats-Unis montrera qu’agir seul en cybersécurité ne supprime pas la menace, elle la déplace : c’est l’Europe et l’Asie qui vont hériter du dynamisme du marché des rançongiciels. L’OCDE vient de se mettre d’accord sur une taxe minimum pour les GAFAs. Et si les initiatives législatives pour tarir les flux financiers des rançongiciels (et au passage pour cadrer les cryptomonnaies) se prenaient à ce niveau aussi.

Lorenzo Bernardi (Offensive Security Lead, Ernst & Young), Charles Cuvelliez (Ecole Polytechnique de Bruxelles, Université de Bruxelles) et Jean-Jacques Quisquater (Ecole Polytechnique de Louvain, Université de Louvain).

 

 

Pour un développement des IAs respectueux de la vie privée

Une matinée d’étude sur les Intelligences Artificielles (IA)s et la vie privée a été organisée par les projets Digitrust et OLKi de Lorraine Université d’Excellence le 10 juin. Cette matinée, animée par Cyrille Imbert, philosophe des sciences au CNRS, était centrée sur la restitution de la charte « Pour un développement des IAs respectueux de la vie privée »  rédigée par Maël Pégny, chercheur à l’Université de Tübingen, lors de son post-doctorat à OLKi. La charte introduit un certain nombre de principes pour des IA respectueuses de la vie privée mais dont la mise en œuvre n’est pas toujours évidente et qui ont été discutés au cours des différentes interventions. Compte-rendu. Ikram Chraibi Kaadoud et Laurence Chevillot.
Maël Pegny, Chercheur post-doctoral en Ethique en IA à l’Université de Tübingen, auteur de charte « Les 10 principes de l’éthique en IA »

Pour Maël Pégny il s’agit de proposer aux développeurs et développeuses un cadre éthique et opérationnel permettant le respect de la vie privée par les IAs, en intégrant l’éthique dès les premières phases du développement. L’objectif de la charte est d’inciter les programmeurs et programmeuses à se positionner sur ces problématiques. Elle est dédiée essentiellement aux défis posés à l’éthique dès la conception par la reconstitution des données d’entraînement à partir de modèles d’IA  et le pouvoir prédictif trop fin.

Contexte

Dans un modèle d’apprentissage machine, la  distinction entre programme et données n’est pas claire car les paramètres du programme sont déterminés par entraînement sur une base de données particulières. Certaines attaques permettent une reconstitution des données d’entraînement à partir des informations encodées dans les paramètres du modèle : on parle alors de “rétro-ingénierie” des données. Si le modèle a été entraîné sur des données personnelles, on peut ainsi retrouver celles-ci, même si elles ont été détruites après l’entraînement du modèle. Donc si un modèle entraîné lambda est sous licence libre, ses paramètres  sont en libre accès. Il se pose alors la question  de la protection des données personnelles incluses dans le modèle. Ces attaques sur les modèles d’IA représentent donc un point de tension entre l’ouverture du logiciel et le respect de la protection des données personnelles. Cette tension devrait devenir un enjeu de positionnement pour les partisans du logiciel libre, des communs numériques et de la reproductibilité de la recherche. Ce problème éthique se pose dans la configuration technologique présente car, s’il existe des techniques de protection contre ces attaques de rétro-ingénierie, il n’existe pas de barrière de sécurité mathématiquement prouvée offrant une garantie absolue contre elles.

L’intelligence artificielle au service des humains. ©Blurredculture.com

Le développement d’un pouvoir prédictif trop fin de certains modèles d’IA peut également poser des problèmes éthiques complexes. Par exemple, un logiciel de complétion textuelle fondé sur l’apprentissage machine peut ainsi permettre de trouver le numéro de carte de crédit de l’utilisateur en tapant la phrase « Mon numéro de carte de crédit est… ». Là encore, cette attaque demeure possible même si on détruit les données brutes de l’utilisateur, parce que les informations personnelles ont été encodées dans le modèle durant son interaction avec l’utilisateur. Il s’agit bien d’un pouvoir prédictif trop fin, et d’ailleurs imprévu, car le logiciel de complétion est fait pour apprendre les pratiques d’écriture de l’utilisateur, et non ses données personnelles. Attention toutefois à ne pas confondre le problème de pouvoir prédictif trop fin avec la suroptimisation ou le phénomène de sur-apprentissage (l’apprentissage des données par cœur plutôt que de caractéristiques généralisables), car il peut survenir très tôt dans l’apprentissage. Pour protéger les données personnelles, il convient donc aussi de veiller au respect de sa spécification par le modèle d’apprentissage machine.

La Charte: les 10 principes de l’éthique en IA

Le triangle éthique avec les trois pôles d’une carte éthique @wikicommon
HAL est une plateforme en ligne du CNRS, destinée au dépôt et à la diffusion de travaux de recherches (articles scientifiques, rapports techniques, manuscrit de thèse etc.) de chercheurs, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. L’accès aux données est libre et gratuit, mais pas nécessairement leur utilisation ou réutilisation. @Wikipedia

La charte, disponible sur la plateforme HAL du CNRS au lien ici, énonce dix principes que l’on peut résumer ainsi :

Principe 1 – Dans le cadre de recherches scientifiques, déclarer les finalités et l’extension nécessaire de la collecte, puis apporter une justification scientifique à tout écart à cette déclaration initiale, en discutant ces possibles impacts sur la vie privée .

Principe 2 – Tester et questionner les performances finales du modèle par rapport à la finalité déclarée, et veiller à éviter l’apparition d’un pouvoir prédictif trop fin .

Principe 3 –  Prendre en compte le respect de la vie privée dans l’arbitrage entre suroptimisation et perte de performances.

Principe 4  – Entraîner son modèle sans faire usage de données personnelles. Si cela est impossible, voir les principes plus faibles 5 et 6.

Principe 5 – Entraîner son modèle sans faire usage de données personnelles dont la diffusion pourrait porter atteinte aux droits des personnes.

Principe 6 – Entraîner son modèle sans faire usage de données ayant fait l’objet d’un geste explicite de publication. 

Principe 7  – Si le recours à des données personnelles est inévitable, déclarer les raisons justifiant ce recours, ainsi que les mesures prises contre la rétro-ingénierie des données et leur complétude par rapport à l’état de l’art.

Principe 8 – Diffuser en licence libre tous les outils de lutte contre la rétro-ingénierie. 

Principe 9 – Si le principe 8 n’entraîne pas de risque de sécurité intolérable, mettre le modèle à disposition de tous afin que chacun puisse vérifier les propriétés de sécurité, et justifier explicitement la décision prise.

Principe 10 – La restriction de l’accès à un modèle entraîné sur des données personnelles ne peut être justifiée que par des enjeux d’une gravité tels qu’ils dépassent les considérations précédentes. Cette exception doit être soigneusement justifiée, l’emploi du modèle devant être réduit dans sa temporalité et ses modalités par les raisons justifiant l’exception. L’exception doit être justifiée en des termes prenant en compte la spécificité scientifique des modèles d’apprentissage machine, comme la capacité à apprendre en temps réel de grandes masses de données, l’opacité du fonctionnement et son évolution, et leurs performances comparées aux autres modèles.

Pour être bien compris, ces principes appellent quelques commentaires: 

Le premier principe est conçu pour encadrer la liberté donnée par le droit existant à la recherche scientifique de modifier la finalité du traitement et l’extension de la collecte des données, contrairement aux autres activités de développement où la collecte est restreinte à ce qui est nécessaire à une finalité pré-déclarée. Il s’agit d’instaurer une traçabilité des décisions d’extension de la collecte, et une prise en compte systématique de leurs risques en termes de respect de la vie privée.

L’invitation à ne pas utiliser de données personnelles ne vise naturellement pas à interdire tout entraînement de modèle sur des données personnelles, qui est incontournable pour nombre d’applications de grand intérêt comme la recherche médicale. Il vise seulement à empêcher de considérer la collecte de données personnelles comme une évidence par défaut, et s’interroger sur la possibilité de stratégies de contournement employant des données moins problématiques.

Les principes 5 et 6 ne peuvent être compris que si l’on voit que l’extension du concept de donnée personnelle est extrêmement large, un fait radicalement sous-estimé par le grand public. Elle comprend toute donnée concernant une personne physique (vivante). Non seulement cela n’est en aucun cas restreint à des données qu’on qualifierait intuitivement de « privées » ou « sensibles, » mais il comprend des données publiques par nature : par exemple, la phrase « Madame Diomandé est maire de sa commune. » comprend une donnée personnelle sur Madame Diomandé que personne ne songerait à qualifier de privée. Il convient donc de s’interroger sur la possibilité de restreindre la collecte des données personnelles à un sous-ensemble non-problématique.  L’exclusion des données considérées « sensibles », considérée dans le principe 5, fait l’objet de travaux techniques aux performances intéressantes, mais pose de redoutables problèmes de définition et d’opérationnalisation. La restriction aux données faisant l’objet d’un geste de publication explicite, explorée dans le principe 6, peut sembler une solution simple et pratique. Mais il convient de rappeler qu’une personne peut porter atteinte à la vie privée d’une autre dans ses publications, et que le geste de publication n’est pas un solde de tout compte pour le droit des données : l’exercice des droits à rectifier des informations erronées, à retirer une publication, à l’effacement (« droit à l’oubli ») et leurs difficiles opérationnalisations face aux modèles d’apprentissage machine posent de nombreux défis.

La mise sous licence libre des outils de lutte contre la rétro-ingénierie (principe 7) et l’ouverture des modèles à la vérification (principe 8) constitue une forme d’approche libriste des modèles d’apprentissage machine : ces modèles doivent être ouverts à tous non seulement pour respecter les principes fondamentaux du logiciel libre, mais aussi pour vérifier leur respect de la vie privée. Cette ouverture pose cependant le problème redoutable du « vérificateur voleur » : en ouvrant ainsi les modèles à la vérification en l’absence actuelle de barrières de sécurité dures, on crée la possibilité d’atteintes à la vie privée. Nous ouvrons donc la possibilité de limiter l’application stricte des principes libristes dans le dernier principe : s’il est absolument indispensable d’entraîner un modèle sur des données personnelles sensibles, et que son ouverture à la vérification publique présentait un grave danger de « vérificateur voleur », il est possible de justifier une exception à la perspective libriste stricte. Il est légitime de craindre que l’introduction d’une exception ouvre la porte à la violation massive de la perspective libriste dans la pratique. Trancher la question d’une approche libriste stricte aurait cependant supposer de s’engager dans des débats philosophiques bien au-delà de la portée de cette charte. Doit-on par exemple autoriser l’entraînement d’un modèle de Traitement Automatique de la Langue sur des quantités énormes de données tirées des réseaux sociaux si cela permet de mieux suivre la progression d’une pandémie ? La charte a donc choisi de rester modeste, et d’ouvrir le débat en demandant avant tout à chacun de prendre position explicitement et honnêtement, en prenant en compte les risques politiques autant que techniques de chaque position. La charte a avant tout été conçue pour montrer que la conciliation du développement de l’apprentissage machine avec le respect de la vie privée pose un problème fondamental aux communautés du logiciel libre, des communs numériques et de la reproductibilité, et que ce problème mérite d’être discuté. Les principes de la charte sont introduits non pas tant pour susciter des adhésions que pour susciter des réactions et la discussion de cas, qui permettra un véritable retour sur expérience sur l’opérationnalisation de ces principes : il ne faut pas séparer opérationnalisation et question de principe.

Une charte opérationnelle nécessaire .. mais de nombreuses questions encore en suspens

Marc Anderson, philosophe et chercheur.

Marc Anderson, philosophe canadien en post-doctorat au LORIA, spécialiste de l’éthique de l’IA et militant libriste (un libriste est une personne attachée aux valeurs éthiques véhiculées par le logiciel libre et la culture libre en général. @wikipedia), a noté qu’en général les chartes sont peu ancrées dans la réalité mais que cette charte a au contraire le mérite d’introduire des suggestions précises dans ses principes : une approche progressive dans l’exclusion des données, une mention directe des propriétés singulières des modèles de l’apprentissage automatique, l’incitation à entraîner les modèles sans données personnelles. Il souligne l’importance du contexte pour décider du niveau de protection des données personnelles (par exemple pour les cookies* des sites web, quelles sont les sociétés qui ont accès à nos données?), d’où l’importance de travailler directement avec les concepteurs d’IAs. 

Les cookies des sites web sont de petits fichiers de texte qui sont enregistrés sur l’ordinateur d’un utilisateur à chaque fois qu’il visite un site. Ni logiciels espions ni virus, ils peuvent toutefois servir au pistage de l’activité internet d’un utilisateur.

Maël Pégny a remarqué qu’un autre problème difficile à aborder est celui de l’inférence de données sensibles à partir de données publiques, que les capacités statistiques accrues de l’apprentissage automatique ont contribué à rendre plus fréquentes. On peut ainsi inférer avec une confiance forte votre orientation sexuelle à partir de vos activités sur les réseaux sociaux, ou votre état de santé, comme une possible maladie neuro-dégénérative, à partir de vos activités sur les moteurs de recherche. Comme le proposent un bon nombre de juristes, il devient nécessaire non seulement de reconceptualiser la portée et de lever les ambiguïtés de la notion de données personnelles, mais aussi d’étendre le droit au-delà des données brutes pour réguler les inférences.

Bastien Guerry, militant libriste

Bastien Guerry, militant libriste, remarque qu’un modèle d’apprentissage se rapproche plus d’un programme compilé et qu’il n’existe pas encore de bonnes pratiques de publication pour ce type d’objets. La publication des éléments entrant dans la construction d’un modèle crée un dilemme éthique : les licences libres visent à permettre à l’utilisateur de se réapproprier les codes sources pour lutter contre l’asymétrie de pouvoir entre les producteurs de logiciels et les utilisateurs, mais dans le cas de modèles d’IA, une telle publication entre en conflit avec le besoin de respecter la vie privée. Bastien Guerry note la difficulté de définir une éthique pour la production et la publication de modèles d’apprentissage. Si les données sont gardées secrètes se pose le problème de la reproductibilité des résultats. Si des données personnelles, même publiques, sont utilisées se pose le problème du consentement. Il indique aussi qu’il faut distinguer deux points de vue libristes sur le traitement des données personnelles. Une position forte, qui proscrirait de confier le traitement des données personnelles à un tiers. Une position souple, qui autoriserait de confier des données à un tiers de confiance si celui-ci s’engage à respecter un cadre éthique*. La charte n’est pas acceptable du point de vue de la position forte.

 Les positions forte et souple sont défendues respectivement par Richard M.  Stallman, fondateur du mouvement du logiciel libre, et Bastien Sibille, président et fondateur de Mobicoop, une plateforme coopérative de covoiturage.  Voir le débat sur les logiciels libres et les plateformes coopératives.

Daniel Adler, mathématicien et philosophe français.

Daniel Andler, professeur émérite de philosophie à Paris-Sorbonne et membre de l’Académie des sciences morales et politiques, considère que la charte a pour principale vertu de susciter des réactions. Comme désormais toute donnée publique est trouvable et exploitable, faut-il accepter que le domaine privé a disparu ? Il suggère de développer une éthique pratique de terrain non généralisable, pour arbitrer chaque cas.  L’approche d’éthique dès la conception laissée à elle-même est insuffisante : il faut également proposer des mesures de répression du mauvais usage de l’IA. Pour Maël Pégny, une telle remarque est compatible avec l’esprit de la charte. Celle-ci insiste en introduction sur l’impossibilité de résoudre tous les problèmes éthiques en amont, et sur la nécessité d’empêcher les institutions d’utiliser le label « éthique dès la conception » comme un blanc-seing (Feuille blanche sur laquelle on appose sa signature et que l’on confie à quelqu’un pour qu’il la remplisse lui-même @Larousse) les protégeant à l’avance de toute critique. Le développement éthique doit être pensé sur tout le cycle de vie du logiciel, et comprendre un retour sur expérience incluant les problèmes éthiques imprévus rencontrés après le déploiement : c’est l’une des principales raisons pour laquelle la charte invite à ne séparer discussion de principe et discussion de l’opérationnalisation.

Le mouvement du libre a incité des développeurs à prendre conscience de la responsabilité qu’ils ont dans le respect des libertés des utilisateurs ; un mouvement éthique comparable doit naître pour inciter les datascientistes à respecter la vie privée des personnes dont ils manipulent les données.

Tristan Unsearched

Imaginez-vous élu ou agent d’une collectivité territoriale. Vous devez vous assurer de pouvoir fournir une information administrative officielle et sûre à vos usagers. Et si votre moteur de recherche pouvait vous aider dans cette tâche ? Unsearch, projet de startup accompagné par le Startup Studio Inria, propose depuis 2020 « Sources de confiance », une technologie et une extension facile à installer et qui affiche les résultats de votre requête en distinguant celles provenant de sources officielles (administration, établissements publics ou universitaires). Tristan Nitot, figure majeure du web et de l’Open-Source, fait partie de cette aventure et nous l’explique avec enthousiasme. Tristan a fondé l’association Mozilla Europe en 2003. Depuis il a travaillé pour Cozy Cloud (une plateforme auto-hébergée, extensible et open source de cloud personnel)  et Qwant (un moteur de recherche Européen qui ne trace pas l’activité de ses utilisateurs) jusqu’en mars 2020.

 

Binaire : Raconte-nous l’histoire d’Unsearch ?

Tristan Nitot : C’est une histoire très récente. Le projet de startup Unsearch a été lancé début 2020 par un copain, Jean-Baptiste Piacentino (aka JB), qui a travaillé en collaboration avec l’association Villes Internet et un financement de la Banque Française Mutualiste sur un produit permettant d’optimiser la qualité et l’usage des informations données aux usagers en facilitant l’accès aux informations officielles des administrations. Sources de confiance (SdC pour faire court) a vu le jour. En janvier 2021, j’ai rejoint JB pour lancer la V2 et en avril, nous étions soutenus par le Startup Studio Inria pour accompagner la création d’une startup.

B : Il va falloir nous dire ce que fait « Sources de confiance ».

TN : C’est une extension qu’on installe facilement dans son navigateur (aujourd’hui, nous supportons Google, Qwant et Bing) et qui permet de préciser parmi les réponses du moteur de recherche celles qui viennent d’une source considérée comme fiable. Cela ne change pas les habitudes des usagers. Une marque verte, apparaissant à droite de chaque source fiable,  comme l’illustre la capture d’écran ci-dessous.

En cliquant sur un onglet (ajouté par l’extension) vous pouvez ne conserver que les résultats validés par SdC. Vous affichez ainsi uniquement les sites officiels de l’administration.

Cette technologie modifie donc à la volée le contenu de votre affichage. Lors de votre recherche, la connexion se fait sur le serveur d’Unsearch qui va trier les pointeurs correspondants à la requête dans une “liste blanche”. Cette liste de 65 000 sites de l’administration, d’établissements publics et universitaires a été concoctée par SdC avec l’aide de l’association Villes Internet et correspond aux besoins des usagers des collectivités.

Unsearch ne modifie pas le classement des pages basé sur la popularité proposé par Google, mais permet de filtrer parmi ces pages celles qui sont considérées comme fiables. Même si la première page n’apparaît que dans la deuxième ou troisième page de résultats Google, elle est facilement accessible.

Une version pro est en phase finale de développement qui permettra aux collectivités d’afficher des ressources informatives supplémentaires comme l’annuaire des administrations, les textes de références types juridiques, et l’actualité des sites administratifs, un peu à la manière des infobox de Google, sur la base d’un moteur de recherche spécialisé que nous concevons.

B : A qui s’adresse cet outil ?

TN : Unsearch a développé Sources de confiance spécifiquement pour un public d’élus et d’agents des collectivités mais la technologie proposée permet de créer une large gamme de moteurs de recherche spécialisés. Par exemple, on pourrait considérer un outil pour des enseignants à la recherche de contenus pédagogiques certifiés, un autre pour des personnels de santé pour des informations médicales fiables, un autre pour des chercheurs d’emplois pour accéder à des sites appropriés. Unsearch a aussi des connecteurs permettant aux entreprises et établissements publics d’utiliser le moteur de recherche habituel pour exposer des informations pertinentes provenant de leurs intranets.

B : Tu nous as habitué à chercher du sens dans les logiciels pour lesquels tu travailles. Quel sens doit-on chercher dans Unsearch ?

TN : Je suis attaché à la notion de confiance et d’éthique. Avec JB nous sommes tous les deux très sensibles à des projets qui donnent aux usagers des informations qui les aident à mieux sensibiliser ou éclairer les usages. Nous avons évidemment envie que Unsearch soit viable économiquement mais nous mettons en priorité certaines valeurs éthiques et d’utilité publique. On ne se refait pas !

Serge Abiteboul, Inria et ENS, Paris, et Marie-Agnès Enard, Inria

Odyssée urbaine autour de la transition numérique

Nous vous invitons à partager les réflexions déambulatoires de Sylvain Petitjean et Samuel Nowakowski à l’occasion de la parution du livre « Demain est-il ailleurs ? Odyssée urbaine autour de la transition numérique ». La qualité de leurs échanges et de leurs questionnements sur l’impact du numérique dans notre société nous ont donné envie de les partager sur binaire. Avec l’aimable autorisation des auteurs et du site Pixees, nous republions l’intégralité de l’article. Marie-Agnès Enard et Thierry Vieville.

Couverture du livre Demain est-il ailleurs ?

Ce texte est un échange épistolaire qui s’est installé suite à la parution du livre «Demain est-il ailleurs ? Odyssée urbaine autour de la transition numérique» co-écrit par Bruno Cohen, scénographe, réalisateur et metteur en scène, et Samuel Nowakowski, maître de conférences à l’université de Lorraine et chercheur au LORIA.

Paru en octobre 2020 chez FYP Editions, ce livre rassemble les rencontres avec celles et ceux qui vivent aujourd’hui cette transformation radicale. Au cours d’une déambulation de 24 heures dans la ville, les personnes rencontrées abordent les notions de temps, parlent du déséquilibre, de leurs incertitudes et du mal-être, mais aussi de leurs émerveillements et de leurs rêves. Elles questionnent des thèmes centraux de notre société que sont la surveillance, le contrôle, le développement d’un capitalisme numérique prédateur. Elles parlent aussi de cet ailleurs des pionniers qui s’est matérialisé dans nos sociétés en réseau, traversées par les nécessaires réflexions à mener sur l’éthique, l’écologie, l’apprentissage, la transmission et le rapport au savoir. Arpentant l’univers de la ville à la recherche de la transition, nous découvrons petit à petit qu’elle s’incarne sous différentes formes chez les uns ou les autres, dans l’espace public et privé, et dans tous les milieux au sein desquels nous évoluons — naturels, sociaux, politiques, éducatifs, technologiques…

Sylvain Petitjean est l’une de ces personnes rencontrées. Sylvain est chercheur au centre Inria à Nancy. Il est également président du Comité opérationnel d’évaluation des risques légaux et éthiques (Coerle) chez Inria.

Sylvain et Samuel ont souhaité poursuivre la conversation entamée dans le livre, ouvrant ainsi d’autres champs de réflexion. Cet échange s’est étalé sur plusieurs semaines, sous forme épistolaire, dans des conditions temporelles à rebours de l’urgence et de l’immédiateté ambiante. En voici le contenu.

Samuel : L’éthique kantienne sur laquelle notre société moderne s’est construite, s’énonce ainsi : « Agis de telle sorte que tu puisses également vouloir que ta maxime devienne loi universelle ». Or aujourd’hui, au vu des enjeux, des transitions multiples auxquelles nous faisons face, ne sommes-nous pas devant un besoin de disposer d’une éthique basée sur le principe de responsabilité à l’égard des générations futures et de notre environnement. Hans Jonas énonce le Principe responsabilité : « Agis de telle façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur Terre ». Ce qui implique que le nouveau type de l’agir humain consiste à prendre en considération davantage que le seul intérêt « de l’homme » et que notre devoir s’étend plus loin et que la limitation anthropocentrique de toute éthique du passé ne vaut plus ?

Dans le cadre du numérique, et de tout ce qui se présente à nous aujourd’hui en termes d’avancées scientifiques, dans le domaine qui est le nôtre, ne devons-nous pas repenser ce rapport au vivant et nos pratiques ?

 

Sylvain : Il est vrai qu’il n’est plus possible de considérer que les interventions techniques de l’humain sur son environnement sont superficielles et sans danger, et que la nature trouvera toujours comment rétablir elle-même ses équilibres fondamentaux. La crise écologique et les menaces pesant sur l’humanité et la planète impliquent quasi naturellement, pour Jonas et d’autres, d’orienter l’agir vers le bien commun en accord avec notre sentiment de responsabilité. D’où la proposition de refonder l’éthique comme une éthique de la responsabilité et du commun capable d’affronter l’ampleur des problèmes auxquels fait face la civilisation technologique, pour le bien-être et la survie des générations futures.

Les technologies du numérique présentent par ailleurs un autre défi de taille, probablement inédit, du point de vue de l’éthique. Cela a notamment trait à la logique grégaire associée à l’usage des services Internet : plus un service est utilisé par d’autres usagers, plus chacun trouve intéressant de l’utiliser parce qu’il peut en obtenir davantage d’informations et de contacts, créant un effet boule de neige. Cet «effet de multitude», comme l’ont baptisé les économistes, transforme en effet l’étendue et la nature des enjeux éthiques. Alors que l’éthique est usuellement un sujet qui arrive a posteriori du progrès, dès lors que des dérives sont constatées, il sera de plus en plus difficile, avec la démultiplication des possibilités et le changement d’échelle, d’être avec le numérique dans la réaction face à un problème éthique. En d’autres termes, les problématiques éthiques et juridiques vont devenir insolubles si on ne les traite pas en amont de la conception des technologies numériques (ethics by design). Cela dessine les contours d’une éthique plus proactive, en mesure d’accompagner de façon positive le développement et l’innovation.

Malheureusement, nous n’en sommes vraisemblablement qu’aux balbutiements de l’étude et de la maîtrise de ces questions dans le domaine du numérique. Il suffit de faire un pas de côté en direction de la biomédecine et des biotechnologies et de mesurer le chemin parcouru autour des lois de bioéthique pour s’en convaincre. Or le temps presse…

 

Samuel : Imprégnés de l’actualité qui est la nôtre, et en paraphrasant Tocqueville, « on ne saurait douter [qu’aujourd’hui] l’instruction du peuple serve puissamment [à la compréhension des enjeux de notre temps qu’ils soient politiques, technologiques, écologiques]. [N’en sera-t-il pas] ainsi partout où l’on ne séparera point l’instruction qui éclaire l’esprit de l’éducation qui règle les mœurs ? » La maîtrise de toutes ces questions ne doit-elle pas passer par cette nécessaire instruction du plus grand nombre ? Comment nous préserver du fossé qui risque de se creuser entre ceux qui sont instruits de ces enjeux et ceux qui n’y ont pas accès parce qu’ils font face à un horizon scolaire et social bouché ? Or, la méthode la plus efficace que les humains ont trouvée pour comprendre le monde (la science) et la meilleure façon qu’ils ont trouvée afin d’organiser le processus de décision collective (les modes démocratiques) ont de nombreux points communs : la tolérance, le débat, la rationalité, la recherche d’idées communes, l’apprentissage, l’écoute du point de vue opposé, la conscience de la relativité de sa place dans le monde. La règle centrale est d’avoir conscience que nous pouvons nous tromper, de conserver la possibilité de changer d’avis lorsque nous sommes convaincus par un argument, et de reconnaître que des vues opposées aux nôtres pourraient l’emporter.

Malheureusement, à l’école, les sciences sont souvent enseignées comme une liste de « faits établis » et de « lois », ou comme un entraînement à la résolution de problèmes. Cette façon d’enseigner s’oppose à la nature même de la pensée scientifique. Alors qu’enseigner, c’est enseigner l’esprit critique, et non le respect des manuels ; c’est inviter les étudiants à mettre en doute les idées reçues et les professeurs, et non à les croire aveuglément.

Aujourd’hui, et encore plus en ces temps troublés, le niveau des inégalités et des injustices s’est intensifié comme jamais. Les certitudes religieuses, les théories du complot, la remise en cause de la science et de la démocratie s’amplifient et séparent encore plus les humains. Or, l’instruction, la science et la pensée doivent nous pousser à reconnaître notre ignorance, que chez « l’autre » il y a plus à apprendre qu’à redouter et que la vérité est à rechercher dans un processus d’échange, et non dans les certitudes ou dans la conviction si commune que « nous sommes les meilleurs ».

L’enseignement pour permettre [la compréhension des enjeux de notre temps qu’ils soient politiques, technologiques, écologiques] doit donc être l’enseignement du doute et de l’émerveillement, de la subversion, du questionnement, de l’ouverture à la différence, du rejet des certitudes, de l’ouverture à l’autre, de la complexité, et par là de l’élaboration de la pensée qui invente et qui s’invente perpétuellement. L’école se caractérise ainsi à la fois par la permanence et l’impermanence. La permanence dans le renouvellement des générations, le « devenir humain », l’approche du monde et de sa complexité par l’étudiant sur son parcours personnel et professionnel. L’impermanence, dans les multiples manières de « faire humain »… et donc dans les multiples manières d’enseigner et d’apprendre. Entre permanence et impermanence, la transition ?

 

Sylvain : En matière d’acculturation au numérique et plus globalement d’autonomisation (empowerment) face à une société qui se technologise à grande vitesse, il faut jouer à la fois sur le temps court et le temps long. Le temps court pour agir, pour prendre en main, pour ne pas rester à l’écart ; le temps long pour réfléchir et comprendre, pour prendre du recul, pour faire des choix plus éclairés.

Daniel Blake, ce menuisier du film éponyme de Ken Loach victime d’un accident cardiaque, se retrouve désemparé, humilié face à un simple ordinateur, point de passage obligé pour faire valoir ses droits à une allocation de chômage. Où cliquer ? Comment déplacer la souris ? Comment apprivoiser le clavier ? Ces questions qui semblent évidentes à beaucoup le sont beaucoup moins pour d’autres. La dématérialisation de la société est loin d’être une aubaine pour tous. Prenons garde à ce qu’elle ne se transforme pas en machine à exclure. L’administration — dans le film — fait peu de cas de ceux qui sont démunis face à la machine ; on peut même se demander si ça ne l’arrange pas, s’il n’y a pas une volonté plus ou moins consciente d’enfoncer ceux qui ont déjà un genou à terre tout en se parant d’équité via l’outil numérique. Daniel Blake, lui, veut juste pouvoir exercer ses droits de citoyen et entend ne pas se voir nier sa dignité d’être humain. De la fable contemporaine à la réalité de nos sociétés il n’y a qu’un pas. Réduire la fameuse fracture numérique, qui porte aujourd’hui encore beaucoup sur les usages, doit continuer d’être une priorité qui nécessite de faire feu de tout bois et à tous les niveaux. Et il faut absolument s’attacher à y remettre de l’humain.

Mais ce n’est pas suffisant. Les politiques d’e-inclusion doivent aussi travailler en profondeur et dans le temps long. De même que l’on associe au vivant une science qui s’appelle la biologie (qui donne un fil conducteur permettant d’en comprendre les enjeux et les questions de société liées, et de structurer un enseignement), on associe au numérique une science qui est l’informatique. Pour être un citoyen éclairé à l’ère du numérique et être maître de son destin numérique, il faut pouvoir s’approprier les fondements de l’informatique, pas uniquement ses usages. « Il faut piger pourquoi on clique » disait Gérard Berry. Car si les technologies du numérique évoluent très vite, ces fondements et les concepts sur lesquels ils s’appuient ont eux une durée de vie beaucoup plus grande. Les maîtriser aujourd’hui, c’est s’assurer d’appréhender non seulement le monde numérique actuel mais aussi celui de demain. Y parvenir massivement et collectivement prendra du temps. Le décalage entre la culture informatique commune de nos contemporains et ce que nécessiteraient les enjeux actuels est profond et, franchement, assez inquiétant, mais sans surprise : la révolution numérique a été abrupte, l’informatique est une science jeune, il faut former les formateurs, etc.

Conquérir le cyberespace passe aussi par le fait de remettre à l’honneur l’enseignement des sciences et des techniques, à l’image du renouveau dans les années cinquante impulsé par les pays occidentaux confrontés à la « crise du Spoutnik » et à la peur d’être distancés par les Soviétiques dans la conquête spatiale, comme le rappelle Gilles Dowek. Or la révolution scientifique et technologique que nous vivons est bien plus profonde que celle d’alors. Et il importe de commencer à se construire une culture scientifique dès le plus jeune âge, à apprendre à séparer le fait de l’opinion, à se former au doute et à la remise en cause permanente. « C’est dès la plus tendre enfance que se préparent les chercheurs de demain. Au lieu de boucher l’horizon des enfants par un enseignement dogmatique où la curiosité naturelle ne trouve plus sa nourriture, il nous faut familiariser nos élèves avec la recherche et l’expérimentation. Il nous faut leur donner le besoin et le sens scientifiques. […] La formation scientifique est — comme toute formation d’ailleurs, mais plus exclusivement peut-être — à base d’expériences personnelles effectives avec leur part d’inconnues et donc leurs risques d’échecs et d’erreurs ; elle est une attitude de l’esprit fondée sur ce sentiment devenu règle de vie de la perméabilité à l’expérience, élément déterminant de l’intelligence, et moteur de la recherche indéfinie au service du progrès. » Ces mots datent de 1957, au moment de la crise du Spoutnik ; ils sont du pédagogue Célestin Freinet qui concevait l’éducation comme un moyen d’autonomisation et d’émancipation politique et civique. Ils n’ont pas pris une ride. Continuité des idées, des besoins, des enjeux ; renouvellement des moyens, des approches, des savoirs à acquérir. Permanence et impermanence…

 

Samuel : Tant d’années ! Tant de nouveaux territoires du savoir dévoilés ! Et toujours les mêmes questions, toujours le même rocher à hisser au sommet de la même montagne !

Qu’avons-nous foiré ou que n’avons-nous pas su faire ? Ou plutôt, quelles questions n’avons-nous pas ou mal posées ?

« S’il y a une chose qui rend les jeunes êtres humains allergiques à l’imagination, c’est manifestement l’école » ont écrit Eric Liu et Scott Noppe-Brando dans Imagination first. Alors que se passerait-il si l’école devenait pour les jeunes êtres humains une expérience vivante et valorisante ? Et si nous étions là pour les accompagner vers l’idée qu’il n’existe pas qu’une seule réponse, une seule manière d’être dans le monde, une seule voie à suivre ? Que faut-il faire pour que les jeunes êtres humains aient la conviction que tout est possible et qu’ils peuvent réaliser tout ce dont ils se sentent capables ?

A quoi ressemblerait la société ?

Alors, à rebours de l’imaginaire populaire dans lequel on imagine l’immuabilité des lieux et des choix effectués, comment agir pour favoriser l’émergence d’« agencements » comme chez Deleuze, ou encore d’« assemblages » suivant la notion empruntée à Bruno Latour ? Non pas une matrice dans laquelle nous viendrions tous nous insérer, mais en tant qu’acteurs ne cessant de se réinventer dans une création continue d’associations et de liens dans un « lieu où tout deviendrait rythme, paysage mélodique, motifs et contrepoints, matière à expression ». Chaque fois que nous re-dessinons le monde, nous changeons la grammaire même de nos pensées, le cadre de notre représentation de la réalité. En fait, avec Rutger Bregmann, « l’incapacité d’imaginer un monde où les choses seraient différentes n’indique qu’un défaut d’imagination, pas l’impossibilité du changement ».  Nos avenirs nous appartiennent, il nous faut juste les imaginer et les rendre contagieux. Nos transitions ne seraient-elles pas prendre déjà conscience que « si nous attendons le bon vouloir des gouvernements, il sera trop tard. Si nous agissons en qualité d’individu, ça sera trop peu. Mais si nous agissons en tant que communautés, il se pourrait que ce soit juste assez, juste à temps ».

Pour cela, il nous faudra explorer la manière dont les acteurs créent ces liens, et définissent ce que doit être la société. Et la société est d’autant plus inventive que les agencements qu’elle fait émerger sont inventifs dans l’invention d’eux-mêmes.

Des avenirs s’ouvrent peut-être, par une voie difficile et complexe nécessitant de traverser la zone, les ruines, les turbulences et les rêves. Nous pourrions imaginer essaimer l’essence vitale de cette planète, en proie à des destructions physiques et métaphysiques, pour faire renaître l’humanité, la vie, la flore et la faune dans les étoiles. Nous pourrions, avec d’autres, former le projet de partir à bord d’un vaisseau emportant dans ses flancs, outre des embryons humains et animaux, un chargement de graines, spécimens, outils, matériel scientifique, et de fichiers informatiques contenant toute la mémoire du monde et, plus lourd encore, le « poids considérable des rêves et des espoirs ».

Ou alors nous pourrions tout simplement former un projet non pas de « revenir à l’âge de pierre [un projet] pas réactionnaire ni même conservateur, mais simplement subversif parce qu’il semble que l’imagination utopique soit piégée […] dans un futur unique où il n’est question que de croissance ». Ce projet que nous pourrions essayer de mener à bien « c’est d’essayer de faire dérailler la machine ». Ces quelques mots d’Ursula Le Guin nous rappellent que nos avenirs nous appartiennent et que nous avons le pouvoir d’imaginer, d’expérimenter de construire à notre guise et de jouer avec nos avenirs communs et individuels afin de commencer à désincarcérer le futur.

 

Sylvain : Comment panser l’avant et penser l’après, alors que toutes les menaces semblent s’accélérer, alors que tous les risques semblent se confirmer ? Comment essayer de réinventer un futur véritablement soutenable ?

Certains ingrédients sont connus : décroitre, renforcer la justice sociale, déglobaliser, réduire la pression sur les ressources naturelles, développer l’économie circulaire, etc. Je voudrais ici en évoquer deux autres, sous la forme d’un devoir et d’un écueil.

Le devoir consiste à se dépouiller de cet « humanisme dévergondé » (C. Lévi-Strauss) issu de la tradition judéo-chrétienne et, plus près de nous, de la Renaissance et du cartésianisme, « qui fait de l’homme un maître, un seigneur absolu de la création », agissant envers plantes ou animaux « avec une irresponsabilité, une désinvolture totales » qui ont conduit à mettre la nature en coupe réglée et, en particulier, à la barbarie de l’élevage industriel. Quelque chose d’absolument irremplaçable a disparu nous dit Lévi-Strauss, ce profond respect pour la vie animale et végétale qu’ont les peuples dits « primitifs » qui permet de maintenir un équilibre naturel entre l’homme et le milieu qu’il exploite. Or « se préoccuper de l’homme sans se préoccuper en même temps, de façon solidaire, de toutes les autres manifestations de la vie, c’est, qu’on le veuille ou non, conduire l’humanité à s’opprimer elle-même, lui ouvrir le chemin de l’auto-oppression et de l’auto-exploitation. » L’ethnologue pose le principe d’une éthique qui ne prend pas sa source dans la nature humaine ethnocentrée mais dans ce qu’il appelle « l’humilité principielle » : « l’homme, commençant par respecter toutes les formes de vie en dehors de la sienne, se mettrait à l’abri du risque de ne pas respecter toutes les formes de vie au sein de l’humanité même ». Cette vision des droits dus à la personne humaine comme cas particulier des droits qu’il nous faut reconnaître aux entités vivantes, cet humanisme moral inclusif nous ramène immanquablement à notre point de départ, et à Jonas.

L’écueil consiste à systématiquement réduire chaque problème humain (politique, social, environnemental) à une question technique à laquelle la technologie numérique apporte une solution, en traitant les effets des problèmes sans jamais s’intéresser à leurs causes et en négligeant les possibles déterminismes et biais qui la composent. « Si nous nous y prenons bien, je pense que nous pouvons réparer tous les problèmes du monde » fanfaronnait Eric Schmidt, président exécutif de Google, en 2012. Diminuer le CO2 ? Il y a une application pour ça ! E. Morozov montre bien les limites et effets pervers de cette idéologie qu’il appelle le « solutionnisme technologique », qui s’accompagne d’un affaiblissement du jeu démocratique et aboutit au triomphe de l’individualisme et de la marchandisation. « Révolutionnaires en théorie, [les technologies intelligentes] sont souvent réactionnaires en pratique. » Et elles s’attaquent bien souvent à des problèmes artificiels à force de simplification. « Ce qui est irréaliste, dit Naomi Klein, est de penser que nous allons pouvoir faire face à ces crises mondiales avec quelques minuscules ajustements de la loi du marché. C’est ça qui est utopique. Croire qu’il va y avoir une baguette magique technologique est ridicule. Cela relève de la pensée magique, portée par ceux qui ont un intérêt économique à maintenir le statu quo. » Il ne s’agit bien sûr pas d’éliminer la technologie de la boîte à outils de la résolution de problème. Il importe en revanche de dépasser l’optimisme béat et la quasi-piété en ses pouvoirs et de comprendre qu’elle n’est qu’un levier qui n’a du sens qu’en conjonction d’autres (Ethan Zuckerman). Il est urgent, au fond, de réhabiliter la nuance, la pluralité et la complexité dans le débat et de trouver une voie pour traiter les problèmes difficiles avec des solutions nouvelles selon une approche systémique.

Demain est peut-être ailleurs, mais si l’humanité veut tenter un nouveau départ, les premiers pas vers le renouveau doivent être effectués ici et maintenant.

Les décodeuses des décodeuses du numérique

Quelles sciences se cachent derrière le terme de « numérique » ? C’est au travers de douze portraits de chercheuses, enseignantes-chercheuses et ingénieures, que Léa Castor,  illustratrice et autrice de BD, qui « partage ses tripes, son cœur et ses couleur » et n’est « pas prête à se taire »  pour l’Institut des sciences de l’information et de leurs interactions du CNRS, met en avant la diversité des recherches en sciences du numérique, et contribue à briser les stéréotypes qui dissuadent les femmes à s’engager dans ces carrières. Mais qu’en pensent les lectrices ? Témoignages. Ikram Chraibi Kaadoud, Marie-Agnès Énard, Serge Abiteboul et Thierry Viéville.
© Léa Castor / CNRS

Lien vers l’article CNRS associé et la BD: http://www.cnrs.fr/en/node/5987

Charlotte, 47 ans, informaticienne 

Produite par des informaticiennes et informaticiens du CNRS, cette bande-dessinée propose douze portraits de chercheuses en informatique. Ce ne sont pas que des portraits scientifiques : si leurs sujets de recherche sont rapidement décrits, les chercheuses racontent aussi leurs parcours, comment elles en sont venues à l’informatique, et quels obstacles elles ont rencontré. Le choix des portraits montre une jolie variété, aussi bien des disciplines (robotique, informatique quantique, cybersécurité, réalité virtuelle, etc) que des parcours scientifiques. Dès le début, le message est joliment, mais clairement posé : en informatique, il y a trop de Jean-Pat, surnom générique du white dude, et pas assez de Anne-Cécile, Ikram, Tian, Lina… d’où l’idée de mettre ces dernières en valeur dans la BD, qui relève autant de politique scientifique que de science. 
On a un peu mal au cœur en réalisant que le seul point commun de tous les parcours racontés, c’est les commentaires des Jean-Pat essayant de détourner les Anne-Cécile d’une carrière scientifique. Mais finalement, on se rend compte aussi que les Anne-Cécile ont gagné : ce qui transparaît de chaque portrait, c’est la force et le succès de ces chercheuses. J’ai trouvé que cela rendait la BD très réjouissante, joyeuse même. En tant qu’informaticienne, j’ai un peu regretté que les thèmes de recherche soient abordés succinctement, mais j’ai aussi beaucoup aimé ce format original, une BD légère, gaie, basée sur des récits très personnels, pour raconter le monde scientifique. 
Cela dit, très clairement, l’ouvrage ne s’adresse pas à moi ! D’abord, parce que je suis déjà informaticienne, ensuite, parce que je suis très vieille. Elle parlera beaucoup plus à de jeunes lecteurs et lectrices. Il se trouve que j’ai chez moi deux tels spécimens. C’est d’ailleurs la première fois qu’il et elle me piquent un bouquin parlant de science (en général, c’est plutôt moi qui leur en mets entre les mains) ! Leur avis me semble beaucoup plus important que le mien… 
NB : les textes des enfants n’ont pas été modifiés.

Justine, 13 ans, en classe de 4e

Ce livre parle de femmes scientifiques féministes et plus précisément de leur parcours, de leurs études à ce qu’elles font aujourd’hui. Je pense qu’il est bien écrit, et assez marrant. Perso, je l’ai bien aimé. L’autrice a fait boulot incroyable.
J’ai bien aimé que la BD s’adresse directement au lecteur, c’est naturel et bien fait. Tout est expliqué, et donc c’est facile à lire. J’ai appris des choses sur les algorithmes, l’intelligence artificielle… Ça m’a fait découvrir des sujets que je ne connaissais pas, comme le green computing ou le contrôle des systèmes quantiques…
Ça m’a donné un nouveau point de vue sur l’intelligence artificielle, dont mes parents parlent tout le temps, et je me suis rendu compte que ça n’était pas si chiant que ça.
Ce livre s’adresse surtout à des ados, peut-être un peu plus grands que moi, genre 15-∞ ans. Bref, je recommande ce livre à 100%. Il est vraiment bien, et il permet d’apprendre en s’amusant. 
👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍👍

Victor, 8 ans, en classe de CE2

La BD est bien, c’est facile à lire mais c’est un peu long. Il y avait quelques mots que je ne connaissais pas, mais ils étaient expliqués. Pour certains, je n’ai pas bien compris l’explication. En tous cas, ça m’a vraiment plu, et ça m’a appris des choses. Ce qui m’a le plus intéressé c’est la toute fin, la roboticienne, parce que je ne connaissais pas ce sujet. J’aime la robotique.

Charlotte Truchet,  Justine Truchet-Bourdon et Victor Truchet-Bourdon.

Mon moteur de recherche me cache-t-il des choses?

Comment les moteur de recherches gèrent-ils les frontières géographiques? la différences d’individus et de préférences de chacune et chacun d’entre nous?  Les résultats sont-ils neutres ? impartieux? Nous vous proposons ce billet introductif d’un article qui se penche sur ces questions et vous invite à y réfléchir.    Ikram Chraibi Kaadoud, Thierry Viéville

Partageons ici une article paru sur Numerama : Ce site montre à quel point les moteurs de recherche ne sont pas neutres et impartiaux. De quoi s’agit-il ?

Pour une même recherche internet, les moteurs de recherche ne fournissent pas les mêmes résultats d’une personne à une autre, d’une région à une autre et même d’un pays à un autre.

Pourquoi cela ? à cause de frontières dites invisibles tels que “géographiques, linguistiques, culturelles, politiques “ qui viennent façonner l’accès d’un individu à une information du fait de la personnalisation de la recherche.

Aurore Gayte s’est justement intéressée à la question de la partialité et la neutralité des moteurs de recherche à travers les travaux de recherche de Rogrigo Ochigame, chercheur au MIT et Katherine Ye, chercheuse à l’université de Carnegie Mellon.  Grâce à un outil nommé Search Atlas qui permet de comparer les résultats d’une recherche émise depuis différents pays, elle et il ont réussi à mettre en évidence l’existence de frontières “géopolitiques” implicites qui tendent à expliquer la différence de résultats entre différentes recherches. 

Aurore Gayte -à travers cet article- attire l’attention sur des questions concrètes et essentielles : éthique du numérique, interaction humain-machine et discute la notion de confiance que nous plaçons en tant qu’humain dans les résultats de recherche fournis par les moteurs de recherche.

Une recherche pour « place Tian’anmen » sur Search Atlas // Source : Search Atlas, extrait du site Numérama

Retrouvez son billet sur le site Numerama au lien suivant: “Search Atlas: Ce site montre à quel point les moteurs de recherche ne sont pas neutres et impartiaux”

 

 

 

 

Le plus de Numérama ? les articles sont aussi disponibles au format audio ce qui permet de profiter des articles autrement et cela malgré les contraintes de chacune et chacun !

Bonne lecture ou écoute à vous !

Science ouverte, une vision européenne

Jean-François Abramatic est Directeur de Recherche Emérite chez Inria. Il a partagé son parcours professionnel entre l’industrie et la recherche. Sur le plan recherche, il est spécialiste du traitement d’image. Sur le plan industriel, il a été Chief Product Officer chez Ilog et directeur du développement de l’innovation chez IBM. Mais il est surtout connu pour avoir été un acteur clé du web en tant que président du W3C (World Wide Web Consortium), l’organisme de standardisation du Web. Plus récemment, il a travaillé auprès de la Commission Européenne sur les sujets de science ouverte. C’est à ce titre qu’il répond à nos questions. 

Photo de Tim Douglas provenant de Pexels

Binaire : Comment es-tu arrivé à travailler sur la science ouverte ? Cela peut paraître assez loin de tes travaux sur les logiciels.

Jean-François Abramatic : Quand je suis devenu Directeur de Recherche Emérite chez Inria, j’ai eu à définir mon programme d’activité au sein de l’institut. J’ai choisi trois axes : l’aide aux startups, l’organisation de W3C et Software Heritage (*). Je me suis progressivement focalisé sur le troisième.

En 2017, Roberto Di Cosmo et moi-même avons rencontré des responsables de la Commission Européenne pour leur présenter Software Heritage. A la fin de cette réunion, un des responsables de la commission m’a sollicité pour intervenir sur le sujet de la science ouverte. J’ai initialement été choisi comme rapporteur de projets sur la science ouverte pour la commission. En 2018, la Commission a rassemblé les acteurs du domaine pour voir ce qu’on pouvait faire et cette initiative s’est transformée en un programme, l’EOSC (The European Open Science Cloud) un environnement pour héberger, traiter et partager les programmes et les données de la recherche pour soutenir la science. Deux organes ont été mis en place pour deux ans (2019-2020) : un Governing Board (un représentant par État) et un  Executive Board de 13 personnes où j’ai été nommé.  Fin 2020, l’Executive Board a produit un ensemble de recommandations pour la mise en place du programme Horizon Europe (2021-2027). J’ai animé la rédaction collective du document. J’ai, en particulier, écrit la première partie qui explique en quoi le numérique va changer la façon de faire de la recherche.

B : Quelle est ta définition de la science ouverte ?

JFA : Pour moi, c’est d’abord une nouvelle manière de faire de la recherche, en prenant en compte la disponibilité du numérique. Pour comprendre, il faut commencer par un peu d’histoire. Avant l’apparition de l’imprimerie, les résultats scientifiques étaient secrets, chiffrés parfois pour s’assurer qu’ils restaient la propriété exclusive de celui qui les avait découverts. Avec l’arrivée de l’imprimerie et la création des académies, un nouveau système a conduit à rendre disponibles les résultats de recherche grâce aux publications scientifiques.

Le numérique propose une nouvelle façon de faire de la science. Si on veut partager un résultat de recherche aujourd’hui et qu’on partage les publications, on fait une partie du chemin, mais une partie seulement. Il manque des éléments essentiels au lecteur de la publication pour comprendre et utiliser les résultats. Il faut lui donner accès à d’autres informations comme les cahiers d’expérience ou les descriptions d’algorithmes, les données et le code source. Un scientifique qui veut exploiter les résultats d’une recherche, peut le faire de manière précise et efficace.

B : Tu inclus l’open source comme élément essentiel de la science ouverte. Est-ce vraiment un aspect important de la science ouverte ?

JFA : Absolument. De nos jours, plus d’un papier sur deux dans Nature and Science fait appel à du numérique et du code. Le code permet d’expliquer les recherches et sa transmission est bien un composant essentiel de la science ouverte.

B : Tu définis la science ouverte comme une nouvelle façon plus coopérative de faire de la recherche. D’autres acteurs, Opscidia par exemple, nous l’ont défini comme une plus grande démocratisation de la recherche et le fait de faire sortir la science des laboratoires. Doit-on voir une contradiction entre vos points de vue?

JFA : Il faut d’abord que la science ouverte existe dans les laboratoires. On peut ensuite passer à sa démocratisation. On commence par les chercheurs, on passe après aux citoyens. En rendant les revues accessibles à tous, on les ouvre bien sûr à tous les chercheurs mais également à tous les citoyens. Cela soulève aussi la responsabilité des chercheurs d’expliquer ce qu’ils font pour que le plus grand nombre puisse le comprendre. On voit bien avec les controverses actuelles sur l’environnement ou les vaccins, l’importance de rendre la science accessible aux citoyens.

Il faut mentionner un danger à prendre en compte, et qui s’est manifesté clairement pendant la crise du Covid, c’est que certains papiers de recherches sont faux ou contiennent des erreurs. Vérifier les résultats, reproduire les expériences, sont donc des aspects essentiels de la recherche. La science ouverte en associant publications, données, et logiciels, ouvre la voie à la vérification et la reproductibilité.

Nous avons beaucoup à apprendre sur la science ouverte, c’est un sujet nouveau, en création, et pas encore mûr. C’est un sujet de recherche. Et puis, il faut être réaliste sur l’état de l’art de la science ouverte et son état du déploiement. Par exemple, tant que les chercheurs sont évalués sur la base de leur liste de publications, et par des indices comme le h-index, le processus d’évaluation reste un obstacle au développement de la science ouverte.

B : Tu soulèves un aspect essentiel. Est-ce que le mode de fonctionnement de la recherche scientifique est mal adapté à la science ouverte ?

JFA : La situation est très différente suivant les disciplines. Certaines disciplines comme l’astronomie ou la physique ont toujours ressenti un besoin naturel de communiquer et de partager les données. Elles ont rapidement adopté le numérique pour améliorer ce partage. Ce n’est pas un hasard si le Web est né au CERN dans un laboratoire de physique des hautes énergies. Mais dans de nombreuses disciplines, la science ouverte n’est pas encore assez prise en compte.

Par exemple, archiver du code ou des données, pour un informaticien, c’est naturel. Pourtant, le fait de partager son code ne fait pas suffisamment partie des critères d’évaluation des chercheurs en informatique.

L’ouverture des données est moins évidente pour un chercheur en sciences sociales. Les choses évoluent et se mettent lentement en place. Par exemple, Inrae a créé une direction pour la science ouverte.

B : Ce rapport est donc la vision européenne de l’Open Science ?

JFA : À ce jour, c’est le rapport de la Commission. Il représente sa vision aujourd’hui, une vision en construction parce que le sujet est complexe et difficile, pas tout à fait mûr, avec de vraies controverses.

B : Quel est l’avenir de ce rapport ?

JFA : La première version a été rendue publique. Le document a vocation à évoluer au fil du temps. L’étape suivante est la création d’une association (de droit belge) qui regroupe des acteurs de la recherche tels que les instituts de recherche, les universités, les organisations de financement, etc. Les statuts prévoient que chaque pays peut choisir un membre pour les représenter. Par exemple, Inria a été invité à représenter la France. Inria a choisi Laurent Romary pour tenir ce rôle. Par ailleurs, le conseil d’administration de l’association a été élu. Suzanne Dumouchel du CNRS fait partie du conseil. Cette association sera consultée pour chaque appel à projets dans le domaine des infrastructures pendant les sept ans à venir. Le message global de la commission et de l’organisation qu’elle met en place est que la science ouverte est devenue un citoyen de première classe, un sujet horizontal qui doit couvrir tous les aspects de la recherche scientifique.

Serge Abiteboul & François Bancilhon

Les communs numériques

Un wiki grand comme le monde

Florence Devouard est une ingénieure agronome française, devenue dirigeante associative. Vice-présidente de Wikimédia France de 2004 à 2008, elle a présidé la Wikimedia Foundation de 2006 à 2008, en remplacement de son fondateur, Jimmy Wales
Florence Devouard, aka Anthere, sur devouard.org

binaire : Pouvez-vous nous raconter votre parcours ? Comment en êtes-vous arrivée à vous intéresser assez à Wikipédia pour devenir la présidente de la fondation qui chapeaute l’encyclopédie ?

FD : J’ai fait des études d’ingénieure agronome. A Nancy, je me suis spécialisée en biotechnologies. J’ai un peu travaillé dans le milieu académique initialement, mais j’ai rapidement bifurqué vers le monde de l’entreprise.

J’ai suivi mon époux en Belgique flamande, puis aux États-Unis et j’ai eu deux enfants. Je me suis intéressée à l’informatique, mais c’étaient plus les usages que le codage qui m’attiraient. J’ai travaillé, par exemple, sur des outils d’aide à la décision. Et puis, au début des années 2000, j’ai atterri à Clermont-Ferrand où je me suis sentie un peu isolée. Je me suis alors plongée dans le web qui me permettait de rencontrer des gens qui partageaient mes intérêts, c’était juste ce dont j’avais alors besoin. Je suis devenue un peu activiste anonyme du web.

J’étais aussi gameuse, et je passais pas mal de temps sur les forums, beaucoup avec des Américains. Sur ces forums, qui n’étaient pas faits pour ça, je me suis retrouvée à écrire de nombreux textes sur la sécurité biologique, parce j’avais des choses à raconter. C’était l’époque de l’envoi d’enveloppes avec de l’anthrax, juste après les attentats du 11 septembre.

J’ai notamment beaucoup discuté sur un forum avec un activiste de GreenPeace. C’est lui qui m’a fait découvrir Wikipédia qui démarrait à ce moment. Il m’a suggéré d’y raconter ce qui me tenait à cœur, sur la version anglophone. A cette époque, il n’y avait encore quasiment personne sur Wikipédia en français.

J’ai alors découvert ce qu’était un wiki. Techniquement c’est très simple, juste un site web sur lequel on peut facilement s’exprimer. Je pouvais comme tout le monde participer à l’écriture de pages web et la création de liens entre elles. À l’époque, c’était tout nouveau, ça nous paraissait génial et peu de gens intervenaient. Pourtant, je n’arrivais pas à sauter le pas, je craignais le regard des autres, et je doutais de ma capacité à m’exprimer en anglais. Alors, je procrastinais. Il m’a forcé la main : il a copié-collé mes explications pour créer des articles. Ils ont été lus et modifiés et ça m’a fait réaliser que je pouvais écrire, que je pouvais faire profiter les autres de mes connaissances, que je pouvais contrecarrer un peu le matraquage de l’administration américaine sur la sécurité biologique. Et cela correspondait à ce que j’avais envie de faire.

binaire : Pourquoi est-ce que cela vous correspondait si bien ?

FD : J’avais l’impression d’écrire des textes qui pouvaient être lus dans le monde entier, faire quelque chose d’utile en apportant des connaissances et en faisant passer des idées. Je participais alors en particulier à des controverses entre la France et les États-Unis sur des sujets comme les armes de destruction massive, les OGM, et la disparition des abeilles. Sur chacun de ces sujets, il y avait des écarts de pensée importants entre la France et les US. Je pouvais donc faire passer aux US des idées qui avaient cours en France et que je maitrisais. Je pouvais faire découvrir aux Américains qu’il n’y avait pas que l’Amérique et que d’autres, ailleurs, pensaient différemment.

binaire : Est-ce que c’est ce genre de motivation de passer des idées qui anime encore aujourd’hui les Wikipédiens ?

FD : Oui. Nombre d’entre eux collaborent à l’encyclopédie par altruisme, pour faire passer aux autres des idées auxquelles ils tiennent. Ils veulent participer au développement des connaissances globales, faire circuler ces connaissances. C’est ce qui est génial. Avec Wikipédia, on peut faire travailler en commun un groupe de personnes aux quatre coins de la planète. Le numérique permet de réunir les quelques personnes qui s’intéressent à un sujet, même le plus exotique, pour partager leurs connaissances et confronter les points de vue.

binaire : C’était vrai au début quand tout était à faire. Est-ce que c’est toujours pareil aujourd’hui ?

FD : C’est vrai que cela a beaucoup changé, aussi bien les méthodes de travail, et que les contenus. Au tout début, au début des années 2000, on travaillait seul hors ligne, puis on se connectait pour charger l’article. Maintenant, on est connecté en continu et on interagit en permanence avec les autres rédacteurs.

A l’époque, on arrivait souvent devant une page blanche. Quand j’ai commencé à bosser sur la Wikipédia francophone, on était cinq et on devait tout construire. Aujourd’hui sur un sujet précis, on arrive et une grosse masse de connaissances a déjà été réunie. On démarre rarement de nouveaux sujets. Il faut avoir une bonne expertise sur un sujet pour pouvoir y contribuer. Avant, on débroussaillait avec comme ligne de mire très lointaine la qualité d’une encyclopédie conventionnelle. Aujourd’hui, on vise la perfection, par exemple, le label « Article de qualité », qui est un label très difficile à obtenir. Certains travaillent comme des dingues sur un article pour y arriver. C’est de cette quête de perfection qu’ils tirent leur fierté.

Ils éprouvent bien sûr aussi du plaisir à faire partie d’un réseau, à rencontrer des gens,

La situation pionnière qu’on a connue et que j’ai beaucoup aimée, est parfois encore un peu celle que rencontrent certains Africains qui rejoignent le projet dans des langues locales, depuis des pays encore mal connectés à internet. Ce n’est d’ailleurs pas simple pour eux de s’insérer dans le collectif qui a beaucoup changé.

binaire : La fondation Wikimédia promeut d’autres services que l’encyclopédie Wikipédia. Vous pouvez nous en parler ?

FD : Exact. L’encyclopédie représente encore 95% des efforts, mais on a bien d’autres projets. C’est d’ailleurs sur les projets moins énormes que j’ai le plus de plaisir à participer.

J’ai travaillé notamment sur un projet pour améliorer les pages « biaisées », des pages assez anciennes, où il reste peu de contributeurs actifs. On peut se retrouver par exemple confronté à des services de communication d’entreprises qui transforment les pages en les biaisant pour gommer les aspects un peu négatifs de leurs entreprises. Il faut se battre contre ça.

Un autre projet très populaire, c’est Wikimedia Commons qui regroupe des millions d’images. C’est né de l’idée qu’il était inutile de stocker la même image dans plusieurs encyclopédies dans des langues différentes. Je trouve très sympa dans Wikimedia Commons que nous travaillions tous ensemble par-delà des frontières linguistiques, que nous arrivions à connecter les différentes versions linguistiques.

Un troisième projet, Wiki Data construit une base de connaissances. Le sujet est plutôt d’ordre technique. Cela consiste en la construction de bases de faits comme « “Napoléon” est mort à “Sainte Hélène” ». À une entité comme ”Napoléon”, on associe tout un ensemble de propriétés qui sont un peu agnostiques de la langue. Les connaissances sont ajoutées par des systèmes automatiques depuis d’autres bases de données ou entrées à la main par des membres de la communauté wikimédienne. On peut imaginer de super applications à partir de Wiki Data.

Enfin, il y a d’autres projets comme Wiktionnaire ou Wiki Books, et des projets naissants comme Wiki Abstracts.

binaire : La fondation développe des communs. Comment la fondation choisit-elle quels communs proposer ? Comment définit-elle sa stratégie ?

FD : Au début, on avait juste l’encyclopédie. La Fondation a été créée en 2003, mais sans véritablement de stratégie. On faisait ce que les gens avaient envie de faire. Par exemple, Wiktionnaire a été créé à cette époque. On avait des entrées qui étaient juste des définitions de mots. On se disputait pour savoir si elles avaient leur place ou pas dans Wikipédia. Comme on ne savait pas comment trancher le sujet, on a créé autre chose : le Wiktionnaire. Dans cette communauté, quand tu as une bonne idée, tu trouves toujours des développeurs. Les projets se faisaient d’eux-mêmes, du moment que suffisamment de personnes estimaient que c’était une belle idée. Il n’y avait pas de stratégie établie pour créer ces projets.

À partir de 2007-2008, les choses ont changé, et la Fondation a cherché à réfléchir sur ce qu’on voulait, définir où on allait. Mais ça a pris du temps pour y arriver. Si on n’y fait pas attention, en mettant plein de gens autour de la table, on arrive à une stratégie qui est un peu la moyenne de ce que tout le monde veut, qui confirme ce qu’on est déjà en train de faire, sans aucun souffle, qui ne donne pas de vraie direction et qui n’est donc pas une vraie stratégie proactive.

binaire : À défaut de stratégie, la communauté a au moins développé ses propres règles ?

FD : Au début, il n’y avait même pas de règles communes. Elles ont émergé au cours du temps, au fil des besoins. Le mode fonctionnement est très flexible. Chaque communauté définit en fait ses propres règles, ses propres priorités. Les différentes versions linguistiques s’adaptent aux cultures.

Dans le temps, le modèle a tendance à se scléroser en s’appuyant bien trop sur la règle du précédent. Si ça marche à peu près, on préfère ne toucher à rien. Le Fondation qui lie tout cela ne cherche pas non plus à imposer sa loi, à de rares exceptions près. Comme par exemple, quand elle a défini des critères pour les biographies individuelles. Elle cherche surtout à tenir compte des lois des pays, et donc à limiter les risques juridiques.

Les règles communes tout comme une stratégie commune ont doucement émergé. Mais le monde de Wikimédia reste un monde très flexible.

binaire : Pouvez-vous nous parler des individus qui participent à Wikipédia. Cela semble vraiment s’appuyer sur des communautés très différentes.

FD : En partant du plus massif, vous avez la communauté des lecteurs, puis celle les éditeurs. Parmi ces derniers, cela va de l’éditeur occasionnel peu impliqué, jusqu’au membre actif qui participe à la vie de la communauté. Vous avez ensuite les associations locales et la fondation qui définissent un certain cadre par exemple en lançant des nouveaux projets. Elles interviennent aussi directement dans la vie de la communauté, notamment pour des raisons juridiques. Enfin, il faut mentionner, les salariés et contractuels de la fondation qui implémentent certains choix de la Fondation, et parfois entrent en conflit avec la communauté.

Le nombre de salariés des associations est très variable. Wikimédia France a une dizaine d’employés. Wikimédia Allemagne est plus ancienne et a environ deux cents personnes. D’autres pays n’ont que des bénévoles.

binaire : Le nombre de salariés est lié à la richesse de l’association locale ?

FD : Oui. L’association allemande a existé assez tôt en vendant notamment des encyclopédies off-line. Dans certains pays, les associations ont eu le droit de mettre des bandeaux d’appel aux dons sur Wikipedia, ce qui rapporte de l’argent. Dans d’autres, comme en Pologne, on peut via les impôts choisir de contribuer financièrement à l’association locale.

Le modèle économique varie donc d’un pays à l’autre. La Fondation Wikimédia (mondiale) redistribue une partie de ses fonds. Certains pays comme l’Allemagne sont assez riches pour s’en passer. Il reste une énorme disparité sur la disponibilité de moyens pour les Wikipédiens suivant leur pays.

binaire : Vous êtes aussi impliquée dans d’autres associations comme Open Food Fact ? Quel y est votre rôle ?

FD : Je suis dans leur Conseil d’Administration. Je suis là avec quelques autres personnes pour garantir le futur de toutes ces ressources développées en commun, et garantir une certaine pérennité.

binaire : Une dernière question. Vous avez à cœur de défendre une certaine diversité. Est-ce que vous pouvez partager cela avec les lecteurs de binaire ?

FD : Tous ces projets sont massivement le fait de mâles, cis, blancs, jeunes. On perd des talents à cause de cela, car l’environnement participatif ou le cadre de travail peuvent repousser. Il faut absolument que l’implication soit plus globale. On essaie d’explorer des solutions par exemple en luttant contre le harcèlement. Mais à mon avis on y arrive mal. J’aimerais bien savoir comment faire. Aujourd’hui, le pilotage global est très anglosaxon, et ça ne marche pas bien.

Wikipédia est une superbe réussite, on a construit quelque chose de génial. Un temps, on s’est inquiété de la diminution du nombre de contributeurs, la fuite des cerveaux. Je pense qu’on a réglé ce problème, aujourd’hui la population de contributeurs est quasi stable. Maintenant, pour continuer notre œuvre, on a besoin de plus de diversité. Je dirais que c’est aujourd’hui notre plus gros challenge.

Serge Abiteboul, Inria et ENS, Paris, & François Bancilhon, serial entrepreneur

De wikimedia.org

 

Les communs numériques