ePoc : des formations au numérique à portée de main

ePoc [electronic Pocket open course] est une application mobile gratuite et open source de formation au numérique développée par Inria Learning Lab (Service Éducation et Médiation Scientifiques). L’objectif : proposer des formations au numérique à portée de main. Aurélie Lagarrigue, Benoit Rospars et Marie Collin  nous explique tout cela. Marie-Agnès Énard.

Ce billet est publié en miroir avec le site pixees.fr.

En parallèle des Moocs produits sur la plateforme nationale FUN, ce nouveau format de formation a été spécialement conçu pour le mobile. L’intérêt est de bénéficier de formations :
– toujours à portée de main : dans votre poche pour une consultation hors ligne où vous voulez et quand vous voulez ;
– plus courtes avec des contenus variés et ludiques, adaptés aux petits écrans.

Chaque formation ePoc est développée :
– en assurant la qualité scientifique : les contenus sont élaborés en collaboration avec des chercheurs spécialistes ou experts du domaine ;
– en respectant la vie privée : aucune collecte de données personnelles ;
– en proposant une attestation de réussite, que vous pouvez télécharger à la fin de la formation.

L’application est disponible gratuitement sur Google Play et App store et accessible en Open Source.
Pour en savoir plus et télécharger l’application.

Vous pouvez, dès à présent, télécharger 4 ePoc (entre 1 et 2h de formation chacun) avec des parcours pédagogiques engageants et spécialement conçus pour le mobile.

Les 4 premiers ePoc à découvrir

  • B.A-BA des data : introduire les fondamentaux indispensables relatifs aux données à travers des activités simples et variées
  • Vie Privée et smartphone : découvrir l’écosystème des applications et leur usage des données personnelles
  • Internet des objets et vie privée : comprendre les implications liées à l’usage d’objets connectés dans la maison dite intelligente.
  • Smartphone et planète : identifier les impacts du smartphone sur l’environnement grâce à 3 scénarios illustrés : Serial Casseur, Autopsie d’un smartphone, La tête dans les nuages.

Vous faites partie des premières et premiers à découvrir cette application, n’hésitez pas à faire part de vos avis (ill-ePoc-contact@inria), cela aidera à améliorer l’application.

Voici en complément cette petite présentation vidéo:

Belle découverte de l’application ePoc et de ses contenus !

L’équipe conceptrice.

La réalité virtuelle ? Des effets bien réels sur notre cerveau !

Comment notre cerveau réagit et s’adapte aux nouvelles technologies ?  La réalité virtuelle permet de vivre des expériences sensorielles très puissantes … et si elle se mettait dès maintenant au service de votre cerveau ? Anatole Lécuyer nous partage tout cela dans un talk TEDx. Pascal Guitton et Thierry Viéville

Au-delà des jeux vidéos, ces nouvelles technologies ouvrent la voie à des applications radicalement innovantes dans le domaine médical, notamment pour les thérapies et la rééducation. Anatole Lécuyer nous parle de nouvelles manières d’interagir avec les univers virtuels.

En savoir plus : https://www.tedxrennes.com/project/anatole-lecuyer

La conférence TED est une importante rencontre annuelle qui depuis 33 ans  rassemble des esprits brillants dans leur domaine, et on a voulu permettre à la communauté élargie de ses fans de diffuser l’esprit TED autour du monde. Les organisateurs souhaitent que les échanges entre locuteurs et participants soient variés, inspirés, apolitiques dans un esprit visionnaire et bienveillant. Les sujets traités sont très vastes : économie, société, culture, éducation, écologie, arts, technologie, multimédia, design, marketing…

Le texte de la conférence :

Et si .. nous partagions ensemble une expérience de réalité virtuelle? Imaginez-vous, en train d’enfiler un visio-casque de réalité virtuelle comme celui-là, avec des écrans intégrés juste devant les yeux, que l’on enfile un peu comme un masque de ski ou de plongée, avec le petit élastique là, comme ça…
Et .. voilà ! vous voilà « immergé » dans un monde virtuel très réaliste. Dans une pièce qui évoque un bureau, qui ressemble peut-être au vôtre, avec une table située juste devant vous, une plante verte posée dans un coin, et un poster accroché sur le mur à côté de vous.

Maintenant, j’entre dans la scène .. et je vous demande de regarder votre main. Vous baissez la tête et voyez une main virtuelle, très réaliste aussi, parfaitement superposée à la vôtre et qui suit fidèlement les mouvements de vos doigts.
Par contre, il y a un détail qui vous gêne, quelque-chose de vraiment bizarre avec cette main ..
Vous mettez un peu de temps avant de remarquer.. ah, ça y est : un sixième doigt est apparu, comme par magie, là, entre votre petit doigt et votre annulaire .. !
Je vous demande ensuite de poser la main sur la table, et de ne plus bouger. Avec un pinceau, Je viens brosser successivement et délicatement vos doigts dans un ordre aléatoire. Vous regardez le pinceau passer sur l’un ou l’autre de vos doigts, et lorsqu’il arrive sur le sixième doigt, vous êtes sur vos gardes .. mais là, incroyable, vous ressentez parfaitement la caresse et les poils du pinceaux passer sur votre peau. Vous ressentez physiquement ce doigt en plus…
En quelques minutes, votre cerveau a donc assimilé un membre artificiel !

Et voilà tout l’enjeu des expériences que nous menons dans mon laboratoire : Réussir à vous faire croire à des chimères, à des choses impossibles.
Entre nous, je peux vous confier notre « truc » de magicien : en fait, lorsque vous voyez le pinceau passer sur le sixième doigt, en réalité moi je passe au même moment avec mon pinceau sur votre annulaire. Et votre cerveau va projeter cette sensation tactile au niveau du sixième doigt .. et ça marche très bien !
Mais le plus incroyable dans cette expérience, c’est quand, à la fin, j’appuie sur un bouton pour restaurer une apparence « normale » à votre main virtuelle, qui redevient donc, instantanément, une main à cinq doigts. Tout est rentré dans l’ordre, et pourtant vous ressentez cette fois comme un manque… Comme si .. on vous avait coupé un doigt ! Une impression d’ « amputation » qui montre à quel point votre cerveau s’était habitué profondément à un doigt qui n’existait pourtant pas quelques instants auparavant !

Les effets de la réalité virtuelle peuvent donc être extrêmement puissants. Et c’est bien parce-que ces effets sont si puissants, que je vous conseille de faire attention au moment de choisir votre avatar.. vous savez, ce personnage qui vous représente sur internet ou dans le monde virtuel. Quelle apparence, et quel corps virtuel allez-vous choisir ? Le choix est en théorie infini. Vous pouvez adopter un corps plus petit ou plus grand ? Sinon plus corpulent, plus mince, plus ou moins musclé ? Vous pouvez même virtuellement essayer de changer de genre, ou de couleur de peau. C’est l’occasion.
Mais attention il faut bien choisir. Car l’apparence de cet avatar, et ses caractéristiques, vont ensuite influencer considérablement votre comportement dans le monde virtuel.
Par exemple, des chercheurs ont montré que si l’on s’incarne pendant quelques temps dans l’avatar d’un enfant de 6 ans, et bien nous allons progressivement nous comporter de manière plus enfantine, en se mettant à parler avec une voie à la tonalité un peu plus aigüe. Un peu comme si l’on régressait, ou si l’on vivait une cure de jouvence éclair. Dans une autre étude, des participants s’incarnaient dans un avatar ressemblant fortement à Albert Einstein, le célèbre physicien. Et on leur demandait de réaliser des casse-têtes, des tests cognitifs. Et bien le simple fait de se retrouver dans la peau d’Einstein permet d’améliorer ses résultats de manière significative ! Comme si cette fois on devenait plus intelligent en réalité virtuelle. Cela peut donc aller très loin…
On appelle ça l’effet « Protéus » en hommage à une divinité de la mythologie Grecque appelée « Protée » qui aurait le pouvoir de changer de forme. Cela évoque l’influence de cet avatar sur votre comportement et votre identité, qui deviennent « malléables », « changeants » dans le monde virtuel, mais aussi dans le monde réel, car cet effet peut même persister quelques temps après l’immersion, lorsque vous retirez votre casque.

Bon, c’est très bien tout cela, vous allez me dire ..mais .. à quoi ça sert ? Pour moi, les applications les plus prometteuses de ces technologies, en tout cas celles sur lesquelles nous travaillons d’arrache-pied dans notre laboratoire, concernent le domaine médical. En particulier, les thérapies et la « rééducation ».
Par exemple, si nous évoquons la crise sanitaire de la covid19, nous avons tous été affectés, plus ou moins durement. Nous avons tous une connaissance qui a contracté la maladie sous une forme grave, qui a parfois nécessité une hospitalisation et un séjour en réanimation, avec une intubation, dans le coma.
Lorsque l’on se réveille, on se retrouve très affaibli, notre masse musculaire a complètement fondu. Il est devenu impossible de marcher ou de s’alimenter tout seul. Il va donc falloir réapprendre tous ces gestes du quotidien…
D’ailleurs cette situation est vécue pas seulement dans le cas de la covid19, mais par près de la moitié des patients intubés en réanimation

Le problème … c’est qu’il existe actuellement peu de moyens pour se rééduquer et faire de l’exercice dans cet état. Notamment parce que si vous commencez à pratiquer un exercice physique, simplement vous mettre debout, votre cœur n’est plus habitué et vous risquez de faire un malaise/syncope !
C’est pourquoi, avec mes collègues chercheurs, nous avons mis au point une application très innovante qui est justement basée sur la réalité virtuelle et les avatars.
Je vous propose de vous mettre un instant à la place d’un des patients. Vous vous êtes réveillé il y a quelques jours, dans un lit d’hôpital, perfusé, relié à une machine qui surveille en permanence votre état. Vous êtes encore sous le choc, très fatigué, vous ne pouvez plus bouger. Les heures sont longues.. Aujourd’hui on vous propose de tester notre dispositif. Vous enfilez donc un casque de réalité virtuelle, directement depuis votre lit. Dans la simulation, vous êtes représenté par un avatar, qui vous ressemble. Vous êtes assis sur une chaise virtuelle, dans une chambre d’hôpital virtuelle, relativement similaire à celle où vous vous trouvez en vrai.
Lorsque vous êtes prêt, le soignant lance la simulation et .. votre avatar se lève et fait quelques pas. C’est alors une sensation très puissante, un peu comme si vous regardiez un film en étant vraiment dans la peau de l’acteur, en voyant tout ce qu’il fait à travers ses propres yeux. Vous vous voyez donc vous mettre debout et marcher… pour la première fois depuis bien longtemps !
Ensuite, l’aventure continue de plus belle : l’avatar ouvre une porte et sort de la chambre. Un ponton en bois s’étend devant vous sur plusieurs centaines de mètres, et vous avancez tranquillement dessus, pour parcourir un paysage magnifique, tantôt une plage, tantôt une prairie, tantôt une forêt. Dépaysement garanti !
Pendant tout ce temps, vous vous voyez donc à l’intérieur d’un « corps en mouvement », « un corps qui marche », qui « re-marche » et se promène, alors que, en réalité, vous êtes toujours resté allongé dans votre lit d’hôpital.

Cette séance de marche virtuelle « par procuration », nous allons la répéter tous les jours, pendant 9 jours, à raison de 10 minutes par session.
Notre hypothèse est que, en se voyant ainsi tous les jours en train de marcher, et en imaginant que l’on est en train de le faire, le cerveau va réactiver certains circuits liés à la locomotion, et va d’une certaine manière démarrer en avance son processus de rééducation.
Et nous espérons que, grâce à cela, les patients vont ensuite se remettre à marcher plus vite et récupérer plus efficacement ; en améliorant par la même occasion leur moral et leur confiance dans l’avenir.
Les essais cliniques ont démarré depuis quelques mois au CHU de Rennes. Comme dans tout travail de recherche médicale on ne connaîtra les résultats qu’à la toute fin de l’étude, dans six à douze mois. Mais ce que nous savons déjà, à l’heure où je vous parle, le 25 Septembre 2021, c’est que pratiquement tous les patients et les soignants qui ont utilisé cet outil en sont ravis, et qu’ils souhaitent même pouvoir continuer de l’utiliser après les essais.

Alors, le principe d’une hypothèse c’est que l’on ne maîtrise pas le résultat final, mais moi .. j’y crois. Et je suis persuadé que cette technologie permettra d’obtenir des thérapies différentes, plus rapides, plus efficaces, et surtout plus accessibles demain pour de très nombreux patients à travers le monde.
Mais vous maintenant, comment réagirez-vous, demain, dans quelques années, lorsque vous irez voir votre médecin, votre kiné, ou même simplement votre prof de sport ou de danse, lorsqu’elle vous tendra un visiocasque, et vous dira « alors, vous êtes prêt pour votre petite séance ? Et aujourd’hui, quel avatar voulez-vous choisir ? ».
Ce sera donc à votre tour de choisir.. Et en faisant ce choix, vous détenez les clés, vous devenez acteur de votre propre transformation dans le virtuel et peut-être aussi dans le réel. Alors souvenez-vous, choisissez bien, car maintenant, vous savez les effets profonds et les pouvoirs bien réels de la réalité virtuelle sur votre cerveau.

 Anatole Lécuyer, Chercheur Inria.

Lettre aux nouveaux député.e.s : La souveraineté numérique citoyenne passera par les communs numériques, ou ne sera pas

Lors de l’ Assemblée numérique des 21 et 22 juin, les membres du groupe de travail sur les communs numériques de l’Union européenne, créé en février 2022, se sont réunis pour discuter de la création d’un incubateur européen , ainsi que des moyens ou d’ une structure permettant de fournir des orientations et une assistance aux États membres. En amont, seize acteurs du secteur ont signé une tribune dans Mediapart sur ce même sujet. Binaire a demandé à un des signataires, le Collectif pour une société des communs, de nous expliquer ces enjeux essentiels. Cet article est publié dans le cadre de la rubrique de binaire sur les Communs numériques. Thierry Viéville.

Enfin ! Le risque semble être perçu à sa juste mesure par une partie de nos élites dirigeantes. Les plus lucides d’entre eux commencent à comprendre que, si les GAFAM et autres licornes du capitalisme numérique offrent des services très puissants, très efficaces et très ergonomiques, ils le font au prix d’une menace réelle sur nos libertés individuelles et notre souveraineté collective. Exploitation des données personnelles, contrôle de l’espace public numérique, captation de la valeur générée par une économie qui s’auto-proclame « du partage », maîtrise croissante des infrastructures physiques d’internet, lobbying agressif. Pour y faire face, les acteurs publics oscillent entre complaisance (ex. Irlande), préférence nationale (ex. Doctolib) et mesures autoritaires (ex. Chine). Nous leur proposons une quatrième voie qui renoue avec les valeurs émancipatrices européennes : structurer une réelle démocratie Internet et impulser une économie numérique d’intérêt général en développant des politiques publiques pour défendre et stimuler les communs numériques.

Rappelons-le pour les lecteurs de Binaire : les communs numériques sont des ressources numériques partagées, produites et gérés collectivement par une communauté. Celle-ci établit des règles égalitaires de contribution, d’accès et d’usage de ces ressources dans le but de les pérenniser et les enrichir dans le temps. Les communs numériques peuvent être des logiciels libres (open source), des contenus ouverts (open content) et des plans partagés (open design) comme le logiciel Linux, le lecteur VLC, l’encyclopédie Wikipédia, la base de données OpenStreetMap, ou encore les plans en libre accès d’Arduino et de l’Atelier Paysan. Malgré leur apparente diversité, ces communs numériques et les communautés qui en prennent soin ne sont pas des îlots de partage, sympathiques mais marginaux, dans un océan marchant de relations d’exploitation. Ils représentent des espaces d’autonomie à partir desquels peut se penser et se structurer une société post-capitaliste profondément démocratique.

« Les communs numériques représentent des espaces d’autonomie à partir desquels peut se penser et se structurer une société post-capitaliste profondément démocratique »

Ainsi, face au capitalisme numérique marchant et prédateur, les communs numériques sont le socle d’une économie numérique, sociale et coopérative. D’un côté, la plateforme de covoiturage Blablacar, une entreprise côté en bourse qui occupe une position dominante sur le secteur, prend des commissions pouvant aller jusqu’à 30% des transactions entre ses « clients ». De l’autre, la plateforme Mobicoop, structurée en SCIC (société coopérative d’intérêt collectif), offre un service libre d’usage à ses utilisateurs, en faisant reposer son coût de fonctionnement sur les entreprises et les collectivités territoriales souhaitant offrir un service de covoiturage à leurs salariés et leurs habitants.

Face à des services web contrôlés par des acteurs privés, les communs numériques offrent des modèles de gouvernance partagée et démocratique de l’espace public. D’un côté, Twitter et Facebook exploitent les données privées de leurs usagers tout en gardant le pouvoir de décider unilatéralement de fermer des comptes ou des groupes. De l’autre, les réseaux sociaux comme Mastodon et Mobilizon, libres de publicités, offrent la possibilité aux utilisateurs de créer leurs propres instances et d’en garder le contrôle.

Face à un Internet où les interactions se font toujours plus superficielles, les communs numériques permettent de retisser du lien social en étant à la fois produits, gouvernés et utilisés pour être au service de besoins citoyens. Pendant la pandémie de Covid19, face à la pénurie de matériel médical, des collectifs d’ingénieurs ont spontanément collaboré en ligne pour concevoir des modèles numériques de fabrication de visières qu’ils ont mis à disposition de tous. Près de deux millions de pièces ont ainsi pu être produites en France par des fablab à travers le territoire. Ce qui dessine, par ailleurs, une nouvelle forme de production post-capitaliste et écologique qualifiée de « cosmolocalisme » : coopérer globalement en ligne pour construire des plans d’objets, et les fabriquer localement de manière décentralisée.

Et il ne faut pas croire que les collectifs qui prennent soin des communs numériques troquent leur efficacité économique et technique pour leurs valeurs. D’après la récente étude de la Commission relative à l’incidence des solutions logicielles et matérielles libres sur l’indépendance technologique, la compétitivité et l’innovation dans l’économie de l’UE, les investissements dans les solutions à code source ouvert affichent des rendements en moyenne quatre fois plus élevés. Si l’Open source doit intégrer une gouvernance partagée pour s’inscrire réellement dans une logique de commun, il fournit la preuve que l’innovation ouverte et la coopération recèlent d’un potentiel productif supérieur aux organisations fermées et privatives [1].

Voilà pourquoi nous pensons que les acteurs publics territoriaux, nationaux et européens doivent protéger et soutenir le développement de communs numériques. Ils doivent faire de la France un pays d’accueil des communs numériques, soutenant leur mode de production contributive et leur modèle d’innovation ouverte qui ont fait leurs preuves d’efficacité face au modèle privatif. Ils doivent favoriser les infrastructures de coopération et la levée des brevets qui ont permis au mouvement des makers de produire avec une forte rapidité et résilience des objets sanitaires dont les hôpitaux français manquaient. Ils doivent s’inspirer de leur gouvernance partagée entre producteurs et usagers pour rendre le fonctionnement des administrations elles-mêmes plus démocratique. Ils doivent s’appuyer sur eux pour penser la transition écologique du secteur numérique.

Avec le Collectif pour une société des communs, nous sommes convaincus que les communs en général, et les communs numériques en particulier, sont les ferments d’un projet de société coopérative, désirable et soutenable. Nous nous adressons aux acteurs publics en leur proposant des mesures applicables. Voici un aperçu des mesures pro-communs numériques que les nouveaux député.e.s de l’Assemblée nationale pourraient mettre en place.

« Voici un aperçu des mesures pro-communs numériques que les député.e.s du Parlement renouvelé pourraient mettre en place »

Pour commencer, la France et l’Europe doivent lancer une politique industrielle ambitieuse pour développer massivement l’économie de la production numérique ouverte, contributive et coopérative. Les organismes publics commencent à montrer des signes dans cette direction. Mais il faut aller plus vite et taper plus fort pour être en mesure de transformer en profondeur les régimes de production capitalistes et les habitudes d’usages associés de l’économie numérique. Nous proposons la création d’une « Fondation européenne des communs numériques » dotée de 10 milliards par an. Elle aurait un double objectif d’amorçage et de pérennisation dans le temps des communs numériques considérés comme centraux pour la souveraineté des internautes, des entreprises et des États européens qui auraient la charge de la financer. Il s’agirait à la fois de logiciels (open source), de contenus (open content) et de plans (open design). Cette fondation aurait une gouvernance partagée, entre administrations publiques, entreprises numériques, associations d’internautes et collectifs porteurs de projets de communs numériques, avec un pouvoir majoritaire accordé à ces deux derniers collèges.

Ensuite, la France et l’Europe doivent devenir des partenaires importants de communs numériques pour transformer le mode de fonctionnement de leurs administrations. Depuis quelques années, l’Union européenne avance une stratégie en matière d’ouverture de ses logiciels et la France s’est doté d’un « Plan d’action logiciels libres et communs numériques  » allant dans le même sens. Mais ces avancées, à saluer, doivent être poursuivies et renforcées pour aboutir à un réel État-partenaire des communs numériques. Les administrations doivent se doter de politiques de contribution aux communs numériques. Dans certains cas, elles pourraient créer des outils administratifs pour normaliser les partenariats « public-communs ». Ainsi, les agents de l’IGN pourraient contribuer et collaborer avec OpenStreetMap dans certains projets cartographiques d’intérêt général, à l’occasion de catastrophes naturelles par exemple. Enfin, les administrations devraient être des heavy-users et des clients importants des services associés aux communs numériques. La mairie de Barcelone est le client principal de la plateforme de démocratie participative Decidim et finance le développement de fonctionnalités dont profitent toutes les autres administrations moins dotées. Les institutions publiques devraient également modifier leur politique de marché public en privilégiant aux « appels à projets » chronophages, les « appels à communs » incitant les potentiels répondants à coopérer entre eux.

Pour finir, la France devrait « communaliser » l’infrastructure physique du monde numérique. Elle pourrait notamment créer des mécanismes incitatifs et un fonds de soutien aux fournisseurs d’accès à Internet indépendants ayant des objectifs écologiques afin de les aider à se créer ou se structurer. Nous pensons par exemple au collectif des Chatons qui participe à la décentralisation d’Internet, le rendant plus résilient, tout en permettant à des associations locales de bénéficier de leur infrastructure numérique et ainsi de préserver leur autonomie. La France pourrait enfin aider l’inclusion des associations citoyennes, notamment environnementales, dans la gouvernance des datacenters et autres infrastructures numériques territorialisées, dont le coût écologique s’avère de plus en plus élevé.

Collectif pour une société des commun, https://societedescommuns.com/

PS : Ces propositions se trouvent dans le livret « Regagner notre souveraineté numérique par les communs numériques ». Elles vont être affinés dans le temps. Le Collectif pour une société des communs organise le samedi 24 septembre une journée de travail qui leur est dédiée avec des acteurs publics, des praticiens et des chercheurs. Si vous souhaitez y participer, écrivez-nous à societedescommuns@protonmail.com.

[1] Benkler Y., 2011, The Penguin and the Leviathan: How Cooperation Triumphs over Self-Interest, 1 edition, New York, Crown Business, 272 p.

Les communs numériques

Le Web3 ? C’est quoi ça encore ?

Du web par la blockchain et un rêve de décentralisation ?  C’est le projet Web3 dont certains technophiles ne cessent de parler depuis quelque temps.

Pour nous aider à y voir plus clair,
Numerama nous l’explique en 8 minutes dans ce podcast

Gavin Wood, en décembre 2017. // Source : Noam Galai, repris de l’article Numerama.

En un mot ?

Le projet derrière Web3 est de procéder à une décentralisation du net, « Les plateformes et les applications ne seront pas détenues par un acteur central, mais par les usagers, qui gagneront leur part de propriété en contribuant au développement et à la maintenance de ces services », ceci en s’aidant de la technologie dite de la blockchain (ou chaîne de blocs). Il s’agit de l’équivalent d’un registre numérique et public dans lequel toutes les transactions en sont inscrites et conservées, nous explique Gavin Wood.

Euh c’est quoi la blockchain déjà ?

Nous trouvons les intentions et le positionnement vraiment super, et cette idée de blockchain, comme Heu?Reka et ScienceEtonnante nous l’explique, y compris en vidéo, tandis que Rachid Guerraoui démystifie la blockchain pour nous sur binaire.

L’avis de binaire sur le web3

L’article Numerama est vraiment bien fait et c’est tout à fait intéressant de voir comment des professionnel·le·s de l’informatique se proposent de remodeler notre monde numérique de demain,

Et nous sommes d’accord avec l’avis de Numerama : la logique de financiarisation qui sous-tend ce nouveau concept à la mode fait débat.

En plus, plusieurs interrogations se posent à nous.

– Tout d’abord, l’accès à cette nouvelle technologie : qui pourra et saura la maîtriser ? Une des raisons principales du succès du web actuel repose sur sa large ouverture. Ici on parle d’un système où les usagers pourront, au delà d’un simple usage, « gagner une part de propriété en contribuant au développement et à la maintenance de ces services » : l’idée est vraiment intéressante et louable, mais impose là encore que nous maîtrisions toutes et tous ces technologies et dans une certaine mesure leur fondements,  cela n’exclue-t-il pas de facto une grande partie des utilisateurs  actuels ? En tout cas cela nourrit cette réflexion commune sur le niveau de culture scientifique et technique que l’usage du numérique impose à chacun·e d’acquérir.

– Et puis, demeure la question fondamentale : à quel coût environnemental ? Si le Web3 présente des avantages questionnables pour la démocratie, il conduit à des dégâts indiscutables pour cette planète que nous avons reçue et devons laisser en héritage à nos enfants.  Les deux sûrement, mais dans ce cas, ce Web3 n’est apparemment pas encore la solution.

 

Quel est le but des applications de rencontres ?

On a tous entendu parler de tinder.com  qui propose de mettre en relation des personnes avec des profils répondant aux critères de son choix. Cette application répond à d’autres usages que de s’en remettre au hasard des rencontres quotidiennes ou celles des soirées plus ou moins erratiques. Mais s’appuyer, pour un aspect souvent majeur de notre vie, sur un système de recommandation très difficile à comprendre n’est-il pas problématique ? Alors si nous prenions un peu de recul et de hauteur pour réfléchir à cela ? Isabelle Collet nous propose de voir ce qu’il se cache derrière les coulisses du fonctionnement de cet outil. Serge Abiteboul et Marie-Agnès Enard.

En 2019, la journaliste Judith Duportail sort une enquête autobiographique « L’amour sous algorithme » aux Éditions de la Goutte d’or. Elle nous raconte deux histoires simultanément. D’une part, les réflexions et sentiments d’une journaliste trentenaire parisienne qui, suite à une rupture amoureuse, charge la plus célèbre des applications de rencontre, et d’autre part l’histoire de Tinder, l’application créée en 2012, qui a révolutionné la manière de faire des rencontres.

Photo de cottonbro provenant de Pexels

Un support pour l’introspection
La première histoire est une histoire sensible et honnête sur le rapport à soi, à son image, à l’amour, quand on est une jeune femme moderne, féministe mais vivant à l’ombre des grandes tours du « male gaze », c’est-à-dire du regard des hommes. Comment gérer le célibat et l’envie de faire des rencontres quand on doit aussi passer sous Les Fourches caudines des injonctions sociales détaillant ce qui serait « une vie digne d’être vécue » comme le dit Judith Butler. La recette officielle du bonheur féminin est simple ; elle a d’ailleurs assez peu changé depuis une vingtaine d’années. Le bonheur ? C’est un jean taille 36. La honte ? Être célibataire à 30 ans. La pire angoisse ? Ne pas réussir à se caser avant 40 ans parce qu’après on perd toute valeur sur « le marché de la bonne meuf » comme dit Virginie Despentes. La réussite ? Rentrer dans un jean en taille 36. Ce qui disait Bridget Jones en 1996 n’a pas pris une ride… même si la conscience féministe de l’autrice sait bien que ces règles ne viennent pas d’elle et que plus elle tente de s’ajuster à cet idéal patriarcal, moins elle se respecte.
Peut-être que l’élément qui manque à son récit, c’est la prise de conscience de sa dimension très située : cette histoire est précisément celle d’une Parisienne blanche trentenaire qui a fait des études supérieures. Ses contraintes, ses angoisses, ses loisirs et ses libertés sont étroitement liés à sa position sociale. Elle raconte sa propre histoire, mais sans avoir explicitement conscience que cette histoire est liée à sa catégorie socioprofessionnelle et à son âge. Ce qui la choque le plus, dans son enquête sur Tinder, c’est le fait que l’application lui attribue une note de désirabilité, un score qui est secret et qui conditionne le type de profil qui lui sera proposé. Tinder fait se rencontrer des joueurs de mêmes forces, c’est-à-dire des personnes évaluées comme également désirables, mais Tinder ne communique pas à ses client-es la note qui leur attribue. Une partie de l’enquête de Judith Duportail va être motivée par la découverte de cette note. Pourtant, nous allons voir qu’il ne s’agit que d’un détail de la stratégie de Tinder.

Illustration du livre l’amour sous algorithme ©editionsgouttedor.com

L’histoire dont je vais parler dans ce texte, c’est l’autre, celle de Tinder et des applications de rencontre. Judith Duportail n’est la seule à la raconter. Elle a beaucoup été aidée par Jessica Pidoux, doctorante à l’université de Lausanne. A l’origine des travaux de Jessica Pidoux, il y a une idée toute simple. Quels sont les brevets qui ont été déposés par Tinder et qui sont donc à l’origine de son fonctionnement ? Les entreprises répètent tellement que leurs algorithmes sont secrets qu’on finit par les croire. Pourtant, quand on dépose une idée pour qu’on ne vous la vole pas, il faut bien la décrire. En somme, une bonne partie du mystère est disponible sur Internet, le reste, c’est de l’analyse sociologique.
En préambule, je tiens à préciser que je n’ai rien contre le principe des applications de rencontres, que ce soit pour rechercher une rencontre éphémère ou un partenaire de longue durée. Utiliser une telle appli, c’est un moyen pour sortir de l’entre-soi, pour éviter de devoir draguer sur son lieu de travail, pour éviter de transformer tous ses loisirs en possible terrain de chasse. C’est aussi un moyen de faire de l’entre-soi : rencontrer des personnes qui ont la même religion ou les mêmes valeurs sociales comme les applications qui ciblent les personnes avec un mode de vie écologique et décroissant. Et enfin, c’est un moyen de s’amuser avec sa sexualité. Mon seul problème, avec ces applications, c’est leur opacité, d’une part, et leur côté addictif d’autre part… non pas addictif à la rencontre, mais à l’application elle-même. Un fonctionnement avec lequel les utilisateurs et utilisatrices ne sont pas familiers, faute d’avoir été averti-es (voire formé-es) et sur lesquels les applications se gardent de communiquer.

©123rf.com

Les applications de rencontre : de grosses machines à sous
Tout part d’un malentendu : on croit, à tort, que le but premier de Tinder et de ses clones est de nous permettre de faire des rencontres. Il n’en est rien : leur but est de rapporter de l’argent. Les rencontres sont juste le moyen d’y parvenir. Comment monétiser efficacement ce genre de site ? Comme beaucoup d’autres sites, Tinder est gratuit mais vend des fonctionnalités qui permettent à la version gratuite d’être plus performante. Tinder ne souhaite pas vous faire rencontrer l’amour, car ce serait la mort de son fonds de commerce. D’ailleurs, il ne s’est jamais positionné sur le créneau de la rencontre « pour la vie » mais plutôt du « coup d’un soir » ou du « plan cul » : ce sont des expériences qu’on peut réitérer sans fin et rapidement, contrairement à la relation amoureuse sexuellement exclusive, qui n’est absolument pas « bankable ».

L’autre moyen mis en œuvre par Tinder pour gagner de l’argent est de transformer ses utilisateurs-trices en produit. À la connexion, Tinder déploie un certain nombre de subterfuges pour collecter un maximum de données vous concernant. Il vous invite à lui donner les clés de votre compte Facebook, pour éviter de présenter votre profil à vos amis-es. Il vous propose, via Spotify, de mettre en lien votre chanson préférée, car la musique est un excellent moyen d’entamer la conversation. Enfin, il vous invite à connecter votre compte à Instagram où il y a des tonnes de photos géniales qui vous permettront de vous mettre en valeur. Prévenant, Tinder ? Disons plutôt qu’il se comporte comme un formidable aspirateur, engrangeant tout ce qu’il peut attraper et utilisant une infime partie de ces informations pour son activité « vitrine » : vous aider à rentrer en relation avec les inconnu-es qui vous ressemblent.
On peut toutefois utiliser Tinder en fournissant le strict minimum d’informations : pour utiliser l’application, vous avez seulement besoin de mettre votre numéro de téléphone (qui ne sera pas communiqué), un pseudo, votre âge, sexe et localisation. Puis, vous indiquez le sexe des personnes recherchées, leur tranche d’âge et la distance maximum à laquelle elles doivent habiter. Ensuite, l’application vous demande de charger 2 photos pouvant représenter n’importe quoi (vous pouvez même mettre une photo noire), et c’est parti.

Les rencontres seront-elles moins riches ou moins satisfaisantes si vous frustrez Tinder dans la pêche à l’information ? Si on va sur Tinder, c’est d’abord parce qu’on s’en moque un peu de cette « compatibilité » calculée car il existe de nombreuses applications qui vous font remplir un questionnaire détaillé. Alors, inutile de donner des données qui ne servent qu’à monnayer notre profil. De toute façon, l’IA de Tinder est bien incapable de deviner ce qu’est une alchimie qui fonctionne, elle peut juste trouver des proximités entre les profils. En outre, un sondage rapide auprès des utilisatrices et utilisateurs indique assez vite que « riches et satisfaisantes » ne sont pas les adjectifs les plus utilisés pour décrire les rencontres… ni même ce qui est toujours recherché.

La deuxième manière pour Tinder de faire de l’argent est la vente régulière de fonctionnalités permettant d’optimiser votre « expérience d’utilisation ». Pour cela, il faut vous rendre accro. Tinder / Candy crunch / Facebook et les autres : même combat. La ludification de l’activité combinée à un système de récompenses et d’encouragements vous incite à continuer à jouer indéfiniment. Il faut reconnaitre que Tinder a un système de gratification particulièrement efficace : sur Instagram, on aime vos photos, sur Facebook, on salue vos propos ou les infos que vous transférez, sur Tinder on vous aime, vous ! Double dose de dopamine. Le succès de Tinder tient à mon sens davantage à l’ergonomie de son interface qu’à la performance de son algorithme…

La gestion du catalogue de profils
Vous voilà donc devant l’application et vous êtes prêt ou prête à… à quoi au fait ? Vous savez bien que ce n’est pas pour trouver l’amour… mais on ne sait jamais… Le prince charmant, la reine des neiges va peut-être vous contacter…
Vous entrez dans l’application et une première photo apparaît : Jojo, 40 ans, a étudié à : école de la vie, situé à 3 km. Si Jojo ne vous plait pas, vous glissez la photo à gauche. Ce geste, c’est le coup de génie de Tinder, le brevet qui restera : le swipe. Swipe à droite, ça vous plait, swipe à gauche, ça ne vous plait pas. Ultra intuitif, ultra efficace. Donc vous swipez Jojo vers la gauche, et là, Tim apparait, 48 ans, 25 km, Ingénieur, a étudié à Sup Aéro. Une phrase d’accroche : « Ce que je cherche chez l’autre ? l’honnêteté ». Au fond de vous, il y a peut-être une petite voix qui vous dit : « ça m’étonnerait que quelqu’un écrive : ce que je cherche ? c’est qu’on me mente régulièrement », mais on est là pour jouer… vous swipez à droite. Et on passe à Roméo, 35 ans, qui cherche des rencontres en toute discrétion Etc. La pile de photos semble sans fin. Si Tim vous swipe également à droite, Tinder vous mettra en contact, c’est un match. Comme on ne sait pas qui vous a sélectionné, autant en sélectionner beaucoup, pour augmenter ses chances de matchs. Et on continue à faire défiler le catalogue… Gus, 43 ans, fonctionnaire, « Je cherche quelqu’un qui me fera quitter Tinder. J’aime les chats, le vélo et les femmes qui ont de l’humour ». Swipe. Au suivant.

@pexels

Mais au fait, comment cette pile est-elle triée ? C’est là qu’intervient votre score de désirabilité. Plus vous êtes choisi, plus vous êtes désirable et plus on vous présente des personnes souvent choisies. Pour que le jeu fonctionne indéfiniment, il faut que les profils présentés vous plaisent, avec de temps en temps, un profil top qui vous relance et vous incite à continuer à faire défiler. Ou une incitation à payer un service qui vous permettra un super match. Tinder vous évalue, et pour cela il applique les règles archaïques de la société patriarcale, il estime qu’il vaut mieux présenter des hommes à haut niveau social à des femmes plus jeunes qu’eux et à moins hauts revenus. Avec votre compte Facebook, Instagram, et même avec vos photos, Tinder se fait une idée de qui vous êtes. Vous êtes en photo dans votre salon ou dans une piscine de jardin ou sur des skis ou en parapente ou devant le Golden Gate… tout cela dit des choses sur votre niveau social.

Curieusement, c’est ce score de désirabilité (appelé elo score) qui a le plus choqué Judith Duportail. Elle pouvait admettre d’être notée, mais supportait pas de ne pas connaître sa note. Pourtant, noter, évaluer les uns et les autres d’une manière non transparente est une activité commune et continuelle… Facebook a été créé originellement pour noter les étudiantes à Harvard, les banques évaluent votre capacité à rembourser un prêt, même Parcours sup vous jauge sans tout vous dire de ses critères. Quoiqu’on pense du procédé, il est assez banal.

La plus grande difficulté de Tinder, c’est d’équilibrer ses deux catalogues : il y a au moins deux fois plus d’hommes que de femmes sur les sites de rencontre. D’autant plus que les hommes, pour augmenter leurs chances s’inscrivent partout : Tinder, mais aussi Meetic, Adopte un mec, Ok Cupid, Fruitz… les sites ne manquent pas et les hommes accentuent le déséquilibre en faisant feu de tout bois.
Le résultat est que pour les femmes, l’utilisation d’un site de rencontre est vite gratifiante : elles ont un succès fou, elles sont en position de force sur un marché tendu. Si vous sélectionnez une dizaine de profils, vous vous retrouvez à devoir gérer la file d’attente des hommes qui vous ont matché… mais restez lucide : ce n’est pas parce que vous êtes incroyablement attirante… c’est surtout parce que vous êtes rare. Judith Duportail et Nicolas Kayser-Bril ont échangé les rôles : Nicolas a mis une photo noire en disant qu’il était une femme… Au bout de deux heures, il ne supportait plus les mecs. Il était dragué sans relâche. Sur la tranche d’âge des trentenaires, beaucoup d’hommes ne choisissent pas. Ils swipent toutes les femmes et attendent que ça morde. Autant pour l’algorithme sophistiqué.

Tinder se paye sur la frustration des hommes. Il y a tellement de profils d’hommes que le vôtre ne sera peut-être jamais présenté. Pas assez séduisant, pas assez riche, pas assez sexy, bref, pas bien noté. Mais si vous payez, votre profil sera présenté en tête pendant un certain laps de temps.

Un supermarché de la rencontre pour les un-es, un moyen d’empowerment pour les autres

Photo de Olya Kobruseva provenant de Pexels

Pour que Tinder donne sa pleine mesure, il a besoin de beaucoup de profils et de beaucoup de données. L’expérience Tinder à Auxerre ou à Tulle n’est pas la même qu’à Paris. L’expérience Tinder d’une Parisienne de 30 ans est très différente de celle d’une quadra vivant à la campagne… et pour le coup, il y aussi des bonnes nouvelles. A force de lire des récits ou des interviews de jeunes adultes, on oublie qu’il n’y a pas de limite d’âge pour s’inscrire ni pour draguer. Au moment où des chroniqueurs goujats expliquent que les femmes de 50 ans sont invisibles, celles-ci découvrent sur Tinder que des hommes qui ont plus ou moins leur âge sont désireux de les séduire…
et si Tinder apporte son lot de mecs lourds et vulgaires, il est bien plus simple de s’en débarrasser en ligne que dans une soirée.

Ces applications sont accusées de marchandiser les relations sentimentales, de pousser à la collection de rencontres. Comme dit Judith Duportail : on revient toujours voir s’il n’y a pas mieux en rayon. Les gens risquent-ils de devenir des célibataires en série, dépendant des applications pour se rencontrer ? En réalité, aucune évidence scientifique ne démontre de tels faits, au contraire.
D’une part, les rencontres sont facilitées : dans la vie hors ligne (et surtout en période de pandémie), tout le monde n’a pas une vie sociale dense, ni le temps, l’envie ou l’audace nécessaires pour aborder les inconnu-es. De plus, si les hommes ont peur d’être repoussés, les femmes ont peur d’être agressées… l’enjeu du « raté » n’est pas le même mais dans les deux cas, le risque se gère bien mieux à distance.
Dans cette enquête « les applications de rencontres ne détruisent pas l’amour« , Gina Potarca montre qu’il n’existe pas de différence sur les intentions des couples formés en ligne ou à l’ancienne. En particulier aucune différence n’existe sur l’intention de se marier ou pas. Et, quel que soit le type de rencontre, les couples sont tout aussi heureux de leur vie et de la qualité de leur relation avec leur partenaire. Enfin, ce mode de rencontre est particulièrement favorable aux femmes diplômées qui trouvent plus facilement un partenaire, là encore, à l’encontre des idées reçues qui voudraient que les femmes intelligentes soient vouées au célibat. Au final, Tinder permet de la mobilité sociale : parce que, quoiqu’en pensent ses concepteurs, des hommes sortent volontiers avec des femmes plus âgées, plus diplômées ou plus riches qu’eux.

Votre vie en ligne
Finalement, ces applications ont considérablement modifié les modes d’entrée en relation, permettant à bien plus de personnes de se lancer. La honte larvée qui existait à utiliser ce genre de « petites annonces » (car le procédé est tout de même ancien !) est en train de disparaître, même si les femmes restent plus réticentes, parce que ce sont elles qui ont le plus à perdre si ça tourne mal, y compris en termes de réputation. Mais derrière cette révolution sociale de la rencontre, il faut garder à l’esprit que le fond de l’affaire, la motivation première, ce sont nos données. Les connexions entre les bases de données qui ne sont pas faites aujourd’hui le seront peut-être demain, au hasard des rachats de services entre GAFAM. Demain, votre profil Tinder pourrait alimenter les IA de recrutement qui ratissent LinkedIn : elles iront lire votre conversation sexy sur WhatsApp avant de savoir si vraiment vous êtes fait-e pour le job… N’oubliez pas que quand vous supprimez une conversation ou un profil, Internet, lui, n’oublie rien.

Encore plus d’infos sur Tinder ? L’excellente série Dopamine, sur Arte .

Isabelle Collet.

L’école à la maison

Quand on parle de numérique et d’éducation, on oublie souvent que le premier lieu éducatif ainsi que d’usage du numérique est … dans la famille. Avec la crise sanitaire, l’expansion des usages du numérique entre la maison et l’école nécessite encore plus de prendre le temps de la réflexion. C’est ce que nous invite à faire, dans une série de trois articles, Anne-Sophie Pionnier, en partageant son travail d’étude en Master MSc SmartEdTech sur la co-créativité et les outils numériques pour l’innovation éducative. Bonne lecture et bienvenue pour en discuter dans les commentaires avec l’autrice. Thierry Viéville et Pascal Guitton.

Ecole à la maison pendant le confinement : regard bienveillant ou défiance des parents sur le travail des enseignants ?

« Ce qui m’a interpellé pendant cette période [de confinement], c’est que la forme scolaire avait explosé. On n’avait plus ce rendez-vous dans ce lieu précis qu’est l’école. Et ces enfants éparpillés sur un chemin. On ne savait pas trop où il menait. Mon idée était de les mettre sur le chemin et de jouer ce rôle, un peu comme un équilibriste, de tendre le bâton. Alors je n’étais pas toute seule. D’un côté, il y avait le rôle de l’enseignant, de l’autre côté, il y avait les parents. Et ça, c’était nouveau ! », affirme Marie Soulié, professeure de français en collège, lors de l’émission du 24 septembre 2020 à la Maison de la radio.(1)

Dans ce troisième article sur les sujets éthiques dans la relation digitale parents-école, je souhaite aborder le sujet de l’impact de l’école à la maison lors du confinement lié à la pandémie de Covid. Marie Soulié, ainsi que de nombreux autres acteurs et spectateurs de cette période ont mis en avant le nouveau rôle des parents.

Un contexte de changement non programmé

Lors du premier confinement du 17 Mars au 11 mai 2020 dû aux mesures sanitaires pour lutter contre la Covid-19, les écoles primaires et les collèges de France ont fermé leurs portes. Enseignants, élèves et parents n’ont eu que quelques jours pour organiser ce que l’on a plus tard appelé la « continuité pédagogique » et qui consistait à passer d’un lieu physique d’apprentissage à l’école, à un lieu digital d’apprentissage à la maison. Ce changement sans précédent et non programmé a véritablement bouleversé tous les acteurs de l’Education dans leur façon de travailler, de s’organiser, de communiquer et d’aborder les outils numériques. Cependant, cette situation a pu être vécue différemment en fonction de l’équipement et de l’expérience passée dans l’utilisation d’outils numériques. La ligne de départ n’était pas identique pour tous les enseignants, élèves et parents. Ainsi, « les compétences numériques des parents d’élèves ont été perçues comme quasiment aussi problématiques que celles des élèves » (2)

Source : Ecole, numérique et confinement en France / infographie réseau Canopé

Des rôles bouleversés ou qui s’inversent

Du jour au lendemain, la maison est devenue l’annexe de l’école et les outils numériques pour communiquer entre enseignants, chefs d’établissements d’un côté et élèves, parents de l’autre sont devenus indispensables. Tout à coup, ce ne sont plus les parents qui devaient rentrer à l’école « par la fenêtre du digital »(3) mais plutôt aux enseignants et aux directions d’établissements de frapper à la porte des parents et de leurs enfants… Un véritable changement d’angle de vue sur l’apprentissage pour tous les acteurs de l’éducation.

Pour les enseignants, impossible de ne pas passer par les parents pour communiquer, surtout avec les plus jeunes élèves. Un intermédiaire au quotidien apparaît et se met entre eux et les apprenants. Surtout, les enseignants doivent leur faire confiance, ils n’ont pas le choix. Ils doivent aussi faire confiance au numérique pour communiquer avec les parents et les enfants. Or, l’utilisation et l’aisance avec les outils numériques est variable : « une très forte majorité d’enseignants (96,5 %) utilisait les outils numériques pour travailler avant le contexte de confinement, et 69,2 % s’estimait à l’aise avec ceux-ci. Pour autant, cela ne signifie pas qu’ils étaient préparés à l’enseignement à distance, les outils numériques étant jusqu’alors utilisés en support d’un enseignement traditionnel, avec une faible part d’enseignants ayant expérimenté la classe virtuelle avant le confinement. »(2) L’exercice n’est donc pas aisé et les enseignants se sentent plus ou moins à l’aise. Difficile de s’entraider entre collègues puisqu’il faudrait le faire par le digital et que chacun est concentré sur la mise en place de sa propre pédagogie. Concernant les outils, la plupart des enseignants deviennent donc des apprenants, d’autant plus que les conditions sont celles d’une situation de crise.

Pour les parents, ce n’est pas seulement un changement de méthode et d’outils mais un changement de métier ! Du jour au lendemain, ils se transforment en enseignants à la maison ou du moins doivent-ils accompagner l’apprentissage de leur enfant, surtout pour les classes de primaire mais aussi de collège. Or, la plupart n’a ni la compétence (formation en pédagogie), ni la légitimité (l’enfant les considère comme leur parent avant tout), ni la connaissance dans certaines matières qu’ils peuvent ne pas maîtriser, ni le temps puisqu’ils doivent aussi assurer leur « continuité de travail » souvent en télétravail. « Pour 45 % des parents, le stress vis-à-vis de l’École a augmenté. »(2)

La qualité, la diversité et la quantité de ce que reçoivent les parents et les élèves de la part des enseignants est très variable. La plupart des enseignants fournissent les ressources pédagogiques mais la plupart des jeunes élèves ne sont pas suffisamment autonomes pour utiliser ces ressources et effectuer le travail demandé seuls. Les conditions de travail dépendent des parents. Or, il y a eu de nombreux témoignages, particulièrement dans les médias, de parents remerciant les enseignants pour leur travail et réalisant la difficulté des métiers de l’enseignement, mais a-t-on entendu beaucoup de remerciements de la part des enseignants envers ces parents qui ont permis, eux aussi, la continuité pédagogique ? Dans ce sens, certains parents ne se sont pas sentis reconnus dans leur implication.

De plus, les parents n’ont pas eu le sentiment d’un rapprochement avec les enseignants. Ainsi, dans une enquête en ligne auprès de 256 parents d’enfants scolarisés en France de la maternelle jusqu’au lycée (4), à la question « Le confinement et l’école à la maison ont-ils permis un rapprochement avec les enseignants ? », les parents ont répondu « Pas du tout » et « Plutôt non » pour 46%.

Un regard plus critique de la part des parents et une défiance opérationnalisée

Pendant le confinement, les parents ont pu entrer en contact direct avec les enseignants et parler bien-être de leur enfant mais également pédagogie. Ils ont pu également observer la quantité et la qualité des ressources pédagogiques transmises par les enseignants à leur enfant. Ils ont pu remarquer la facilité ou la difficulté des enseignants face aux outils digitaux. A ce moment-là, ils ont eu les moyens de devenir critiques quant aux compétences des enseignants, de façon positive ou négative.

Les enseignants ont pu se sentir observés, voire jugés, par les parents dans leurs compétences, leur manière d’enseigner.

A ce titre, on peut affirmer que le confinement de Mars 2020 a été un facteur d’accentuation de la critique (positive ou négative) par les parents. Il faut dire que le confinement a permis aux parents de s’immiscer plus dans le travail des professeurs et parfois de le juger. Et tout ceci, à distance, amplifiant la critique dans un sens ou un autre.

A ce stade, il me semble intéressant de mettre en parallèle les recherches d’Alexandre Monnin, mises en avant dans la vidéo “Penser le numérique”.(5) Il réfléchit sur la notion de monde numérique et prend justement l’exemple de la confiance pour appuyer son propos :

Pour moi, ce que fait le numérique, c’est qu’il s’empare d’un certain nombre de concepts, de pratiques, de valeurs. Il les formalise, il les opérationnalise, il les numérise tout simplement, mais ce faisant, il les transforme. Je peux prendre un exemple pour illustrer mon propos : celui de la confiance numérique. La confiance telle qu’elle est définie par les sociologues va plutôt consister à ne pas savoir quelque chose. En fait, la confiance est de l’ordre du non-savoir. Si je confie mon fils à ma nounou, et que je mets un dispositif avec des caméras qui la filment 24 heures sur 24, je ne fais pas confiance à ma nounou, d’accord ? Donc on va avouer que le numérique ici, avec cette idée de surveillance, de générer des traces qui vont permettre de suivre tout ce qui se passe, finalement, n’est pas un dispositif de confiance, mais de défiance, envers la nounou. La confiance, ce serait “je lui confie mon fils, je ne sais pas ce qui se passe, mais j’accepte malgré tout de lui confier mon fils”. C’est ça faire confiance à quelqu’un. Et d’une certaine manière, en opérationnalisant la confiance, on aboutit au résultat inverse : on opérationnalise la défiance. Le numérique transforme les valeurs ou les entités qu’il opérationnalise. Et parfois il les transforme dans le sens opposé de ce qu’elles étaient précédemment.

Comme Alexandre Monnin le souligne dans sa vidéo, le numérique peut transformer la valeur de la confiance en défiance. Suite au confinement et à l’école à la maison, les parents ne vont-ils pas opérationnaliser cette défiance vis-à-vis des enseignants ? Ayant accompagnés eux-mêmes leur enfant dans leur apprentissage pendant le confinement, les parents ne vont-ils pas se sentir mieux armés pour juger le travail des enseignants dans le futur ?

Une co-éducation encore plus d’actualité

Pour pallier cette déviance, il me semble important d’aborder le sujet de la co-éducation qui consiste à ce que les enseignants associent les parents dans l’apprentissage des enfants. Le confinement a permis à de nombreux parents de s’impliquer dans l’apprentissage de leurs enfants et aux parents qui étaient déjà impliqués avant, de l’être d’avantage. Ils vont donc être demandeurs de plus de co-éducation avec les enseignants. Ainsi, « l’élément central dans la modification du regard concerne la relation avec les élèves et les parents. Les enseignants expliquent avoir davantage communiqué qu’en temps ordinaire avec les familles et les élèves, ce qui a contribué à une meilleure connaissance mutuelle et a renforcé l’implication des parents dans la co-éducation, un élément qu’ils semblent avoir apprécié. » (2)

Les outils numériques ont un rôle à jouer pour favoriser cette co-éducation. Le confinement a donné un véritable essor aux outils numériques de la relation parents-école et, aux dires des éditeurs et fournisseurs de logiciels, le nombre de connexions vient attester que cette tendance reste pérenne même après le confinement.

A suivre donc…

(1) Et si on changeait l’école ?, un événement franceinfo et WE Demain suivi à la Maison de la radio ou en direct digital. Conférence le Jeudi 24 septembre 2020 19h00 à la Maison de la radio et de la musique — Studio 104.

(2) École, numérique et confinement : quels sont les premiers résultats de la recherche en France ?, Diane Béduchaud, Ifé-ENS de Lyon, Alexandra Coudray, Réseau Canopé, Edwige Coureau-Falquerho, Ifé-ENS de Lyon, 2020.

(3) Partie #2 L’œil des parents sur l’enfant à l’école : implication, surveillance, contrôle ou autonomie ? Article L’éthique dans la relation digitale parents-école (1/3), 19 juillet 2021.

(4) Enquête Questionnaire Parents, LimeSurvey, Anne-Sophie Pionnier, Etudiante Master SmartEdTech, Université Côte d’Azur, février 2021.

(5) Vidéo La notion d’ontologie, Penser le numérique, Alexandre Monnin, Inria, 28 avril 2017.

Anne-Sophie Pionnier.

Chut! binaire à La puce à l’oreille

Chut! est un média qui interroge l’impact du numérique sur nos vies. C’est à la fois un magazine en ligne chut.media et un magazine papier trimestriel de 100 pages illustrées. Mais c’est aussi une chaîne de podcast Chut! Radio. A l’occasion d’une série de podcast, avec l’intervention de plusieurs membres et amis de binaire, nous avions envie de vous faire découvrir ce nouvel acteur de la culture du numérique. Serge Abiteboul et Marie-Agnès Enard.

Les contenus de Chut ! interrogent des sujets de société et notre rapport au numérique. Ils mettent en avant la diversité, l’inclusion, l’éthique et encouragent à aller vers un monde technologique mixte et responsable, intégrant la diversité de tous et toutes. La ligne éditoriale est assumée : des contenus féministes et engagés. Le travail de pédagogie et de vulgarisation est soigné. Le lecteur de tout niveau peut découvrir ou approfondir certains sujets, se questionner ou façonner son opinion.

Le site chut.media propose une diversité de contenus et de formats tous en lien avec le numérique. Nous apprécions tout particulièrement la conception graphique de l’édition papier du magazine. Si vous êtes pressés, vous pouvez consulter des articles ou écouter des podcasts sélectionnés pour leur durée qui varie entre 3, 5 ou 10 minutes. Si vous avez un peu plus de temps, la Chut !radio propose tout une collection d’articles sonores ou de podcast de durées variables.

Nous vous invitons aujourd’hui à écouter la série de podcast La Puce à l’oreille. Chacun évoque en seulement cinq minutes un outil du numérique de notre quotidien. La réalisation est de Nolwenn Mauguen, une étudiante en Humanités numériques.

Les premiers sujets et les personnalités interrogées vont vous sembler familiers, puisqu’ils donnent la parole à des auteurs amis ou des éditeurs de binaire :

1. L’ordinateur ordonne-t-il le monde ? avec Valérie Schafer

2. Logique, le logiciel ? avec Gérard Berry

3. Jusqu’à quel point les algos rythment-ils nos vies ? avec Anne-Marie Kermarrec

4. Les données personnelles, le trésor du XXIème siècle ? avec Serge Abiteboul

Nous souhaitons à Chut ! de faire entendre sa voix sous toutes ses formes et pour longtemps.

 

Internet : voyage au bout du réseau

Photo de Adrianna Calvo provenant de Pexels

Internet et le web ont bouleversé nos vies. Pourtant nous n’avons qu’une très vague idée de leur naissance, de ce qu’ils sont réellement. Deux historiennes nous racontent cette belle histoire, nous parlent des gens qui l’ont construite, des idées qui l’ont poussée. Valérie Schafer est professeure à l’Université du Luxembourg et chercheuse associée au CNRS. Elle a déjà publié de nombreux articles dans binaire. Camille Paloque-Bergès est ingénieure de recherche au CNAM. Un podcast agréable, clair, au ton très juste. À écouter absolument pour mieux comprendre le monde qui nous entoure.

Podcast Euréka ! Sur France Culture : Le podcast

Des oubliés de la révolution numérique ?

Internet pour qui ? Wrote on Visual Hunt, CC BY

Dominique Pasquier, Télécom Paris – Institut Mines-Télécom

Ce texte est publié dans le cadre de la chronique « Société numérique », proposée par les chercheuses et chercheurs du département Sciences économiques et sociales de Télécom ParisTech, membres de l’Institut interdisciplinaire de l’innovation (CNRS).


Il y a des révolutions qui se font en silence. L’intégration d’Internet dans les foyers des milieux populaires en est un bon exemple.

Où situer la « fracture numérique » ?

On a, au début des années 2000, beaucoup parlé de « fracture numérique » en s’intéressant à la fois aux inégalités d’accès et d’usages. Les rapports annuels du CREDOC montrent que les catégories populaires ont commencé à rattraper leur retard de connexion depuis une dizaine d’années : entre 2006 et 2017, en France, la proportion d’employés ayant une connexion Internet à domicile est passée de 51 % à 93 %, celle des ouvriers de 38 à 83 % (CREDOC 2017 : 48).

C’est désormais l’âge et non le revenu ou le niveau de diplôme qui est le facteur le plus clivant (parmi ceux qui ne se connectent jamais à Internet, huit personnes sur dix ont 60 ans ou plus). Si la question de l’accès est en passe d’être résolue, les usages des classes populaires restent moins variés et moins fréquents que ceux des classes moyennes et supérieures, nous apprennent ces mêmes rapports. Les individus non diplômés ont plus de mal à s’adapter à la dématérialisation des services administratifs, font moins de recherches, pratiquent moins les achats, se lancent très rarement dans la production de contenus. Bref, il y aurait en quelque sorte un « Internet du pauvre », moins créatif, moins audacieux, moins utile en quelque sorte…

Changer de focale

Peut-être faut-il adopter un autre regard ? Ces enquêtes statistiques reposent sur un comptage déploratif des manques par rapport aux pratiques les plus innovantes, celles des individus jeunes, diplômés, urbains. On peut partir d’un point de vue différent en posant a priori que les pratiques d’Internet privilégiées par les classes populaires font sens par rapport à leur besoins quotidiens et qu’elles sont des indicateurs pertinents de leur rapport au monde et des transformations possibles de ce rapport au monde.

Comme Jacques Rancière l’a analysé à propos des productions écrites d’ouvriers au XIXe siècle, il s’agit de poser l’égalité des intelligences comme point de départ de la réflexion pour comprendre comment « une langue commune appropriée par les autres » peut être réappropriée par ceux à qui elle n’était pas destinée. (Rancière 2009 : 152).

Un tel changement de focale permet d’entrevoir des usages qui n’ont rien de spectaculaire si ce n’est qu’ils ont profondément transformé le rapport au savoir et aux connaissances de ceux qui ne sont pas allés longtemps à l’école. Ce sont par exemple des recherches sur le sens des mots employés par les médecins ou celui des intitulés des devoirs scolaires des enfants. Pour des internautes avertis, elles pourraient paraître peu sophistiquées, mais, en attendant, elles opèrent une transformation majeure en réduisant l’asymétrie du rapport aux experts et en atténuant ces phénomènes de « déférence subie » des classes populaires face au monde des sachants – qu’Annette Lareau a analysée dans un beau livre, Unequal Childhoods (2011).

Recherche en ligne : s’informer et acheter

Des salariés qui exercent des emplois subalternes et n’ont aucun usage du numérique dans leur vie professionnelle passent aussi beaucoup de temps en ligne pour s’informer sur leur métier ou leurs droits : le succès des sites d’employés des services à la personne est là pour en témoigner. Des assistantes maternelles y parlent de leur conception de l’éducation des enfants, des aides-soignantes ou des agents de service hospitaliers de leur rapport aux patients. On pourrait aussi souligner tout ce que les tutoriels renouvellent au sein de savoir-faire traditionnellement investis par les classes populaires : ce sont des ingrédients jamais utilisés pour la cuisine, des manières de jardiner ou bricoler nouvelles, des modèles de tricot inconnus qui sont arrivés dans les foyers.

Apprendre donc, mais aussi acheter. Pour ceux qui vivent dans des zones rurales ou semi rurales, l’accès en quelques clics à des biens jusqu’alors introuvables dans leur environnement immédiat paraît a priori comme une immense opportunité. Mais en fait, les choses sont plus compliquées. La grande vitrine marchande en ligne est moins appréciée pour le choix qu’elle offre que pour les économies qu’elle permet de réaliser en surfant sur les promotions. C’est la recherche de la bonne affaire qui motive en priorité : c’est aussi qu’elle permet de pratiquer une gestion par les stocks en achetant par lots. En même temps, ces gains sont coupables puisqu’ils contribuent à fragiliser le commerce local, ou du moins ce qu’il en reste.

Dans une société d’interconnaissance forte où les commerçants sont aussi des voisins, et parfois des amis, la trahison laisse un goût amer des deux côtés. À l’inverse, les marchés de biens d’occasion entre particuliers, à commencer par Le Bon Coin qui recrute une importante clientèle rurale et populaire, sont décrits comme des marchés vertueux : ils offrent le plaisir d’une flânerie géolocalisée – c’est devenu une nouvelle source de commérage !-, évitent de jeter, et permettent de gagner quelques euros en sauvegardant la fierté de l’acheteur qui peut se meubler et se vêtir à moindre coût sans passer par des systèmes de dons. L’achat en ligne a donc opéré une transformation paradoxale du rapport au local, en détruisant certains liens et en en créant d’autres.

Lire et communiquer sur Internet

Enfin, Internet c’est une relation à l’écrit, marque de ceux qui en ont été les créateurs. Elle ne va pas de soi pour des individus qui ont un faible niveau de diplôme et très peu de pratiques scripturales sur leur lieu de travail. Le mail, qui demande une écriture normée, est largement délaissé dans ces familles populaires : il ne sert qu’aux échanges avec les sites d’achat et les administrations -le terme de démêlés serait en l’occurrence plus exact dans ce dernier cas.

C’est aussi qu’il s’inscrit dans une logique de communication interpersonnelle et asynchrone qui contrevient aux normes de relations en face à face et des échanges collectifs qui prévalent dans les milieux populaires. Facebook a bien mieux tiré son épingle du jeu : il permet l’échange de contenus sous forme de liens partagés, s’inscrit dans une dynamique d’échange de groupe et ne demande aucune écriture soignée. Ce réseau social apparaît être un moyen privilégié pour garder le contact avec les membres de sa famille large et les très proches, à la recherche d’un consensus sur les valeurs partagées. C’est un réseau de l’entre-soi, sans ouverture particulière sur d’autres mondes sociaux.

Car si l’Internet a finalement tenu de nombreuses promesses du côté du rapport au savoir, il n’a visiblement pas réussi à estomper les frontières entre les univers sociaux.


Dominique Pasquier, sociologue, directrice de recherche CNRS est l’auteur de « L’Internet des familles modestes. Enquête dans la France rurale ». Paris, Presses des Mines, 2018.The Conversation

Dominique Pasquier, sociologue, directrice de recherche CNRS, membre de l’Institut interdisciplinaire de l’innovation (i3), Télécom Paris – Institut Mines-Télécom

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Désinformation en temps de crise : liberté et discipline des plateformes

Nous sommes confrontés à la désinformation sur les réseaux sociaux. Le sujet est tout sauf simple : qu’on modère trop et on porte atteinte à la liberté d’expression ; pas assez, et on laisse les fakenews se propager et mettre en cause les valeurs de notre société. Alors, qui doit dire le vrai du faux et selon quels principes ? Emmanuel Didier, Serena Villata, et Célia Zolynski nous expliquent comment concilier liberté et responsabilité des plateformes. Serge Abiteboul & Antoine Rousseau
Cet article est publié en collaboration avec theconversation.fr.
@SabrinaVillata

L’élection présidentielle aux États-Unis a encore une fois mis la question des fausses nouvelles au cœur du débat public. La puissance des plateformes et notamment celle des réseaux sociaux est devenue telle que chaque événement d’importance engendre depuis quelques temps des discussions sur ce problème. Pourtant, il semble que les analyses produites à chacune de ces occasions ne sont pas capitalisées, comme s’il n’y avait eu ni réflexions, ni avancées au préalable. Nous voudrions montrer ici la pérennité de certaines conclusions auxquelles nous étions parvenues concernant la modération de la désinformation pendant le premier confinement.

Photo Markus Winkler – Pexels

En effet, durant la crise sanitaire engendrée par l’épidémie de SARS-CoV-2, l’isolement des individus en raison du confinement, l’anxiété suscitée par la gravité de la situation ou encore les incertitudes et les controverses liées au manque de connaissance sur ce nouveau virus ont exacerbé à la fois le besoin d’informations fiables et la circulation de contenus relevant de la désinformation (émis avec une claire intention de nuire) ou de la mésinformation (propagation de données à la validité douteuse, souvent à l’insu du propagateur). Les plateformes ont alors très vite accepté le principe qu’il leur fallait modérer un certain nombre de contenus, mais elles ont été confrontées à deux difficultés liées qui étaient déjà connues. Premièrement, ce travail est complexe car toute information, selon le cadre dans lequel elle est présentée, la manière dont elle est formulée ou le point de vue de son destinataire, est susceptible de relever finalement de la mésinformation ou de la désinformation. Deuxièmement, le fait de sélectionner, de promouvoir ou de réduire la visibilité de certaines informations échangées sur les plateformes numériques entre en tension avec le respect des libertés d’information et d’expression qu’elles promeuvent par ailleurs.

Quelles sont donc les contraintes qui s’imposent aux plateformes ? Quelles sont les mesures qu’elles ont effectivement prises dans ces conditions ? Le présent texte s’appuie sur le bulletin de veille rédigé dans le cadre d’un groupe de travail du Comité national pilote d’éthique du numérique (CNPEN)[1] qui nous a permis de mener une dizaine d’auditions (par visioconférence) avec, entre autres, les représentants de Facebook, Twitter et Qwant ainsi que le directeur des Décodeurs du Monde. Il est apparu que les difficultés posées par la modération des fausses nouvelles pouvaient être regroupées en trois catégories. D’une part, celles qui sont associées aux algorithmes, d’autre part celles qui relèvent du phénomène de la viralité et, enfin, celles posées par l’identification et les relations avec des autorités légitimes.

Les algorithmes en question

Bien sûr, les mécanismes de lutte contre la désinformation et la mésinformation développés par les plateformes reposent en partie sur des outils automatisés, compte tenu du volume considérable d’informations à analyser. Ils sont néanmoins supervisés par des modérateurs humains et chaque crise interroge le degré de cette supervision. Durant le confinement, celle-ci a été largement réduite car les conditions de télétravail, souvent non anticipées, pouvaient amener à utiliser des réseaux non sécurisés pour transférer de tels contenus, potentiellement délictueux, ou à devoir les modérer dans un contexte privé difficilement maîtrisable. Or les risques d’atteintes disproportionnées à la liberté d’expression se sont avérés plus importants en l’absence de médiation et de validation humaines, seules à même d’identifier voire de corriger les erreurs de classification ou les biais algorithmiques. En outre, l’absence de vérificateurs humains a compliqué la possibilité de recours normalement offerte à l’auteur d’un contenu ayant été retiré par la plateforme. Ces difficultés montrent clairement l’importance pour la société civile que les plateformes fassent plus de transparence sur les critères algorithmiques de classification de la désinformation ainsi que sur les critères qu’elles retiennent pour définir leur politique de modération, qu’ils soient d’ordre économique ou relèvent d’obligations légales. Ces politiques de modération doivent être mieux explicitées et factuellement renseignées dans les rapports d’activité périodique qu’elles sont tenues de publier depuis la loi Infox de décembre 2018 (v. le bilan d’activité pour 2019 publié par le CSA le 30 juillet 2020[2] et sa recommandation du 15 mai 2019[3]). Plus généralement, il apparait qu’une réflexion d’ampleur sur la constitution de bases de données communes pour améliorer les outils numériques de lutte contre la désinformation et la mésinformation devrait être menée et devrait aboutir à un partage des métadonnées associées aux données qu’elles collectent à cette fin (voir dans le même sens le bilan d’activité du CSA préc.)

La responsabilité de la viralité

Pexels

L’ampleur prise à ce jour par les phénomènes de désinformation et de mésinformation tient à l’accroissement de mécanismes de viralité qui se déploient à partir des outils offerts par les plateformes. La viralité est d’abord l’effet du modèle économique de certains de ces opérateurs, qui sont rémunérés par les publicitaires en fonction des interactions avec les utilisateurs qu’ils obtiennent et ont donc intérêt à générer des clics ou toute autre réaction aux contenus. Elle relève ensuite du rôle joué par leurs utilisateurs eux-mêmes dans la propagation virale de la désinformation et de la mésinformation (que ces derniers y contribuent délibérément ou par simple négligence ou ignorance). La lutte contre la désinformation doit donc nécessairement être l’affaire de tous les utilisateurs, responsables de devenir plus scrupuleux avant de décider de partager des informations et ainsi de contribuer à leur propagation virale. Cette remarque va d’ailleurs dans le même sens que le programme #MarquonsUnePause désormais promu par l’ONU[4]. Mais ceci n’est possible que si les plateformes mettent à disposition de leurs utilisateurs un certain nombre d’informations et d’outils afin de les mettre en mesure de prendre conscience, voire de maîtriser, le rôle qu’ils jouent dans la chaîne de viralité de l’information (voir également sur ce point les recommandations du CSA formulées dans le bilan d’activité préc.). En ce sens, les plateformes ont commencé à indiquer explicitement qu’une information reçue a été massivement partagée et invite leurs utilisateurs à être vigilants avant de repartager des contenus ayant fait l’objet de signalement. Mais il serait possible d’aller plus loin. Plus fondamentalement, il est important que les pouvoirs publics prennent des mesures permettant de renforcer l’esprit critique des utilisateurs, ce qui suppose tout particulièrement que ceux-ci puissent être sensibilisés aux sciences et technologies du numérique afin de mieux maîtriser le fonctionnement de ces plateformes et les effets induits par ces mécanismes de viralité. La création d’un cours de « Science numérique et technologie » obligatoire pour toutes les classes de seconde va dans ce sens[5].

La légitimité

Enfin, troisièmement, si la modération des contenus et le contrôle de la viralité jouent un rôle prépondérant dans le contrôle pragmatique de la désinformation et de la mésinformation, ces opérations ne peuvent, in fine, être accomplies sans référence à des autorités indépendantes établissant, ne serait-ce que temporairement, la validité des arguments échangés dans l’espace public. Sous ce rapport, une grande difficulté provient du fait que les plateformes elles-mêmes sont parfois devenues de telles autorités, en vertu de l’adage bien plus puissant qu’on pourrait le croire selon lequel « si beaucoup de monde le dit, c’est que cela doit être vrai ». Pourtant, les plateformes n’ont bien sûr aucune qualité ni compétence pour déterminer, par exemple, l’efficacité d’un vaccin ou le bienfondé d’une mesure de santé publique. Elles sont donc contraintes de se fier à d’autres autorités comme l’État, la justice, la science ou la presse. Depuis le début de la crise sanitaire, de nombreuses plateformes se sont ainsi rapprochées, en France, de différents services gouvernementaux (en particulier du Secrétariat d’État au numérique ou du Service d’information du gouvernement). Pourtant, dans le même temps, elles se sont éloignées d’autres gouvernements, comme en atteste leur modération des contenus publiés par Jamir Bolsonaro ou Donald Trump. En l’occurrence, on peut légitimement se réjouir de ces choix. Ils n’en restent pas moins arbitraires dans la mesure où ils ne reposent pas sur des principes explicites régulant les relations entre les plateformes et les gouvernements. À cet égard, une réflexion d’ensemble sur la responsabilité des plateformes ainsi que sur le contrôle à exercer s’agissant de leur politique de modération de contenus semble devoir être menée. À notre sens, ce contrôle ne peut être dévolu à l’État seul et devrait relever d’une autorité indépendante, incluant les représentants de diverses associations, scientifiques et acteurs de la société civile dans l’établissement des procédures de sélection d’informations à promouvoir, tout particulièrement en période de crise sanitaire.

Emmanuel Didier, Centre Maurice Halbwachs, CNRS, ENS et EHESS
Serena Villata, Université Côte d’Azur, CNRS, Inria, I3S
& Célia Zolynski Université Paris 1 Panthéon-Sorbonne, IRJS DReDIS

[1] Comité national pilote d’éthique du numérique, Enjeux d’éthique dans la lutte contre la désinformation et la mésinformation. Bulletin de veille n°2, Juillet 2020. https://www.ccne-ethique.fr/sites/default/files/cnpen-desinformation-v2020-10-01.pdf

[2]https://www.csa.fr/Informer/Toutes-les-actualites/Actualites/Lutte-contre-les-infox-le-CSA-publie-son-premier-bilan

[3] https://www.csa.fr/Reguler/Espace-juridique/Les-textes-reglementaires-du-CSA/Les-deliberations-et-recommandations-du-CSA/Recommandations-et-deliberations-du-CSA-relatives-a-d-autres-sujets/Recommandation-n-2019-03-du-15-mai-2019-du-Conseil-superieur-de-l-audiovisuel-aux-operateurs-de-plateforme-en-ligne-dans-le-cadre-du-devoir-de-cooperation-en-matiere-de-lutte-contre-la-diffusion-de-fausses-informations

[4] https://news.un.org/fr/story/2020/10/1080392

[5]https://www.ac-paris.fr/portail/jcms/p2_1881839/nouvel-enseignement-sciences-numeriques-et-technologie

Des données pour comprendre le télétravail confiné

Le télétravail s’est imposé à nous en cette période de confinement. Comment le vivons-nous ? Quelles difficultés et opportunités nous offre-t-il ? Corona-work est un groupe de volontaires qui recueille et partage des données sur le télétravail, afin de répondre à ces questions. François Bancilhon, multi-entrepreneur et passionné par les données, est un des initiateurs de ce projet, et vient nous en parler dans binaire. Pauline Bolignano

J’avoue humblement que le confinement m’a totalement pris par surprise. Le 15 mars, des amis du 17ème m’ont annoncé : “l’armée va fermer Paris demain matin, nous le savons de source sûre par quelqu’un de haut placé”, suite à quoi, ils ont chargé leur voiture et sont partis pour l’Île de Ré.

Quand le vrai confinement a été annoncé le lundi 16 mars de façon moins dramatique, l’armée française restant dans ses casernes, et appliqué ce mardi 17 mars, je n’ai pas réalisé ce que cela voulait dire. Par exemple je n’ai pas pensé à stocker des piles pour mes appareils auditifs, ni pensé que les audioprothésistes allaient tous fermer d’un coup d’un seul. Quand, comme beaucoup de Parisiens, nous sommes partis le 16 mars nous installer à la campagne, je pensais partir pour quelques jours. Ma première impression était que ce confinement serait une courte parenthèse de quelques semaines et que la vie reprendrait normalement une fois cette parenthèse fermée. Donc il s’agissait pour moi essentiellement de continuer à travailler comme avant pendant ce bref tunnel.

Puis petit à petit, j’ai pris conscience de ce qui se passait, de la profondeur du bouleversement que nous vivions. Le petit groupe dont je faisais partie et qui travaillait à un business plan de startup, a continué son activité normale (réunions, interviews, rencontres, partages et rédaction de documents), le tout en mode confiné. Puis le groupe s’est demandé ce qu’il pouvait faire d’intelligent et quelle contribution il pouvait apporter dans cette situation nouvelle.

Comme le dit la citation (probablement apocryphe) d’Abraham Maslow “A l’homme qui n’a comme outil qu’un marteau, tout problème ressemble à un clou”, les amateurs de technologies se laissent guider par leurs outils. Suivant ce bon principe, notre “ADN technologique” étant le recueil, la gestion, la présentation et l’analyse de données, nous avons pensé que recueillir et analyser les données sur la crise était la bonne approche. Ajustant un peu notre approche, nous avons pensé qu’il fallait choisir le bon problème (donc celui qui ressemblait le plus à un clou). Et notre choix est tombé sur ce qui nous était imposé du jour au lendemain, le télétravail confiné.

Le télétravail est loin d’être une nouveauté : plus de cinq millions de personnes le pratiquaient en France avant le confinement. Ce qui était nouveau en revanche, c’était le télétravail confiné, donc un télétravail subi, plutôt que choisi. Si le télétravail choisi avait un goût de liberté (je choisis de rester chez moi plutôt que d’aller au bureau), le télétravail subi a plutôt celui de la contrainte (ma seule solution est de bosser chez moi).

Ce clou-là avait l’intérêt d’être nouveau et d’être actuel. Était-il mesurable ? Oui, si nous recueillions les données via des interviews.  Nous avons commencé par une série de d’interviews semi-directifs, donc faits à partir d’une grille de questions ouvertes laissant largement l’interviewé s’exprimer librement. Nous en avons fait une quinzaine, en essayant de balayer le plus largement possible les situations des télétravailleurs confinés. Le résultat m’a ébloui : de vraies tranches de vies, saisies sur le vif, émouvantes, drôles, ou tragiques. Entre la télétravailleuse qui s’offre un petit pétard en fin de matinée pour se récompenser d’avoir bien travaillé, le télétravailleur qui se réjouit d’échapper enfin aux inquisitions de son boss, celle qui en profite enfin pour être en caleçon toute la journée, ou la mère de famille qui gère enfants, mari et télévision pour se libérer le temps de travail, la variété et la vérité des situations était impressionnante.

De ce matériau brut, nous avons extrait des thèmes et à partir de ces thèmes, nous avons construit un questionnaire sur le télétravail confiné. Nous l’avons testé sur un petit groupe pour en vérifier la fluidité et la longueur. Le questionnaire fait de l’ordre de 45 questions. Nous sommes ensuite passés au recrutement des interviewés, qui s’est fait largement par viralité sur les réseaux sociaux (numériques ou non). A l’heure où j’écris ces lignes, nous en sommes à plus de 1600 réponses.

Notre idée est de faire deux choses avec ces données : les mettre à disposition en open data de la communauté scientifique (ou de toute personne voulant les consulter ou les réutiliser) et les utiliser nous-mêmes pour faire des analyses.

    • Pour les mettre à disposition en open data, nous les avons installées sur la plateforme d’OpenDataSoft (notons au passage que l’outil est bien adapté pour des gens comme nous qui voulions poster des données et pour ceux qui veulent les réutiliser)
    • Pour analyser nos données, nous avons utilisé un outil spécifique d’analyse de sondage, baptisé Sherlock, qui permet de comparer rapidement et simplement des populations différentes sur tel ou tel sujet.

L’ensemble de ce travail a été réalisé en quelques jours : les entretiens semi-directifs en moins d’une semaine, le questionnaire en 3 jours, le site et sa mise en ligne en 3 jours aussi (en utilisant la plateforme Wix) et la barre des 1000 réponses a été franchie en moins d’une semaine.

Deux mini-études ont été publiées. L’une d’elles compare le comportement des moins de 40 ans aux plus de 40 ans (nous éviterons de dire les jeunes et les moins jeunes) et montre que les premiers résistent mieux (curieusement) que les seconds. Les jeunes sont plus nombreux à dire que leur bien-être a augmenté pendant ces deux premières semaines de confinement. En allant plus loin : les jeunes en profitent pour faire plus de sport, ils boivent moins d’alcool, ils prennent plus soin de leur apparence, ils travaillent moins, ils sont moins fatigués, ils respectent plus les consignes de confinement. Ceci n’est qu’un exemple du type d’analyse que l’on peut faire de ces données. Parmi les questions que l’on peut aborder : est-ce que les gens qui avaient déjà une expérience de télétravail s’en sortent vraiment mieux ? est ce que les réponses aux questions sont différentes (et comment) après 5 semaines de télétravail de celles faites après 2 semaines ?

Nous avons noté quelques autres études du même type, faites par des scientifiques de la santé et du travail et leur avons proposé de collaborer. Tous nous ont répondu en exprimant leur intérêt mais arguant de leur surcharge de travail pour remettre à plus tard une collaboration. Dans tous les cas, ils ont accès à nos données qui peuvent complémenter les leurs.

La suite de l’aventure ?

    • Continuer des analyses : nous n’avons qu’à peine effleuré le sujet et les recherches de corrélations devraient être fructueuses,
    • Faire croître les données : continuer les campagnes de SEO et SMO pour augmenter le nombre de répondants,
    • Valoriser la communauté ainsi constituée, ce que nous voudrions faire sans harceler ceux qui ont pris la peine de répondre à nos 45 questions

François Bancilhon a eu une double carrière : une première dans la recherche académique (chercheur à l’INRIA et MCC, professeur à l’Université de Paris XI), et une deuxième dans l’industrie : il a co-fondé et/ou dirigé plusieurs entreprises, (O2 Technology, Arioso, Xylème, Ucopia, Mandrakesoft/Mandriva et Data Publica/C-Radar). Il a partagé sa vie professionnelle entre la France et les États-Unis. Il vient de quitter son poste de directeur de l’innovation chez Sidetrade, et réfléchit à son futur projet. Il est membre de la commission d’évaluation d’INRIA.

Références

Le site Corona Work est ici https://www.corona-work.fr/, on y trouve le questionnaire et la description de l’équipe .

Les données brutes sont ici https://corona-work.my.opendatasoft.com/explore/dataset/quiz-gs/information/

Geek toi même !

Vous connaissez la méthode « agile » ? Non ? Vous n’êtes pas informaticien·ne alors !  Vous connaissez quelqu’un qui ressemble à un « nerd´´ ou un « geek´´ ? Ça ne doit pas être un·e informaticien·ne alors ! Dans ce billet, Pauline Bolignano  avec la complicité de Camille Wolff pour les illustrations, déconstruit des idées reçues et nous explique ce que méthode « agile´´ veut dire. Serge Abiteboul et Thierry Viéville

Après quelques jours de confinement, une amie me dit : « je travaille dans la même pièce que mon coloc’, il passe sa journée à parler ! Je n’aurais jamais imaginé que votre travail était si sociable !». Son coloc’, tout comme moi, fait du développement informatique. L’étonnement de mon amie m’a étonnée, mais il est vrai que l’on n’associe pas naturellement « informaticien·ne » à « sociable ». D’ailleurs, si je vous demande de fermer les yeux et d’imaginer un·e informaticien·ne, vous me répondrez surement un homme aux cheveux cachés sous la capuche de son sweat-shirt, tout seul devant son écran, et pas sociable pour un sous :

Un geek quoi. En réalité, le métier d’ingénieur·e informaticien·ne demande énormément de collaboration. Je voulais donc plonger dans cet aspect du métier qui me semble être rarement mis en avant.

Les spécificités du domaine informatique

Lorsqu’on construit un logiciel, les contraintes et les possibilités sont différentes que lorsque l’on construit un édifice. Prenez par exemple la construction d’un pont. L’architecte passe de longs mois à dessiner le pont. Les ingénieur·es civil·e·s passent des mois, voir des années, à étudier le terrain, les matériaux et faire tous les calculs nécessaires. Puis les conducteurs/trices de travaux planifient et dirigent la construction pendant quelques années. Ensuite le pont ne bouge plus pendant des centaines d’années.

En informatique, c’est tout à fait différent. D’une part, il arrive que l’ingénieur·e soit à la fois l’architecte, le/a planificateur/rice, et le.a programmatrice/teur du logiciel. D’autre part, les cycles sont en général beaucoup plus courts. Pour reprendre la comparaison avec le pont, avant même de commencer l’architecture, on sait qu’il est possible que dans quelques mois le sol ait bougé, et qu’il faille adapter les fondations. Les ingénieur·e·s de l’équipe doivent sans cesse se synchroniser car il y a une forte dépendance entre les tâches de chacun·e.

Le développement logiciel offre plein de nouvelles possibilités. Il donne l’opportunité de construire de manière incrémentale, d’essayer des choses et de changer de direction, de commencer petit et d’agrandir rapidement. C’est comme si vous construisiez un pont piéton, puis que vous puissiez par la suite l’agrandir en pont à voiture en l’espace de quelques semaines ou mois, sans bloquer à aucun moment le trafic piéton.

L’organisation de la collaboration

La malléabilité et la mouvance du logiciel demandent une grande collaboration dans l’équipe. C’est d’ailleurs ce que prône la méthode Agile [1]. Ce manifeste met la collaboration et les interactions au centre du développement logiciel. Déclinée en diverses implémentations, la méthode Agile est largement adoptée dans l’industrie. Scrum est une implémentation possible de la méthode Agile, bien que la mise en place varie fortement d’une équipe à l’autre.

Prenons un exemple concret d’organisation du travail suivant la méthode Scrum : la vie de l’équipe est typiquement organisée autour de cycles, disons 2 semaines, que l’on appelle des « sprints ». A chaque début de sprint, l’équipe se met d’accord sur la capacité de travail de l’équipe pour le sprint, et sur le but qu’elle veut atteindre pendant ce sprint. Les tâches sont listées sur un tableau, sur lequel chacun notera l’avancement des siennes. Tous les jours, l’équipe se réunit pour le « stand-up ». Le « stand-up » est une réunion très courte, où chaque membre de l’équipe dit ce qu’ille a fait la veille, ce qu’ille compte faire aujourd’hui et si ille rencontre des éléments bloquant. Cela permet de rebondir vite, et de s’entraider en cas de problème. Régulièrement, au cours du sprint ou en fin de sprint, un ou plusieurs membres de l’équipe peuvent présenter ce qu’illes ont fait au cours de « démos ». Enfin, à la fin du sprint, l’équipe fait une « rétro ». C’est une réunion au cours de laquelle chacun·e exprime ce qui s’est bien passé ou mal passé selon lui.elle, et où l’on réfléchit ensemble aux solutions. Ces solutions seront ajoutées comme des nouvelles tâches aux sprints suivants dans une démarche d’amélioration continue.

Une pratique très courante dans les équipes travaillant en Agile est la programmation en binôme. Comme son nom l’indique, dans la programmation en binôme, deux programmeuses/eurs travaillent ensemble sur la même machine. Cela permet au binôme de réfléchir ensemble à l’implémentation ou de détecter des erreurs en amont. Le binôme peut aussi fonctionner de manière asymétrique, quand l’une des deux personnes aide l’autre à progresser ou monter en compétence sur une technologie.

Ainsi si vous vous promenez dans un bureau d’informaticien·ne·s, vous y croiserez à coup sûr des groupes de personnes devant un écran en train de débugger un programme, une équipe devant un tableau blanc en train de discuter le design d’un système, ou une personne en train de faire une « démo » de son dernier développement. Bien loin de Mr Robot, n’est ce pas ?

De Monsieur robot à Madame tout le monde

On peut également enlever son sweat-shirt à capuche à notre représentation de l’informaticien·ne, puisque développer du logiciel peut a priori être fait dans n’importe quelle tenue. En revanche, notre représentation de l’informaticien a bien une chose de vraie : dans la grande majorité des cas, c’est un homme. Si vous vous promenez dans un bureau d’informatique, vous ne croiserez que très peu de femmes. En France, il y a moins de 20 % de femmes en informatique, tant dans la recherche que dans l’industrie [2]. À l’échelle d’une équipe, cela veut dire que, si vous êtes une femme, vous ne travaillez probablement qu’avec des hommes.

Ceci est surprenant car l’informatique est appliquée à tellement de secteurs qu’elle devrait moins souffrir des stéréotypes de genre que d’autres domaines de l’ingénierie. L’informatique est utilisée en médecine, par exemple pour modéliser la résistance d’une artère à l’implantation d’une prothèse. Elle est utilisée dans le domaine de l’énergie, pour garantir l’équilibre du réseau électrique. L’informatique est aussi elle-même sujet d’étude, quand on souhaite optimiser un algorithme ou sécuriser une architecture [3,4]. Elle est même souvent une combinaison des deux. Quand l’informatique est appliquée à des domaines considérés comme plus « féminins » comme la biologie, la médecine, les humanités numériques, le déséquilibre est d’ailleurs moins marqué.

Il y a encore du chemin à faire pour établir l’équilibre, mais je suis assez optimiste. Beaucoup d’entreprises et institutions font un travail remarquable en ce sens, non seulement pour inverser la tendance, mais aussi pour que tout employé·e se sente bien et s’épanouisse dans son environnement de travail.

Pour inverser la tendance, il me semble important de sortir les métiers de leur case, car sinon on prend le risque de perdre en route tout·te·s celles et ceux qui auraient peur de ne pas rentrer dans cette case. En particulier, il me semble que cette image du développeur génie solitaire, en plus d’être peu représentative de la réalité, peut être intimidante et délétère pour la diversité. Dans ce court article, j’espére en avoir déconstruit quelques aspects.

En conclusion, cher·e·s étudiant·e·s, si vous vous demandez si le métier d’ingénieur·e informaticien·ne est fait pour vous, ne vous arrêtez pas aux stéréotypes. À la question « à quoi ressemble un·e ingénieur·e informaticien·ne ?», je réponds : « si vous choisissez cette voie … à vous, tout simplement ! ».

Pauline Bolignano, docteure en Informatique, Ingénieure R&D chez Amazon, Les vues exprimées ici sont les miennes..

Camille Wolff, ancienne responsable communication en startup tech en reconversion pour devenir professeur des écoles, et illustratrice ici, à ses heures perdues.

Références :

[1] Manifeste pour le développement Agile de logiciels
[2] Chiffres-clés de l’égalité femmes-hommes (parution 2019):
[3] L’optimisation est dans les crêpes
[4] La cybersécurité aux multiples facettes

Bravo & merci Internet !

En ces moments de confinement, beaucoup de nos activités reposent sur l’utilisation d’Internet. Que ce soit pour télétravailler quand c’est possible, pour étudier,  nous informer, nous distraire, nous utilisons de façon intensive les réseaux informatiques quand nous disposons des ressources (en termes de matériel, de connexion et de maîtrise des outils) nécessaires. Pour l’instant, les infrastructures, tant logicielles que matérielles, répondent de façon raisonnable à la forte croissance de la demande (pas toujours raisonnable). Pourquoi ? Laurent Fribourg (CNRS) nous explique le coeur de ce fonctionnement : le protocole TCP/IP. Pascal Guitton
Laurent Fribourg

A l’heure où notre gratitude de confinés s’adresse à juste titre aux soignants de la première ligne, aux agriculteurs, postiers, distributeurs, caissiers de la seconde ligne, ainsi que, parmi d’autres, aux pompiers, policiers, militaires et bénévoles, nous, lecteurs de Binaire, avons, je crois, aussi une pensée émue pour un service qui remplit admirablement sa tâche, vitale dans le contexte démultiplié de télétravail et de streaming d’aujourd’hui : j’ai évidemment nommé Internet et, tout particulièrement, son protocole TCP/IP.

Son créateur, Joseph Kahn (avec Vinton Cerf), déclarait encore récemment [4] qu’il était optimiste par raport aux défis extraordinaires qu’Internet allait devoir de toute façon relever en période “normale” : milliards d’objets connectés, lutte contre la cybercriminalité par exemple. Il est aujourd’hui remarquable de constater qu’alors que des cercles de rush et de pénurie s’instaurent dangereusement dans plusieurs secteurs, nous continuons à mener nos tâches, loisirs et communications virtuelles toujours aussi efficacement.

Pourtant, à ses débuts, dans les années 1986-1987, la situation n’a pas été aussi facile pour le réseau des réseaux, et son trafic connut de graves problèmes d’engorgement qui le virent même s’écrouler de façon répétée [2]. Malgré de multiples interventions, ces problèmes ne prirent fin qu’en 1988 , année où s’acheva l’implantation de l’algorithme de gestion de contrôle du trafic TCP de Jacobson&Karels [1]. Ce sont sur certaines des innovations de cet algorithme salvateur que nous revenons ici.

Rappelons d’abord la raison qui amena Internet à connaître en octobre 1986 la première occurrence d’une série d’effondrements, le débit passant soudainement de 32 kbit/s à 40 bit/s [2]. A l’origine, le protocole TCP (Transmission Control Protocol) [6] utilisait l’idée classique de « fenêtre glissante » : l’information à transmettre était découpée en paquets,  puis l’émetteur envoyait sur le réseau W paquets d’information et attendait l’accusé de réception (ACK) de ces W paquets, avant d’envoyer une nouvelle séquence de W paquets, et ainsi de suite. Ce protocole de fenêtre glissante (sliding window) était bien connu en télécommunication et avait largement fait ses preuves en termes de fiabilité de transmission, contrôle de flux et d’engorgement.

Schématiquement, le problème apparaissant avec ce protocole sur un réseau de la taille d’Internet était le suivant : lorsque l’émetteur accroit son débit, la file du récepteur, dans laquelle s’entassent les paquets en attente d’envoi d’acquittement, augmente ; du coup, ne recevant pas l’accusé de réception (ACK) attendu au bout d’une durée (Time-Out) établie statiquement (à l’avance), l’émetteur croit, à tort, que ses paquets émis sont perdus ; il les réémet alors, encombrant ainsi davantage le réseau. L’engorgement s’aggrave ainsi , et le phénomène s’amplifie exponentiellement avec le nombre de connexions. La retransmission prématurée de paquets non perdus entraine donc à terme l’effondrement de tout le réseau.

Pour éviter ce problème d’engorgement, il convient de diminuer la réactivité du réseau (ou d’augmenter sa latence). Pour atteindre un tel objectif, Jacobson&Karels [1] ont proposé des modifications décisives de l’algorithme classique de la fenêtre glissante, dont notamment :

• un calcul dynamique de la durée du Time-Out lorsque l’émetteur attend un ACK ; désormais, quand un Time-Out expire, la valeur du Time-Out suivant est augmentée exponentiellement (exponential backoff) ;

• un auto-cadencement (self-clocking) des accusés de réception : quand le tuyau de la connexion est proche de la saturation, la vitesse d’émission des ACKs s’auto-régule pour prévenir un encombrement accru du tuyau ;

• un paramétrage dynamique, lui aussi, de la taille de la fenêtre d’émission afin de trouver un bon compromis entre maximalisation du débit et minimisation du temps de latence.

Le progrès exceptionnel du contrôle de trafic Internet permis par l’algorithme de Jacobson&Karels a fait l’objet, depuis sa réalisation, d’une vague de travaux théoriques passionnants pour modéliser le protocole Internet (IP) et sa couche transport (TCP) ainsi que le réseau et le trafic lui-même. Ces travaux théoriques ont à leur tour suggéré des versions améliorées de l’algorithme TCP, en s’appuyant sur des méthodes de preuve de propriétés bien établies en algorithmique distribuée, comme la convergence, la stabilité et l’équité. Ainsi, un cercle fécond d’interactions entre modélisation, preuve, algorithmes, expérimentation s’est mis en place autour de la problématique d’Internet. Des ponts inattendus ont été jetés entre disciplines comme l’algorithmique distribuée, la théorie du contrôle et la théorie des jeux [5]

C’est donc en pensant aussi à Internet, TCP/IP et la toile d’études interdisciplinaires tissée autour, que j’applaudis très fort, tous les jours, à 20h.

Laurent Fribourg (CNRS, LSV, Saclay)

Références

1. V. Jacobson & M. J. Karels. Congestion avoidance and control. Proc. SIGCOMM’88. 1988.
2. Xiaowei Yang. CompSci514: Computer Networks Lect. 4 (End-to-end Congestion Control) https://www.google.com/search?client=firefox-b-d&ei=WXqDXvyYLO-KjLsPl_mAiAk&q=CompSci+514%3AComputer+Networks+Lecture+4%3A+End-to-end+Congestion+Control+&oq=CompSci+514%3AComputer+Networks+Lecture+4
3. Steven H. Low, Fernando Paganini, and John C. Doyle. Internet Congestion Control. IEEE Control Systems Magazine (Vol. 22) Feb. 2002
4. R. Kahn. « Il n’y a pas de limite à l’expansion d’Internet”. Le Temps.2017 https://www.letemps.ch/economie/robert-kahn-inventeur-protocole-tcpip-ny-limite-lexpansion-dinternet
5. S. Zampieri. Trends in Networked Control Systems. Proceedings of the 17th World Congress
IFAC, Seoul, Korea, July 6-11, 2008
6. V. Cerf & R. Kahn. A Protocol for Packet Network Intercommunication. IEEE Transactions on Communications (Vol. 22:5), 1974

Évaluer le respect du confinement grâce à nos smartphones

L’utilisation des données des téléphones mobiles est envisagée pour le suivi numérique de la population, notamment à la fin du confinement. Il est indispensable qu’une telle surveillance soit réalisée en respectant la vie privée. Mais déjà pendant le confinement, on peut observer ses effets grâce aux données agrégées de localisation des milliers de smartphones. En France comme en Europe, les autorités utilisent cette « carte du confinement », mais le public n’y a pas accès. Pourtant avoir une information précise selon les villes, en temps réel, cela nous intéresserait tous ! Elle est disponible dans d’autres pays, comme nous explique Alexei Grinbaum. Pierre Paradinas

Utiliser les données des applications qui tournent en permanence sur nos smartphones pour évaluer le respect du confinement ? Testée aux États-Unis, cette idée a été mise en œuvre en Russie par Yandex, le principal moteur de recherche et un des géants de l’internet russophone. Chacun peut désormais accéder librement à une carte interactive, sur laquelle plusieurs dizaines de villes russes, biélorusses, kazakhs et arméniennes, grandes ou moyennes, se voient attribuer une indice, allant de 0 à 5, qui décrit le degré des déplacements de ses habitants. La valeur 0 correspond à une situation habituelle en temps normal, estimée à partir des données agrégées pendant la première semaine de mars ; et 5, la situation nocturne où quasiment toute la population se trouve chez elle. La carte se met à jour très régulièrement.

Le 30 mars à midi, par exemple, la situation à Moscou était de 3.0, avant de progresser légèrement à 3.1 à 17h. On peut aussi évaluer le respect du confinement par ville selon trois codes couleur (https://yandex.ru/company/researches/2020/podomam), rouge, jaune et vert. Encore la semaine dernière, toute la Russie se trouvait dans le rouge chaque jour ouvrable, de lundi à vendredi. Mais ce lundi 30 mars, plus aucune ville n’était marquée en rouge ; quasiment toutes sont devenues jaunes, une couleur que Yandex fait accompagner de cette légende incitative : « La majorité des gens sont chez eux. Restez-y, vous aussi ».

Lorsque les médias russes parlent de cette carte – et ils le font tous –, s’installe dans l’ensemble du pays une sorte de compétition entre différentes villes : qui respecte mieux le confinement ? Qui se protège mieux que les autres ? Quelle population est plus disciplinée ? Une mesure « douce », non coercitive, mais sera-t-elle efficace ? Pour répondre, il faudra sans doute suivre la dynamique du confinement sur plusieurs jours, voire des semaines.

Et en France ? Des données de géolocalisation agrégées ne sont disponibles qu’aux propriétaires des applications que nous utilisons le plus souvent, lesquels s’appellent Google, Apple…, et aux fournisseurs d’accès internet. Orange, par exemple, partage de telles données avec l’Inserm et la Commission Européenne. Le public n’y a pas accès et ne dispose, en temps réel, que des informations concernant d’autres pays, la Russie notamment. Cependant, ces données françaises pourraient être publiées en protégeant totalement la vie privée et supprimant tous les éléments personnels, sans compromettre leur valeur statistique.

Alexei Grinbaum, philosophe de la physique, chercheur au LARSIM/CEA.

En savoir plus :

L’Internet pendant le confinement

On parle beaucoup en ce moment d’une « saturation des réseaux », de « risques pour l’Internet » … entre info et intox, alors donnons la parole à Stéphane Bortzmeyer, pour nous expliquer ce qu’il en est. Cet article est repris de framablog.org et publié sous licence Creative Commons By-SA.
Serge Abiteboul.

On parle beaucoup en ce moment d’une « saturation des réseaux », de « risques pour l’Internet », qui justifieraient des mesures autoritaires et discriminatoires, par exemple le blocage ou le ralentissement de Netflix, pour laisser de la place au « trafic sérieux ». Que se passe-t-il exactement et qu’y a-t-il derrière les articles sensationnalistes ?

La France, ainsi que de nombreux autres pays, est confinée chez elle depuis plusieurs jours, et sans doute encore pour plusieurs semaines. La durée exacte dépendra de l’évolution de l’épidémie de COVID-19. Certains travailleurs télétravaillent, les enfants étudient à la maison, et la dépendance de toutes ces activités à l’Internet a suscité quelques inquiétudes.

On a vu des médias, ou des dirigeants politiques comme Thierry Breton, réclamer des mesures de limitation du trafic, par exemple pour les services vidéo comme Netflix. Les utilisateurs qui ont constaté des lenteurs d’accès à certains sites, ou des messages d’erreur du genre « temps de réponse dépassé » peuvent se dire que ces mesures seraient justifiées. Mais les choses sont plus compliquées que cela, et il va falloir expliquer un peu le fonctionnement de l’Internet pour comprendre.

Copie d'écran du site du CNED, montrant un message d'erreur
Le site Web du CNED, inaccessible en raison des nombreux accès (mais le réseau qui y mène marchait parfaitement à ce moment).

Réseaux et services

D’abord, il faut différencier l’Internet et les services qui y sont connectés. Si un élève ou un enseignant essaie de se connecter au site du CNED (Centre National d’Enseignement à Distance) et qu’il récupère un message avec une  « HTTP error 503 », cela n’a rien à voir avec l’Internet, et supprimer Netflix n’y changera rien : c’est le site Web au bout qui est surchargé d’activité, le réseau qui mène à ce site n’a pas de problème. Or, ce genre de problèmes (site Web saturé) est responsable de la plupart des frustrations ressenties par les utilisateurs et utilisatrices. Résumer ces problèmes de connexion avec un « l’Internet est surchargé » est très approximatif et ne va pas aider à trouver des solutions aux problèmes. Pour résumer, les tuyaux de l’Internet vont bien, ce sont certains sites Web qui faiblissent. Ou, dit autrement, « Dire que l’Internet est saturé, c’est comme si vous cherchez à louer un appartement à la Grande Motte au mois d’août et que tout est déjà pris, du coup vous accusez l’A7 d’être surchargée et demandez aux camions de ne pas rouler. »

On peut se demander pourquoi certains services sur le Web plantent sous la charge (ceux de l’Éducation Nationale, par exemple) et d’autres pas (YouTube, PornHub, Wikipédia). Il y a évidemment de nombreuses raisons à cela et on ne peut pas faire un diagnostic détaillé pour chaque cas. Mais il faut noter que beaucoup de sites Web sont mal conçus. L’écroulement sous la charge n’est pas une fatalité. On sait faire des sites Web qui résistent. Je ne dis pas que c’est facile, ou bon marché, mais il ne faut pas non plus baisser les bras en considérant que ces problèmes sont inévitables, une sorte de loi de la nature contre laquelle il ne servirait à rien de se révolter. Déjà, tout dépend de la conception du service. S’il s’agit de distribuer des fichiers statiques (des fichiers qui ne changent pas, comme des ressources pédagogiques ou comme la fameuse attestation de circulation), il n’y a pas besoin de faire un site Web dynamique (où toutes les pages sont calculées à chaque requête). Servir des fichiers statiques, dont le contenu ne varie pas, est quelque chose que les serveurs savent très bien faire, et très vite. D’autant plus qu’en plus du Web, on dispose de protocoles (de techniques réseau) spécialement conçus pour la distribution efficace, en pair-à-pair, directement entre les machines des utilisateurs, de fichiers très populaires. C’est le cas par exemple de BitTorrent. S’il a permis de distribuer tous les épisodes de Game of Thrones à chaque sortie, il aurait permis de distribuer facilement l’attestation de sortie ! Même quand on a du contenu dynamique, par exemple parce que chaque page est différente selon l’utilisateur, les auteurs de sites Web compétents savent faire des sites qui tiennent la charge.

Mais alors, si on sait faire, pourquoi est-ce que ce n’est pas fait ? Là encore, il y a évidemment de nombreuses raisons. Il faut savoir que trouver des développeurs compétents est difficile, et que beaucoup de sites Web sont « bricolés », par des gens qui ne mesurent pas les conséquences de leurs choix techniques, notamment en termes de résistance à la charge. En outre, les grosses institutions comme l’Éducation Nationale ne développent pas forcément en interne, elles sous-traitent à des ESN et toute personne qui a travaillé dans l’informatique ces trente dernières années sait qu’on trouve de tout, et pas forcément du bon, dans ces ESN. Le « développeur PHP senior » qu’on a vendu au client se révèle parfois ne pas être si senior que ça. Le développement, dans le monde réel, ressemble souvent aux aventures de Dilbert. Le problème est aggravé dans le secteur public par le recours aux marchés publics, qui sélectionnent, non pas les plus compétents, mais les entreprises spécialisées dans la réponse aux appels d’offre (une compétence assez distincte de celle du développement informatique). Une petite entreprise pointue techniquement n’a aucune chance d’être sélectionnée.

D’autre part, les exigences de la propriété intellectuelle peuvent aller contre celles de la technique. Ainsi, si BitTorrent n’est pas utilisé pour distribuer des fichiers d’intérêt général, c’est probablement en grande partie parce que ce protocole a été diabolisé par l’industrie du divertissement. « C’est du pair-à-pair, c’est un outil de pirates qui tue la création ! » Autre exemple, la recopie des fichiers importants en plusieurs endroits, pour augmenter les chances que leur distribution résiste à une charge importante, est parfois explicitement refusée par certains organismes comme le CNED, au nom de la propriété intellectuelle.

Compter le trafic réseau

Bon, donc, les services sur le Web sont parfois fragiles, en raison de mauvais choix faits par leurs auteurs, et de réalisations imparfaites. Mais les tuyaux, eux, ils sont saturés ou pas ? De manière surprenante, il n’est pas facile de répondre à cette question. L’Internet n’est pas un endroit unique, c’est un ensemble de réseaux, eux-mêmes composés de nombreux liens. Certains de ces liens ont vu une augmentation du trafic, d’autres pas. La capacité réseau disponible va dépendre de plusieurs liens (tous ceux entre vous et le service auquel vous accédez). Mais ce n’est pas parce que le WiFi chez vous est saturé que tout l’Internet va mal ! Actuellement, les liens qui souffrent le plus sont sans doute les liens entre les FAI (Fournisseurs d’Accès Internet) et les services de vidéo comme Netflix. (Si vous voyez le terme d’appairage – peering, en anglais – c’est à ces liens que cela fait allusion.) Mais cela n’affecte pas la totalité du trafic, uniquement celui qui passe par les liens très utilisés. La plupart des FAI ne fournissent malheureusement pas de données publiques sur le débit dans leurs réseaux, mais certains organismes d’infrastructure de l’Internet le font. C’est le cas du France-IX, le principal point d’échange français, dont les statistiques publiques ne montrent qu’une faible augmentation du trafic. Même chose chez son équivalent allemand, le DE-CIX. (Mais rappelez-vous qu’à d’autres endroits, la situation peut être plus sérieuse.) Les discussions sur les forums d’opérateurs réseau, comme le FRnog en France, ne montrent pas d’inquiétude particulière.

Graphique montrant le trafic du France-IX
Le trafic total au point d’échange France-IX depuis un mois. Le début du confinement, le 17 mars, se voit à peine.
Statistiques du FAI FDN
Le trafic des clients ADSL du FAI (Fournisseur d’Accès Internet) FDN depuis un mois. L’effet du confinement est visible dans les derniers jours, à droite, mais pas spectaculaire.

Mais pourquoi est-ce qu’il n’y a pas d’augmentation massive et généralisée du trafic, alors qu’il y a beaucoup plus de gens qui travaillent depuis chez eux ? C’est en partie parce que, lorsque les gens travaillaient dans les locaux de l’entreprise, ils utilisaient déjà l’Internet. Si on consulte un site Web pour le travail, qu’on le fasse à la maison ou au bureau ne change pas grand-chose. De même, les vidéo-conférences (et même audio), très consommatrices de capacité du réseau, se faisaient déjà au bureau (si vous comprenez l’anglais, je vous recommande cette hilarante vidéo sur la réalité des « conf calls  »). Il y a donc accroissement du trafic total (mais difficile à quantifier, pour les raisons exposées plus haut), mais pas forcément dans les proportions qu’on pourrait croire. Il y a les enfants qui consomment de la capacité réseau à la maison dans la journée, ce qu’ils ne faisaient pas à l’école, davantage de réunions à distance, etc., mais il n’y a pas de bouleversement complet des usages.

Votre usage de l’Internet est-il essentiel ?

Mais qu’est-ce qui fait que des gens importants, comme Thierry Breton, cité plus haut, tapent sur Netflix, YouTube et les autres, et exigent qu’on limite leur activité ? Cela n’a rien à voir avec la surcharge des réseaux et tout à voir avec la question de la neutralité de l’Internet. La neutralité des réseaux, c’est l’idée que l’opérateur réseau ne doit pas décider à la place des utilisateurs ce qui est bon pour eux. Quand vous prenez l’autoroute, la société d’autoroute ne vous demande pas si vous partez en week-end, ou bien s’il s’agit d’un déplacement professionnel, et n’essaie pas d’évaluer si ce déplacement est justifié. Cela doit être pareil pour l’Internet. Or, certains opérateurs de télécommunications rejettent ce principe de neutralité depuis longtemps, et font régulièrement du lobbying pour demander la possibilité de trier, d’évaluer ce qu’ils considèrent comme important et le reste. Leur cible favorite, ce sont justement les plate-formes comme Netflix, dont ils demandent qu’elles les paient pour être accessible par leur réseau. Et certaines autorités politiques sont d’accord, regrettant le bon vieux temps de la chaîne de télévision unique, et voulant un Internet qu’ils contrôlent. Le confinement est juste une occasion de relancer cette campagne.

Mais, penserez-vous peut-être, on ne peut pas nier qu’il y a des usages plus importants que d’autres, non ? Une vidéo-conférence professionnelle est certainement plus utile que de regarder une série sur Netflix, n’est-ce pas ? D’abord, ce n’est pas toujours vrai : de nombreuses entreprises, et, au sein d’une entreprise, de nombreux employés font un travail sans utilité sociale (et parfois négatif pour la société) : ce n’est pas parce qu’une activité rapporte de l’argent qu’elle est forcément bénéfique pour la collectivité ! Vous n’êtes pas d’accord avec moi ? Je vous comprends, car, justement, la raison principale pour laquelle la neutralité de l’Internet est quelque chose de crucial est que les gens ne sont pas d’accord sur ce qui est essentiel. La neutralité du réseau est une forme de laïcité : comme on n’aura pas de consensus, au moins, il faut trouver un mécanisme qui permette de respecter les choix. Je pense que les Jeux Olympiques sont un scandaleux gaspillage, et un exemple typique des horreurs du sport-spectacle. Un autre citoyen n’est pas d’accord et il trouve que les séries que je regarde sur Netflix sont idiotes. La neutralité du réseau, c’est reconnaître qu’on ne tranchera jamais entre ces deux points de vue. Car, si on abandonnait la neutralité, on aurait un problème encore plus difficile : qui va décider ? Qui va choisir de brider ou pas les matches de foot ? Les vidéos de chatons ? La vidéo-conférence ?

D’autant plus que l’Internet est complexe, et qu’on ne peut pas demander à un routeur de décider si tel ou tel contenu est essentiel. J’ai vu plusieurs personnes citer YouTube comme exemple de service non-essentiel. Or, contrairement à Netflix ou PornHub, YouTube ne sert pas qu’au divertissement, ce service héberge de nombreuses vidéos éducatives ou de formation, les enseignants indiquent des vidéos YouTube à leurs élèves, des salariés se forment sur YouTube. Pas question donc de brider systématiquement cette plate-forme. (Il faut aussi dire que le maintien d’un bon moral est crucial, quand on est confiné à la maison, et que les services dits « de divertissement » sont cruciaux. Si vous me dites que non, je vous propose d’être confiné dans une petite HLM avec quatre enfants de 3 à 14 ans.)

À l’heure où j’écris, Netflix et YouTube ont annoncé une dégradation délibérée de leur service, pour répondre aux injonctions des autorités.  On a vu que les réseaux sont loin de la saturation et cette mesure ne servira donc à rien. Je pense que ces plate-formes essaient simplement de limiter les dommages en termes d’image liés à l’actuelle campagne de presse contre la neutralité.

Conclusion

J’ai dit que l’Internet n’était pas du tout proche d’un écroulement ou d’une saturation. Mais cela ne veut pas dire qu’on puisse gaspiller bêtement cette utile ressource. Je vais donc donner deux conseils pratiques pour limiter le débit sur le réseau :

  • Utilisez un bloqueur de publicités, afin de limiter le chargement de ressources inutiles,
  • Préférez l’audio-conférence à la vidéo-conférence, et les outils textuels (messagerie instantanée, courrier électronique, et autres outils de travail en groupe) à l’audio-conférence.

Que va-t-il se passer dans les jours à venir ? C’est évidemment impossible à dire. Rappelons-nous simplement que, pour l’instant, rien n’indique une catastrophe à venir, et il n’y a donc aucune raison valable de prendre des mesures autoritaires pour brider tel ou tel service.

Quelques lectures supplémentaires sur ce sujet :

Stéphane Bortzmeyer, cet article est repris de framablog.fr et publié sous licence Creative Commons By-SA.

Internet a 50 ans le 29 octobre 2019

Il y a seulement 50 ans, Internet n’existait pas. Nous ne pouvions pas imaginer à quel point nos manières de vivre, travailler, apprendre, se déplacer ou même s’amuser allaient se transformer. Quelles autres inventions du siècle dernier ont-elles eu autant d’impacts sur nos vies ?  A l’occasion de cet anniversaire, binaire avait envie de mettre à l’honneur les ressources et initiatives de nos amis et partenaires.

Un évènement à ne pas rater !

La Société Informatique de France organise un évènement spécial le mardi 29 octobre 2019 de 17h à 19h30 au CNAM à Paris. Le programme est composé d’interventions courtes de nombreux acteurs d’internet qui seront accessibles à un large public. Pour rendre hommage à la première connexion établie entre deux universités américaines, Stanford et UCLA, une connexion sera établie avec UCLA où une célébration de l’anniversaire a également lieu.

Pour y participer, inscription obligatoire auprès de Marla Da Silva  (places limitées).

Un dossier à éplucher !

Interstices, l’excellente revue de culture scientifique en ligne qui vous invite à explorer les sciences du numérique, a préparé un dossier spécial à l’occasion de cette date charnière. Vous y retrouverez des articles sur l’histoire de cette grande aventure, des interviews de ceux qui ont vécu l’essor d’internet ou bien encore quelques clés de compréhension sur ce qu’est Internet. Le dossier complet est à retrouver sur Interstices.

Retour au code source

On ne se prive pas de vous inviter à découvrir ou redécouvrir la série Code Source réalisée en 2007 par Inria qui retrace l’histoire de l’institut depuis sa création en 1967. Profitons de l’occasion pour faire un zoom sur cette fameuse année 1969

Code_Source Inria_1969

 

Il y aura sans doute encore beaucoup d’autres contenus à découvrir en suivant le hashtag  #50ansinternet

Marie-Agnès Enard

Publicité en Ligne : reprenons la main !

Vous avez peut-être été stupéfaits par des pubs que vous recevez sur des plateformes du web, peut-être vous êtes-vous inquiétés. Vous avez sûrement entendu parler de Cambridge Analytica et d’autres manipulations de la foule des internautes. Tout cela est mystérieux, opaque. Les recherches de deux informaticiens grenoblois, Oana Goga et Patrick Loiseau, les ont amenés à étudier le sujet. Ils racontent à Binaire ce qu’ils ont appris.
Serge Abiteboul. 
Cet article est publié en collaboration avec The Conversation.

 

Clé de ciblage, Saint-Oma

La plate-forme de publicité de Facebook est fréquemment source de controverses en raison de potentielles violations de vie privée, de son opacité, et des possibilités de son utilisation par des acteurs malhonnêtes pour du ciblage discriminatoire ou même de la propagande destinée à influencer des élections. Pour répondre à ces problèmes, de nombreux gouvernements et activistes prônent une augmentation de la transparence et de la responsabilité de Facebook au sujet des publicités qui circulent sur la plateforme. Ainsi, par exemple, le Règlement Général sur la Protection des Données (RGPD) européen introduit un “droit à l’explication”. Toutefois, comment apporter de la transparence à un tel système reste une question largement ouverte sur le plan technique. En collaboration avec des chercheurs de l’institut Max Planck (Allemagne) pour les systèmes logiciels, de l’université de Northeastern (Etats-unis), et de l’université fédérale du Minas Gerais (Brésil), nous explorons les différentes sources de risques dans les plateformes de publicités des médias sociaux telles que celle de Facebook et des solutions pour les atténuer via des mécanismes de transparence.

Les abus sont facilités par certaines caractéristiques des plates-formes

Pour bien comprendre pourquoi le problème est à la fois répandu et complexe à résoudre, commençons par regarder comment ces plateformes fonctionnent. On peut distinguer principalement trois caractéristiques, inhérentes à leur fonctionnement, qui rendent la transparence à la fois plus importante et plus difficile :

  1. La plateforme offre aux publicitaires un canal de communication privé avec chacun de ses utilisateurs : son “mur”. Il est donc impossible de savoir quelles publicités un utilisateur particulier reçoit, qui sont les publicitaires qui le ciblent et pourquoi ; ce qui rend les abus extrêmement difficiles à détecter.
  2. N’importe quel utilisateur possédant un compte Facebook peut devenir un publicitaire en quelques minutes sans vérification d’identité. Il n’y a donc aucune barrière pour des acteurs mal intentionnés souhaitant exploiter le système.
  3. La plate-forme met à disposition des publicitaires une quantité énorme de données sur les utilisateurs pour cibler très précisément certains segments de la population avec des messages susceptible de résonner en eux. Les publicitaires peuvent cibler les individus satisfaisant une combinaison précise d’attributs, avec plus de 1000 attributs prédéfinis choisis dans une liste et plus de 240 000 attributs libres suggérés par la plateforme lorsque le publicitaire tape des mots clés. On peut cibler par exemple les utilisateurs “intéressés par les enfants, mais pas par The Economist, ayant récemment déménagé et vivant au code postal 38 000”. Les publicitaires peuvent également cibler des individus en particulier s’ils ont des informations appelées informations d’identification personnelle telles que l’email ou le numéro de téléphone.

Si on combine ces trois caractéristiques, on voit qu’un publicitaire peut cibler de façon très précise (ouvrant la voie à une manipulation potentielle) sans qu’il y ait de contrôle sur l’identité des publicitaires et sans qu’il n’y ait de possibilité pour un acteur extérieur (comme un régulateur) de vérifier l’absence d’abus.

« Privacy bulletin board spring 2015 » par westonhighschoollibrary  CC BY-SA 2.0

Un premier audit externe de l’utilisation de la plateforme

Puisque les publicités ciblées sont vues seulement par les utilisateurs ciblés en question, la seule façon d’auditer la plateforme est de collecter directement les publicités montrées aux utilisateurs sur leur mur. Pour permettre un tel audit externe, nous avons développé une extension de navigateur, AdAnalyst (https://adanalyst.mpi-sws.org), que les utilisateurs peuvent installer et qui collecte (de façon anonyme) des données sur les différentes publicités reçues. En utilisant les données de plus de 600 utilisateurs, nous avons pu réunir des éléments de réponses à quelques questions importantes pour bien comprendre comment la plateforme est utilisée et quelles sont les sources de risques potentiels :

Qui sont les publicitaires ? Notre analyse [1] révèle que 16% des publicitaires sont peu populaires (ils ont moins  de 1000 likes sur leur page Facebook) et que seuls 36% sont “vérifiés” (par un processus de vérification volontaire proposé par Facebook) et peuvent donc être tenus responsables de leurs publicités. Nous constatons aussi que plus de 10% de publicitaires visent des catégories de sujets potentiellement sensibles (e.g., information/politique, éducation, finance, médecine, droit, religion) ; il est donc crucial et urgent de pouvoir les monitorer !

Quelles stratégies de ciblage utilisent les publicitaires ? Une fraction importante des publicitaires (20%) utilisent des stratégies de ciblage qui, soit potentiellement envahissent votre vie privée (e.g., basées sur les informations d’identification personnelle ou sur des attributs de tierces parties collectés en dehors de la plateforme par des compagnies appelées “data brokers” qui les vendent ensuite à Facebook), soit sont opaques (e.g., utilisant la fonction “Lookalike audience” de Facebook qui laisse Facebook sélectionner les utilisateurs ciblés sur la base d’un algorithme de “similarité” privé). Cela représente une transition par rapport au mode de ciblage plus classique (et mieux compris) basé sur la localisation, sur les attributs démographiques ou de comportement, ou sur le re-ciblage (pratique qui consiste à montrer des publicités pour des produits que vous avez précédemment cherchés par vous-même).

Quels attributs les publicitaires utilisent-ils ? Même lorsque ce mode plus classique de ciblage sur les attributs est utilisé, il peut être source d’inquiétude. En effet, les attributs “voyage” ou “nourriture et boisson” restent les plus utilisés, mais une fraction surprenant de publicités (39%) utilisent des attributs libres qui sont beaucoup plus spécifiques et peuvent être beaucoup plus sensibles : on trouve par exemple des attributs tels que “connaissance du diabète de type 1”, ou un intérêt pour diverses organisations ou actions telles que “Adult Children of Alcoholics” (adulte dont les parents sont alcooliques) ou “Defeat Depression” (vaincre la dépression).

Les publicitaires adaptent-ils leurs publicités aux sujets ciblés ? Nous avons découvert que 65% des publicitaires adaptent effectivement le contenu de leurs publicités en fonction des attributs ciblés. Par exemple, Vice News (un site américain d’information généraliste) envoyait aux utilisateurs intéressés par “PC Magazine” (un magazine spécialisé dans la technologie) une publicité pour un article “A self-driving, flying taxi could soon be a reality” (un taxi volant autonome sera bientôt une réalité) et aux utilisateurs intéressés par le parti démocrate une publicité pour un article “Mr. Trump and Mr. Cohen have a lot of explaining to do” (M. Trump et M. Cohen ont beaucoup à expliquer). Si ces pratiques ne sont pas malveillantes en elles-mêmes et existent d’ailleurs aussi dans le monde déconnecté, elles requièrent une attention particulière dans le cas de la publicité en ligne car elles ouvrent la porte à une manipulation fine par l’intermédiaire du micro-ciblage. Dans un autre contexte, nous avons mis en évidence par exemple que cette pratique a été utilisée par la Russian Intelligence Agency pour envoyer des publicités clivantes de façon ciblée aux utilisateurs vulnérables pendant l’élection présidentielle américaine de 2016 [2].

Malgré des réponses intéressantes, cette étude du cas de Facebook ne révèle qu’une petite partie émergée de l’iceberg que représente l’écosystème de la publicité dans les médias sociaux et met surtout en lumière le besoin de travaux supplémentaires pour comprendre l’écosystème et son impact sur les utilisateurs.

« Don’t Be Evil » by oscarberg, CC BY-NC-SA 2.0

Quid des mécanismes de transparence offerts par la plateforme?

Pour répondre aux inquiétudes des utilisateurs, les plateformes ont récemment commencé à offrir des mécanismes de transparence. Facebook (en premier) a introduit un bouton “Pourquoi je vois cette pub ?” qui fournit aux utilisateurs une explication pour chaque publicité du type : “Une des raisons pour lesquelles vous voyez cette publicité est que Würth France souhaite atteindre les personnes intéressées par Industrie automobile, en fonction d’activités comme les Pages aimées ou les clics sur les pubs. D’autres raisons peuvent expliquer que vous voyiez cette publicité, notamment que Würth France souhaite atteindre les hommes de 24 à 58 ans qui habitent en France. Cette information est basée sur votre profil Facebook et les lieux où vous vous connectez à Internet.

Même si ces explications ne fournissent d’information que sur une petite partie du processus de délivrance des publicités (le choix de l’audience par le publicitaire), elle constituent a priori un bon début ; mais il est toutefois indispensable de les auditer afin de s’assurer de la qualité de l’information fournie aux utilisateurs ! Pour ce faire, nous avons créé des campagnes de publicité contrôlées ciblant les utilisateurs volontaires d’AdAnalyst et collecté les explications reçues que nous avons alors comparées aux paramètres effectifs des campagnes. Nos résultats [3] montrent que les explications fournies par Facebook sont loin d’être parfaites.

Nos expériences montrent d’abord que les explications de Facebook sont incomplètes d’une façon potentiellement inquiétante. Dans le détail, on observe que l’explication montre au plus un attribut même si plusieurs ont été utilisés pour le ciblage. Plus inquiétant, l’attribut montré est choisi de façon surprenante. Il est d’abord choisi en fonction du type d’attribut, en donnant la priorité aux attributs démographiques par rapport aux attributs d’intérêt et de comportement. Ensuite, l’attribut montré est celui qui a la plus grande prévalence (i.e., qui est partagé par le plus grand nombre d’utilisateurs de Facebook). Ne révéler que l’attribut le plus commun ne semble pas être en mesure de fournir des explications utiles pour les utilisateurs. Imaginez par exemple un publicitaire qui ciblerait des utilisateurs intéressés par le fascisme et ayant un téléphone portable, l’explication ne mentionnerait que l’attribut téléphone portable. En plus de donner une information très partielle, une telle explication apparaît facilement manipulable par un publicitaire mal intentionné qui pourra par exemple masquer un attribut rare et discriminatoire ou sensible en y ajoutant un attribut très commun.

Nos expériences ont aussi montré que les explications de Facebook suggèrent parfois des attributs qui n’ont en fait pas été utilisés par le publicitaire ; ce qui au minimum induit en erreur et risque de briser la confiance de l’utilisateur dans les mécanismes de transparence offerts.

Dans l’ensemble, cette étude nous met en garde sur le fait qu’il ne suffit pas de donner n’importe quelle explication pour apporter de la transparence ; et même si notre étude a été menée sur la plateforme de Facebook, cette conclusion s’applique à l’ensemble des plateformes. Des explications mal conçues peuvent être dangereuses car elles offrent seulement une partie de l’information, peuvent être facilement manipulées par des acteurs mal intentionnés et donne un faux sentiment de confiance. Il est donc crucial d’avancer sur des bases scientifiques rigoureuses pour définir des standards pour les explications si nous voulons que de tels mécanismes de transparence soient un succès.

Comment avancer vers plus de transparence ?

Il n’existe malheureusement pas de réponse définitive à cette question pour l’instant. Toutefois nous pensons qu’il est fondamental que la transparence soit apportée par des tierces parties et ne vienne pas directement des plateformes sans possibilité d’audit. C’est aussi pour aller dans cette direction que nous avons conçu l’outil AdAnalyst qui fournit aux utilisateurs des statistiques agrégées sur les publicités reçues, les publicitaires les ayant ciblés et les méthodes de ciblage utilisées mais aussi les autres attributs utilisés par un publicitaire pour d’autres utilisateurs. Nous espérons que cela donnera aux utilisateurs une vision plus complète de la façon dont ils sont affectés par la publicité sur Facebook pour qu’ils puissent en prendre conscience et se protéger contre les pratiques malhonnêtes—en attendant que la transparence soit mieux réglementée.

Oana Goga (CNRS, LIG) et Patrick Loiseau (Inria, LIG)

Pour aller plus loin :

AdAnalyst peut être téléchargé sur ce lien : https://adanalyst.mpi-sws.org.

[1] “Measuring the Facebook Advertising Ecosystem” A. Andreou, M. Silva, F. Benevenuto, O. Goga, P. Loiseau, A. Mislove. In NDSS 2019 (Network and Distributed System Security Symposium)

[2] “On Microtargeting Socially Divisive Ads: A Case Study of Russia-Linked Ad Campaigns on Facebook” F. Ribeiro, K. Saha, M. Babaei, L. Henrique, J. Messias, O. Goga, F. Benevenuto, K. Gummadi, E. Redmiles. In ACM FAT* 2019 (ACM Conference on Fairness, Accountability, and Transparency)

[3] “Investigating Ad Transparency Mechanisms in Social Media: A Case Study of Facebook’s Explanations” A. Andreou, G. Venkatadri, O. Goga, K. Gummadi, P. Loiseau, A. Mislove. In  NDSS 2018 (The Network and Distributed System Security Symposium)

Petit binaire : les dessous du JPEG

Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible une partie du fonctionnement d’un format de fichier que nous utilisons depuis des années : JPEG.  Marie-Agnès Enard, Pascal Guitton  et Thierry Viéville.

 

 

Dis, en voulant récupérer une photo sur Instagram, mon téléphone me propose de la coder en JPEG, c’est quoi ?

Tout d’abord, tu dois te rappeler qu’un ordinateur ne sait traiter que des valeurs numériques. Si on veut lui faire manipuler des textes, des sons ou des images, il faut au préalable coder l’information avec des nombres ; c’est pour cette raison qu’on parle d’image numérique (on oublie très souvent l’adjectif pour aller plus vite). La façon la plus simple d’expliquer ce qu’est une telle image est de considérer l’écran (de ton téléphone, de l’ordinateur…) sur laquelle elle est affichée : leur technologie permet d’allumer des minuscules points – des pixels – avec une certaine couleur. Ces écrans étant presque toujours rectangulaires, ces pixels sont organisés de façon régulière en lignes et en colonnes. Si on multiplie le nombre de lignes par le nombre de colonnes d’un écran, on obtient le nombre de pixels qu’il est capable d’afficher, appelée résolution spatiale. Afin de stocker la couleur de chaque pixel, il est nécessaire de disposer d’un espace mémoire associé. La taille de cet espace conditionne le nombre de couleurs qu’un écran peut afficher (par exemple 1 octet permet de traiter 256 couleurs) et est appelée résolution colorimétrique. Il est facile de calculer l’espace mémoire total nécessaire pour coder une image, c’est le produit de sa résolution spatiale par sa résolution colorimétrique ; on parle alors de son poids. Ainsi, une image de 1 million de pixels avec 512 couleurs pèse 2 millions d’octets.

OK, d’accord mais JPEG là-dedans ?

Les premiers écrans étaient petits et ne permettaient d’afficher que des images en noir et blanc (donc 1 bit par pixel). Depuis la taille des écrans et leur nombre de couleurs n’ont cessé d’augmenter entrainant ainsi un poids mémoire de plus en plus important. Le premier problème à régler était la taille des disques durs des ordinateurs qui était limitée, ce qui entrainait assez vite leur saturation dès qu’on voulait stocker par exemple les images de ses vacances. Très rapidement, il fallut résoudre un deuxième problème apparu avec l’avènement des réseaux : non, seulement on stockait ses photos mais on voulait aussi les envoyer à des amis grâce à Internet. Il est clair que le temps de transmission d’une série d’images dépend directement du nombre d’octets à émettre. Les chercheurs ont alors travaillé pour réduire la taille des images en inventant des méthodes de compression.


Photo by Francesco Ungaro from Pexels

Je ne comprends pas ; pour réduire la taille d’une image, il faudrait diminuer le nombre de pixels ou de couleurs ? On n’y verrait plus rien…

Tu as raison ! Il n’est pas question de toucher à ces dimensions qui sont utilisées par l’écran mais de s’intéresser à un codage destiné à stocker et/ou transmettre l’image en la décrivant autrement que de façon explicite en listant tous les pixels qui la composent. Pour atteindre cet objectif, il existe plusieurs grands principes. Par exemple, si tu as pris une maison en photo, il y a beaucoup de chance que les pixels qui représentent les murs soient tous de la même couleur (ou ceux de la mer ou du ciel). Dans ce cas, pourquoi coder explicitement tous ces pixels ? Il est plus léger de les remplacer par un couple (couleur, nombre de pixels voisins affichés avec cette couleur). Une autre idée importante est de s’intéresser à la façon dont sera utilisée l’image : si elle est destinée à être regardée par des êtres humains, à quoi servirait de conserver plus de couleurs que l’œil ne peut en percevoir ou d’utiliser des pixels trop petits pour être visibles ? Bien entendu, cette remarque ne s’applique pas si elle doit être traitée par un ordinateur – via un algorithme – par exemple pour reconnaitre des portraits de personne ou des nuages dans une image prise par un satellite où tous les détails, mêmes les plus infimes comptent. La perception visuelle est une source d’inspiration permanente pour les méthodes de compression. Tu peux d’ailleurs la combiner avec la première idée : je t’ai parlé des pixels représentant un mur ou la mer qui étaient tous de même couleur ; en fait, il y a le plus souvent de très faibles variations entre pixels voisins. Mais on peut décider que deux pixels sont « identiques » si leur différence de couleur est inférieure à un seuil de perception fixé en fonction des propriétés de la vision humaine.

Mais, si je te suis bien, dans ce cas, on va obtenir une image codée un peu différente de l’original ? Ce n’est pas gênant ?

Ca peut l’être, d’ailleurs on parle de méthodes de compression avec perte. Si on prend un seuil trop élevé, on risque de trop dégrader l’image et de perdre des nuances, des ombres. Toute la subtilité de la méthode est de trouver le bon compromis entre les économies mémoire réalisées et la perte d’information dans l’image. Et bien entendu, il n’existe pas de réponse optimale mais uniquement des solutions dépendant d’un contexte d’utilisation ; rappelle-toi des photos de vacances et des images satellites.

Bon, je ne sais toujours pas ce que signifie JPEG, je pense que je vais aller trouver tout seul la réponse à ma question sur WikiPedia

Ne soit pas impatient jeune Padawan, l’enseignement ne se distille pas toujours en 2 clics. Maintenant que je t’ai donné toutes les fondations, je peux t’expliquer en quelques mots que JPEG est une méthode de compression avec perte que l’on choisit avec un seuil variable. Ca commence à te parler ?

Euh, oui, un peu…

JPEG (acronyme de Joint Photographic Experts Group) a été inventé à l’initiative des photographes qui n’arrivaient pas, avec les moyens de l’époque, à échanger leurs images de façon confortable. Ils ont tout de suite compris qu’il fallait proposer un compromis entre qualité et poids. En fait, il y a plusieurs versions de JPEG qui intègre les deux principes que je t’ai expliqué accompagné de beaucoup d’autres. Dernier point, JPEG est devenu un standard, c’est-à-dire qu’il est reconnu par toutes les machines (appareil photo, ordinateur, téléphone) du monde, mais il existe un très grand nombre d’autres méthodes de compression adaptées à des contextes d’utilisation particuliers.

OK, je pense avoir compris. Merci !

 

Le World Wide Web, et demain ?

Le Web est né en 1989. Il a fêté ses 30 ans. Seulement 30 ans et il a déjà véritablement transformé nos vies. On peut faire partie des fans de la première heure comme nous, continuer à croire à toutes ses promesses mais en même temps s’inquiéter de ses dérives. Quand ses plus grands pionniers comme Tim Berners-Lee lancent des alertes, on peut légitimement se poser des questions. Le Web que nous avons connu, celui que nous avons rêvé, n’existe plus. Que va t-il advenir du Web ? Une collection de plaques contrôlées par des États ? Des silos gérés par des oligopoles ? Nous voulons croire qu’il sera autre, qu’il sera ce que, collectivement, nous choisirons. Pour y voir plus clair, nous avons demandé à Jean-François Abramatic, un pionnier de cette belle histoire, ancien Président du World Wide Web Consortium (W3C), de nous parler du Web. Dans une première partie, Jean-François nous a parlé du passé du Web. Dans cette seconde partie, il en tire des leçons pour le futur.
Le W3C développe les standards du Web pour permettre la multiplication des offres en ouvrant de nouvelles opportunités. C’est ainsi que les Progressive Web Apps ont cherché à fournir une alternative aux App stores. De même, ActivityPub permet une fédéralisation des réseaux sociaux. La difficulté, bien sûr, est de faire adopter ces standards par les leaders du marché. Est-ce par manque de relais politiques, ou surtout de la société civile  ?
Serge Abiteboul & Pascal Guitton.

Le Web et la démocratie

A présent que des milliards de personnes peuvent lire et écrire sur le Web et qu’un petit nombre d’entreprises ayant accumulé des centaines de milliards de dollars de capitalisation boursière ont acquis un poids considérable dans l’économie mondiale, nos sociétés sont confrontées à des défis démocratiques d’un type nouveau.

La concentration dans un petit nombre d’entreprises de pouvoirs essentiels pour la vie de nos sociétés pose la question de la gestion de monopoles à l’échelle mondiale. La collecte de données personnelles par ces entreprises ou par des organisations gouvernementales pose la question du respect de la vie privée de chacun d’entre nous.

Par ailleurs, les attaques menées contre les sites d’information et d’échange posent la question de la sécurité de nos échanges et de nos données. La circulation d’informations fausses, diffamatoires, voire illégales, la confusion volontaire entre faits et opinions posent la question de la transparence du débat démocratique.

Ces défis sont nouveaux dans leur nature mais aussi et surtout dans leurs caractéristiques en terme d’espace et de temps. Comme son nom l’indique, le World Wide Web est global et les défis sont eux aussi à l’échelle de la planète. Aucune solution locale aux problèmes mentionnés n’est sérieusement envisageable. Par ailleurs, la vitesse à laquelle circulent les informations (qu’elles soient vraies ou fausses, privées ou publiques) est elle aussi sans équivalent dans l’histoire.

Oui, le Web, et nous avec, sommes confrontés à des dangers de nouveaux types.

Les femmes, les hommes et les machines

L’Internet est la plateforme de la convergence entre l’informatique, les télécommunications et l’audiovisuel. Apparus au fil du 20ème siècle, le téléphone et la télévision ont changé nos manières de partager informations et connaissances. C’est cependant le développement de l’ordinateur (en particulier lorsque la miniaturisation des composants l’a rendu personnel et connecté) qui a permis d’intégrer ces technologies en un environnement universel que nous utilisons désormais tous les jours, dans n’importe quel endroit, à des fins extraordinairement variées.

C’est aussi avec l’aide de l’ordinateur que nous trouverons les réponses aux défis qui viennent d’être évoqués. Les contraintes espace-temps que nous devons affronter ne permettent pas aux femmes et aux hommes d’apporter des réponses sans l’usage intensif des ordinateurs. Il faut donc trouver la manière de mettre les technologies à notre service pour prévenir les dangers qui menacent nos démocraties.

Tous autour de la table

Cette phot montre une salle de conférences avec une jeune femme qui pfait une préesentation sur un tableau blanc devant une assemblée d'une quinzaine de personnes assises aurout d'une longue table rectangulaire
Autour de la table – Photo Christina Morillo, site Pexels

Comment faire en sorte que les moyens numériques soient mis au service de nos démocraties ? Il serait illusoire, voire irresponsable d’attendre qu’un ou quelques programmeurs de talent inventent les machines et programmes qui vont résoudre nos problèmes. Il faut, au contraire, mettre autour de la table gouvernements, entreprises, ingénieurs et chercheurs, représentants de la société civile dans une approche multi-acteurs pour concevoir les systèmes, les applications qui nous permettront d’apporter les réponses appropriées. Aucun de ces acteurs ne doit manquer, ce qui constitue aujourd’hui la première difficulté à surmonter. Sans les représentants de la société civile, il serait difficile de concevoir des systèmes qui gagnent la confiance des citoyens. Sans les entreprises, il serait difficile de développer et de déployer les solutions souhaitées. Sans les gouvernements, il serait difficile d’imposer les solutions ou faire respecter les lois lorsque cela sera nécessaire. Sans les chercheurs et le monde académique, il serait impossible de concevoir des systèmes innovants au service des usagers au rythme auquel le déploiement de ces systèmes est nécessaire pour être efficace.

Mettre en place une telle approche multi-acteurs reste aujourd’hui encore une tâche complexe. Chacun de ces acteurs pense, à tort, avoir, seul, le droit, la responsabilité, la vision, les moyens pour faire évoluer le Web et l’Internet au service des usagers.

Des efforts pour faire face aux défis

Chacun des défis mentionnés fait, bien sûr, déjà l’objet de travaux à des stades très divers.

La gestion des monopoles et, en particulier, de leur situation fiscale fait l’objet de débats récents mais très vifs à l’heure où ces lignes sont écrites.

Les questions de sécurité ont été abordées dès les premières heures de l’Internet. Le développement des standards de l’Internet est mené par l’IETF (Internet Engineering Task Force). Depuis très longtemps, chaque projet de standardisation doit se poser la question de l’impact éventuel du nouveau standard sur la sécurité. Cette approche systématique a permis de faire naître des solutions que les acteurs se sont appropriées. Le dialogue multi-acteurs s’est largement engagé.

Cette image affiche les 3 notions (responsabilité, transparence, confiance) à la base du RGPD
Les notions clés du RGPD – Extrait du site de la CNIL

Le respect de la vie privée est le domaine où les différences culturelles se font le plus sentir. L’Union Européenne a récemment adopté une réglementation, appelée Règlement Général sur la Protection des Données (RGPD). Cette réglementation fait l’objet de toutes les attentions. D’autres pays comme le Japon s’y intéresse. Elle pourrait, à terme, être déployée dans le reste du monde. Des grandes entreprises américaines soucieuses de leur présence sur le marché européen s’y intéressent très sérieusement. Il reste à développer les solutions techniques qui permettront la mise en œuvre concrète de la réglementation.

La lutte contre la haine sur Internet fait également l’objet de rapports et projets de loi en Europe et dans le monde. Des solutions techniques sont, pour l’instant, au stade de l’évaluation. L’orchestration des travaux législatifs et techniques reste à mettre en place. Les algorithmes à la source de problèmes comme la diffusion massive de bobards (fake news) ou de messages de haine sont à même de participer aux solutions. Les grandes entreprises du Web travaillent dans ce sens. Mais sans la participation de la société civile et des gouvernements, leurs résultats seront à juste titre contestables, contestés. Il faut se mettre tous autour de la table.

Pour être efficace dans leur mise en œuvre, ces lois et règlementations demandent donc des développements logiciels encore en devenir. Si les grandes entreprises du secteur disposent des ressources pour « se mettre en règle », il n’en va pas toujours de même pour les petites entreprises, voire pour les gouvernements lorsqu’il s’agit d’assurer le respect de ces lois. Le dialogue multi-acteurs doit avoir lieu le plus tôt possible pour que la mise en œuvre se fasse de manière efficace et dans l’intérêt de tous.

Science ouverte au service des citoyens

Pour montrer qu’il est, à la fois, difficile mais possible de progresser, en guise de conclusion, concentrons nous sur le problème de la véracité des informations et, plus spécifiquement, celui de la place de la science dans nos sociétés. Les débats récents sur le réchauffement climatique, les effets des pesticides, les risques liés au traitement des déchets nucléaires aussi bien que ceux traitant la réduction des inégalités, les effets de mesures fiscales, les coûts de décisions politiques montrent le besoin d’une approche scientifique rigoureuse pour traiter sérieusement ces questions complexes.

S’agissant de questions essentielles pour la vie de nos sociétés, il est indispensable que le débat démocratique puisse s’organiser autour d’informations aussi exactes et précises que possible. Il est nécessaire que les résultats des travaux scientifiques soient rendus accessibles aux citoyens. Pour atteindre ces objectifs, il faut, dans un premier temps, que les scientifiques, eux-mêmes, se préoccupent de faire les efforts nécessaires pour que leurs résultats soient exploitables par d’autres. Durant les dix dernières années, la communauté scientifique a élaboré une liste de critères à remplir pour que les informations issues de travaux de recherche soient utilisables par tous.

L’acronyme FAIR (pour Findable, Accessible, Interoperable, Reusable) est désormais utilisé pour qualifier des informations exploitables. Il faut donc qu’une information soit trouvable, accessible, interopérable et réutilisable. Si ces conditions sont remplies, un usager pourra exploiter l’information ou un tiers pourra développer les solutions logicielles qui rendent ces informations utiles pour les citoyens.

Logo de Hal – Site du CCSD

La communauté scientifique française montre l’exemple dans ce domaine. L’archive ouverte HAL rassemble plus d’un million de publications mises au service de toutes les communautés scientifiques.

 

Logo Software Heritage

Le programme Software Heritage, hébergé par Inria, a pour mission de collecter, préserver et partager tous les logiciels disponibles publiquement sous forme de code source. A ce jour, près de six milliards de fichiers sont ainsi archivés, faisant de Software Heritage, l’incontestable leader mondial.

 

L’Europe a lancé un programme, appelé EOSC (European Open Science Cloud), dont le but final est de permettre à chacun d’accéder aux informations utiles à son activité. Après avoir vécu une période de lancement, EOSC est entré en 2019 dans une phase de déploiement qui doit l’amener à un régime pérenne en 2021. Si cet objectif est atteint, les productions scientifiques européennes seront disponibles pour que d’autres acteurs (gouvernements, entreprises, société civile) puissent en tirer parti.

Il est intéressant de noter que parmi les organisations pionnières en ce domaine, le CERN occupe une place de choix. Ayant depuis 30 ans utilisé le Web pour gérer les informations engendrées par ses équipements de physique des hautes énergies, le CERN participe désormais à plusieurs projets européens pour faire progresser la science ouverte au service de toutes les communautés scientifiques.

Trente ans plus tard, l’histoire se répète en mettant des solutions développées pour une communauté au service du bien commun.

Ainsi donc,

Oui, le Web est confronté à de nombreux défis, à de nombreux dangers. Oui, le Web a les moyens de faire face quand les acteurs s’engagent pour combattre les mauvais démons qui veulent tirer parti des opportunités de nuisance que l’ouverture du Web leur procure.

Le Web continue de se construire grâce aux femmes et aux hommes qui exploitent les technologies de l’information pour faire en sorte que la communication entre citoyens du monde s’enrichisse au service de tous.

Jean-François Abramatic, Directeur de Recherche Emérite, Inria

Le World Wide Web, il y a trente ans…

Le Web est né en 1989. Il a fêté ses 30 ans. Seulement 30 ans et il a déjà véritablement transformé nos vies. On peut faire partie des fans de la première heure comme nous, continuer à croire à toutes ses promesses mais en même temps s’inquiéter de ses dérives. Quand ses plus grands pionniers comme Tim Berners-Lee lancent des alertes, on peut légitimement se poser des questions. Le Web que nous avons connu, celui que nous avons rêvé, n’existe plus. Que va t-il advenir du Web ? Une collection de plaques contrôlées par des États ? Des silos gérés par des oligopoles ? Nous voulons croire qu’il sera autre, qu’il sera ce que, collectivement, nous choisirons. Pour y voir plus clair, nous avons demandé à Jean-François Abramatic, un pionnier de cette belle histoire, ancien Président du World Wide Web Consortium (W3C), de nous parler du Web. Dans un premier article, il nous parle du passé. Dans un second, il nous fera partager sa vision du futur. Serge Abiteboul & Pascal Guitton.

Alors que le Web vient de fêter ses trente ans, après avoir reçu une très longue suite de commentaires laudatifs, il est devenu de bon ton de se demander si on peut encore « sauver le Web ».

Ayant participé aux travaux qui ont permis son développement fulgurant, après avoir assisté à l’événement organisé par le CERN en ce 12 mars 2019, date anniversaire, il m’est apparu utile de partager un point de vue nuancé sur les services que le Web nous rend et les défis auxquels il doit faire face.

Ma première réaction aux discours promettant le pire est de me rappeler de commentaires similaires datant de la fin 1995. Lors de la clôture de la 4ème conférence World Wide Web tenue à Boston en Décembre 1995, je devais conclure l’évènement en invitant les participants à venir à la conférence suivante qui allait se tenir à Paris en Mai 1996. Juste avant moi, une célébrité du numérique, Bob Metcalfe (inventeur d’Ethernet, devenu pundit des technologies de l’information) avait prédit que l’Internet et le Web allaient s’effondrer en 1996. Son idée, à l’époque, était que la croissance exponentielle du nombre des sites Web et du nombre de leurs usagers allait avoir raison de l’infrastructure qui n’arriverait pas à offrir les bandes passantes nécessaires. Il avait promis de « manger » son article si sa prédiction était fausse.

Pendant son exposé, j’ai téléchargé un plan du métro de Paris et je l’ai présenté en introduction à ma présentation. Au même moment, une grève de la RATP avait eu raison de la bande passante du métro parisien. J’ai introduit mon exposé en prédisant que l’Internet et le Web ne s’effondreraient pas en 1996 de la même manière que le métro parisien reprendrait son activité normale et serait à la disposition des participants à la conférence de Paris.

Lors de la 6ème conférence tenue en 1997 à Santa Clara, en Californie, Bob, ayant perdu son pari (car l’Internet et le Web ne se sont pas effondrés en 1996 :-), a tenu parole et  « mangé » son article… devant une audience prête à déguster l’énorme gâteau que l’Université de Stanford, organisatrice de la conférence, avait préparé.

Même si le Web a « gagné » la confiance de tant d’utilisateurs, on peut questionner ce qu’il est devenu avec lucidité, sans chercher à se faire peur.

Moitié vide, moitié plein ?

Tout d’abord, rappelons qu’il s’agit d’une application qui n’a que trente ans et est déjà utilisée par plus de trois milliards de personnes à travers le monde. Un tel déploiement est unique dans l’histoire de l’humanité. Il s’agit d’un « truc » qu’un peu plus de la moitié de la population de la planète utilise tous les jours.

On doit, bien sûr, insister sur les difficultés auxquelles nous sommes confrontés pour faire en sorte que l’autre moitié de la planète ait accès au Web. La mise en place d’infrastructures dans les zones non couvertes, la baisse des prix des terminaux sont nécessaires pour fournir l’accès à celles et ceux qui en sont aujourd’hui privées. Même si le World Wide Web Consortium (W3C) a lancé le programme Web Accessibility Initiative (WAI) dès 1997, fournir l’accès au Web aux personnes en situation de handicap demande des efforts dans la durée. Des travaux importants sont en cours, animés par de nombreuses organisations gouvernementales ou associatives.  Parmi ses 17 objectifs pour le développement durable, les Nations Unies avaient fixé 2020 pour disposer d’une infrastructure universelle à un coût abordable pour toute la planète. Cet objectif ne sera pas atteint mais le nouvel objectif (2030) reste possible. Cela ne suffira pas à assurer l’accès à tous mais cela éliminera une barrière importante.

Au service des utilisateurs

On peut s’interroger sur les raisons qui ont fait que le Web a été inventé au CERN, en Europe, dans un centre de recherches en physique des hautes énergies. Tim Berners-Lee a partagé, à l’occasion de la célébration de l’anniversaire, plusieurs raisons que l’on peut résumer ainsi.

Cette phot montre l'intérieur d'un tunnel bétonné où se trouvent des composants cymindriques de grande taille
Un accélérateur de particule – Photographie extraite du site du CERN

Premièrement, le CERN, grand utilisateur de technologies de l’information, avait besoin de gérer une masse grandissante d’informations complexes pour servir ses utilisateurs. Le mémo que Tim a présenté à sa hiérarchie, il y a trente ans, avait pour titre Information Management: a proposal. Le CERN était équipé de nombreux systèmes informatiques, incompatibles entre eux. Par ailleurs, ces informations devaient être rendues disponibles aux chercheurs en physique des hautes énergies répartis à travers la planète. Le besoin de gestion de l’information était donc à la fois pressant et clairement exprimé.

Deuxièmement, l’infrastructure informatique du CERN était à l’état de l’art, mettant à disposition des ingénieurs et chercheurs les meilleures stations de travail du moment et la meilleure connectivité à l’Internet. Tim a développé le Web sur une machine NexT, la « Rolls » des stations de travail, conçue par Steve Jobs alors qu’il avait été remercié par le conseil d’administration d’Apple. De manière générale, les chercheurs du CERN bénéficiaient d’équipements haut de gamme. La connexion directe à l’Internet avait été installée en 1989, faisant du CERN un précurseur en Europe dans l’exploitation des protocoles de l’Internet. Les conditions techniques étaient donc remplies pour que Tim envisage de déployer un système de navigation hypertexte sur l’Internet.

Troisièmement, l’environnement de recherche du CERN permettait la prise de risque voire aiguisait l’appétit des chercheurs pour l’utilisation de technologies innovantes. Tim savait que ses collègues apprécieraient le caractère audacieux de sa vision. Il savait aussi que s’il développait un environnement universel, de nombreux chercheurs et développeurs à travers le monde sauraient reconnaître le potentiel du Web et contribuer à son développement.

Ainsi donc, les conditions nécessaires à la conception du Web étaient réunies à Genève, dans un des plus grands centres de recherche européen et non pas en Silicon Valley : un besoin (gérer des informations à la fois précieuses et complexes), un environnement à l’état de l’art, un appétit pour la prise de risque et l’innovation.

Yes, we ‘re Open !

Si le CERN offrait donc un environnement accueillant pour l’émergence d’innovations audacieuses, l’organisation a aussi su prendre des choix stratégiques essentiels lorsque les premières indications du potentiel du Web sont apparues. Dès 1991, à la demande de Robert Cailliau et de Tim, le CERN a fait savoir au monde entier que la technologie du Web serait mise dans le domaine public. Tout chercheur, tout développeur dans le monde pourraient ainsi apporter son talent et son énergie pour contribuer au succès du Web.

Quelques années plus tard, le World Wide Web Consortium (W3C), sous la direction de Tim Berners-Lee, a institué une nouvelle manière de partager les standards du Web en faisant en sorte que ces standards soient disponibles pour tous Royalty Free. Jusqu’alors, la politique Reasonable And Non Discriminatory prévalait dans les organismes de standardisation, rendant l’exploitation de ces standards incertaine en terme de propriété industrielle.

Ainsi donc, le Web est devenu libre de droits, favorisant la floraison de « milliers de fleurs ».

Cette phot montre un grand nombre de fleurs bleues sur des tiges
Fleurs – Extrait du site Pixambo

Intégrer les services existants

Une des grandes richesses des infrastructures numériques est qu’elle facilite l’usage par tout nouveau développement des déploiements antérieurs. Depuis l’apparition du système d’exploitation Unix au début des années 70, les innovations émergentes peuvent bénéficier naturellement des résultats des générations qui les ont précédées. La portabilité des systèmes et applications a permis, par exemple, d’exploiter « sans douleur » les innovations en matière de matériels (nouveaux processeurs) en limitant au strict minimum les développements logiciels spécifiques aux nouvelles machines.

Dans le même esprit, Tim a conçu le Web pour qu’il puisse accueillir les autres applications de partage d’information (transfert de fichiers, systèmes documentaires). Ce choix a convaincu la communauté des développeurs de la sincérité de l’ouverture de Tim et accéléré l’adoption du Web.

En choisissant le Web, on peut développer de nouveaux services en continuant à utiliser les anciens.

Lire et écrire

La première version du Web, développée par Tim, permettait à l’utilisateur de lire et écrire les informations rangées sur le serveur permettant ainsi aux usagers d’échanger, de communiquer grâce au Web.

Le succès initial du Web a, cependant, été nourri par une ambition plus limitée où le navigateur mis à la disposition de l’usager pouvait seulement lire les données, faisant de la fonction d’écriture ou de création d’information une tâche réservée à une catégorie limitée d’auteurs. Dans cette version limitée, le Web a tout de même permis à des centaines de milliers de services de se développer, à de nombreuses entreprises de trouver leurs modèles de développement, … à quelques entreprises (telles que Google, Amazon, Microsoft, Apple) de prendre des positions dominantes.

Il faudra attendre l’émergence des Wikis (tel que Wikipedia), puis des réseaux sociaux (tels que Facebook, Twitter) pour que la communication retrouve son caractère bidirectionnel.

Ainsi donc, le Web a fourni l’occasion à quelques entreprises de l’ouest des Etats-Unis de devenir les premières capitalisations boursières mondiales, à d’autres entreprises de se réinventer, à des milliards d’usagers de partager des informations et d’utiliser des millions de services « en ligne ».

Intérêt général, intérêts particuliers

Dans le monde numérique, lorsque qu’une innovation devient un succès, de nombreuses voies peuvent être suivies par les inventeurs et créateurs. C’est ainsi que les deux acteurs à l’origine du succès du Web ont choisi des voies différentes.

Cette image montr ele logo du W3C composée des 3 lettres ; les 2 premières sont en bleu, la dernière en noirb
Logo W3C – (C) W3C

Tim Berners-Lee a choisi de créer le W3C pour « mener le Web à son plein potentiel ». W3C a ainsi été hébergé dès le milieu des années 90 par le MIT, aux Etats-Unis, Inria, en Europe, l’Université de Keio en Asie. W3C a rapidement rassemblé plus de 500 organisations (grandes entreprises, universités et centres de recherche, petites et moyennes entreprises, start-ups, associations à but non lucratif ou gouvernementales) à travers le monde. W3C a développé de manière collective les standards du Web grâce aux contributions de plus de 10,000 ingénieurs et chercheurs. Plus de 300 recommandations ont été émises par le consortium, parmi lesquelles HTML, CSS, XML, WCAG qui fournissent le socle sur lequel le Web s’est développé.

Marc Andreessen, l’auteur de Mosaic, le navigateur qui a permis le déploiement fulgurant du Web au milieu des années 90, a choisi de créer une société en Silicon Valley. Netscape a été la première start-up à exploiter le potentiel du Web. Netscape a fait une entrée en bourse record en 1995 avant de devoir fermer ses portes en 2003. La rivalité entre Netscape et Microsoft a cependant été au cœur du déploiement initial du Web. Les deux entreprises ont largement participé aux travaux du W3C pour bâtir les fondations solides sur lesquelles le Web repose encore aujourd’hui.

Au fil des années, les entreprises et les organisations à but non lucratif ont contribué, côte à côte, au développement du Web.

Le W3C et Wikipedia ont joué un rôle important dans le succès du Web. Le mouvement Open Source qui a pour objectif de partager les efforts de développement logiciel s’est largement amplifié grâce à l’infrastructure fournie par le Web. La Fondation Creative Commons, dans le but d’encourager la libre circulation des œuvres, propose des licences de mise à disposition d’un type nouveau tirant parti des possibilités offertes par le déploiement du Web.

Les entreprises leaders du marché ont, également, offerts à leurs utilisateurs des services essentiels tels que moteur de recherche, courrier électronique ou outils de travail collaboratifs distribués avant d’inventer les modèles économiques qui ont fait leur fortune.

De nouveaux services ont été créés pour permettre l’échange ou la vente entre particuliers. Les entreprises de l’ « ancien monde » ont changé leur manière d’interagir avec leurs clients en s’appuyant sur le Web.

Le monde est devenu instrumenté, interconnecté et intelligent… Avec le Web, je peux aussi piloter à distance la nouvelle chaudière que je viens de faire installer…

Il reste qu’aux côtés d’Apple et Microsoft, créées avant le Web, dans les années 80, d’autres entreprises, Google, Amazon créées à la fin des années 90, Facebook, Twitter créées au début des années 2000 ont eu le succès que l’on connaît aujourd’hui au point de prendre des positions dominantes qui sont des menaces pour le Web ouvert tel qu’il a été conçu par Tim Berners-Lee.

Jean-François Abramatic, Directeur de Recherche Emérite, Inria