Données, comment les manipuler ?

Les données constituent la matière première de toute activité numérique. Afin de permettre leur réutilisation, il est nécessaire de les conserver de manière persistante. Les structurer correctement garantit que l’on puisse les exploiter facilement pour produire de l’information. Cependant, les données non structurées peuvent aussi être exploitées, par exemple par les moteurs de recherche.

TRANSCRIPTION DE LA VIDÉO

Production 4minutes34 et s24b pour le MOOC SNT de Class´Code, travail éditorial de SNJazur.

Cette vidéo introduit une des thématiques de l’enseignement en Sciences Numériques et Technologie de seconde au lycée, rendez-vous sur le MOOC SNT pour se former sur ce sujet, en savoir plus sur les notions abordées, les repères historiques, l’ancrage dans le réel, et les activités qui peuvent être proposées.

La rencontre des SHS et des sciences de l’informatique

Un nouvel « Entretien autour de l’informatique ». Françoise Thibault est à l’origine vidéaste et spécialiste de littérature et de cinéma. Devenue chercheuse en sciences de l’information et de la communication, elle a lancé les premiers Campus numériques français. Elle a imaginé et dirigé de nombreux programmes consacrés au numérique dans l’enseignement supérieur et la recherche en France et en Europe. Ses travaux scientifiques portent depuis vingt ans sur la compréhension des phénomènes liés à l’informatisation du monde universitaire. Elle est déléguée générale de l’alliance nationale des sciences humaines et sociales (Athéna). Claire Mathieu et Pierre Paradinas
Cet article est publié en collaboration avec The Conversation.
Françoise Thibault

B : pouvez-vous nous parler de votre domaine de recherche ?

FT : plus que de parler des sujets sur lesquels je travaille ou j’ai travaillé, j’aimerais évoquer les outils intellectuels avec lesquels je regarde les réalités sociales qui m’intéressent et avec lesquels j’aborde des questions qui me préoccupent. J’ai d’abord étudié la littérature et le cinéma, puis la sociologie. Cette dernière m’a conduite à m’interroger sur les transformations des organisations humaines et j’ai gardé de mes premiers intérêts le goût pour les outils et les formes de communication. Le pluriel des sciences humaines et sociales (SHS) revêt ainsi un sens profond pour moi et c’est dans le croisement des disciplines que j’ai trouvé matière à forger mes instruments pour regarder et analyser. J’ai toujours préféré, pour moi-même, les bricolages disciplinaires rigoureux aux chemins bien tracés des grandes théories scientifiques.

D’autant qu’à ce monde des SHS se sont mêlés deux autres univers qui m’ont guidée, inspirée, et interrogée. Le premier, familier, c’est celui des artistes, surtout des artistes de l’image. Le deuxième, celui de l’informatique, m’était au départ plus lointain. Au fil de ma carrière, le dialogue avec les chercheurs en sciences de l’informatique s’est enrichi. Partant, d’un questionnement sur les usages sociaux des applications informatiques, il s’est déplacé vers des interrogations sur le temps et le sens de l’innovation technologique et scientifique dans la société. Partager avec des chercheurs en informatique à la fois le besoin d’histoire et les questionnements sur les transformations sociales passées et à venir a constitué pour moi une belle ouverture qui a battu en brèche la figure de l’informaticien centré sur la puissance de calcul et la dernière innovation technologique et qui m’a ouvert des horizons tout à fait passionnants

Échanges entre humanités et informatique, Saint-Oma

B : pourquoi la création artistique vous intéresse-t-elle ?

FT : parce qu’elle interroge, parfois même provoque la pratique scientifique mais peut aussi être à l’origine de nouveaux espaces de diffusion des savoirs scientifiques. Je pense à un expérience théâtrale récente pour moi où le travail du metteur en scène, Thomas Ostermeier, sur le texte « Retour à Reims » du sociologue Didier Eribon donne littéralement à voir dans l’espace scénique les multiples niveaux de la réalité sociale et politique décrite par le sociologue.

Ainsi, les SHS comme les sciences de l’informatique à mon sens, peut-être plus encore que d’autres sciences, sont interpellées par les artistes qui trouvent dans ces deux grands domaines de recherche de nouvelles formes d’expression et des territoires à explorer. Les échanges entre ces trois mondes me paraissent essentiels pour les uns comme pour les autres car ils favorisent les déplacements du regard et les décentrements. Ils contribuent, ce faisant, à sortir des routines stériles qui existent tout autant dans les sphères de la science que dans celles de la création.

Un autre exemple me vient en tête que je tire du dernier ouvrage de Pierre Mounier sur les humanités numériques. La science comme les autres secteurs de l’activité humaine est traversée, plus encore aujourd’hui, par des phénomènes de modes marqués par la production de mots « fétiches » qui se trouvent brutalement dotés d’un intérêt difficilement contestable. Actuellement c’est le cas du terme de données. Il est pourtant indubitable que ce mot recouvre des réalités tellement différentes qu’il en perd son intérêt scientifique mais cette critique a bien des difficultés à se faire entendre. Johanna Drucker, femme chercheure et artiste des humanités numériques propose une alternative. Elle préfère les « capta » aux « data ». C’est une façon pour elle de rappeler que toute donnée est le résultat d’une opération de captage non indépendante de l’outil qui capte et de l’inventeur de la machine à capter. Ses installations en sont en quelque sorte une illustration. Cette posture me semble particulièrement éclairante transposée dans l’espace scientifique actuel.

Enfin, j’évoquerai les vidéastes, et leurs goûts pour les explorations d’écrans, qui ont très tôt travaillé avec des chercheurs en informatique. Nul besoin de rappeler combien la création de mondes virtuels ou la recréation virtuelle de mondes anciens bien réels ont mobilisé et mobilisent tout autant chercheurs en informatique et artistes.

Bien que la circulation d’idées entre les mondes de la recherche et ceux de la création se soit peu à peu imposée comme une source pour l’innovation, il nous reste des progrès à faire pour que les universités et les centres de recherche s’ouvrent plus systématiquement à ces collaborations.

B : pouvez-vous maintenant aborder la question des différences entre les SHS et les sciences de l’informatique ?

FT : pour pouvoir donner quelques éléments de réponse à l’épineuse question des différences, j’aimerais revenir sur une caractéristique partagée : ces deux grands domaines sont mal connus dans leur globalité. Ainsi, communément on oublie la dimension fondamentale des sciences de l’informatique pour ne conserver que la dimension applicative. On reproche souvent aux sciences humaines et sociales de produire des opinions destinées à conforter des postures critiques et non de produire des connaissances.

Mais, au-delà des différences évidentes de leurs sujets d’études, j’aimerais souligner l’importance des liens qui existent entre les sciences de l’informatique et les SHS. Très tôt, l’informatique s’est imposée comme une ressource indispensable aux sciences sociales notamment pour le traitement des grandes enquêtes. Et c’est au lendemain de la deuxième guerre mondiale que s’est développée ce qu’on appelle aujourd’hui la lexicométrie, pour appréhender par l’informatique, l’analyse de grands corpus de textes. L’exemple le plus connu est celui du prêtre jésuite Roberto Busa, qui a travaillé sur la Somme théologique de Thomas d’Aquin. Allant aux USA à la fin des années 40, il a rencontré Thomas J. Watson, le fondateur d’IBM qui soutiendra son projet d’encodage du texte de Thomas d’Aquin. Il faudra près de trente ans pour faire aboutir ce projet scientifique qui doit tout au travail conjoint d’un ingénieur et d’un chercheur. Les années 1980 voient l’émergence des humanités numériques. Les exemples sont ainsi nombreux qui attestent de nouvelles découvertes sur les textes (et parfois sur les images) permises par la puissance de calcul des ordinateurs (William Blake Archive, la Dante Gabriel Rosetti Archive, Hyper Nietzsche… »). A partir des années 1990, aux USA puis ailleurs, se développeront des centres d’humanités numériques, véritables creusets du renouvellement des sciences humaines.

B : est-ce que tout cela reste une interprétation humaine, ou est-ce que ça utilise des outils d’intelligence artificielle ?

FT : la richesse des humanités, à mon avis, réside à la fois dans la perception fine de l’intervention humaine et dans la puissance créatrice de l’interprétation. Une tendance plus radicale des humanités numériques existe bien qui rêve de faire sortir l’humain des humanités grâce à l’informatique et à toutes les opérations qu’elle permet de réaliser sur un texte. Ses défenseurs pensent qu’on peut échapper à l’interprétation humaine de la littérature en la transformant en graphes, cartes de connaissances et autres modèles qui seraient plus scientifiques parce que non contaminés par le caractère polysémique et contextuel du langage. Le projet idéal consisterait à cartographier totalement les échanges, numériser l’ensemble de la littérature du monde, puis, à imaginer, avec ces « données », embrasser la culture du monde. Quel est l’horizon d’une telle approche imaginée par des Daniel Dennett, David Deutsch, Jonathan Basile et bien d’autres ?  Comme l’écrivait Paul Valéry tout projet de « bibliothèque de Babel » souffre de l’incapacité à opérer une action fondamentale qui est celle de la sélection.  N’est-on pas plus rigoureusement « scientifique » quand on est capable à tout moment de concevoir les limites et le sens de l’entreprise scientifique qui opère des choix fondés sur des hypothèses et des critères formalisés ?

La grande force des chercheurs en humanités me semble résider dans la reconnaissance du caractère relatif et inépuisable de l’interprétation et dans la capacité à questionner la question. Cette qualité fait souvent défaut à la sphère de la technoscience qui se troue emportée par l’impératif de l’innovation technologique. Mais, même si l’époque est difficile pour les humanités, on peut supposer (et espérer) que les rappels à l’ordre écologique, sociaux et économiques vont remettre au goût du jour cette question radicale du sens de la recherche scientifique.

B : vous vous êtes beaucoup impliquée dans Huma-Num. Vous pouvez nous en dire quelques mots ?

FT : avant de parler d’Huma-Num proprement dit, j’aimerais prolonger les réflexions précédentes en rappelant l’importance, trop souvent méconnue, de l’alliance stratégique des sciences de l’informatique et des sciences humaines et sociales dans l’évolution de la conception des infrastructures de recherche.

Jusqu’au milieu des années 2000, les « grandes infrastructures de recherche » recouvraient des instruments de physique tel le CERN, des instruments d’observation des océans (la flotte) ou de l’espace (les très grands télescopes). On doit à la Commission européenne d’avoir mandaté, en 2004, un groupe de scientifiques composé de nombreux chercheurs de tous horizons disciplinaires dont l’informatique, la biologie et les SHS pour former un forum de réflexion sur les infrastructures de recherche (European Strategy Forum on Research Infrastructures -ESFRI-).

ESFRI a produit en 2006, la première « European roadmap for research infrastructures » dans laquelle figuraient notamment des infrastructures en SHS, toutes numériques. Alors que j’étais en fonction au ministère en charge de la recherche, j’ai œuvré, avec le sociologue Philippe Casella, à l’émergence d’un groupe de ce type au niveau national et nous avons proposé la création, en 2008, de deux grandes infrastructures numériques pour les SHS. Nous avons construit la première avec l’ambition de développer les humanités numériques en France. Il s’agit d’HUMA-NUM. La seconde a été pensée autour de la production et de la gestion partagées des données quantitatives (grandes enquêtes, bases de données). Il s’agit de PROGEDO. Si cette très grande infrastructure est moins connue que la première, à l’aune du rôle crucial des algorithmes dans la société, ses enjeux scientifiques sont majeurs.

HUMA-NUM en deux mots, c’est à la fois une plateforme technologique et un ensemble de plusieurs réseaux de chercheurs (consortiums) engagés dans les humanités numériques. Isidore, outil de collectes et de signalement des données, est un des services les plus connus. Il est complété par une gamme d’outils de stockage des données et par Nakala qui permet d’accéder aux données et de les exploser. Les consortiums se rassemblent autour de thématiques et d’objets communs comme par exemple les sources médiévales, les cartes des géographes, les archives des ethnologues… HUMA-NUM est ainsi à fois un lieu d’invention technologique et de forte activité scientifique.

B : un dernier mot ?

FT : Déjà riche, l’histoire qui lie les sciences de l’informatique et les sciences humaines et sociales me semble loin d’être totalement écrite et c’est pour moi une très bonne nouvelle.

Entretien réalisé par Claire Mathieu et Pierre Paradinas.

Démystifions Blockchain

J’ai assisté au dernier cours de la chaire de Rachid Guerraoui au Collège de France dont nous vous avons déjà parlé : A la recherche de l’universalité perdue. (On peut suivre ses cours en podcast sur le site du Collège.) Je ne sais pas si sa présentation de la techno bitcoin et blockchain est la plus correcte ou la plus pédagogique. En tous cas, c’est la moins académique, la plus intéressante que j’ai entendue. Je lui ai demandé de vous en faire profiter. Serge Abiteboul, vendeur de babouches.
Photo by rawpixel.com from Pexels

Prologue

Il y a près de dix ans, un article publié sous le nom de Nakamoto décrivait un algorithme mettant en œuvre le Bitcoin. Au-delà de l’avenir de cette cryptomonnaie, beaucoup s’accordent à prédire le remplacement d’institutions financières centralisées par des algorithmes répartis, comme celui de Nakamoto. Le but ici est de démystifier cet algorithme ainsi que le problème qu’il résout, en partant de deux choses que l’on sait de Nakamoto. Il n’est jamais allé à Marrakech et il ne connaît pas l’algorithmique répartie.

Si Nakamoto était allé à Marrakech…

Il aurait visité la Place Jamaa El Fnaa, une place classée au patrimoine immatériel de l’humanité, mais dans laquelle on fait le commerce de choses très matérielles. Nakamoto aurait peut-être été tenté d’acheter des tapis. Il serait peut-être allé à la porte d’argent, une des nombreuses boutiques de la place. Le patron, que j’appellerais Ali pour des raisons de confidentialité, y stocke une collection unique de quelques milliers de tapis venus de villages de l’Atlas. Ali en vend aux touristes. Mais il paye aussi ses employés avec ses tapis. A leur tour, les employés payent aussi avec, d’autres commerçants.

Contrairement aux touristes, ces commerçants laissent leurs tapis dans la caverne d’Ali. Ce dernier note sur son cahier toutes les transactions effectuées. Quand Serge le vendeur de babouches « donne » un tapis à Lahcen le vendeur d’olives, cela est noté par Ali dans son cahier. Si Lahcen donne ensuite son tapis à Lhoucein, vendeur d’épices, cela est noté plus bas dans le cahier.   Nakamoto aurait aimé cette monnaie indépendante. Mais il aurait moins aimé qu’elle soit contrôlée par une seule personne : Ali.

Nakamoto aurait proposé aux commerçants son algorithme décentralisé. Il est facile de se passer de Ali, s’il ne s’agit que d’assurer que personne ne donne un tapis qu’il n’a jamais possédé. En effet, les nouvelles vont très vite sur la place et si quelqu’un donne un tapis à Serge, les commerçants l’apprennent vite. Tout se passe comme si tout le monde possédait une copie du cahier des transactions. Lahcen n’acceptera jamais de Serge un tapis que ce dernier n’a jamais possédé ou ne possède plus.

Mais comment éviter la double dépense ?  

Comment éviter que Serge ne triche en donnant son tapis à la fois à Lahcen et à Lhoucein ? Ce problème est trivialement résolu si les transactions passent par Ali. Mais comment faire sans passer par une entité centrale ? C’est précisément le problème posé dans l’article de Nakamoto. Ce dernier, expert en algorithmique classique, sait que le monde des problèmes informatiques centralisés est divisé en deux classes : la classe P des problèmes qui peuvent être résolus par des algorithmes polynomiaux (rapides) et la classe NP des problèmes dont on peut vérifier les solutions rapidement, mais qui semblent n’être solubles que par des algorithmes exponentiels (lents). Très intuitivement, l’idée de l’article de Nakamoto est d’utiliser un problème de la classe NP pour élire des coordinateurs qui jouent temporairement le rôle d’ Ali en ordonnançant des transactions.

Voici comment s’exécuterait l’algorithme de Nakamoto à Marrakech.

La transaction consistant pour Serge à donner son tapis à Lahcen est diffusée sur la place. Elle n’est validée que lorsqu’un coordinateur décide de son classement dans le cahier des transactions. N’importe qui peut prétendre à ce rôle de coordinateur : celui qui est élu pour coordonner gagne un tapis. L’idée de Nakamoto, inspirée de [2], est de demander aux prétendants au rôle de coordinateur de résoudre une sorte d’immense Sudoku, fabriqué avec des nombres générés de la transaction de Serge à Lahcen, mais avec énormément de cases vides. Le Sudoku ne peut être résolu qu’en le remplissant au hasard et la probabilité que deux candidats y arrivent en même temps est proche de zéro. Si un candidat résout le Sudoku, il diffuse sa solution avec la transaction. Lahcen vérifie que la solution est juste et accepte la transaction de Serge.

Mais l’algorithme est cher, et peu démocratique. La surenchère des moyens informatiques utilisés pour avoir une plus grande chance d’être coordinateur de transactions Bitcoin conduit aujourd’hui à une consommation d’énergie équivalente à celle d’un pays industrialisé. De plus, la latence est grande car, même si la probabilité d’élire deux coordinateurs au même moment est faible, elle est non nulle. Pour éviter une double dépense, il est nécessaire d’attendre qu’une transaction soit largement diffusée (Serge → Lahcen) pour s’assurer qu’aucune transaction conflictuelle (Serge → Lhoucein) n’ait été validée par un coordinateur concurrent. Par ailleurs, l’algorithme de Nakamoto remplace un coordinateur perpétuel par des coordinateurs temporaires.  Même si la motivation de Nakamoto était de s’affranchir d’un contrôle centralisé, son algorithme n’empêche pas vraiment cela. Une institution qui réunirait une grosse puissance de calcul contrôlerait la monnaie. C’est d’ailleurs un peu le cas aujourd’hui car les coordinateurs viennent d’un tout petit sous-ensemble de régions du monde.

Des centaines d’alternatives à l’algorithme de Bitcoin ont été proposées.

Aucune n’a réussi à combiner à la fois de bonnes performances avec un haut niveau de fiabilité, même quand elles supposent un système fermé ou le nombre total de participants est connu. Cela n’est pas surprenant. Toutes ces alternatives essayent de reproduire l’idée de Nakamoto : remplacer un coordinateur perpétuel par des coordinateurs temporaires afin d’assurer que toutes les copies du cahier des transactions obéissent au même ordre total. Il s’agît de résoudre le problème de consensus. Or, on se heurte ici à un résultat fondamental d’algorithmique répartie : ce problème est impossible de manière déterministe si le temps de communication n’est pas borné (asynchronisme) et l’un des participants peut être incorrect [3]. Toutes les alternatives qui tentent d’assurer que les copies du cahier des transactions sont exactement les mêmes contournent l’impossibilité du consensus en adoptant des solutions probabilistes et/ou synchrones, c’est à dire coûteuses et lentes. Certes le consensus est suffisant pour éviter la double dépense, mais est-il nécessaire ? La réponse est non.

Si Nakamoto avait connu l’algorithmique répartie…

Il saurait que les problèmes informatiques impliquant plusieurs machines se divisent aussi en deux catégories. Il y a d’un côté les problèmes difficiles, qui sont similaires au consensus dans le sens où ils ne peuvent être résolus dans un contexte asynchrone, et ceux considérés faciles, qui sont solvables dans un contexte asynchrone. Nakamoto se serait demandé si le problème de la double dépense est un problème difficile ? Il aurait réalisé que la réponse est non.

La démonstration, elle, n’est pas facile [4]. Mais pour en donner l’idée, revenons à l’exemple illustrant le problème de la double dépense. Supposons que Serge veuille tricher et donner le même tapis à Lahcen et à Lhoucein.  Imaginons pour simplifier la discussion ici que le système est fermé et composé de 1000 participants dont au maximum 100 pourraient ne pas se comporter de manière correcte. Les corrects, eux, n’acceptent jamais deux transactions conflictuelles. Si Lahcen apprend qu’un quorum formé de 501 participants accepte la transaction stipulant que le tapis de Serge lui est destiné, il sait qu’il peut l’accepter. Il sera impossible à Serge de convaincre un autre quorum que le tapis va à Lhoucein. Si le système est ouvert, on peut mettre en œuvre une idée similaire aux quorums grâce à un mécanisme d’échantillonnage uniforme.

Épilogue

L’algorithme de Nakamoto résout le consensus :  un problème difficile et universel. Quand on le résout, on peut résoudre tous les problèmes répartis. Il n’est pas surprenant que l’algorithme de Nakamoto soit inefficace. Mais le problème de la double dépense, suffisant pour la mise en œuvre d’une cryptomonnaie, est beaucoup plus facile que le consensus et ses solutions peuvent être bien moins inefficaces.

Rachid Guerraoui, Professeur au Collège de France et à l’EPFL.

Références

[1] S. Nakamoto. Bitcoin: a peer-to-peer electronic cash system. 2008.

[2] C. Dwork et M. Naor. Pricing vis processing or combatting junk mail. Annual Cryptology Conference. 1992.

[3] M. Fisher, N, Lynch and M. Paterson. Impossibility of Consensus with one faulty process. Journal of the ACM 1985.

[4] R. Guerraoui, P. Kouznetsov, M. Monti, M. Pavlovic et A. Seredinshi. AT2: Asynchronous Trustworthy Transfers. Arxiv 2018.

 

 

 

 

Ce dont on ne peut parler, il faut l’écrire

En français, nous pouvons établir une distinction entre un langage humain (une langue) et un langage formel (un langage) comme un langage de programmation en informatique ou celui d’une partition musicale. Avec cet essai Gilles Dowek prend le temps de nous aider à comprendre les différences et les liens profonds entre langues et langages.

Le langage, les langages, ont une place centrale dans nos manières de penser et de communiquer. Ce sont les véhicules de la pensée. Le « codage est un langage » disait Jean-Michel Blanquer, Ministre français de l’Education nationale. C’est donc bien un enjeu majeur que de comprendre les différences et les liens entre la pensée informatique et les autres formes de création intellectuelle, du point de vue de leur formulation linguistique.

Gilles Dowek nous propose un essai fondateur sur les langages, ces différentes façons d’appréhender le monde. Son ouvrage est à destination des littéraires et des scientifiques. Nous nous exprimons à l’aide de langues, diverses et variées ?  Certes, mais nous utilisons également des langages pour prescrire des lunettes, acheter des billets de train, prendre des rendez-vous, demander des renseignements… Qu’on ne s’y trompe cependant pas, la question dépasse la seule pensée informatique : la biologie ou la physique ont elles aussi recours à des langages pour exprimer les lois de la nature. Omniprésents, les langages sont également parmi nous depuis des millénaires : l’écriture ne leurs devrait-elle pas son existence ? Ils sont appelés à décupler nos facultés d’expression.

Son essai aussi une superbe introduction pour tous à quelques grandes idées de science informatique. La compréhension des différences profondes d’un langage entre niveaux syntaxique et sémantique est cruciale pour enseigner convenablement l’informatique tout comme des langues humaines, et pour saisir dans quelle mesure l’initiation à la pensée informatique peut offrir une seconde chance à ceux qui sont en difficulté avec les autres humanités.

Ce sont tous ces éléments passionnants de culture scientifique, littéraire, entre autres, que Gilles Dowek partage dans son essai. Cela le conduit à un questionnement ambitieux de notre manière d’envisager le monde, bouleversé par la pensée informatique.

Ces sujets sont vraiment importants, il faut pouvoir en parler, et pour pouvoir en parler il faut le lire.

Thierry Viéville.

Dowek, G. (2019). Ce dont on ne peut parler il faut l’écrire, Langues et langages Le Pommier (eds), Collection essais.

 

Le mythe du Syndrome de la Reine des abeilles

A l’occasion de la Journée Internationale des Droits des Femmes, Anne-Marie Kermarrec a choisi de parler de la théorie du Syndrome de la Queen Bee, le Syndrome de la Reine des abeilles. Elle la dézingue pour Binaire. Serge Abiteboul

Combien de fois dans ma carrière, académique ou entrepreneuriale du reste, à la faveur de jurys, de comités de sélection, de comités de recrutement, voire même dans la sphère personnelle, n’ai je entendu cette litanie dès qu’on aborde la parité « Le pire c’est que les femmes sont encore plus dures avec les autres femmes que les hommes eux-mêmes ». Un peu comme on entend parfois que les femmes sont bien pires avec leurs belles-filles qu’avec leurs gendres, ou plus sévères que les hommes avec leurs brus, voire finissent toujours par bitcher un peu sur leurs copines. En fait les femmes sont-elles vraiment les pestes de service quand leurs alter-égos sont irréprochables sur le sujet ?

Dans le milieu professionnel, ce phénomène est encore plus marqué lorsque les femmes sont largement minoritaires, comme c’est le cas par exemple dans le numérique. Et chacun y va de son explication : qui d’expliquer que les femmes sont jalouses, qu’elles voient dans leurs congénères des rivales, qu’elles veulent conserver leur suprématie et j’en passe. Alors, mythe ou réalité ?

Mon objectif n’est évidemment pas de défendre les femmes mais d’essayer de faire l’inventaire de ce que l’on raconte à ce sujet, des explications plus ou moins rationnelles dont ces théories sont assorties pour essayer de comprendre où nous en sommes aujourd’hui. Il est intéressant de constater du reste que les anglo-saxons, ont même un nom pour ce phénomène : le syndrome Queen Bee, reine des abeilles en français, en référence au fait que cette reine n’accepte pas de partager son pouvoir dans la ruche. Intéressant du reste de voir que même le syndrome est genré, on avait pourtant le choix quand on sait que les mâles se dispute la place unique de chef de clan chez les loups ou les lions. Mais manifestement nul besoin de nommer explicitement un comportement hostile d’un homme envers un autre homme, c’est si naturel.

Si ce syndrome est donc bel et bien défini par nos amis d’outre-Atlantique comme celui qui pour une femme qui a percé dans son milieu professionnel, généralement numériquement dominé par les hommes, consiste à dénigrer voire brimer les autres femmes plutôt que de leur offrir son support inconditionnel, il s’applique du reste tout aussi bien à d’autres minorités, raciales, sexuelles ou sociales mais on en parle moins. Margareth Thatcher est souvent citée comme figure de proue de ce syndrome.

Donc nous en sommes là, alors même que des études soulignent que les hommes font preuve d’autant, voire plus, d’agressivité que les femmes, le stéréotype est ancré, colporté, discuté : nous avons quelque chose dans nos gènes qui nous rend hostiles aux autres femmes. Je vous livre donc un florilège d’explications potentielles que j’ai pu découvrir en discutant autour de moi et en observant les multiples réactions à des candidatures féminines.

Théorie numéro 1 : le complexe d’infériorité

Certains pensent que ce syndrome relève du simple complexe d’infériorité, c’est du reste cette explication qui s’adapte le mieux aussi aux autres minorités (raciales, sexuelles, etc.). L’explication viendrait du fait que les femmes sont dominées depuis la nuit des temps : certaines théories, en particulier défendues par Françoise Héritier [1] tendent à montrer que c’est en effet dès le néolithique que les hommes ont cherché à dominer les femmes en particulier en limitant leur accès à des nourritures très protéinés. La théorie est que les hommes, effrayés du pouvoir des femmes à enfanter, ont cherché à les diminuer de cette manière et qu’ainsi le dimorphisme physique ait été favorisé par des comportements sociaux de la préhistoire qui, s’ils étaient inconscients, étaient organisés. Notez que cette théorie est contestée [2] et je ne suis pas anthropologue mais je la trouve osée en tous cas.

Mais revenons à nos moutons, ainsi une femme, qui convaincue depuis son plus jeune âge, par la société qu’elle est « inférieure » en tous cas sur certains points à l’homme, applique ce complexe à toute représentante de son sexe et verra peut-être dans une candidature féminine, une infériorité dont elle souffre certes, mais dont elle a aussi largement accusé réception inconsciemment et qu’elle transmet inéluctablement.

Théorie numéro 2 : la peur d’être remplacée

Cette théorie est de loin la plus répandue et pourtant de mon point de vue la moins crédible. Elle consiste à expliquer que les femmes ont un comportement hostile vis à vis des autres femmes car elles ont une peur inconsciente d’être remplacées, en particulier dans certains milieux où en claire infériorité numérique, elles jouissent d’une situation particulière.

En prenant le risque de me faire traiter de féministe agressive, qui déteste les hommes (comme si ça allait avec), ce sont du reste surtout des hommes qui généralement soutiennent cette théorie.

C’est faire affront à notre bon sens que de penser ceci, il est bien évident pour toutes celles qui se trouvent dans des milieux très déséquilibrés en matière de parité, que nous aspirons à une plus grande diversité et que non seulement nous œuvrons pour la plupart à inciter plus de jeunes filles à embrasser des domaines éminemment masculins. Comme ce déséquilibre est un facteur aggravant pour l’engagement des jeunes filles dans ces disciplines, nous cherchons donc, pour la plupart, à défendre les femmes plus qu’à les dissuader.

Théorie numéro 3 : l’envie de voir les autres en baver autant

Cette théorie relève du fait que les femmes dans des milieux masculins en ont bavé pour arriver où elles en sont, en particulier en adoptant des modes de vie, de pensée, d’interaction, masculins, s’il en est. Ces femmes en particulier ont souvent mis leur bébé à la crèche à trois mois, n’ont pas nécessairement pris de congé parental, prennent des baby-sitters après l’école, adoptent un style d’interaction compatible avec leurs alter-égos etc. Quand bien même, elles affirment l’avoir fait délibérément et naturellement, elles ont parfois souffert de se voir malmener par la société ou leur entourage qui a pu tendre à les culpabiliser ou leur renvoyer une image de femme pour qui la carrière passe avant le reste, reproche assez peu formulé à l’égard des hommes.

Est-il possible que ces femmes attendent alors de leurs congénères d’en passer par là ? C’est une théorie qui a pu avoir un sens pour d’autres générations, à des époques où effectivement réussir pour une femme passait par un abandon quasi total de vie de famille, sociale, etc. En conséquence ces femmes en attendaient autant des autres femmes, voire leur rendaient la vie plus difficile pour les endurcir et mieux les préparer. Ce n’est plus le cas aujourd’hui à mon humble avis, surtout dans des domaines aussi jeune que celui du numérique et les femmes ne cherchent plus nécessairement à endurcir les plus jeunes mais plutôt à les guider.

Théorie numéro 4 : une simple réaction au machisme

Cette théorie est de loin la plus politiquement incorrecte. Elle consiste à expliquer un comportement hostile des femmes vis à vis des autres femmes en réaction au machisme ambiant. Prenons l’exemple, d’une femme qui bénéficie d’un jugement positif par des hommes dans un cadre scientifique en raison de critères qui sont tout sauf scientifiques. Clairement un jugement, favorable certes, mais sexiste de la part des hommes. En contrepoids, les femmes, potentiellement très agacées par la prise en compte de ces critères qui d’une part ne devraient pas intervenir, d’autre part sont clairement déplacés, peuvent réagir en recentrant le débat et en forçant le trait sur les critères éligibles. C’est souvent dans ce type de situation que les hommes en arrivent à la conclusion que les femmes sont décidément très jalouses entre elles et se retrouvent ainsi affublées de ce syndrome de Queen Bee.

Théorie numéro 5 : le double standard

Probablement la théorie la plus crédible. Est ce que tout ca ne vient pas tout simplement du fait que les réactions des femmes envers les femmes sont extrêmement stigmatisées ?

Comme je le voyais très récemment (juillet 2018) dans une vidéo de Girl gone international, quand un homme s’exprime de manière assurée, il est sûr de lui et c’est une qualité, une femme est plutôt perçue comme arrogante, quand un homme est incisif, une femme est plutôt agressive. L’équivalent d’un homme stratège est une femme manipulatrice, d’un bon manager est une femme qui cherche à contrôler. On est attendri par un homme féministe et agacé par ces femmes féministes, que l’on imagine constamment en colère contre le monde entier.

C’est ce qu’on appelle le double standard : si des hommes critiquent d’autres hommes, c’est du bon sens, s’ils se disputent, c’est normal voire sain. Du reste on attend des hommes qu’ils ne soient pas d’accord, qu’ils argumentent, qu’ils affirment leurs idées. Une femme qui se manifeste est en colère (ou pire, a ses règles), si elle critique une autre femme, elle devient rapidement une harpie, jalouse de la concurrence. Et cette perception est malheureusement perpétuée par les hommes et les femmes elles-mêmes parfois.

Pour conclure, nombreux (plus que nombreuses) s’accordent à dire que les femmes sont des chipies entre elles, et les théories fleurissent sur les explications au syndrome Queen Bee. Pourtant, il s’agit bien souvent de réactions normales simplement mal interprétées car les femmes ne encore pas soumises aux mêmes attentes et plutôt victimes de ce double standard. Et malheureusement ce double standard ne se cantonne pas aux comités de recrutement, mais touchent la sphère sociale, familiale, sexuelle etc. mais ça c’est une autre histoire !

Il semblerait que si le mythe persiste, ce syndrome soit bel et bien révolu comme le montre une étude brésilienne effectuée sur plus de huit millions de travailleurs de plus de 5000 organisations [5] et aujourd’hui les preuves [6] ne manquent pas pour montrer que les femmes luttent quotidiennement contre les stéréotypes de genre, que plus il y a de femmes dans un milieu professionnel, moins il y a de harcèlement et plus les écarts de salaires sont faibles. En outre, une femme recevra une meilleure écoute de son manager si c’est une femme que si c’est un homme concernant l’organisation familiale par exemple, une entrepreneuse aura plus de chances de lever des fonds si des femmes se trouvent parmi les investisseurs. S’il a jamais existé dans des générations précédentes, ce n’est plus une réalité aujourd’hui. Qu’on se le dise !

Anne-Marie Kermarrec, PDG de Mediego et Directrice de Recherche Inria

Références

[1] https://abonnes.lemonde.fr/societe/article/2017/11/05/francoise-heritier-j-ai-toujours-dit-a-mes-etudiantes-osez-foncez_5210397_3224.html

[2] http://www.slate.fr/story/155300/patriarcat-steak-existe-pas

[3] https://www.huffingtonpost.com/2014/03/07/things-women-judged-for-double-standard_n_4911878.html

[4] https://uanews.arizona.edu/story/incivility-work-queen-bee-syndrome-getting-worse

[5] https://phys.org/news/2018-04-queen-bee-phenomenon-myth.html

[6] http://www.dailymail.co.uk/health/article-5612183/Queen-Bee-syndrome-isnt-real.html

 

 

Science numérique et technologie pour tou·te·s ! Oui mais comment ?

Faire de la pub pour un Mooc à destination des profs de Sciences Numériques et Technologie dans un magazine grand public comme Binaire. Ils sont devenus fous chez Binaire ? Non ! D’abord, nous voulons vous sensibiliser à un problème qui nous obsède : quand on décide d’enseigner l’informatique massivement dans l’éducation nationale, comment fait-on pour former les enseignants déjà en poste ? Les MOOC peuvent aider. Ensuite, nous pensons que certains lecteurs de Binaire seront intéressés par ce MOOC sans pour autant avoir à enseigner. Tout le monde peut découvrir l’informatique, femme ou homme, jeune ou vieux. Si vous vous sentez frustré.e.s par votre méconnaissance de cette nouvelle science, nous vous invitons à suivre ce MOOC. Serge Abiteboul, Thierry Viéville.

Dans le cadre de la réforme du lycée, l’enseignement des fondements de l’informatique prend une place importante. Ainsi dès la classe de Seconde générale et technologique, un nouvel enseignement, Sciences Numériques et Technologie (SNT), est proposé à toutes et à tous.

Comment aider les enseignants de SNT ? Quels savoirs partager avec eux ? Quelles ressources sélectionner ? Quelles compétences leur transmettre pour qu’ils puissent assurer ce nouvel enseignement ?

Une réponse à ces questions : un MOOC [1] pensé comme un outil de formation un peu particulier, un espace de partage et d’entraide, où chacune et chacun construira son parcours selon ses besoins et ses connaissances, un cours en ligne qui va évoluer avec le temps ; on commence quand on veut (dès le 15 mars 2019) et on y revient aussi souvent qu’on en a besoin.

Ce cours a pour ambition de fournir des prérequis et des premières ressources pour démarrer des activités en SNT avec les lycéens en lien avec les 7 thématiques du programme. Des gros plans sur quelques sujets qui peuvent faire l’objet d’approfondissement et des activités clés en main seront proposés. Ce MOOC vient aider et complémenter les formations nécessaires à cet enseignement que propose l’éducation nationale.

Pour accéder à plus d’informations sur le programme du cours et vous inscrire dès maintenant rendez-vous sur la plateforme FUN.

Début du cours le 15 mars 2019.

Ce cours est proposé par Inria en collaboration avec de nombreux contributeurs, avec le soutien du Ministère de l’Éducation Nationale et de la Jeunesse et en partenariat avec Class’ Code.

On vous attend nombreux !

A bientôt.

L’équipe du MOOC SNT

Ce billet a été publié sur pixees.fr, merci de leur partage.

(*) MOOC, Massive Open Online Courses, se traduit en bon français en FLOT pour Formation en Ligne Ouverte à Tous.

[1] créés en 2011, les MOOC offrent un ensemble de ressources pédagogiques de natures très différentes (vidéos, transparents, sous-titres, audios…) qui sont gratuitement mises à disposition  des participants via le web. Il suffit donc de s’inscrire sur une plate-forme (FUN, OpenClassrom, Cursera, EdX…), puis de suivre les contenus à son propre rythme. Par ailleurs, et ce n’est pas le moins important, les MOOC sont accompagnés d’un ensemble de forums où les participants et les enseignants peuvent échanger, se poser des questions, apporter des éclairages complémentaires.