Les algos : ni loyaux, ni éthiques !

Nous prenons de plus en plus conscience de l’importance que les algorithmes ont pris dans nos vies, et du fait qu’il ne faut pas accepter qu’ils soient utilisés pour faire n’importe quoi. Nous entendons de plus en plus parler de régulation, de responsabilité, d’éthique des algorithmes. François Pellegrini, professeur au LaBRI à Bordeaux, nous a fait part de critique d’éléments de langage,  de son point de vue. Nous avons pensé que cela devrait intéresser nos lecteurs. Serge Abiteboul, Pierre Paradinas.

Crédit : Marion Bachelet – Inria

De plus en plus, dans le débat public, apparaissent les termes de « loyauté des algorithmes » ou d’« éthique des algorithmes ». Ces éléments de langage sont à la fois faux et dangereux.

Ils sont faux parce que les algorithmes n’ont ni éthique ni loyauté : ce sont des constructions mathématiques purement abstraites, conçues pour répondre à un problème scientifique ou technique. Ils appartiennent au fonds commun des idées, et sont de libre parcours une fois divulgués.

Ils sont dangereux, parce qu’ils amènent à confondre les notions d’algorithme (l’abstrait), de programme (ce que l’on veut faire faire à un ordinateur) et de traitement (ce qui s’exécute effectivement et peut être soumis à des aléas et erreurs transitoires issues de l’environnement).

Toute activité de recherche s’inscrivant dans un contexte socio-culturel, les questions éthiques ne sont bien évidemment pas absentes des étapes de conception. Les scientifiques qui, en 1942, travaillaient à l’optimisation de la fission nucléaire incontrôlée, savaient bien qu’ils participaient à la création d’une arme. Pour autant, si la décision de participer à un projet scientifique relève de choix moraux individuels, la question de l’usage effectif des technologies doit être traitée au niveau collectif, à la suite d’un débat public, par la mise en place de législations adaptées.

Ces éléments de langage focalisent donc improprement le débat sur la phase de conception algorithmique, alors que l’enjeu principal concerne les conditions de mise en œuvre effective des traitements de données, majoritairement de données personnelles. Ce sont les responsables de ces traitements qui, en fonction de leur mise en œuvre logicielle et de leurs relations économiques avec des tiers, choisissent de rendre un service déloyal ou inéquitable à leurs usagers (comme par exemple de calculer un itinéraire passant devant le plus de panneaux publicitaires possible).

Cela est encore plus évident dans le cas des algorithmes auto-apprenants. La connaissance de l’algorithme importe moins que la nature du jeu de données qui a servi à l’entraîner dans le contexte d’un traitement spécifique. C’est du choix de ce jeu de données que découlera l’existence potentielle de biais qui, en pénalisant silencieusement certaines catégories de personnes, détruiront l’équité supposée du traitement.

L’enjeu réel de ces débats est donc la régulation des rapports entre les usagers et les responsables de traitements. Un traitement ne peut être loyal que si son responsable informe explicitement les usagers, dans les Conditions générales d’utilisation de ses services, de la finalité du traitement, de sa nature et des tiers concernés par les données collectées et/ou injectées. Cette « transparence des traitements » (et non « des algorithmes ») a déjà été instaurée par la loi « République numérique » pour les traitements mis en œuvre par la puissance publique ; il est naturel qu’elle soit étendue au secteur privé. La description fonctionnelle abstraite des traitements n’est pas de nature à porter atteinte au secret industriel et rassurera les usagers sur la loyauté des traitements et l’éthique de leurs responsables.

« Mal nommer les choses, c’est ajouter au malheur de ce monde », disait Camus. N’y participons pas. Laissons les algorithmes à leur univers abstrait, et attachons-nous plutôt aux humains et à leurs passions.

François Pellegrini

Pour aller plus loin, la Société informatique de France et la CERNA organisent le 19 juin 2017 une journée commune intitulée « Une éthique des algorithmes : une exigence morale et un avantage concurrentiel ».  Cette journée entre dans le cadre de la consultation nationale coordonnée par la CNIL Ethique et numérique : les algorithmes en débat.

Géométrie algorithmique

Jean-Daniel Boissonnat est directeur de recherche à Inria Sophia Antipolis – Méditerranée. Il est le responsable du projet Gudhi (Geometric Understanding in Higher Dimensions) de l’European Research Council. Il est le tout nouveau titulaire de la Chaire « Informatique et sciences numériques » du Collège de France où il présente un cours intitulé « Géométrie algorithmique : données, modèles, programmes » (leçon inaugurale le 23 mars 2017). Pénétrons avec lui dans le monde des données géométriques qui prennent une place si considérable dans notre vie quotidienne, avec les films d’animation et les jeux vidéo et, comme l’explique Jean-Daniel dans sa leçon, dans les sciences modernes. Serge Abiteboul, Thierry Vieville. Cet article est publié en collaboration avec The Conversation.

Du traitement des données géométriques au traitement géométrique des données

Jean-Daniel Boissonnat, Collège de France

L’histoire de la géométrie algorithmique commence dans les années 1970 avec la conception assistée par ordinateur (CAO). Il s’agit de créer un outil informatique simple qui permette aux dessinateurs de modéliser des surfaces en trois dimensions comme des carrosseries de voitures et qui facilite la programmation des machines à commande numérique. Créer un modèle virtuel de formes 3D est une idée nouvelle qui permet de s’affranchir des maquettes physiques lourdes et encombrantes, et des représentations 2D (plans, dessins industriels, coupes, projections). Ces nouveaux modèles tridimensionnels simplifient radicalement traitement, reproduction et transmission des objets 3D. Ils ouvrent de nouveaux champs d’application aux créateurs de formes tridimensionnelles, ingénieurs, médecins, architectes et artistes.

L’invention de capteurs permettant de numériser des objets 3D va constituer une deuxième étape décisive dans le développement de la modélisation 3D. En donnant accès à la troisième dimension, la numérisation 3D a modifié le regard que nous portons sur le monde. Les images du corps humain en sont un exemple et de nombreux moyens de mesure 3D permettent aujourd’hui de mesurer des formes de l’échelle atomique à l’échelle astronomique. Le monde numérique n’est maintenant plus limité au texte, au son et aux images, et les représentations numériques de formes tridimensionnelles jouent un rôle essentiel dans de très nombreux domaines comme l’ingénierie, la cartographie, le cinéma et les jeux vidéos, l’architecture, la préservation du patrimoine culturel, l’exploration pétrolière, la médecine, la conception de médicaments.

Une des représentations des possibles de formes se fait à partir de polyèdres. C’est une longue histoire de l’antiquité à nos jours

Comment représenter les objets 3D que nous pouvons maintenant numériser ? Comment construire des modèles informatiques des formes complexes de la nature ou des statues de Michel Ange ? Comment utiliser ces modèles dans les nombreuses applications qui demandent de manipuler des formes 3D ? Notre cerveau est prodigieusement doué pour cartographier notre environnement et en construire des représentations internes qui vont lui permettre de planifier des actions. Peut-on imaginer construire in silico des représentations qui intègrent les mesures géométriques et permettent d’effectuer des calculs efficacement ? Les formes sont très variées, les données massives : plusieurs centaines de milliers, voire des millions de points peuvent être nécessaires pour représenter précisément un objet complexe. Les questions de complexité des représentations et des algorithmes sont donc critiques. La géométrie algorithmique va fournir quelques clés essentielles à travers l’étude de structures de données géométriques comme les diagrammes de Voronoï et les triangulations de Delaunay qui ont une portée universelle et permettent de modéliser des formes très variées dans tous les domaines scientifiques.

CGAL (Computational Geometry Algorithms Library) est une bibliothèque logicielle de calcul géométrique écrite en C++.

La difficulté de traduire les algorithmes théoriques en programmes efficaces et robustes a conduit à l’invention de nouveaux paradigmes algorithmiques et à la création de la bibliothèque logicielle CGAL (Computational Geometry Algorithms Library), dont j’ai été un des initiateurs. Un de ces paradigmes consiste à utiliser des algorithmes dits randomisés, qui effectuent des choix aléatoires au cours de leur déroulement et sont souvent simples et efficaces, ce qui en fait souvent les algorithmes de choix en géométrie. Les algorithmes de triangulation de CGAL sont, par exemple, des algorithmes randomisés. Le développement de CGAL a été une longue aventure scientifique et humaine qui a engagé six universités en Europe et en Israël pendant 20 ans et se poursuit encore aujourd’hui. CGAL est un logiciel de grande envergure qui comporte plusieurs millions de lignes de code, diffusé dans le monde académique et intégré à de nombreux logiciels industriels dans des domaines d’application variés : géomodélisation, systèmes d’information géographiques, conception assistée par ordinateur, traitement d’images, calcul scientifique.

Au delà de la définition de structures de données géométriques et de la conception d’algorithmes efficaces pour les construire se pose la question du passage du continu au discret. Cette question a été étudiée depuis les années 1950 en traitement du signal et des images. En comparaison, l’étude du lien continu-discret en géométrie (voir encadré) est beaucoup plus récente et ce n’est que dans les années 2000 qu’a émergé une théorie de l’échantillonnage géométrique. Une question centrale est celle de la reconstruction des formes à partir de mesures et plus généralement de l’inférence géométrique : sous quelles conditions un échantillon fini de points pris sur une forme permet-il de construire une bonne approximation de cette forme, d’en estimer des propriétés ?

Pour échantillonner un objet 3D on l’approxime souvent par un ensemble de points et d’arrêtes qui forment des tétraèdres : on le triangule.

Une question liée est celle du maillage de surfaces ou de volumes tridimensionnels. Pour visualiser des formes complexes ou simuler des phénomènes physiques, il est nécessaire de décomposer les phénomènes étudiés en éléments simples. Ces éléments doivent vérifier des propriétés de taille et de régularité souvent difficiles à respecter. Au delà du cas des surfaces et des domaines tridimensionnels, il est également nécessaire de savoir représenter des formes de plus grandes dimensions comme les espaces de configurations de robots ou de molécules. On doit alors faire face au fléau de la dimension et à l’explosion du coût des calculs. C’est un sujet qui soulève des questions de nature mathématique, algorithmique et informatique qui font l’objet de recherches actuelles en g��ométrie algorithmique. Si les données géométriques ont révolutionné notre perception et notre interaction avec le monde tridimensionnel, d’une manière plus générale, les données, en général, ont pris une place essentielle dans la science moderne et, au delà, dans la société toute entière. De façon peut-être un peu inattendue, la géométrie algorithmique a des modèles et des programmes à proposer pour explorer le monde vertigineux des données, y compris non géométriques.

Une donnée est un ensemble de valeurs associées à certains paramètres comme la pression ou la température. On peut donc considérer une donnée comme un point dans un espace de paramètres qu’on appellera l’espace des observations. Si on sait définir une notion de proximité entre les données, on peut aborder l’analyse des données d’un point de vue géométrique. Les données sont en général corrélées et ne sont pas uniformément distribuées dans l’espace des observations. Une image n’est pas une matrice aléatoire. La recherche de structures géométriques peut fournir des modèles pour décrire les données et les analyser et, au delà, comprendre le système qui les a produites. Il s’agit d’un problème qui ressemble au problème de reconstruction mais la démarche n’est pas la même : il ne s’agit pas de reconstruire un objet dont l’existence est avérée, comme un organe ou une pièce mécanique, mais d’inférer une structure plausible à partir de données, en général bruitées. C’est moins la précision de l’approximation qui nous intéressera que la recherche de nouvelles formes de symétrie et d’informations qualitatives robustes. Des approximations de nature topologique peuvent alors être utiles. L’analyse topologique des données et, en particulier, l’homologie persistante apportent de nouveaux outils pour comprendre l’organisation spatiale des nuages de points. De nouvelles connections avec d’autres branches des mathématiques, notamment avec les statistiques, sont très prometteuses et les nouveaux concepts et algorithmes de l’analyse topologique des données commencent à être utilisés dans des domaines variés comme l’analyse de matériaux poreux, la modélisation des structures à grandes échelles de l’univers, la biologie structurale, les neurosciences ou l’analyse musicale.

Mon cours abordera les questions évoquées ci-dessus. Les séminaires apporteront des éclairages complémentaires. Ils seront donnés par de brillants jeunes chercheurs qui témoigneront de la dynamique de la communauté française de géométrie algorithmique. Les deux colloques donneront l’occasion d’écouter de grands noms du domaine et aussi de présenter les recherches que nous menons dans le cadre du projet Gudhi (Geometry Understanding in Higher Dimensions).

Jean-Daniel Boissonnat, Inria, Collège de France

Passage continu-discret. Comment passer de formes géométriques continues à des modèles discrets ? Cette question du passage du continu au discret occupe une place centrale en traitement du signal et des images, après les travaux fondateurs de Claude Shannon dans les années 1950. En comparaison, l’étude du lien continu-discret en géométrie est beaucoup plus récente. Les données géométriques étant par nature des ensembles plutôt que des fonctions, les méthodes de l’analyse numérique se révèlent dans une large mesure inadaptées, et les applications géométriques requièrent de nouvelles méthodes. Quels espaces peut-on reconstruire ? Sous quelles conditions d’échantillonnage ? Avec quelles garanties sur la qualité de l’approximation ?

Le programme du cours du Collège de France est en ligne. Le cours sera suivi de deux colloques au Collège de France :

  • 6 juin Computational Geometry and Topology in the Sciences
  • 8 juin : Geometry Understanding in Higher Dimensions

Une exposition pour aider à piger pourquoi on clique !

Laurence Moreau, designer scénographe

Il y a 3 ans et demi, le centre de recherche Inria Nancy – Grand Est et la MJC centre social Nomade s’engageaient dans une volonté commune de concevoir une exposition itinérante (ExpoMobile) autour des sciences du numérique.

Que de chemin parcouru depuis ! L’exposition « De l’homo numericus au citoyen numérique », petite dernière des 5 ExpoMOBILE du programme CERCo, a été  inaugurée le 25 janvier 2017. Depuis, l’exposition a pris ses quartiers pendant le mois de mars au centre Inria Nancy – Grand Est, pour y accueillir de nombreux groupes. Une nouvelle vie démarrera ensuite puisqu’elle irriguera le territoire lorrain, avant de partir à la conquête de l’hexagone dès septembre 2017 !

Maîtriser le numérique pour ne pas le subir

Nous manipulons tous (ou presque !) les objets numériques qui entourent notre quotidien. Mais paradoxalement, alors que le numérique impacte tous les pans de notre société (santé, environnement, éducation…), les rudiments de la culture numérique n’ont pas encore été intégrés dans notre parcours scolaire.

Et lorsqu’on parle d’informatique, on pense souvent à son ordinateur, aux réseaux sociaux ou bien encore aux jeux vidéos, mais rarement à la science qui se cache derrière tous ces objets… De même que l’on associe au vivant une science qui s’appelle la biologie, on associe au mot numérique une science qui est l’informatique. Mais pour pouvoir maîtriser a minima cette science, il faut s’en approprier les fondements, et pas seulement ses usages. Autrement dit, il faut piger pourquoi on clique !

Maîtriser le numérique pour ne pas le subir, c’est donc ce que propose cette exposition, au travers d’animations ludiques et interactives. Une exposition qui permet aux visiteurs de se familiariser avec les concepts sur lesquels repose l’informatique et le sensibilise aux enjeux du numérique, pour lui permettre de devenir un citoyen éclairé sur ces questions.

Jouer avec des concepts

Ce qui distingue l’ordinateur de l’Homme, c’est sa puissance de calcul. Un ordinateur peut faire/calculer des choses extraordinairement compliquées, mais encore faut-il les lui expliquer. Avant de le programmer, il est donc nécessaire de comprendre comment il fonctionne et de quoi il est constitué. C’est grâce à quatre grands concepts évoqués dans cette exposition (les langages, les algorithmes, les informations et les machines) que le visiteur pourra comprendre que l’informatique ne tient en rien de la magie.). C’est avec l’aide de boitiers débranchés (c’est-à-dire sans l’aide d’un ordinateur), conçus par un fablab local, que nous avons fait le pari d’aborder ces notions. Comme par exemple trier des crêpes avec des instructions très précises et sans ambiguïté pour expliquer la notion d’algorithme, ou bien résoudre une énigme tout en utilisant les lois booléennes pour comprendre la notion de portes logiques, ou bien encore manipuler un autre boitier pour (enfin !) comprendre comment passer du système décimal au système binaire et enfin aider une petite souris à s’orienter dans un labyrinthe pour retrouver son morceau de fromage pour expliquer la notion de langage.

Même si les technologies du numérique évoluent très vite, ces fondements ont pris racine pour certains il y a déjà quelques siècles… Une belle entrée en matière, qui invite le visiteur à poursuivre la visite !

Ouvrir le livre de l’Histoire de l’informatique

L’informatique a démarré bien avant l’avènement de l’ordinateur. C’est une discipline qui a des racines, un passé, une histoire, et pour que le public soit en mesure de s’approprier cette science, il est important de raconter cette histoire, et que nous la racontions comme une histoire. Alors tel un archéologue, à l’aide d’un casque immersif et au fil des galeries d’un monde virtuel, le visiteur peut découvrir, des plus anciens au plus actuels, les femmes et les hommes qui ont marqué cette Histoire, une histoire qui s’ancre dans le Moyen-âge, a modelé notre présent et construit encore les usages de demain. Attention toutefois au mal de mer que certains visiteurs pourraient ressentir : c’est l’ivresse des pionniers 🙂 ! Heureusement, la technologie immersive est en constante amélioration…

Développer l’esprit critique

Passer du statut d’Homo numericus à celui de citoyen numérique, autrement dit du statut de consommateur des objets numériques à celui de consommateur-acteur, nécessite de comprendre non seulement les fondements, mais aussi les enjeux liés au numérique. En effet, le numérique croise aujourd’hui de nombreuses disciplines (la physique, l’éducation, la santé et la médecine, l’environnement, les sciences de la vie,…) et impacte sur notre quotidien, au-delà des usages (smartphones, GPS,…). C’est donc au travers d’animations ludiques et interactives que le visiteur pourra se familiariser et devenir un citoyen éclairé ! Par exemple, on peut y découvrir le bras du petit robot Poppy qui, outre la découverte des aspects liés à la programmation, sensibilise le public à l’utilisation des logiciels libres et des imprimantes 3D. Un clone interactif permet de dévoiler l’anatomie de son corps. Une application de reconnaissance d’espèces végétales permet également au visiteur de réviser ses connaissances sur la botanique et de créer de l’intelligence collective. Enfin, l’exposition offre aux visiteurs la possibilité de rejouer les exercices des concours Castor informatique et Alkindi, des concours gratuits proposés en milieu scolaire.

Toutes ces manipulations sont agrémentées de textes, qui interpellent le visiteur sur les enjeux sociétaux liés au numérique, tout en évitant de basculer dans une vision trop angélique ou trop diabolisante, afin que celui-ci développe son esprit critique et reparte plus éclairé sur les questions liées au numérique.

Une exposition pour qui ?

On le sait, les préjugés ont la vie dure ! On entend encore trop souvent dire que «l’informatique c’est pour les geeks», «l’informatique c’est pas pour les filles» ou encore «l’informatique c’est pour les jeunes». Grâce aux nombreuses personnes, scientifiques ou non, qui ont contribué au succès de cette exposition, « de l’homo numericus au citoyen numérique » s’attache à gommer ces idées préconçues et s’adresse à TOU-TE-S, petits et grands ! Rompre l’isolement, se battre contre l’exclusion sociale et intergénérationnelle, c’est aussi ce vœu commun qu’Inria Nancy – Grand Est partage avec la MJC centre social Nomade, partenaire de cette exposition !

Aller plus loin…

Envie d’en savoir plus sur cette exposition ? N’hésitez pas à visiter le site dédié !

Vous souhaitez emprunter cette exposition ? Contactez Escales des Sciences, la démarche d’irrigation du territoire, née du programme d’Investissement d’Avenir CERCo, financeur de cette exposition.

Véronique Poirel, coordinatrice du projet. Ce texte est co-publié sur Pixees.

Un bot pour l’emploi

Nous, chercheurs en informatique (en bases de données et apprentissage automatique), pensons que nos recherches peuvent aussi servir les gens. Un des domaines dans lesquels ces recherches pourraient servir est celui de l’emploi. Comment trouver un premier emploi, comment retrouver un emploi après un licenciement ou une interruption ? C’est souvent le problème le plus important pour les personnes concernées ; c’est aussi un des problèmes les plus difficiles pour l’État. Or, le big data peut apparemment tout (ou presque) pour l’innovation, la santé, le commerce, etc. ; peut-il quelque chose pour l’emploi ? Cet article est publié en collaboration avec The Conversation.

E-coaching. La recherche d’un emploi s’apparente à un parcours du combattant, à une loterie, à un examen scolaire, à un concours. Il faut rédiger un curriculum vitae. Comment mettre en valeur ce qu’on a fait ? Comment décrire ses hobbies ? Comment répondre à des questions comme : quel est votre principal point faible ? On peut se repasser de bonnes réponses entre amis (mon défaut est d’être trop perfectionniste) ; mais une bonne réponse trop connue n’est plus une bonne réponse (1).

Idéalement, un conseiller infatigable et dévoué, au courant de votre cas personnel, de l’état de l’emploi dans votre branche, des aides gouvernementales, de la situation régionale, etc., vous donnerait jour après jour les meilleurs conseils. Il commencerait par apprendre à vous connaître, pour vous aider : à faire le tri, à chercher aux bons endroits, à ne pas se décourager.

Philippe Tastet, Creative Commons

E-commerce. On peut aussi s’inspirer de ce qui existe dans le domaine du commerce sur Internet. Après tout, on cherche un emploi un peu comme on cherche un produit dans un site de commerce en ligne. Dans les deux cas, la personne cherche ce qui correspond le mieux à ses besoins.  Il y a évidemment de grandes différences. Par exemple, l’emploi ne s’achète pas, l’information est rare.  Une similitude est la difficulté de trouver, de choisir. Un site de commerce en ligne  (par exemple Amazon) propose énormément plus de produits qu’un magasin physique. Le catalogue des produits est plus long qu’une encyclopédie ; il faut donc aider le client à s’y retrouver. Ainsi apparaissent les moteurs de recommandation. Les techniques qu’ils utilisent pourraient-elles nous aider à recommander des emplois ? Dans la vente par correspondance, on s’inquiète par exemple des produits de la « longue traine » (**), c’est-à-dire les produits moins populaires, très nombreux, qui sont, du coup, délaissés. Dans l’emploi aussi.

Comment fonctionne un moteur de recommandation.

Une première stratégie se résume à recommander « plus de la même chose ». Vous êtes allé à Romorantin ; le moteur continue de vous proposer des voyages pour Romorantin, ce qui est pertinent si votre petit ami vient de déménager à Romorantin mais ce qui l’est moins si vous avez rompu avec lui. Une autre approche consiste à utiliser des corrélations simples :  Vous avez aimé les couches P, vous aimerez les bières K.   Pourquoi ? Parce que dans les faits les gens qui ont acheté des couches P ont aussi souvent acheté des bières K. Cela ne donne pas non plus les meilleures recommandations.

En fait, ce qui marche bien, c’est une troisième méthode. Elle a été popularisée en 2006 avec le Concours Netflix, doté d’un prix d’un million de dollars, dont le but était de recommander à une personne les films que cette personne aimerait. Les données utilisées sont les notes données par les clients aux films que chaque client a vus. Même si chaque client a vu une poignée de films, l’ensemble des clients permet de couvrir une masse considérable de films. L’idée de cette technique est que si quelqu’un a vu et apprécié une partie des films que j’ai vus et appréciés, j’aimerai peut-être les autres films que cette personne a appréciés, même si, pour certains d’entre eux, je n’en ai jamais entendu parler.  L’algorithme essaie donc de découvrir des proximités de goût entre des clients et base ses recommandations sur ces proximités. Des proximités entre des clients qui ne se sont le plus souvent jamais rencontrés !

Typiquement, les moteurs de recommandation s’intéressent à des clients qui viennent et reviennent sur la plate-forme d’achat — qu’on finit donc par connaitre assez bien en fonction de leurs achats passés. Par contre, un demandeur d’emploi cherche en général un seul emploi, et s’arrête de chercher une fois qu’il l’a trouvé. Il faudra faire avec le peu d’information dont on dispose. On connait son CV, les offres auxquelles il a postulé, celles qui lui ont accordé un entretien, etc.  On applique une approche à la Netflix.

Des sites de recherche d’emploi comme LinkedIn, Indeed, Monster, MindMatcher, ou Qapa, ont développé des algorithmes pour mesurer la « distance » entre un CV et une offre d’emploi. Un tel site peut utiliser des algorithmes de traitement de la langue naturelle sur les documents (CV et offres), ou analyser les données des graphes sociaux. Il essaie de « matcher » les CV avec les offres d’emplois. Si l’histoire de Sarah ressemble à celle de Sylvie, on peut lui signaler un emploi qui ressemble à celui que Sylvie a obtenu (ou pour le moins pour lequel elle a eu un entretien).

Le site bob-emploi, par exemple, accompagne le chercheur d’emploi (voir encadré). Il lui demande de décrire rapidement son profil (moins de 5 minutes), fait de bonnes suggestions, signale des ressources utiles, s’adapte à votre niveau d’énergie du jour (trois niveaux). Certains conseils sont de bon sens comme : n’envoyez pas un CV par mail sans y joindre une lettre de motivation, expliquant pourquoi vous voulez le poste, et pourquoi le poste vous veut ; ou utilisez les réseaux professionnels, mais attention aux traces que vous laissez sur Internet, qui vous suivront comme un « casier judiciaire social ».  D’autres conseils sont plus obscurs. Par exemple, formulez vos savoir-faire en termes de verbes plutôt que de noms ; ce conseil se fonde sur le fait que les recruteurs cliquent plus (toutes choses égales par ailleurs) sur un CV rédigé avec des verbes, qu’avec des mots.  Ces observations peuvent être expliquées a posteriori : les verbes font plus dynamique, plus précis, montrent qu’on ne subit pas son sort, etc. Mais la raison en fin de compte est empirique : d’après les données, ça marche mieux. Ça marche en général. Mais est-ce que cela fonctionnera avec recruteurs pertinents pour votre recherche d’emploi, qui sont les seuls qui vous intéressent après tout ? Et surtout, est-ce que cela marchera encore quand le conseil aura été rabâché dans toutes les revues et magazines ?

Au début 2017, le site bob-emploi est en mode rodage (version bêta). Une certaine frustration des utilisateurs est parfois visible, due à l’écart entre leurs attentes et le fonctionnement actuel du site. Le site indique fréquemment qu’il est en phase d’apprentissage, demande si l’utilisateur a trouvé utiles les conseils fournis, et rappelle que le site s’enrichit au fur et à mesure des réponses.

La satisfaction de l’utilisateur – disons Georges – dépend naturellement de la qualité des conseils que le site lui donne, et surtout du fait que ces conseils soient bien adaptés à la situation particulière de Georges. Il faut donc que le site soit bien nourri : qu’il connaisse le profil de Georges, ou qu’il connaisse des gens semblables à Georges et qu’il sache ce que ces gens ont aimé… Et puis, quand on s’attaque à un problème humain comme l’emploi, on fait face – comme on pouvait s’y attendre – à la difficulté des relations avec les humains… Supposons que l’algorithme découvre ce qui bloque les candidatures de Georges et les empêche de déboucher sur un entretien. Faut-il lui annoncer ? Oui sans doute ; mais comment ? Comment mettre cette connaissance à son service, sans le décourager : c’est tout sauf simple.

Une frustration exprimée dans le forum est : Ce site est fait pour les super-diplômés, moi qui suis serveuse, ça ne me sert à rien. Peut-être est-ce parce qu’il n’y a encore peu de données sur les serveuses dans bob-emploi ? Un problème général est qu’on a peu de données utiles pour les gens qui ont le plus besoin d’aide : si les gens sont peu ou pas diplômés (17% de chômage pour les non-diplômés en Janvier 2015), leurs CV contiennent peu d’information ; et la situation est pire pour les jeunes non diplômés (presque 40% pour les moins de 29 ans) (***). Il faut laisser du temps à bob-emploi.

Et puis, n’oublions pas ce nombre important de demandeurs d’emploi qui n’a pas accès à des sites comme bob-emploi, peut-être parce qu’ils n’ont pas les moyens de s’offrir un accès à Internet, un ordinateur, ou parce qu’ils ne sont pas à l’aise avec l’informatique. Des associations comme Emmaüs Connect les aident à écrire leur CV, à acquérir le coup de main pour les interactions de base avec Internet.

Pour écrire cet article, nous avons rencontré Paul Duan, le fondateur de bob-emploi : avec enthousiasme et simplicité, avec résolution et modestie, il conçoit des algorithmes et services web pour servir les gens. Il n’assène pas de certitudes ; il sait qu’on apprend en marchant ce qui est utile, ce qui sert, et il sait qu’il y a encore beaucoup de chemin à parcourir. Il se pose la question d’être utile dans le temps, sans nuire aux utilisateurs :

  • le service doit vivre et se déployer,
  • les données, forcément confidentielles, ne doivent pas se retourner contre les gens vulnérables,
  • les algorithmes doivent être ouverts, vérifiables, pour que d’autres puissent les améliorer, ou vérifier leur absence de biais…

Nous avons demandé à Paul où il allait. Sa réponse : « à court terme, nous voulons améliorer bob-emploi. A long terme : l’étendre pour d’autres pays ; et développer des services pour les gens dans d’autres domaines. »

Bien sûr, d’autres pays ont des problèmes d’emploi… Et, dans bien d’autres domaines, les gens auraient l’utilité d’un site qui agrège les informations, les règles, les aubaines, et aide chacun : pour l’orientation scolaire, pour la création d’entreprises…  Des associations s’attaquent déjà à ces domaines : les besoins et les possibilités sont immenses…

Serge Abiteboul, Inria, ENS Paris, Michèle Sebag, CNRS, LRI, Université Paris Saclay.

Paul Duan

Paul Duan, fondateur de Bayes Impact et de bob-emploi, a un parcours assez particulier, de Trappes au Sentier, en passant par Berkeley ; de Sciences Po aux Sciences des données, en passant par l’économie et l’informatique. Il y a quelques années, il bosse comme data scientist dans une start-up de la Silicon Valley. Mais il est convaincu que la vie ne peut se limiter à s’enrichir avec des startups ; il veut aussi aider les moins chanceux que lui. Il donne alors un coup de main dans une soupe populaire. Oui, à la Mecque des milliardaires d’aujourd’hui, les laissés-pour-compte ne manquent pas, tout comme chez nous.

Et puis un jour, Paul se dit que ses compétences qui font pousser les dollars pourraient être mieux utilisées au service de la collectivité.

Bayes Impact. ll crée Bayes Impact, une ONG qui aide d’autres ONG, en réalisant pour elles leurs analyses de données. Par exemple, une ONG développe du microcrédit. Elle pourrait améliorer considérablement son offre en comprenant mieux les données dont elle dispose. Seulement elle n’a pas de data scientist. Bayes Impact résout le problème. C’est comme en économie traditionnelle, où les entreprises font appel à des startups spécialisées dans le big data quand elles ne disposent pas de cette technologie en interne. La différence c’est que les gens de Bayes Impact aident les ONG parce qu’ils partagent leurs valeurs et leur vision ; et aussi, leur salaire est bien en dessous de ce qu’il serait dans une boite de big data classique.

Bayes Impact est un succès mais l’exercice est frustrant. Les casques bleus, les data scientists, débarquent dans un projet, au contact de gens qui essaient de changer le monde. Ils donnent un coup de main. Et puis il faut partir car, pour optimiser l’impact, il leur faut aller ailleurs. Est-ce que le résultat est durable ?

Au service du service public. Paul et ses copains décident alors de se fixer sur des projets précis et de les mener à terme. Ils aident le gouvernement US pour des problèmes concrets (l’accompagnement des retours des vétérans de la guerre d’Irak ; les réhospitalisations). Ils peuvent apporter des solutions concrètes et voir les résultats des décisions prises en fonction des données. Mais qui dit ce qu’il faut optimiser ? Les critères sont politiques et/ou opaques…

Au service des citoyens. Ils pivotent – c’est à dire, que dans la tradition des startups classiques, ils changent de business modèle. Plutôt que de travailler pour le gouvernement, pourquoi ne pas travailler pour le citoyen avec le gouvernement ? Il s’agit donc de s’attaquer aux problèmes rencontrés par des citoyens et d’utiliser le numérique pour aider ces derniers à les surmonter. Commençons par l’emploi : le résultat, c’est bob-emploi, pour aider les chercheurs d’emploi à comprendre ce qui se passe, comment faire, quelles sont les priorités, comment ne pas s’épuiser, comment se faire aider par Pôle emploi, comment ne pas abandonner leur vie sociale…

Pourquoi « bob-emploi » ? Le nom de code du robot que Paul Duan et ses copains imaginaient pour accompagner les demandeurs d’emploi était bob le bot ; c’est devenu « bob-emploi ».

Le cœur de compétence de Bayes Impact – la science des données – est encore peu utilisé dans bob-emploi. Mais cela devrait monter progressivement en puissance : il faut d’abord acquérir les données. Donc, allez-y ! Chercheur d’emploi, nourrissez le site, donnez votre avis, vos tuyaux… C’est l’auberge espagnole de l’intelligence : chacun en apporte un peu, et chacun l’a tout entière.

Voir aussi :
(*) Les règles du jeu (2014), film réalisé par Claudine Bories et Patrice Chagnard; Le quai de Ouistreham, 2010, Florence Aubenas; Les tribulations d’un précaire (2007), Iain Levison. The bait and the switch (2005), Barbara Ehrenreich.
(**) La longue traîne, de Chris Anderson  (2004).
(***) http://www.inegalites.fr/spip.php?page=article&id_article=1585.

Miolane’s anatomy

Nous avons demandé à une amie, Florence Sedes toulousaine de la SiF  de nous présenter les travaux de Nina Miolane, une « numéricienne » parmi les 30 lauréates de la bourse L’Oréal-Unesco pour les Femmes et la Science : « Vers la médecine de demain : une aide numérique au diagnostic humain ». Pierre Paradinas.

Sélectionnée parmi plus de 1 000 candidates, Nina Miolane est récompensée, après un parcours d’exception et un doctorat obtenu entre Nice et Stanford, entre mathématiques et médecine.

Photo : Nina Miolane.

Comment utiliser les mathématiques et les hautes technologies pour transformer la recherche en médecine ? Pouvons-nous créer des outils numériques améliorant la pratique médicale courante et hospitalière ? Le travail de recherche de Nina Miolane développe un des piliers de la médecine de demain : l’anatomie numérique.

La médecine prévoit d’être transformée au cours des prochaines années grâce aux nouvelles technologies : d’un côté, les technologies d’imagerie (scanners, IRM, etc) et de l’autre côté les technologies du numérique permettant l’analyse de ces images (superordinateurs, calcul distribué, etc). Sa recherche en anatomie numérique s’appuie sur ces deux technologies pour construire, dans l’ordinateur, un modèle de l’anatomie humaine.

Le modèle d’anatomie numérique contient tout d’abord la forme de chaque organe dans son état sain, ainsi que toutes les formes de l’organe qui correspondent à ses variations saines – par exemple dues à la taille du patient – ou pathologiques. De nombreuses pathologies sont en effet visibles sur les images médicales, comme par exemple la maladie d’Alzheimer qui se caractérise par une atrophie du cortex cérébral et une expansion des ventricules, ces cavités du cerveau contenant le liquide céphalorachidien.

Dans le cadre du projet récompensé par la bourse l’Oréal-UNESCO, Nina s’est intéressée plus particulièrement à l’anatomie du cerveau. Une hypothèse classique suppose l’existence d’une unique anatomie cérébrale saine de référence. Toutefois, la variabilité des topologies du cerveau, par exemple au niveau des sillons du cortex cérébral, est telle qu’il n’est souvent pas possible de représenter l’anatomie par un cerveau unique. Celui-ci sera soit consistant mais flou au niveau des sillons, soit inconsistant car il représentera seulement une topologie particulière des sillons.

Ainsi, le modèle d’anatomie développé a la forme d’un arbre : les niveaux élevés représentent l’anatomie saine à grande échelle comme la boite crânienne, et les niveaux bas représenteront les anatomies saines à petite échelle, comme le nombre de sillons. Grâce à la bourse l’Oréal-UNESCO, Nina va pouvoir suivre une (courte) formation en neuro-anatomie et neurosciences, pour confronter l’anatomie obtenue avec son modèle à la connaissance actuelle des spécialistes, et poursuivre ses recherches pot-doctorales entre les Etats-Unis et la France.

« Nous espérons mieux comprendre, caractériser et diagnostiquer les maladies cérébrales ou neurodégénératives. De plus, ce projet est bien sûr centré sur le cerveau mais est suffisamment générique pour être appliqué ensuite aux autres organes. »

L’anatomie numérique doit même permettre d’aller plus loin : le projet est de fournir, à terme, la probabilité que le patient développe telle ou telle maladie dans le futur. En effet, l’outil numérique permet de détecter des variations subtiles de formes d’organes et permet de tendre vers un diagnostic avant que les symptômes se développent. Détecter une maladie neurodégénérative de façon pré-symptomatique, comme Alzheimer par exemple, permettrait non pas de la guérir ou de la stopper, mais plutôt de ralentir sa progression de façon à ce que la vie quotidienne du patient ne soit pas affectée.

Florence Sedes, IRIT

Pour retrouver les travaux de Nina Miolane, suivre ce lien.

À mon tour de programmer !

Quand on croit dur comme fer à l’égalité homme-femme, on peut être un peu mal-à-l’aise devant des initiatives « mono-genre ».  Quand Julien Dorra nous a parlé de ce programme de formation de développeuses, donc « réservé aux femmes », nous nous sommes interrogés : Pourquoi ce n’est pas mixte ? Et puis nous nous sommes souvenus d’avoir vu des garçons accaparer les claviers, les temps de paroles, exclure – pas forcément méchamment – les filles. Alors, s’il faut en passer par là, pour encourager la parité en informatique…

Comment l’idée est-elle née ? Julien est, avec des copains, à l’origine des « coding gouters ». Si c’était ouvert à tous, ces gouters étaient fréquentés par de nombreuses femmes qui venaient avec leurs enfants s’initier au plaisir de la programmation informatique. Ces femmes avaient parfois envie d’aller plus loin, d’en faire une profession. Mais rien n’était prévu…

L’idée simple d’ « À mon tour de programmer ! » c’est de prendre une petite cohorte de femmes de tous âges, déjà un peu codeuses, et d’en faire de vraies développeuses, de les encourager, les aider à construire un projet professionnel, de leur donner les moyens de le réaliser.

Comment ? Dans le monde de Julien, la solution passe souvent par un écosystème d’associations.

La technique avec /ut7 : Il faut consolider, structurer tout ce que ces dames savent déjà. Nous sommes à des années lumières de l’Ecole 42, individualiste, machiste, un peu puérile. Le développement de code est ici collectif, inclusif, social. apprend à programmer ensemble. Le but est surtout de démystifier le sujet pour que demain chacune d’entre elles puisse sans complexe affronter de nouveaux problèmes, de nouveaux environnements de programmation. Cela passe par des projets et, par exemple, la familiarisation avec plusieurs langages de programmation.

Le projet professionnel avec Social Builder. Pour cela, le programme s’appuie sur du mentorat et de l’accompagnement professionnel. Les participantes ont l’occasion de concevoir un projet, de le mettre au point. On développe ensemble. On discute avec d’autres. On se critique. On s’aide.

L’insertion dans une communauté avec Ladies of Code : La troisième et dernière facette du programme est essentiellement du networking au sens le plus noble du terme. Les participantes sont intégrées dans les activités de Ladies of code, petits déjeuners, apéros, ateliers de co-travail…

Le programme de mars à novembre 2017 n’est pas un temps plein mais exige une grande disponibilité. Il est soutenu par la Mairie de Paris dans le cadre de Paris Code, et a obtenu le label « Grande école du numérique ». Les douze participantes ont été sélectionnées pour cette première édition.  Espérons que, comme Museomix  et d’autres idées de Julien et ses amis, « À mon tour de programmer ! » sera un beau succès et sera répété de nombreuses fois.

Serge Abiteboul, Sophie Gamerman

Sa majesté l’informatique

On parle de féminisation de certaines professions, processus qui désigne un accroissement du nombre de femmes dans un domaine historiquement masculin. L’informatique a ceci d’original qu’elle est plutôt sujette à la masculinisation, du moins dans le monde occidental. Pour preuve, là où on comptait 37% d’étudiantes en informatique aux États-Unis dans les années 80, on en compte aujourd’hui 18% et à quelques exceptions près les statistiques restent en berne.

Parmi les domaines notoirement touchés par la féminisation, on compte l’enseignement, la médecine et la magistrature qui, au fil des ans, ont perdu de leur panache. Pour plusieurs raisons : ces métiers se sont largement démocratisés à mesure que les jeunes filles poursuivaient elles aussi des études, que ces métiers embrassaient des scénarios moins prestigieux, par exemple un avocat traite aujourd’hui davantage de cas de divorce ou de petite délinquance que de subtiles affaires propices à faire briller la défense ; l’enseignement primaire et secondaire ont pâti du fait que, compte tenu de l’allongement des études, il devenait moins exceptionnel de mener des élèves au bac qu’auparavant, ou encore la salarisation de la profession, puisque nombre de femmes médecins aujourd’hui s’accordent le mercredi pour s’occuper des enfants. Ceci représente un mode d’exercice propre aux femmes – puisqu’on en est encore là – qui contribue à banaliser la profession [2]. Ceci étant, même dans ces domaines, les stéréotypes sont bien gardés, puisque les femmes sont plutôt des juges pour enfants que des présidentes d’assises et les avocates plutôt surreprésentées en droit de la famille quand les avocats d’affaires sont plutôt des hommes de pouvoir. À ceci s’ajoute un facteur purement objectif, les jeunes filles sont meilleures dans les études et de fait plus propices à obtenir des concours compétitifs comme ceux de médecine ou de la magistrature.

Benjamin Carro, Mediego, Creative Commons

Irons-nous jusqu’à conclure que lorsqu’une profession perd en prestige, elle se féminise comme le prétendait Bourdieu en 1978, où est ce le fait que les femmes l’embrassent pour d’autres raisons qui la rend moins virile et de fait la dévalorise [2] ? Il s’avère que les femmes s’approprient souvent un secteur plutôt parce qu’il est délaissé par les hommes que parce qu’elles en rêvent. Ainsi les domaines de prédilection des hommes après avoir été l’enseignement, le droit ou la médecine sont désormais l’ingénierie, la finance ou l’entrepreneuriat. Les femmes viennent rarement marcher sur ces plates-bandes masculines, elles se faufilent dans les places laissées vacantes. L’armée néanmoins reste une exception en la matière, son prestige ne cesse de décliner sans qu’elle ne se féminise pour autant [1] !

L’informatique est un cas très particulier, une science récente, une croissance exponentielle, un brillant avenir. Elle avait d’ailleurs séduit les femmes à son apparition, lorsque personne encore n’y croyait. Les domaines de l’intelligence artificielle ou du traitement naturel des langues, quand ils étaient balbutiants et encore peu crédibles, regorgeaient de femmes. C’est aujourd’hui le terrain de jeux des chercheurs les plus brillants. On est passé d’un secteur méconnu et peu stéréotypé, à un secteur dynamique et prometteur que les hommes se sont  approprié. Dommage que les femmes n’aient pas conservé ce bastion.

Les algorithmes, s’ils existent depuis très longtemps, sont clairement associés aux informaticiens qui les créent, les implémentent et les optimisent depuis l’apparition de la discipline. Leur importance n’a cessé de s’affirmer au point qu’aujourd’hui on pense à les taxer et leur inventer une justice. Ils sont ubiquitaires, dans nos ordinateurs, nos téléphones, ils décident du film que nous allons voir, de l’ordre dans lequel nos recherches dans les moteurs sont ordonnées, de celui des posts de nos amis sur les réseaux sociaux, du cours de la bourse, du montant de nos primes d’assurances, du prix de nos billets d’avion. Ils permettent d’éclairer les villes ou de réguler le trafic routier. Ils sont aux commandes des médias, rendent virales certaines informations, voire nous font avaler des couleuvres avec de fausses informations, ils assistent nos chirurgiens, ils nous battent au jeu de go, sont capables de bluffer au poker, sont en passe de conduire nos voitures, servent de moyen de contraception [3] et nous font aujourd’hui miroiter des espérances de vie allant jusqu’à 150 ans. On leur attribue à l’envi intelligence, bienveillance ou encore machiavélisme. Ils nous effraient parce qu’ils nous manipuleraient, ou encore parce qu’ils menacent de nombreux métiers. Ils sont transversaux à tous les domaines de notre société des médias à la santé, des transports aux cours de la bourse.

Si l’avenir appartenait certes à ceux qui se lèvent tôt, il appartient bien davantage à ceux d’entre nous qui sauront concevoir et mettre en œuvre des algorithmes.

Un algorithme n’a pas de sexe mais il semble aujourd’hui clair que leurs concepteurs en ont un, souvent le même. À l’instar d’une étude récente qui montre que des enfants attribuent naturellement l’intelligence aux hommes et la bienveillance aux femmes, notre monde conjugue les algorithmes au masculin.

Notre société évolue à deux à l’heure sur le sujet malgré un cadre législatif pourtant bien en place. Le plafond de verre existe toujours bel et bien, les femmes sont jugées à une autre aune que leurs homologues masculins, on encense bien moins, et on punit moins aussi d’ailleurs, les petites filles que les petits garçons, les femmes gagnent en moyenne 15% de moins à qualifications égales, en France les levées de fond des startups dirigées par les femmes représentent 13% de la totalité pour un montant qui ne représente que 7%. Hors la loi, le sexisme, cette croyance qu’il existe une hiérarchie entre les hommes et les femmes, est tenace qui diffuse son venin au quotidien dans les médias, les publicités, les pauses café, etc. Profitons du cadre législatif égalitaire, des nombreux élans de parité et faisons de nos jeunes filles des déesses du numérique, des entrepreneuses du Web. Convainquons nos jeunes filles que les carrières du futur sont celles qui riment avec numérique, algorithme et informatique et aidons les à y accéder sans qu’elles aient besoin d’attendre leur déclin (qui pour l’heure semble infiniment lointain).

Ce serait d’autant plus juste que l’informatique menace surtout les femmes. Des études montrent que les nanotechnologies, la robotique et l’intelligence artificielle remplaceront environ 5 millions d’emplois en 2020 [4]. Il s’avère que l’automatisation affecte majoritairement des secteurs féminins (administration, marketing, opérations financières). À l’inverse les hommes s’accaparent les secteurs générateurs d’emplois comme ingénierie, informatique, mathématiques. À ce rythme, les femmes seront les plus grandes victimes des algorithmes et tout cela ne fera qu’accroitre les inégalités existantes.

Pour y arriver, il faut multiplier les messages explicites contre les stéréotypes. Il est rafraichissant que la publicité radiophonique diffusée le mois dernier au sujet de l’application post bac brave tous les clichés et implique une lycéenne qui souhaite s’orienter vers l’informatique et un lycéen vers la gestion

Il faut aussi exploiter les « role models », favoriser le mentorat qui permet aux femmes de s’entretenir avec un supérieur, ou une personne plus senior dans la profession, sur leurs carrières de manière explicite, de lever l’autocensure et de pallier le manque de confiance qui est parfois un frein à l’ambition et l’avancement des carrières féminines.

Anne-Marie Kermarrec, Mediego

Références

[1] Cacouault-Bitaud Marlaine, « La féminisation d’une profession est-elle le signe d’une baisse de prestige ? », Travail, genre et sociétés, 1/2001 (N° 5), p. 91-115.
[2] Malochet Guillaume, « La féminisation des métiers et des professions. Quand la sociologie du travail croise le genre », Sociologies pratiques, 1/2007 (n° 14), p. 91-99.
[3] Natural Cycle, Elina Berglund
[4] Future of Jobs, The World Economic Forum’s (Future of Jobs).

Les perles des entretiens autour de l’informatique

Comment définir l’informatique. La question est complexe, les réponses parfois passionnelles. Le Conseil scientifique de la Société informatique de France (SIF) a réfléchi collectivement sur ce sujet et a élaboré un texte : Informatique — quèsaco ?

Cependant une telle description « de l’intérieur » de l’informatique ne peut qu’être réductrice. C’est pourquoi, pour la complémenter, binaire s’est lancé dans une peinture  « impressionniste » du domaine, qui le décrit par petites touches, à travers les visions personnelles de chercheurs et chercheuses brillants, de domaines variés : agriculture, philosophie, archéologie… Ils nous racontent leurs passions et toutes les richesses de l’informatique, cette science et cette technique au cœur du monde numérique. L’ordinateur est general-purpose – c’est une machine à tout faire. Les rencontres des sciences et de l’informatique, que nous vous proposons, illustrent parfaitement cette réalité.

Ne ratez pas les perles que sont ces entretiens autour de l’informatique.

Les éditeurs de binaire