L’apprentissage automatique : le diable n’est pas dans l’algorithme

icml_vignetteDu 6 au 11 juillet, Lille accueille ICML (International Conference on Machine Learning), le rendez-vous annuel des chercheurs en apprentissage automatique (machine learning). Mais comment expliquer à ma garagiste ou à mon fleuriste ? Et à quoi bon ! Donnons la parole à des chercheurs qui prennent le risque de soulever pour nous le capot du moteur et de nous l’expliquer.

©Mae59
©Mae59

L’apprentissage automatique est là. Pour le meilleur comme pour le pire.

Comme nous le développions il y a quelques jours, l’apprentissage automatique est désormais partout dans notre quotidien. Votre téléphone portable complète vos phrases en fonction de vos habitudes. Lorsque vous cherchez un terme avec votre moteur de recherche favori, vous recevez une liste de pages pertinentes très différente de celle que recevra une personne d’un autre âge ou d’un autre pays. C’est aussi un algorithme qui propose la publicité que vous subissez.

Dans les différents cas ci-dessus, il s’agit bien de calculer automatiquement des préférences, de faire évoluer un logiciel en fonction des données.

L’apprentissage automatique est associé au phénomène Big Data, et quand certains journaux s’inquiètent du pouvoir des algorithmes, il y a fort à parier que les algorithmes en question sont justement ceux qui s’intéressent aux données –aux vôtres en particulier- et essayent d’en extraire une connaissance nouvelle ; par exemple pour offrir un diagnostic médical plus précis. Ou, dans le contexte de la loi sur le renseignement votée récemment, pour récolter et traiter nos données privées.

https://canvas.northwestern.edu/
https://canvas.northwestern.edu/

Alors il y a quelque chose d’inévitable si nous voulons ne pas subir tout cela : il faut comprendre comment ça marche.

Bien alors en deux mots : comment ça marche ?

En deux mots ? apprendre (construire un modèle) et prédire (utiliser le modèle appris). Et pour ce qui est de prédire l’avenir … on en a brulé pour moins que ça !

Apprendre : où l’on récolte des données pour mieux les mettre en boîte.

La première problématique consiste à construire, automatiquement, un modèle : il s’agit donc de comprendre quelque chose dans les données. Par exemple dans tous ces résultats médicaux quelle est la loi statistique ? Ou bien dans ces nombreuses données financières, quelle est la fonction cachée ? Ou encore dans ces énormes corpus de textes, quels sont les motifs, les règles ? Et ailleurs, dans le parcours du robot, les résultats transmis par ses capteurs font-ils émerger un plan de la pièce ?

Cette modélisation peut être vue comme une simple tâche de compression : remplacer des très grands volumes de données par une description pertinente de celles-ci. Mais il s’agit aussi d’abstraire, de généraliser, c’est à dire de rechercher des règles ou des motifs expliquant les données. Autrement dit, on essaye d’oublier intelligemment les données brutes en les remplaçant par une information structurée plus compacte.

Cette construction est de nature algorithmique et la diversité des algorithmes est gigantesque. Mais essayons de nous y retrouver.

Apprentissage supervisé ou non.

Si les données sont étiquetées, donc qu’on connait la valeur que l’on voudrait prédire, alors il s’agit d’un apprentissage supervisé : les données peuvent être utilisées pour prédire ce qui est correct et ce qui ne l’est pas.

La  valeur peut être un nombre (par exemple le cours d’une action dans trois mois) ou une classe (par exemple, dans le cas d’une image médicale, la présence ou l’absence d’un motif qui serait associé à une maladie). Dans le premier cas, on parle de régression, dans le second, de classification.

Si les données ne sont pas étiquetées, le but sera de trouver une organisation dans ces données (par exemple comment répartir en groupes homogènes les votants d’un parti politique, ou organiser les données en fonction de la proximité de leurs valeurs). Cette fois, l’apprentissage est non supervisé, puisque personne ne nous a dit à l’avance quelle est la bonne façon de mesurer, de ranger, de calculer.

Apprentissage passif ou actif

Les données, elles, ont été le plus souvent collectées à l’avance, mais il peut également s’agir de données que le même programme va chercher à obtenir par interaction avec l’environnement : on parle alors d’apprentissage actif.

On peut formaliser le fait qu’il reçoit à chaque étape une récompense (ou une punition) et ajuste son comportement au mieux en fonction de ce retour. Ce type d’apprentissage a aussi été formalisé, on parle d’apprentissage par renforcement.

Les trois grands types de modèles.

Le modèle peut être de nature géométrique : typiquement, les données sont des points dans un espace de très grande dimension, et le modèle donne l’équation pour séparer le mieux possible les différentes étiquettes. Le modèle peut-être logique : il sera alors un ensemble de règles qui permettront dans le futur de dire si un nouvel objet est d’une catégorie ou d’une autre. Le modèle peut être probabiliste : il nous permettra de définir, pour un nouvel objet, la probabilité d’être dans telle ou telle catégorie.

Inférer : où l’informatique fait concurrence aux devins.

Reste à savoir utiliser le modèle appris, ou choisir parmi un ensemble de modèles possibles. L’inférence est souvent un problème d’optimisation : trouver la meilleure prédiction étant donné le(s) modèle(s) et les données. Les arbres de décision (étudiés aujourd’hui au lycée) permettent, pour les valeurs d’un modèle et des données, de calculer la probabilité de rencontrer ces données si on considère le modèle et ses valeurs. La question de l’inférence est en quelque sorte l’inverse, celle de choisir le modèle étant donné un certain ensemble de données.

Ici on raisonne souvent en terme de probabilité, il faut donc évaluer le risque, au delà du coût lié à chaque choix.

Ouaouh ! Alors il y a des maths en dessous ?

Oui oui ! Et de très jolies mathématiques, par exemple on peut se poser la question suivante :

 De quel nombre m de données ai-je besoin
pour faire une prédiction avec une erreur ε en prenant un risque δ ?

Croyez-nous ou non, pour certains modèles la formule existe, et elle peut prendre cette forme :

Le nombre d'exemples nécessaire, selon Valiant, pour apprendre
et nous la trouvons même assez jolie. C’est Leslie Valiant qui l’a proposée dans un cadre un peu idéal. Son formalisme permet de convertir ce qui était fondamentalement un problème mal posé, en un problème tout à fait mathématique. Leslie Valiant a d’ailleurs reçu le Turing Award (l’équivalent du prix Nobel pour l’informatique) en 2011 pour cela. D’autres chercheurs, comme Vladimir Vapnik, ont proposé d’autres formules pour quantifier dans quelle mesure ces algorithmes sont capable de généraliser ce qui a été appris à n’importe quel autre donnée qui peut arriver.

Il ne s’agit pas d’un pur problème de statistique, c’est aussi un enjeu en terme de complexité. Si le nombre m de données explose (augmente exponentiellement) en fonction des autres paramètres,  aucun algorithme ne fonctionnera en pratique.

Mais ce petit détour vers les maths nous montre que l’on peut donc utiliser le résultat de l’apprentissage pour prendre des décisions garanties. À condition que la modélisation soit correcte et appropriée au problème donné. Si on utilise tout ça sans chercher à bien comprendre, ou pour leur faire dire et faire des choses hors de leur champ d’application, alors ce sera un échec.

Ce n’est donc peut-être pas des algorithmes dont il faut avoir peur aujourd’hui, mais de ceux qui essayent de s’en servir sans les avoir compris.

Philippe Preux, Marc Tommasi, Thierry Viéville et Colin de la Higuera

Le MOOC Égalité Femmes-Hommes

Rares sont ceux qui se disent adversaires de l’égalité entre les sexes. Mais la réalité est différente. C’est bien pour cela que la première formation en ligne, dédiée à l’égalité femmes-hommes, lancée ce mois-ci, est importante. Nous l’avons testée et comme nous l’avons trouvée intéressante, nous avons demandé à Nathalie Van de Wiele, qui est à son origine, de nous en parler. Serge Abiteboul et Thierry Viéville.

flot_egaliteFHLes FLOT (Formations en Ligne Ouvertes à Tous), acronyme français de MOOC (Massive Open Online Courses), sont appelés à jouer un rôle important dans notre système de formation universitaire et professionnelle et leur développement mérite d’être suivi avec attention depuis leur apparition il y a environ deux ans.

Il se trouve que c’est la première fois dans l’histoire des FLOT/MOOC, en France et dans le monde, qu’une formation en ligne libre et gratuite, ouverte à toutes et tous, est dédiée à l’égalité femmes-hommes.

Développée à l’initiative de l’association SILLAGES.info présidée par la Conférence des grandes écoles, cette formation est le fruit d’un large travail collaboratif impliquant plusieurs associations (Femmes & Sciences, Femmes & Mathématiques, Femmes Ingénieurs, Réussir l’égalité femmes-hommes) ainsi que des personnalités du domaine de l’égalité femmes-hommes.

Intitulé « Être en responsabilité demain : se former à l’égalité femmes-hommes », ce FLOT traite de l’égalité réelle entre les femmes et les hommes, en abordant l’éducation, les stéréotypes, l’orientation, la parité et la mixité des filières et des métiers, le sexisme ordinaire, le harcèlement et les violences faites aux femmes, pour conclure en terme de responsabilité et vie citoyenne.

La formation est structurée en 7 séquences représentant chacune 2 heures de travail, soit environ 14 heures de travail à planifier selon les besoins de l’apprenant-e. Une quarantaine de courtes vidéos (archives d’actualités, animations, explication de concepts, etc.) accompagnent la formation. De nombreux tests permettent une auto-évaluation tout au long du parcours.

On peut commencer cette formation, et la suivre en autonomie, à tout moment de l’année, mais il est conseillé de s’inscrire pour bénéficier d’un forum où partager ses questions et son expérience avec les autres apprenant-e-s et avec l’équipe d’accompagnement. La première session est ouverte jusqu’au 31 juillet 2015.

Pour aller plus loin :

Nathalie Van de Wiele

L’apprentissage automatique : pas à pas !

icml_vignetteDu 6 au 11 juillet, Lille accueille ICML (International Conference on Machine Learning), le rendez-vous annuel des chercheurs en machine learning, ce qu’on traduit souvent en français par apprentissage automatique ou apprentissage artificiel. Donnons la parole à Colin de la Higuera pour nous faire découvrir ce domaine. Thierry Viéville et Sylvie Boldo.

 

Apprentissage automatique (machine learning) dites-vous ?

Il est très probable qu’à l’heure où vous lisez ces lignes, vous aurez utilisé le résultat d’algorithmes d’apprentissage automatique plusieurs fois aujourd’hui : votre réseau social favori vous peut-être a proposé de nouveaux amis et le moteur de recherche a jugé certaines pages pertinentes pour vous mais pas pour votre voisin. Vous avez dicté un message sur votre téléphone portable, utilisé un logiciel de reconnaissance optique de caractères, lu un article qui vous a été proposé spécifiquement en fonction de vos préférences et qui a peut-être été traduit automatiquement.

Et même sans avoir utilisé un ordinateur, vous avez été peut être écouté les informations : or la météo entendue ce matin, la plupart des transactions et des décisions boursières qui font et défont une économie, et de plus en plus de diagnostics médicaux reposent bien plus sur les qualités de l’algorithme que sur celles d’un expert humain incapable de traiter la montagne d’informations nécessaire à une prise de décision pertinente.

De tels algorithmes ont appris à partir de données, ils font de l’apprentissage automatique. Ces algorithmes construisent un modèle à partir de données dans le but d’émettre des prédictions ou des décisions basées sur les données [1].

Mais depuis quand confie t’on cela à des algorithmes ?

L’idée de faire apprendre la machine pour lui donner des moyens supplémentaires est presque aussi ancienne que l’informatique. C’est Alan Turing lui-même qui après avoir, en 1936, jeté les bases conceptuelles du calcul sur machine, donc de l’ordinateur, allait s’intéresser à cette possibilité. Il envisage en 1948 des « learning machines » susceptibles de construire elles-mêmes leurs propres codes.

Tout compte fait, c’est une suite logique de cette notion de machine de calcul dite universelle (c’est à dire qui peut exécuter tous les algorithmes, comme le sont nos ordinateurs ou nos smartphone). Puisque le code d’une machine, le programme, n’est qu’une donnée comme les autres, il est raisonnable d’envisager qu’un autre programme puisse le transformer. Donc pourquoi ne pas apprendre de nouveaux programmes à partir de données?

Vue la quantité astronomique de donnée, on peut apprendre simplement en les analysant. Mais les chercheurs se sont rendus compte que dans ce contexte, un programme qui se comporte de manière déterministe n’est pas si intéressant. C’est le moment où on découvre les limites de ce qui est décidable ou indécidable avec des algorithmes. Il faut alors introduire une autre idée : celle d’exploration, de recours au hasard, pour que de telles machines soient capables de comportements non prévus par leur concepteur.

Il y a donc une rupture entre programmer, c’est à dire imaginer et implémenter un calcul sur la machine pour résoudre un problème, et doter la machine de la capacité d’apprendre et de s’adapter aux données. De ce fait, on ne peut plus systématiquement prévoir un comportement donné, mais uniquement spécifier une classe de comportements possibles.

©Maev59
©Mae59

Alors … ça y est ? Nous avons créé de l’intelligence artificielle (IA) ?

C’est une situation paradoxale, car le terme d’IA veut dire plusieurs choses. Quand on évoque l’intelligence artificielle, on pense à apprendre, évoluer, s’adapter. Ce sont des termes qui font référence à des activités cognitives qui nous paraissent un ordre de grandeur plus intelligentes que ce que peut produire un calcul programmé.

Et c’est vrai qu’historiquement, les premiers systèmes qui apprennent sont à mettre au crédit des chercheurs en IA. Il s’agissait de repousser les frontières de la machine, de tenter de reproduire le cerveau humain. Les systèmes proposés devaient permettre à un robot d’être autonome, à un agent de répondre à toute question, à un joueur de s’améliorer défaite après défaite.

Mais, on s’accorde à dire que l’intelligence artificielle n’a pas tenu ses promesses [2]. Pourtant ces algorithmes d’apprentissage automatique, une de ses principales composantes, sont bel et bien présents un peu partout aujourd’hui. Et ceci, au delà, du fait que ces idées sont à la source de nombreuses pages de science-fiction.

C’est peut-être notre vision de l’intelligence qui évolue avec la progression des sciences informatiques. Par exemple, pour gagner aux échecs il faut être bougrement intelligent. Mais quand un algorithme qui se contente de faire des statistiques sur un nombre colossal de parties défait le champion du monde, on se dit que finalement l’ordinateur a gagné « bêtement ». Ou encore: une machine qui rassemble toutes les connaissances humaines de manière structurée pour que chacun y accède à loisir sur simple demande, est forcément prodigieusement intelligente. Mais devant wikipédia, qui incarne ce rêve, il est clair que non seulement une vision encyclopédique de l’intelligence est incomplète, mais que notre propre façon de profiter de notre intelligence humaine est amenée à évoluer, comme nous le rappelle Michel Serres [3].

Passionnant ! Mais à Lille … que va t’il se passer ?

L’apprentissage automatique est maintenant devenu une matière enseignée dans de nombreux cursus universitaires. Son champ d’application augmente de jour en jour : dès qu’un domaine dispose de données, la question de l’utilisation de celles-ci pour améliorer les algorithmes du domaine se pose systématiquement.

Mais c’est également un sujet de recherche très actif. Les chercheurs du monde entier qui se retrouveront à Lille dans quelques jours discuteront sans doute, parmi d’autres, des questions suivantes :

  • Une famille d’algorithmes particulièrement efficace aujourd’hui permet d’effectuer un apprentissage profond (le « deep  learning »). De tels algorithmes simulent une architecture complexe, formées de couches de neurones artificiels, qui permettent d’implémenter des calculs distribués impossibles à programmer explicitement.
  • L’explosion du phénomène du big data est un levier. Là où dans d’autres cas, la taille massive des données est un obstacle, ici, justement, c’est ce qui donne de la puissance au phénomène. Les algorithmes, comme ceux d’apprentissage profond, deviennent d’autant plus performants quand la quantité de données augmente.
  • Nul doute que des modèles probabilistes de plus en plus sophistiqués seront discutés. L’enjeu aujourd’hui est d’apprendre en mettant à profit le hasard pour explorer des solutions impossibles à énumérer explicitement.
  • La notion de prédiction sera une problématique majeure pour ces chercheurs qui se demanderont comment utiliser l’apprentissage sur une tâche pour prévoir comment en résoudre une autre.
  • Les applications continueront à être des moteurs de l’innovation dans le domaine et reposent sur des questions nouvelles venant de secteurs les plus variés : le traitement de la langue, le médical, les réseaux sociaux, les villes intelligentes, l’énergie, la robotique…

Il est possible –et souhaitable- que les chercheurs trouvent également un moment pour discuter des questions de fond, de société, soulevées par les résultats de leurs travaux. Les algorithmes apprennent aujourd’hui des modèles qui reconnaissent mieux un objet que l’œil humain, qui discernent mieux les motifs dans des images médicales que les spécialistes les mieux entrainés. La taille et la complexité des modèles en font cependant parfois des boîtes noires : la machine peut indiquer la présence d’une tumeur sans nécessairement pouvoir expliquer ce qui justifie son diagnostic : sa « décision » reposera peut-être sur une combinaison de milliers de paramètres, combinaison que l’humain ne connaît pas.

Or, quand votre médecin vous explique qu’il serait utile de traiter une pathologie, il vous explique pourquoi. Mais quand la machine nous proposera de subir une intervention chirurgicale, avec une erreur moindre que le meilleur médecin, sans nous fournir une explication compréhensible, que ferons-nous ?

wikipedia
wikipedia

 

Et .. pour en savoir plus sur tout cela ?

C’est tout à fait passionnant et … très sérieux.

Pour l’apprentissage automatique, nous allons vous lancer un défi. Revenez sur binaire dans quelques jours et nous allons oser vous expliquer ce qui se trouve sous le capot : comment la machine construit des modèles et les exploite ensuite. Et vous verrez que si un sorcier ou une sorcière avait osé proposé une telle machine il y a quelques siècles, c’est sur un bûcher qu’elle ou il aurait fini.

Et pour mieux comprendre toutes les autres facettes de la science informatique deux revues et un blog sont à votre service : comment donner un sens à l’image numérique, comment marche la traduction automatiqueen quoi notre cerveau est plus rapide que nous pour reconnaitre un objet , les nouveaux liens entre robots et des humains ? Voici quelques exemples de ce que vous y trouverez.

Colin de la Higuera

Bibliographie et références

 

Décidable, indécidable ?

En informatique, des mots de la vie courante prennent un sens particulier, précis, peut-être inattendu. Nous allons expliquer ici  « décidable ».

gnirut
Gnirut © S. Auvin

En informatique, un problème est décidable s’il est possible d’écrire un algorithme qui résolve ce problème. Certains problèmes sont indécidables.  Considérons par exemple le « problème de l’arrêt ».  Le problème de l’arrêt consiste à déterminer, étant donné un programme informatique et des données en entrée pour ce programme, si le programme va finir pas s’arrêter ou s’il va continuer pour toujours. Alan Turing a prouvé en 1936 qu’il n’existait pas d’algorithme qui permette de résoudre le problème de l’arrêt, que ce problème était indécidable. L’informatique ne peut donc pas résoudre tous les problèmes. À binaire, on s’en doutait. Encore fallait-il le prouver. Turing l’a fait.

Cette notion de décidabilité se retrouve en logique. Une affirmation logique est dite décidable si on peut la démontrer ou démontrer sa négation dans le cadre d’une théorie donnée. Gödel a démontré (avant Turing, en 1933) un résultat d’incomplétude sur la décidabilité en logique. Certains résultats ne sont donc ni vrais ni faux, mais indécidables : cela signifie que l’on a démontré, à tout jamais, que nous pourrons pas savoir s’ils sont vrais ou faux. Alors si vous avez été frustré parce que vous n’avez pas compris certains cours de maths, consolez vous. Les mathématiques aussi ont des limites. Et oui …

Cette notion d’indécidabilité a une conséquence plus subjective, dans nos rapports avec la science. Nous ne sommes pas confrontés à un dogme surpuissant et sans limite, mais bien à une démarche qui cherche à comprendre ce qu’il est possible de comprendre, qui explore sans cesse ses propres limites.

Pour aller plus loin :

Serge Abiteboul, Thierry Viéville.

Science informatique dites vous ? Deux revues et un blog à votre service.

Il est important que, des actrices et acteurs … aux utilisateurs et utilisatrices du numérique, nous partagions une culture en sciences du numérique, pour comprendre et maîtriser les technologies qui en sont issues.

Pour concrétiser ce partage avec le monde de la recherche, la Société Informatique de FranceInria et le CNRS proposent deux revues et un blog : profitons-en !

 

logo-1204

1024 ? Une revue pour les professionnelles et les professionnels du monde de l’enseignement, de la recherche et de l’industrie de l’informatique qui permet de découvrir les différentes facettes de cette science.

 

logo-interstices)I(nterstices ? La revue de culture scientifique en ligne qui invite à explorer les sciences du numérique, à comprendre ses notions fondamentales, à mesurer ses enjeux pour la société, à rencontrer ses acteurs et actrices.

 

logo-binaireBinaire ? Le blog du monde.fr qui parle de l’informatique, de ses réussites, de son enseignement, de ses métiers, de ses risques, des cultures et des mondes numériques.

 

Enseignement de l’informatique pour les humanités et les sciences sociales

A binaire, nous pensons que l’informatique concerne tout le monde. C’est pourquoi ces journées de la SIF autour de l’enseignement de l’informatique pour les humanités et les sciences sociales nous paraissent particulièrement importantes. Serge Abiteboul, Thierry Vieville.

logo-sif

Inscriptions ouvertes !
23 & 24 juin 2015 à Paris, CNAM
Enseignement de l’informatique
pour les humanités et les sciences sociales

la SIF organise deux journées pédagogiques sur le thème de « L’enseignement de l’informatique pour les humanités et les sciences sociales ».

Quelques points abordés :

  • État des lieux, en France et à l’étranger
  • Quelle informatique nécessaire aux humanités, sciences sociales ?
  • Approches pédagogiques et didactiques pour enseigner l’informatique aux humanités et sciences sociales
  • Humanités numériques
  • Formation des professeurs des écoles à l’informatique

Information complémentaire, programme et inscription (gratuite pour les adhérents de la SIF) à partir de la page dédiée à l’événement societe-informatique-de-france.fr/enseignement/j-pedago/j-pedago-2015/

ou auprès d’Olivier Baudon <olivier . baudon @ labri . fr>.

La France s’engage… et nous aussi !

En juin 2014, le gouvernement a lancé une démarche originale et inédite nommée «La France s’engage» . Elle a vocation à mettre en valeur et faciliter l’extension d’initiatives socialement innovantes, d’intérêt général, portées bénévolement par des individus, des associations, des fondations, des entreprises. Cette initiative est portée par le ministre de la Ville, de la Jeunesse et des Sports.  Parmi tous les projets sélectionnés, celui de Wi-FIlles a retenu tout particulièrement l’attention de Binaire car il s’adresse aux jeunes filles pour les initier aux métiers techniques de l’informatique et du numérique. Engagez-vous qu’ils disaient ! C’est ce que nous comptons faire en vous expliquant ce projet. wifilles-logoWi-FIlles est à ce jour un des seuls programmes en France qui s’adresse aux jeunes filles pour leur faire découvrir, dès la 4ème, les métiers de l’informatique et du numérique de demain. Il est porté par le Club d’entreprises FACE Seine-Saint-Denis (membre de la Fondation Agir Contre l’Exclusion). Claire Etien, sa directrice nous résume son ambition : faire en sorte que les filles ne soient pas mises à l’écart des futurs enjeux économiques de demain.

« Il est de notre responsabilité à tous de ne pas laisser 50% de l’humanité, les femmes, passer à côté de cet enjeu fondamental : le numérique. »

La deuxième promotion a vu le jour en février de cette année avec comme objectif revendiqué : atteindre l’égalité Femme – Homme dans le secteur technique de l’informatique. Avec le soutien des institutions publiques et de partenaires privés, WI-FIlles travaille à éduquer, inspirer et équiper les jeunes filles, avec les compétences et les ressources nécessaires, dans un seul but : saisir les opportunités professionnelles dans le domaine technique de l’informatique. « Le constat est éloquent : nous ne formons pas assez d’ingénieurs et les femmes représentent environ 10% des diplômés dans le secteur informatique » nous explique Claire Etien [1].

LOGO_FACE_RVBLe Club FACE Seine-Saint-Denis a donc décidé de créer ce projet, en co-construction avec des partenaires industriels comme DELL, ERDF et Orange ou académique comme la Région Île-de-France. Concrètement la fondation propose aux filles, via des sensibilisations dans leur établissement scolaire, d’intégrer un parcours de découvertes, de rencontres, d’acquisition de compétences techniques IT. « En bref on leur apprend à coder et à maitriser l’environnement informatique et numérique ! » dixit Claire Etien.

Ces sensibilisations sont accessibles à toutes les filles de 4ème et de 3ème sans aucun pré-requis scolaires. Elles sont informées du programme non pas par leur environnement familial, comme le sont en règle générale les élèves les plus favorisées, mais par des sensibilisations au sein des établissements scolaires, en présence de leurs parents. À l’issu des sensibilisations, les collégiennes motivées et disponibles, hors temps scolaires, sont invitées à intégrer la promotion WI-FIlles. Un parcours WI-FIlles c’est 20 futures Ambassadrices du Numérique, plus de 180h de formations et de rencontres et de mises en situation.

À l’issue du parcours, les ambassadrices sont coachées pour organiser un WI-Fille Girls Camp, événement partenaire du Festival Futur en Seine. Ce sont elles qui présentent auprès des partenaires, de leur communauté éducative le fruit de leur travail. Elles sont récompensées par un diplôme remis par les partenaires. L’objectif a long terme est que ces jeunes femmes puissent être les futures ambassadrices pour accompagner de nouvelles recrues et que cette initiative s’étende bien au-delà de la Seine-Saint Denis.

logoEn participant au challenge « La France s’engage », et après avoir été sélectionné parmi 600 projets, nul doute que le projet Wi-FIlles va faire parler de lui mais surtout d’elles ! Le 22 juin, 15 projets seront lauréats. Ils seront aidés financièrement et accompagnés pour rayonner nationalement. Nous sommes convaincus qu’elles seront récompensées pour leur initiative mais pour leur donner encore plus de chance, nous vous invitons à les encouragez. Rendez-vous sur le site www.lafrancesengage.fr/je-vote , et votez pour Wi-FIlles ! N’hésitez surtout pas à partager autour de vous, elles comptent sur vous !

Marie-Agnès Enard

Bon anniversaire La Fing !

La Fondation internet nouvelle génération a été créée il y a 15 ans par Daniel Kaplan, Jacques-François Marchandise et Jean-Michel Cornu. Binaire fait partie des admirateurs et amis de cette fondation. À l’occasion de cet anniversaire, Serge Abiteboul a rencontré Daniel Kaplan délégué général de la Fing.

siteon0

Daniel Kaplan , 2009, Wikipédia
Daniel Kaplan , 2009, Wikipédia

Est-ce que tu peux définir la Fing en une phrase ?

Nous avons changé plusieurs fois de manière de définir la Fing, mais celle que je préfère (et vers laquelle nous sommes en train de revenir) est la suivante : « la Fing explore le potentiel transformateur des technologies, quand il est placé entre des millions de mains. »

La Fing a 15 ans, quels ont été selon toi ses plus beaux succès ? Ses échecs ?

Nous avons su produire des idées neuves qui font aujourd’hui leur chemin comme la « ville 2.0 » en 2007 ou le self data (le retour des données personnelles aux gens) à partir de 2012. Nous avons (avec d’autres, bien sûr) joué un rôle déterminant dans le développement des open data et des Fab Labs en France. Nous avons contribué à la naissance de beaux bébés qui ont pris leur indépendance, comme la Cantine (devenue Numa à Paris, mais qui a aussi essaimée ailleurs en France), la 27e Région, InnovAfrica. Internet Actu est devenu un média de référence pour des dizaines de milliers de lecteurs.

Il y a des réussites qui se transforment en déceptions. Le concept d’ « espaces numériques de travail » (ENT) dans l’éducation est largement issu de la Fing, mais 13 ans plus tard, il est difficile de s’en vanter quand on voit (à des exceptions près) la pauvreté de ce qu’ils proposent en pratique aux enseignants comme aux élèves. En 2009, avec la « Montre Verte », nous étions les pionniers de la mesure environnementale distribuée, mais nous avons eu tort de poursuivre nous-mêmes le développement de ce concept, parce que nous étions incapables d’en assurer le développement industriel.

Même si nous avons beaucoup de relations à l’international, trop peu de nos projets sont nativement internationaux. La rigidité des financements européens y est pour beaucoup, et il nous faut trouver d’autres moyens de financer de tels projets.

Mais au fond, notre vrai succès, c’est que dans toute une série de domaines, on ne pense plus au lien entre innovation, technologie, mutations économiques et transformations sociales, sans un peu de « Fing inside ». C’est sans doute pourquoi l’Agence nationale de la recherche nous a confiés (en 2010) le pilotage de son Atelier de réflexion prospective sur les « innovations et ruptures dans la société et l’économie numériques », qui a mobilisé le meilleur de la recherche française en sciences humaines et sociales.

Est-ce que vous avez l’intention de changer ?

La Fing a muté à peu près tous les 5 ans et en effet, elle va encore le faire. Parce que le paysage numérique a bougé. Le numérique n’est plus « nouveau » en revanche, le sens de la révolution numérique pose question. Dans le numérique et autour de lui, des communautés nouvelles émergent sans cesse et ne savent pas nécessairement qui nous sommes. D’autres sujets technosociaux montent en importance, par exemple autour du vivant, de la cognition ou bien sûr, de l’environnement. Enfin, les demandes qui s’adressent à nous évoluent. On veut des idées, mais aussi les manières de les mettre en œuvre ou encore, des preuves de concept plus avancées, de la prospective, mais utile à l’action immédiate. Déjà très collaboratif, notre travail doit s’ouvrir encore plus largement et la dimension européenne devient essentielle.

Comment vois-tu le futur d’Internet ?

Comme un grand point d’interrogation ! S’agissant du réseau soi-même, nous avons tenu 20 ans (depuis l’ouverture commerciale de l’internet) en ne changeant rien de fondamental à l’architecture de l’internet, du moins officiellement. D’un côté, c’est un exploit presque incroyable : le réseau a tenu, il s’est adapté à une multiplication par 10 000 du nombre d’utilisateurs et à des usages sans cesse plus divers et plus exigeants. Mais cela a un prix : les évolutions majeures se sont en fait produites « au bord » de l’internet, par exemple dans les réseaux de distribution de contenus (CDN), dans les sous-réseaux des opérateurs (mobiles, distribution vidéo, objets connectés) et bien sur, dans tous les services dits over the top. Les solutions ad hoc se multiplient, les standards de fait sont plus qu’auparavant le produit de purs rapports de force, l’interopérabilité devient problématique (et ce n’est pas toujours fortuit)…

Nous n’échapperons pas à la nécessité de repenser les fondements de l’internet – en fait, ne pas le faire, c’est déjà un choix, celui de favoriser les plus forts. Ce ne sera pas facile, parce que certaines valeurs essentielles que l’internet d’aujourd’hui incorpore comme l’intelligence aux extrémités se sont imposées d’une manière un peu fortuite. Si l’on remet l’ouvrage sur le métier, il ne sera pas si facile de les défendre. Ce sera une discussion mondiale et fondamentalement politique. Lawrence Lessig écrivait Code is Law (le code fait Loi), j’ajouterais : « et l’architecture fait Constitution ». Mais il est vraisemblable qu’elle ne se présentera pas d’emblée sous cette forme, plutôt sous celle de programmes de recherche et d’expérimentations sur les réseaux du futur. La technicité des efforts masquera les choix économiques et politiques, il faudra être vigilant ou, mieux, proactif.

Quelles sont les plus grandes menaces pour Internet, pour le Web ?

D’un côté, l’internet et le web ont « gagné ». L’idée folle selon laquelle un même inter-réseau aurait vocation à connecter tous les humains et tous les objets, se réalise ; du côté des données, des documents et des applications, le cloud et le mobile consacrent la victoire du Web. Mais cette victoire est technique ou logistique, les idéaux fondateurs, eux, s’éloignent.

Il serait naïf de croire que des dispositifs techniques puissent à eux tout seuls amener un monde plus égalitaire, démocratique, collaboratif. Notre raison ne l’a jamais vraiment crû, je suppose. Mais notre cœur, si, et puis tout ce qui allait en ce sens était bon à prendre. Aujourd’hui, les puissances politiques et économiques reprennent la main et le contrôle, parfois pour les meilleures raisons du monde – la sécurité, par exemple.

Le risque majeur, au fond, ce n’est pas Big Brother, ni Little Sister (la surveillance de tous par tous). Il ne faut pas négliger ces risques, mais je crois qu’ils peuvent rester contrôlés. Le vrai risque, c’est la banalisation : que l’internet et le web cessent d’être la nouvelle frontière de notre époque, qu’ils deviennent de pures infrastructures matérielles et logicielles pour distribuer des services et des contenus. Cela arrivera quand la priorité ne sera plus de rendre possible l’émergence de la prochaine application dont on ne sait encore rien, mais d’assurer la meilleure qualité de service possible pour celles que l’on connaît. Nous n’en sommes pas loin.

Est-ce que le Web va continuer à nous surprendre ? Qu’est-ce qui va changer ?

On peut être inquiet et confiant à la fois ! Au quotidien, le web reste l’espace des possibles, celui dont se saisissent de très nombreux innovateurs pour tenter de changer l’ordre des choses – certains avec des finalités totalement commerciales, d’autres à des fins sociales, et beaucoup avec en tête l’un et l’autre. On peut sourire à l’ambition de tous ces jeunes entrepreneurs, sociaux ou non, qui affirment vouloir changer le monde, et en même temps se dire que ça vaut mieux que le contraire.

Ce qui se passe sur le Web, autour de lui, continue en effet de nous surprendre, et ce n’est pas fini. L’essor récent de la consommation collaborative, celui de nouvelles formes de monnaie, la montée en puissance des données (big, open, linked, self, smart, etc.), les disruptions numériques engagées dans la santé ou l’éducation, etc. Il se passe chaque jour quelque chose ! Il y a une sorte de force vitale qui fait aujourd’hui du numérique le pôle d’attraction de millions d’innovateurs et d’entrepreneurs et la source de la transformation d’à peu près tous les secteurs, tous les domaines d’activité humaine, toutes les organisations, tous les territoires.

En revanche, le numérique en général et par conséquent, le web et l’internet, sont de plus en plus questionnés sur ce qu’ils produisent, sur les valeurs qu’incorporent leurs architectures, les intentions derrière leurs applications, les rapports de force qu’encodent leurs plateformes. Dans la dernière édition de notre cycle annuel de prospective, Questions Numériques, nous écrivions : « Le numérique change tout. C’est sa force. Mais il ignore en quoi. C’est sa faiblesse. » La faiblesse de l’apprenti sorcier, qui devient difficilement tolérable quand celui-ci n’a plus de maître.

Je pense que notre prochaine frontière se situe au croisement des deux grandes transitions contemporaines, la transition numérique et la transition écologique. La transition écologique sait formuler son objectif, mais trois décennies après le sommet de Rio, force est de constater qu’elle ne sait pas décrire le chemin pour y arriver. La transition numérique, c’est le contraire : elle sait créer le changement, mais elle en ignore la direction. Chacune a besoin de l’autre. Nous allons chercher à les rapprocher.

kaplan