Décodez le code !

decodez-le-code-1En cette rentrée 2016, l’apprentissage « du code » est désormais présent dans les programmes scolaires, devenant un des axes d’une éducation créative et responsable au numérique. Les professionnels de l’éducation sont-ils seuls face à ce défi ? Thierry Viéville.

L’Éducation Nationale positionne la culture informatique comme un enjeu majeur dans un monde numérique où la nécessité d’une formation critique n’est plus à démontrer. Pour rendre cela possible, la question cruciale est celle de la formation des professionnels de l’éducation et de la mobilisation de la société civile.

Bienvenue le 13 octobre pour en parler !

Les acteurs académiques, associatifs et industriels du numériques, ont unis leurs forces au sein de quatre programmes soutenus au titre des Investissement d’Avenir Capprio, Class’Code, D-clics Numérique et Ecole du Code pour offrir dès cette rentrée, formations, ressources et accompagnements aux enseignants, animateurs et parents sur ces sujets.

Elles et ils vous invitent à découvrir leur réponse et à contribuer à la réflexion à l’occasion d’une journée de partage :

Décodez le code
13 octobre 2016, de 10h30 à 17h30
EdFab
Maison des Sciences de l’Homme Paris Nord
20 avenue George Sand, 93 210 SAINT-DENIS
Métro Front populaire

decodez-le-code-2

Dépasser les idées reçues sur le « code »

Il se trouve encore quelques journalistes nostalgiques du bon vieux temps pour parler de « faire des enfants de mini-geeks ou des robots » (sic) ou questionner : « le numérique à l’école est-il vraiment utile? ». Mais les débats sont ailleurs et bien plus constructifs.

  • Comment mettre ces nouveaux savoir-faire au service des enseignements fondamentaux ? (Par exemple : donner envie de lire et écrire à travers des outils numériques.)
  • Comment faire de la formation au code un vrai levier de seconde chance ? (Par exemple : permettre à une ou un jeune de se découvrir des talents, dans un domaine différent des mati��res scolaires usuelles.)
  • Comment permettre aux jeunes de garder le contrôle sur leurs données ? (Par exemple: en leur expliquant comment ça marche avant de leur proposer les bonnes recettes.)
  • Comment montrer que le monde scolaire et péri-scolaire, académique et industriel, institutionnel et associatif peut se rassembler dans l’intérêt de nos enfants ? (Par exemple : avec des professionnels de l’informatique qui viennent donner un peu de temps auprès des professionnels de l’éducation.)

Comment ? Nous avons nos avis, des réponses, mais nous avons aussi besoin des vôtres : bienvenue le 13 octobre !

Antonin Cois pour D-clics Numériques, Catherine Rolland pour École du Code, Juliette Guillaut pour Capprio, Lola Kahn pour Cap’Digital, Sophie de Quatrebarbes pour Class’Code.

C’est clair, Net et Public

Aujourd’hui, nous sommes tous des usagers du numérique ; du plus grand au plus petit (la formule de 7 à 77 ans est devenue obsolète), nous cherchons de l’information, nous utilisons des applications les plus diverses et variées, nous publions des photos ou bien encore nous fournissons nos données à une large gamme de sites sur internet, pour les plus aguerris. Par contre, nous ne sommes pas forcément tous égaux devant cet environnement numérique, certains sont même totalement démunis devant l’usage d’internet. Parmi les 2,5 millions de résultats proposés par votre moteur de recherche sur le terme de « ressource numérique », nous vous proposons de vous arrêter sur un site : NetPublic. Pourquoi ? Tout simplement parce qu’il propose « d’accompagner et de favoriser l’accès de tous à la maîtrise des usages du numérique ».

5MEacqm8NetPublic est un site édité par l’Agence du Numérique directement rattachée au Ministère de l’Économie et des Finances. Le site est organisé par grandes sections reflétant les grands axes de cet ambitieux programme : les espaces publics numériques (EPN), les emplois d’avenir numériques (Eavnum), le passeport internet et multimédia (PIM), les initiatives liées au numérique, les ressources classées par publics ou besoins et une rubrique spécifique pour les animateurs en chargent de la transmission et de l’accompagnement pédagogique auprès de tout type de population.

Les objectifs affichés sont de :

  • faire connaître à tous les lieux d’accès public et d’accompagnement à l’Internet et les services qu’ils proposent, faciliter la recherche de ces services,
  • offrir aux professionnels et aux bénévoles qui animent ces lieux et ces services un espace gratuit d’information, de ressources, de partage et de valorisation de leurs initiatives,
  • favoriser la mutualisation de ressources, les échanges entre les acteurs et contribuer au développement d’une communauté de professionnels de l’accompagnement à l’Internet et au numérique.

NetPublic est donc moins destiné aux usagers qui ont besoin d’être encadrés dans leur pratique ou découverte du numérique qu’aux acteurs et professionnels de l’accompagnement aux Technologies de l’Information et de la Communication, aux responsables et animateurs d’espace public numérique (EPN), aux médiateurs numériques. Par effet de bord, le site connait une popularité grandissante auprès de tous ceux dont l’activité est liée au numérique, autant dire énormément de monde.

NetPublic regorge de contenus et de liens permettant d’enrichir sa culture numérique. On imagine sans mal la petite équipe derrière ce portail ; un ou deux rédacteurs appuyés par un social média manager ? Il m’a fallu moins de 10 minutes pour recevoir une réponse à ma demande de contact en ligne et comprendre que toutes ces compétences sont le fait d’une seule personne mais pas des moindres. Jean-Luc Raymond est consultant senior en stratégie et projets numériques et l’un des premiers français à s’être engagé sur les réseaux sociaux et à s’y investir. Il a d’ailleurs récemment été classé premier dans le top 10 des « influenceurs » français.

Photo Jean-Luc Raymond - Copyright Nikos Aliagas
Jean-Luc Raymond – Copyright Nikos Aliagas

Jean-Luc Raymond anime NetPublic depuis sa création, le site a d’ailleurs fêté en toute discrétion ses 6 ans d’existence en juin dernier.

Cet expert des médias sociaux a donc mis ses compétences et ses valeurs au service de la réussite de ce portail. 40% de son activité est dédiée à NetPublic, le reste de son temps est consacré à ses autres projets professionnels et une production éditoriale très abondante sur les réseaux sociaux.
Il parle de NetPublic avec passion et fierté ; « C’est un site de ressources dont 95% est en Creative Commons. En terme d’audience, nous avons entre 100 000 et 150 000 visiteurs par mois, c’est le site qui fait le plus d’audience à l’Agence du Numérique. Nous sommes d’ailleurs très honorés d’être le seul site externe à figurer sur la page de Pole Emploi (pointant sur les lieux d’accès public à internet que référence NetPublic)».

L’anecdote rapportée par Jean-Luc Raymond sur le fait que NetPublic a d’abord débuté sur Twitter avant même que le site soit ouvert (pour des raisons de calendrier), met l’accent sur l’importance donnée à la promotion des articles via les réseaux sociaux. 25% du trafic sur le site passe par ce biais, les quelques 36 300 abonnés sur Twitter et plus de 5000 fans sur Facebook en sont la preuve.

Le rythme de 3 à 4 publications par jour soit environ 40 à 50 articles par mois se maintient grâce à un travail de veille important via les réseaux labellisés ou par les acteurs publics du numérique. La mise en lumière des initiatives locales ou internationales, dès lors que le contenu est francophone (principalement du Canada, de Suisse, de Belgique ou du Luxembourg), a fait notamment exploser l’audience. Les idées d’articles sont donc principalement liées à cette veille qui permet de cerner l’évolution des pratiques, d’être en alerte sur les sujets d’actualités ou sur les besoins exprimés par les animateurs confrontés aux usagers en quête de sens qui déplorent de ne pas trouver des ressources adaptées sur certains sujets. On déplore juste que le site soit esthétiquement désuet et qu’il ne soit pas adaptatif mais comme l’explique Jean-Luc Raymond, la priorité est donnée à la production de contenus pour répondre à la demande de celles et ceux qui accompagnent tous les publics au monde du numérique.

Ce qui participe sans aucun doute à la qualité de ce portail de ressources, ce sont les règles éditoriales qui sont fixées. La neutralité des contenus est privilégiée ainsi que la pertinence des initiatives et la qualité pédagogique des ressources. NetPublic est conscient de sa responsabilité sociale par rapport à l’éducation au numérique à destination du grand public ou des publics en difficulté : informer, éduquer, faire comprendre pour mieux appréhender le potentiel et les risques. A titre d’exemple, les derniers articles publiés reflètent bien la diversité des ressources et des publics. Vous y trouverez par exemple un lexique du numérique pour les seniors, des guides pratiques pour l’accompagnement au numérique à destination des commerçants et artisans, une liste d’applications gratuites pour flouter un visage dans une photo ou une vidéo. La grande fierté qu’évoque son animateur est que le site sert de vitrine à des initiatives locales ce qui a permis à certaines personnes de trouver des emplois grâce à la visibilité qu’avait apporté le site à leur projet.

Et, non, cet article n’est pas de la publicité. C’est juste que Binaire aime beaucoup ce que fait NetPublic. Quelque soit votre niveau de compétences en terme d’usages du numérique, il y aura toujours un article qui pourra vous intéresser sur NetPublic, il vous permettra d’explorer des ressources et des projets modestes ou ambitieux dans le seul but de parfaire votre éducation au numérique.

Binaire souhaite une longue vie à NetPublic !

Marie-Agnès Enard

Laurence Devillers : l’empathie des robots

Laurence Devillers est Professeure à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur du CNRS. Elle nous parle des dimensions affectives dans nos interactions avec les machines. Avec elle, nous pouvons imaginer ces robots à venir qui participeront au soin des personnes âgées, les aideront dans leurs tâches quotidiennes, leurs permettront de rester plus longtemps autonomes. Cela nous conduit évidemment à réfléchir à un autre sujet : il ne faudrait pas que de tels robots deviennent une excuse pour nous décharger sur eux du soin de personnes qui doivent aussi être entourées par des humains.
Laurence Devillers est membre de la CERNA, la commission de réflexion sur l’Ethique de la recherche en sciences et technologies du Numérique d’Allistène et a participé au rapport sur l’Ethique du chercheur en robotique. Elle participe également à une initiative mondiale IEEE sur l’éthique dans la conception de systèmes autonomes.

Dans le cadre des Entretiens autour de l’informatique.

Laurence Deviller @LD
Laurence Devillers ©LD

B : Laurence, ta page web explique que ta recherche porte sur la « dimension affective et sociale dans les interactions parlées avec les robots ». Tu peux nous expliquer ?
LD : Lorsqu’on interagit avec quelqu’un, on fait passer par le langage verbal et non verbal, non seulement des informations sémantiques mais aussi des informations d’ordre affectif et social, liées à la connaissance qu’on a de l’autre, à l’intimité qu’on va avoir avec l’autre. Le langage non verbal, par exemple l’intonation de la voix, les gestes, les mimiques faciales, mais aussi l’attitude corporelle nous permet d’exprimer  beaucoup d’informations émotionnelles. Nous essayons de faire des machines qui aient ce type de compétence, qui comprennent les humains, des machines « empathiques », capables d’exprimer une émotion particulière à un moment donné.

B : Comprendre ce que ressent une personne, pour mieux la servir, c’est facile de voir pourquoi c’est utile. Mais pourquoi une machine devrait-elle exprimer de l’empathie ?
LD : Cela peut servir à expliquer, à éduquer, à rassurer les personnes avec lesquelles la machine interagit. Par exemple, je pense à la stimulation cognitive des personnes âgées atteintes de maladies telles que la maladie d’Alzheimer. Un robot peut réagir comme un chat, avec des comportements pseudo-affectifs. Le malade va alors jouer avec le robot comme si c’était un animal de compagnie, ce qui le stimule du point de vue émotionnel et crée un lien social. De même, les robots peuvent aider des enfants autistes qui ont du mal à exprimer leurs émotions ou à comprendre les émotions des autres.

Mais il nous reste beaucoup de progrès à réaliser. Nous sommes seulement capables de créer des objets non contextualisés, qui ne savent pas vraiment interagir avec le monde réel. L’adaptation des robots aux personnes et au contexte est un défi, et ce défi passe par la modélisation des états affectifs.

B : La difficulté pour un robot est-elle de comprendre les sentiments des personnes ou est-ce de simuler des sentiments ?
LD : Les émotions sont en quelque sorte l’expression des sentiments, l’interface avec les autres. Les émotions vont de pair avec des sensations physiques et un passage à l’action,  par exemple la fuite devant un serpent. L’expression des émotions est multimodale et combine des indices dans la voix, le visage et les gestes. Il est plus facile, d’un point de vue informatique pour un robot de simuler des émotions même si celles-ci sont dépourvues de sensations physiques que de les reconnaître. Pour créer une expression émotionnelle sur le visage, nous pouvons nous appuyer sur de nombreux travaux depuis Darwin, par exemple ceux de Paul Ekman, qui a créé des unités faciales que l’on peut composer sur le visage d’un robot afin d’exprimer une émotion donnée. Il y a aussi un grand nombre de travaux sur la génération des gestes et sur la synthèse émotionnelle de voix expressive.

Pour la reconnaissance des émotions, c’est beaucoup plus compliqué à cause de la très grande variabilité des expressions entre les individus suivant les contextes et les cultures. Les sentiments sont des représentations mentales conscientes et sont souvent cachés, particulièrement dans certaines cultures. Par exemple, il nous arrive d’exprimer une émotion positive et d’éprouver en réalité un sentiment de tristesse. Si le robot reconnaissait les expressions émotionnelles exprimées par une personne, il pourrait peut-être ensuite prédire le sentiment suivant le contexte. Pour la reconnaissance des émotions à partir de la voix, on s’appuie par exemple sur des indices comme le timbre, l’énergie, le rythme ou encore la qualité vocale de la voix d’une personne. On utilise des techniques d’ « apprentissage automatique » pour modéliser les émotions. C’est le machine learning dont on parle tant en ce moment.

B : Tu peux nous en dire un peu plus sur les algorithmes que vous utilisez ?
LD : Nous procédons en trois phases : codage, étiquetage, modèle. Prenons un exemple de reconnaissance des émotions à partir d’une bande son. Nous choisissons dans ce signal un certain nombre d’ « aspects », qui vont nous donner des centaines, voire des milliers de coordonnées physiques. Nous codons donc la bande son en une séquence de vecteurs de ces coordonnées. Le codage est la phase la plus compliquée. Il faut choisir les bons paramètres, et cela demande une compréhension poussée des expressions des émotions. Il faut arriver à une information plus compacte, mais qui ait gardé suffisamment d’information pour pouvoir encore y retrouver les émotions.

L’être humain intervient ensuite en étiquetant ces séquences de vecteurs (segments de son, de vidéo), avec des émotions, colère, joie, tristesse… L’algorithme d’apprentissage automatique essaie ensuite d’ « apprendre » un modèle à partir du signal et des étiquettes. C’est ce modèle que le robot va utiliser. Une personne va parler et un programme va utiliser alors le modèle pour prédire que le signal correspond vraisemblablement à telle ou telle émotion.
En quelque sorte, le programme essaie de trouver des ressemblances avec des signaux existants dans le corpus de données de départ. S’il trouve une ressemblance avec un signal étiqueté « colère », il en déduit que la personne est en colère.

La détection des émotions dans une vidéo sur Youtube, « Vivre avec les robots »  © Élodie Fertil

B : Vous utilisez l’apprentissage profond, le deep learning ?
LD : Nous avons surtout utilisé une autre technologie, les « machines à vecteurs de support », pour la détection des émotions. Nous commençons à utiliser le deep learning, c’est à dire les « réseaux de neurones convolutionnels », mais il est nécessaire d’avoir de très grands corpus pour l’apprentissage. Le deep learning extrait directement les paramètres à partir du signal brut et les compose automatiquement. C’est une direction intéressante qui donne de bons résultats mais c’est une approche de type boite noire qui ne permet pas de savoir quels sont les critères utiles. L’approche manque de transparence.

B : On voit bien l’importance de la qualité des données du départ, et de leur étiquetage.
LD : C’est essentiel. La plupart des corpus disponibles sont artificiels. Ils sont obtenus par exemple avec des acteurs de théâtre à qui on demande de reproduire des émotions. Et c’est une limitation importante. Un axe majeur de recherche est de construire des corpus importants de données sur les sentiments, obtenus dans des contextes réels, étiquetés par les émotions effectivement présentes. Pour ma part, j’ai travaillé avec des corpus réels enregistrés au SAMU. Nous observons alors que la plupart des émotions ne sont pas aussi simples que cela. Elles sont souvent mélangées, par exemple vous pouvez ressentir de l’anxiété, ou de la peur et du soulagement en même temps parce que quelqu’un vient vous aider. Nous retrouvons cette complexité dans des conversations, que nous avons également étiquetées, de clients non satisfaits et qui contactaient le centre d’appels d’EDF.

De manière plus générale, nous analysons les informations linguistiques, les mots que les personnes prononcent, ainsi que les informations paralinguistiques, les intonations, le rythme, le timbre de la voix mais également certaines expressions du visage comme le sourire, etc. Nous essayons de corréler toutes ces informations pour comprendre le sentiment réel de la personne.

B : Quel est le critère de succès ?
LD : Il est très simple : c’est la réaction de l’individu devant le robot. Concrètement, si le robot dit « Tu as l’air en colère, Marie », et que Marie répond : « Oui ! Je suis très en colère », c’est gagné !

B : Mais nous n’exprimons pas tous nos sentiments de la même manière. Pouvez-vous personnaliser cette analyse en fonction de l’individu ?
LD : Nous normalisons la voix, puis nous construisons au fur et à mesure un profil expressif de la personne, par exemple ses dimensions d’extraversion, d’émotionalité et d’interaction : répond-elle quand nous lui posons une question ? Nous conservons cette information et nous pouvons en tenir compte pour analyser plus tard les sentiments de cette personne ou pour la prise de décision du robot et le changement de comportement en temps réel durant l’interaction. Il est aussi important d’adapter ces technologies en fonction des différentes cultures.

B : Les machines sont-elles capables de faire des choses que les psychologues ne peuvent pas faire ?
LD : Les robots peuvent avoir une meilleure qualité de perception. Ils peuvent chercher dans la voix des indices que l’oreille humaine n’entend peut-être pas. Par exemple, la personne peut faire passer ses émotions par des micro-tremblements, qu’un humain n’entendra pas forcément mais qu’une machine peut entendre. Les médecins sont preneurs de telles technologies surtout pour le suivi de malades.

Les robots peuvent aussi enregistrer et analyser des signaux 24 heures sur 24. Ils peuvent y détecter des signes et quand c’est nécessaire déclencher une alerte auprès d’un médecin. Par exemple, en ce qui concerne les débuts de démence ou de dépression, il peut y avoir des signes ponctuels pendant la journée, qui ne surgissent pas forcément au moment où le patient voit le médecin.
Enfin, les robots sont patients. Des humains en fin de vie ont un rythme très lent. Les humains accompagnants ne sont pas toujours prêts à répéter les mêmes phrases avec un rythme super lent, mais un robot, si. Le robot sait synchroniser ses mots dans un dialogue très lent. Il sait attendre que quelqu’un trouve ses mots.

B : L’humain n’aura-t-il pas l’impression qu’on rentre dans son intime, si la machine sait tout ce qu’il ressent ?
LD : Il faut des garde-fous. Personnellement, je trouverais insupportable un environnement dans lequel nous serions entourés de machines qui analyseraient nos émotions, sans raison, ou juste pour des motifs commerciaux, ou pour une surveillance policière. Mais si c’est pour l’accompagnement médical des personnes, pour leur bien-être, cela se justifie.

Attachement aux robots.
Le Centre communal d’action sociale d’Issy-les-Moulineaux met à la disposition des personnes âgées un robot NAO «coach pour seniors» pour animer leurs activités.

B : Ces liens d’émotion entre humains et robots ne peuvent-ils pas avoir quelque chose de déconcertant, voire d’inquiétant ?
LD : Dans les années 50, les psychologues Heider et Simmel ont fait l’expérience de projeter un film où un grand triangle poursuivait deux autres petites formes géométriques, un triangle et un rond. Les spectateurs, en voyant ces mouvements, leur prêtaient des intentions et imaginaient des scenarios rocambolesques sachant très bien qu’ils s’agissaient de formes géométriques. Dans le film, il y a bien une intention qui vient du réalisateur, mais le sentiment vient de l’interprétation que l’humain fait de ce qu’il voit. Est-ce qu’un robot a des sentiments ? Non, c’est l’humain qui lui prête des sentiments, une personnalité. On peut ainsi parler à son chien ou à son chat en étant parfaitement conscient qu’il ne comprend pas.

Les roboticiens cherchent à produire des robots avec lesquels une personne aura de l’empathie. Pour eux, les machines simulent, ce sont juste des coquilles vides qui n’ont pas d’intériorité, pas d’émotions. Ce sont les utilisateurs de ces machines qui vont interpréter leur comportement à travers un prisme anthropomorphique, leur prêter une humanité qu’elles ne possèdent pas. Les utilisateurs vont projeter leurs émotions sur ces machines. Mais est-ce que c’est gênant ? Où est le problème si les personnes préfèrent s’imaginer que les robots ont des émotions ? De mon point de vue, il n’y a pas de problème.

Je ne vois qu’un seul risque : que l’humain s’attache trop à un robot. Il faut maitriser cette empathie avec les machines pour éviter la confusion avec une empathie humaine. Ce risque est d’autant plus présent que la future génération de robot sera douée d’apprentissage en continu. Les robots apprendront au contact des humains ce qui risque de renforcer l’attachement à la machine, un peu comme un adulte apprend à son enfant. L’apprentissage en continu des machines est une importante rupture technologique et juridique. Il y pourrait y avoir une coresponsabilité en cas de problème avec un robot entre le concepteur et l’utilisateur.

Laurence et Zora @LD
Laurence et Pepper ©LD

B : Tu es passionnée par ton travail. Qu’est-ce qui te motive ?
LD : Le mystère des sentiments. Je cherche avant tout à comprendre. Quand j’étais enfant, je voulais travailler sur le cerveau. Je ne suis pas si loin ! Cela m’a conduite à interroger mon rapport aux machines et aux robots et à réfléchir sur l’éthique de ces robots affectifs artificiellement. J’aimerais construire des systèmes d’interaction entre robots et humains qui respectent les règles morales de la vie en société et puissent accompagner les personnes âgées notamment souffrant de la maladie d’Alzheimer. A titre personnel, j’aimerais avoir, chez moi dans trente ou quarante ans, un robot qui ait aussi le sens de l’humour ! C’est un sujet de recherche sur lequel nous travaillons.

Entretien recueilli par Serge Abiteboul et Claire Mathieu.

Pour aller plus loin : « Rire avec les robots pour mieux vivre avec », Journal du CNRS 2015.

Robot, tu seras humain et drôle:

Cet article est publié en collaboration avec The Conversation.

La culture numérique s’expose et se partage

L’association Fréquence écoles s’engage depuis bientôt 20 ans à favoriser « une attitude critique des jeunes face aux médias ». Composée de professionnels de la communication, de chefs de projets pédagogiques ou d’experts médias, l’association organise des événements, propose des interventions ou des formations ainsi qu’une multitude de ressources à destination des enfants et des adolescents mais aussi pour des enseignants ou des éducateurs. Parmi toutes les actions proposées par l’association pour mieux comprendre notre environnement face aux informations transmises par les médias, binaire a souhaité mettre en avant l’exposition dédiée à la culture numérique.

En mars dernier, Fréquence écoles a organisé, pour son événement Super Demain, l’exposition interactive Comment découvrir le potentiel des cultures numériques pour comprendre et mieux appréhender notre société médiatique et numérique.

Cette exposition est organisée autour de 5 thèmes :

  • Jeu-vidéo
  • Média
  • Data
  • Makers
  • Enfance
Fréquence écoles

Au total 39 panneaux permettent d’explorer ces thèmes par le biais d’infographies, de chiffres, de définitions, ou encore de pistes de réflexion.

Parce que la culture numérique se partage, comme nous le rappellent nos amis de Pixees qui proposent eux aussi, des ressources autour des sciences du numérique, Fréquence écoles a mis à disposition en téléchargement l’ensemble des contenus de l’exposition (sous licence Creative Commons).

 

Et pour terminer sur une petite anecdote, jetez un œil à la composition de l’équipe permanente de l’association, vous aurez un bel exemple que le numérique se conjugue aussi aux féminins.

Marie-Agnès Enard

Les métiers du Web ont de l’avenir

Quels sont les métiers du web ? ©Wizbii
Quels sont les métiers du web ? ©Wizbii

Avec près de 35 000 emplois créés en 2015, le numérique est une filière en bonne santé. Est-il encore utile d’enfoncer des portes ouvertes ? Oui, parce que ces métiers ne parlent pas encore à nos enfants, filles et garçons. Alors donnons la parole à Adrien Pepin, qui partage ici quelques bons pointeurs sur ce sujet. Thierry Viéville.

 

Avec près de 35 000 emplois créés en 2015 selon Syntec Numérique et une estimation de création nette de 36 000 emplois à horizon 2018 selon une étude du FAFIEC, le numérique fait partie des filières en bonne santé.

Alors, côté orientation pour les jeunes, on peut se demander où est le problème ? C’est simple : il n’est pas si facile de s’orienter et de comprendre le champs des possibles dans une filière relativement jeune et en rapide évolution.

Métiers du web : une large palette

La multitude de métiers qui existent et se créent dans le numérique nécessitent de nouveaux profils, à la fois différents et complémentaires. Sans se lancer dans une liste exhaustive, voici un exemple de domaines et de métiers que l’on peut retrouver :

Design & Conception Web designer, UX designer, Ergonome, Directeur artistique, Directrice de création…
Technique & Développement Développeuse web, Développeur mobile, Responsable technique, Directrice des systèmes d’information, Architecte réseaux…
Gestion de projet & manager Chef de projet fonctionnel, Cheffe de projet technique, Chef de produit, Consultante web, Directeur de l’innovation, …
Webmarketing & communication digitale Chargé de communication web, Social Media Manager, Community manager, Cheffe de projet CRM, Responsable digital, …

De nombreuses ressources sur le web en parlent comme metiers.internet.gouv.fr ou encore la récente étude des salaires par le cabinet Robert Half. Il existe aussi un réseau social des professionnelles et professionnels de ce secteur, wizbii pour trouver des opportunités.

Pourquoi se former aux métiers du web ?

La liste des métiers est longue… mais aussi évolutive. Dans un monde et une filière qui bougent, les métiers évoluent, se créent et s’inventent ! Ainsi on peut voir naitre des fonctions amenées par le numérique comme Data Journaliste ou Veilleuse Stratégique, tandis qu’une fonction de management comme Chief Digital Officer, par exemple, est rapidement en train de se déployer dans les entreprises.

Bien adaptés pour ceux et celles qui ne tiennent pas à faire la même chose toute leur vie, parfaits pour qui aiment apprendre, créer, développer, les métiers du web aiment le changement et cassent la routine !

Comme l’explique Sophie Lebel sur wizbii, pour les jeunes, les études dans le Web sont accessibles à toutes et tous, quels que soient les niveaux d’études, les parcours ou les profils. Les cursus y sont pluridisciplinaires ce qui permet d’être polyvalent et le numérique concerne tous les secteurs d’activité : solidarité sociale, tourisme, innovation, etc. Il n’y a que l’embarras du choix !

Comment se former aux métiers du web ?

Les métiers du Web
Les métiers du Web, © ONISEP

Depuis une dizaine d’année, le nombre de formations ne cessent de croitre face aux besoins de plus en plus importants de ce type de profils. Il n’existe pas de recette miracle, ce sont vos envies et votre profil qui vous permettront de choisir la bonne école.

Pour aider, l’ONISEP propose une brochure sur les métiers du Web, dont on peut feuilleter un extrait en ligne.

Un premier levier: la spécialité ISN au lycée. Depuis 2012, le gouvernement a lancé la spécialité ISN (Informatique et Sciences du Numérique) destinée aux lycéens de la filière S. L’objectif de cet enseignement est conçu comme une initiation et une découverte des fondamentaux du numérique et de ses problématiques. Cette spécialité est de plus en plus représentée dans la filière numérique comme par exemple à l’école Web School Factory“le nombre de candidats reçus ayant pris cette spécialité au lycée a quasiment doublé” selon la responsable des admissions de l’école.

En bref, la spécialité ISN est certainement l’une des meilleures options au lycée pour commencer à se mettre dans le bain du numérique.

Après le bac : vous avez du choix !

Bac en poche, les jeunes ont un large choix concernant leur orientation. Les cursus universitaires comme le DUT MMI, Ingémédi, offrent des formations avec un cursus classique à large spectre. Les écoles des métiers du Web comme la Web School Factory, HETIC, permettent de se concentrer tout de suite sur un parcours professionnalisant. Les écoles d’ingénieur-e-s publiques ou privées proposent les métiers du Web comme spécialisation. Et il y aussi des parcours alternatifs avec des pédagogies complètement différentes, comme l’École 42, ou Simplon.co.

Le secteur des métiers du Web est aussi un espace moins tributaire des freins qu’impose la société à qui veut réussir, quelle que soit son origine. C’est ce qu’offre par exemple Simplon.co comme le raconte ce témoignage dans Binaire.

Le choix d’une formation n’est pas simple : la meilleure école n’existe pas. Il s’agit juste de choisir l’école qui correspond le mieux à son profil, ses envies et ses attentes.

metiers-du-web-temoignage

Extrait de la brochure ONISEP sur les métiers du Web. ©ONISEP

Pédagogie nouvelle : apprendre en faisant, une tendance de fond

C’est une tendance avérée et qui porte ses fruits. Les nouvelles pédagogies autour du “mode projet” se multiplient. Un type d’enseignement particulièrement adapté à des élèves curieux des nouvelles technologies, ambitieux, doués et qui ont parfois du mal à s’épanouir dans un cursus plus classique ou trop théorique.

A titre d’exemple, les projets représentent 1/3 du cursus dans une école comme la Web School Factory. Les étudiants sont sans cesse confrontés au monde de l’entreprise et ses problématiques. Ils acquièrent ainsi de l’expérience et une valorisation concrète de leurs connaissances théoriques.

Adrien Pepin Responsable digital @WSFParis, Papa de @avecmoncafe

Twinlife : WhatsApp avec l’éthique en plus

GAFAM ©Puyo
GAFAM © Laure Cornu

Pour communiquer au siècle dernier, nous avions le téléphone et la poste. Si on peut encore envoyer une carte postale au parfum délicieusement suranné, les choses ont bien changé avec les textos, les courriels, les appels vidéo comme Skype, les chats comme WhatsApp, etc. C’est devenu difficile d’innover dans le secteur ? C’est ce que nous croyions jusqu’à notre rencontre avec Michel Gien de Twinlife, qui développe l’application Twinme.
Quel est le problème de tous ces systèmes communicants ? Vos données personnelles sont livrées au tout venant. Si tous ces systèmes ne vont pas jusqu’à lire par dessus votre épaule comme peuvent le faire certains services de courriels, ils s’approprient sans état d’âme vos listes de contacts, vos réseaux sociaux… C’est ce que refuse de faire Twinme.

L’angle de Twinme : le bête numéro de téléphone. Vous vous inscrivez quelque part, et il faut fournir ce numéro. A tout hasard ? Pas du tout. Votre numéro de téléphone n’est plus à vous. N’importe qui peut vous appeler. Et puis, c’est un excellent identifiant. Quoique vous fassiez, vous êtes maintenant repérés. Ces systèmes se repassent ce numéro, se l’approprient. Ils croisent des données à partir de ce numéro.

Avec Twinme, oubliez les numéros de téléphones, c’est ringard !  Si vous n’utilisez plus de numéro de téléphone, vous ne serez déjà plus spammé par téléphone. Vous pouvez chater ou passer un appel audio/vidéo sans numéro de téléphone. Vous êtes autant de profils que vous le souhaitez. Vous contrôlez vos chats, vos appels. C’est vous qui créez, et gérez, les connexions que vous voulez avoir avec vos amis, vos fournisseurs, vos contacts. Vous créez un lien comme vous le voulez, vous le supprimez quand vous voulez. Vous contrôlez votre vie numérique.

Twinme attaque bille en tête les WhatsApp, Skype, Messenger… Cela ne va pas être simple. Surtout que Twinme ne monétisera pas vos données. Il leur faudra trouver autre chose comme de faire payer certains échanges commerciaux. Mais Twinme a un joker : Twinme protège la confidentialité de vos données, protège votre vie privée.

Et la techno là dedans ? Twinme s’appuie sur du pair-à-pair. Il n’est pas nécessaire de passer par un serveur qui pourrait espionner vos communications. Vous communiquez directement. Le système s’appuie sur la technologie WebRTC, un logiciel libre qui offre une super qualité pour des communications audio et vidéo. La protection des données personnelles ne passe pas forcément par une mauvaise qualité.

Un premier marché : les pré-ados. Une carte SimData et le contrôle parental et ils apprennent à n’avoir des communications qu’avec des personnes approuvées par les parents, rencontrées d’abord IRL (« in real life »).

La défense des données personnelles a de nombreuses facettes. La monétisation de ces données est au cœur du business model des poids lourds du net. Chaque jour se dessinent de nouvelles lignes de tension. Cela nous ramène à des sujets que nous avons déjà abordés dans Binaire avec CozyCloud, WeTube, ou les blockchains. S’il n’y a pas de solution miracle, peut-être Twinlife a-t-elle un bout de la solution. Nous verrions bien ces jeunes pousses qui se battent pour la défense de vos données personnelles former une coalition vertueuse. Ensemble, elles apporteraient peut-être une vraie alternative au rouleau compresseur des GAFAM. Nous aimerions y croire…

Serge Abiteboul, Marie Jung

Informaticiens, tous coupables ?

(c) S. Kirszenbaum
(c) S. Kirszenbaum

Pour les informaticiens, il n’est pas simple d’être à la fois vus comme les bâtisseurs des cathédrales d’aujourd’hui que sont les logiciels qui transforment notre monde, et les fossoyeurs en puissance de l’humanité. Au cœur de la question est la responsabilité, la responsabilité dans le cas d’une voiture autonome qui précipite son non-conducteur dans un camion, la responsabilité de la concentration des richesses causée par l’automatisation, la responsabilité quand un internaute baignant dans les réseaux sociaux bascule dans le terrorisme… Il fallait bien un ami philosophe et scientifique, Alexei Grinbaum, pour aborder le sujet. Serge Abiteboul. Cet article est publié en collaboration avec The Conversation.

Concepteur, opérateur, utilisateur

Qu’il s’agisse d’une machine qui calcule par elle-même, dotée d’un degré plus ou moins poussé d’autonomie, ou d’une machine individualisée, différente de ses sœurs grâce à la collecte des données uniques, la machine reste, jusqu’à nouvel ordre, une chose. La responsabilité, elle, revient toujours à une personne : le concepteur de la machine, son opérateur, qui possède quelques connaissances techniques, ou son utilisateur, qui, par définition, n’en possède aucune. Le problème éthique et juridique consiste à distinguer, dans le cas des systèmes informatiques capables d’apprendre ou dotés d’intelligence artificielle, entre les décisions et les actions de ces systèmes dont la responsabilité appartient à ces trois catégories d’agents.

Toute différenciation de ce type s’appuie nécessairement sur la possibilité de reconstruire la chaîne causale des décisions prises algorithmiquement. Pour réaliser une telle reconstruction, la traçabilité est essentielle : on cherche à connaître avec précision le déroulement de la prise de décision afin d’en déceler l’élément critique. Le sursaut technologique récent en intelligence artificielle et l’actualité qu’il produit, par exemple l’accident mortel avec une voiture Tesla « auto-pilotée », montre l’urgence d’exiger — pourquoi pas par une loi ? — que cette traçabilité accrue soit assurée par le concepteur à tous les stades du fonctionnement du système informatique.

Connaissance et responsabilité

noun_301197_ccLe concepteur possède la connaissance du code qui fait fonctionner le système informatique. Cette connaissance lui confère un pouvoir et une responsabilité. Cependant, sa connaissance est limitée : un système informatique apprend grâce aux données fournies par l’opérateur ou à celles qu’il collecte sans supervision en cours de l’utilisation. Le comportement d’un système capable d’apprendre peut être totalement imprévisible pour le concepteur : le pouvoir du programmeur devient passif au moment où le code qu’il a écrit est mis en exécution. Sa responsabilité est donc limitée et l’opérateur, au cas où il sélectionne des données pour l’apprentissage, la partage avec le concepteur. L’utilisateur, lui, ne reste pas non plus à l’abri de la responsabilité. Dans le cas d’un smartphone ou d’un robot, il possède le système informatique considéré alors comme un objet matériel. Le droit actuel le responsabilise en conséquence, en tant que propriétaire d’une chose. Or, par manque de connaissance du fonctionnement interne de cette chose, l’utilisateur n’a aucun pouvoir effectif sur elle malgré le fait de la posséder. Dans les cas concrets, c’est la possibilité de remonter la chaîne des décisions qui permet d’établir un partage de la responsabilité entre l’utilisateur, l’opérateur et le concepteur. Un point intéressant : la responsabilité en informatique est surtout régie par des rapports de connaissance au dépens des relations de propriété.

Le dilemme éthique et juridique

Le dilemme éthique fondamental consiste à demander si un système informatique peut se voir attribuer une responsabilité, autrement dit, si, dans certaines circonstances, il peut devenir un sujet plutôt qu’un objet. Actuellement, la responsabilité des personnes repose sur l’imputabilité de l’acte dont ces personnes seraient responsables ; or l’intelligence artificielle permet à la machine d’atteindre un degré avancé d’autonomie tel que sa décision ne peut être directement imputée à une personne humaine. Le choix est alors entre deux options : soit l’attribution d’une responsabilité à l’humain malgré le manque d’imputabilité, soit la création d’un statut juridique intermédiaire pour le système informatique capable de porter une responsabilité. La deuxième possibilité, pourtant intéressante philosophiquement, est encore très spéculative. Cela n’empêche qu’elle soit, depuis peu, prise au sérieux dans certains cercles politiques, notamment au Parlement européen. La société prend peu à peu conscience de la lente évolution du statut des systèmes informatiques. Quand, par exemple, une voiture autonome arrive sur nos routes, de facto nous ne la traitons ni comme une chose ni comme un être vivant, mais, de manière heuristique, comme quelque chose entre les deux. Ce statut empirique, dont les détails vont progressivement transparaître grâce aux observations toujours plus fréquentes des interactions homme-robot, sera à terme conceptualisé et codifié juridiquement.

La responsabilité d’avoir rendu possible

Lorsqu’un effet indésirable se produit, on cherche à établir ses causes, qui peuvent être nombreuses. Le raisonnement utilisé à cette fin procède habituellement par un argument dit « contrefactuel » : dans l’espoir de remonter à la vraie cause de l’événement, on établit des conditionnels suivant le schéma « si telle chose ne s’était pas produite, alors l’effet n’aurait pas eu lieu ». La réussite de cette recherche est pourtant loin d’être assurée. En effet, rien n’empêche que l’on considère parmi « les choses qui ne s’étaient pas produites », par exemple, la levée du soleil : si le soleil ne s’était pas levé tel jour, alors le criminel, toujours embaumé par la nuit, n’aurait pas commis son acte perfide. Or, en dehors du roman de Camus, il est inhabituel de tenir le soleil responsable des actions humaines. Pour que le raisonnement contrefactuel soit informatif, il faut que l’énoncé porte sur les antécédents vraisemblables.

Ces causes vraisemblables se distinguent par leur nouveauté. Le soleil se lève tous les jours : le jour du crime n’étant pas différent des autres, cette circonstance ne peut être nullement explicative. Mais un réseau social, par exemple, n’a pas toujours existé. Dire qu’il a rendu possible l’organisation d’un acte terroriste peut permettre de saisir la spécificité du moment : si le réseau social n’avait pas été inventé, alors le terrorisme ne se serait pas répandu si rapidement et si largement. Cet argument contrefactuel paraît valide. Récemment, un ministre d’un pays technologiquement avancé faisait porter la responsabilité du terrorisme à Mark Zuckerberg, le créateur de Facebook : « Le sang des victimes est sur ses mains ».

Vraisemblable qu’il soit, l’argument contrefactuel est pourtant incapable d’établir la bonne relation causale ; au mieux, il pointe vers un élément du contexte autour du crime, mais il ne nous renseigne pas sur la chaîne d’actions causalement efficaces. Toutefois, cet argument ne manque jamais à produire un certain effet rhétorique et, juridiquement irrecevable, il le demeure moralement.

noun_597321_ccCelui qui crée, qui produit de la nouveauté, n’a pas besoin de former une intention diabolique pour être tenu pour responsable de ce qui viendra à la suite de son travail. Il suffit qu’il ait introduit une innovation. Si elle a rendu possible quelque conséquence néfaste, l’innovateur, par un raisonnement contrefactuel, devra répondre de son audace.

La phrase « oser modifier la condition humaine » contient deux moments d’importance éthique. Le second verbe, « modifier [la condition humaine] » se réfère au changement proprement dit, avec toutes les conséquences bonnes autant que mauvaises. Mais le premier, « oser », ne doit pas être oublié. Il dénote une décision, un saut audacieux de l’innovateur. Sur le plan éthique, c’est cette audace qui est cruciale, même si dans l’instant elle n’engage aucune responsabilité légale. La responsabilité des audacieux est morale. Cela ne signifie pas qu’elle soit diminutive ou anecdotique : elle a des conséquences tout aussi réelles que la responsabilité juridique. Seulement, les effets qu’elle produit sont de nature politique ou économique : une confiance brisée, un financement refusé, un détournement d’utilisateurs jusque-là enthousiasmés ou acquiesçants.

Le poids de la responsabilité

Gershom Sholem, grand spécialiste de la Kabbale et auteur d’un fin essai sur les golems, ces êtres artificiels dont la fabrication magique par combinaison des lettres de l’alphabet préoccupe la tradition juive depuis 2000 ans, tire cet enseignement étonnant : « Le danger n’est pas qu’un golem, devenu autonome, développerait des pouvoirs écrasants, mais il se trouve dans la tension que le processus créatif fait monter au sein même du créateur. Les erreurs dans la réalisation des procédures n’affaiblissent pas le golem, mais elles détruisent le créateur ».

L’informaticien, ce créateur des machines autonomes modernes, ne travaille pas seul : tout système avancé, qu’il émane de la robotique ou de l’intelligence artificielle, est le fruit des efforts des dizaines, voire des milliers de spécialistes. Comment, dans ce cas, peut-on comprendre la thèse de Scholem ? Mon interprétation est que le risque encouru par cet informaticien collectif, tout comme le danger qui pesait sur un apprenti kabbaliste, consiste à ne plus pouvoir créer des systèmes nouveaux. Ceci, parce que la cohésion du groupe sera cassée, le collectif brisé économiquement ou moralement, soit par un retour négatif du marché, soit à cause de la pression sociale. Le facteur qui risque de faire exploser la structure interne de ce collectif, est le poids de la responsabilité, celle que la société fait porter à l’informaticien indépendamment de la volonté qu’a ce dernier de l’assumer.

La responsabilité pour ce qui se fait à travers nous

Chaque membre du groupe qui écrit le code d’un système informatique fait une contribution au résultat final, mais il ne le contrôle pas entièrement. Plus grande est l’équipe, plus modeste chaque contribution individuelle. Si une conséquence néfaste se produit, la chaîne logique d’imputabilité, que l’on reconstruit en remontant en arrière de l’effet à sa cause, peut aboutir sur le groupe, mais pas sur un de ses membres. Or la simple appartenance à ce collectif responsabilise tout de même chaque informaticien individuel. Cette responsabilité correspond à un concept que la philosophe Hannah Arendt a introduit au cours de sa polémique contre l’idée de culpabilité collective. Selon Arendt, la responsabilité collective, différente de la culpabilité, advient si deux conditions sont réunies : 1°, la personne doit être tenue responsable de quelque chose qu’elle n’a pas faite ; 2°, cela est justifié par l’appartenance de la personne à un groupe qu’elle ne peut dissoudre par aucun acte volontaire. Une fois codeur, toujours codeur ! Le poids de la responsabilité collective, politique même si elle n’est pas juridique, ne disparaît jamais.

La responsabilité politique

L’informatique s’invite dans toutes les structures fondamentales de la société : la communication, la sécurité, le pouvoir, la parenté, le travail, le divertissement. Elle y provoque des glissements magistraux et irréversibles. Naissent alors des nouveaux conflits, que l’on est tenté de résoudre en faisant des informaticiens les responsables. Or désigner le responsable est un acte politique, qui a pour but de concentrer le ressentiment public sur une personne en évitant qu’il se diffuse dans toute la société. Comme le pharmakos dans le monde antique, l’informaticien est aujourd’hui simultanément un magicien tout-puissant et un bouc émissaire.

Quand les conflits homme-machine et machine-machine engendrent des tensions homme-homme, ces dernières risquent, comme disait Scholem, de détruire — physiquement, moralement, économiquement ou politiquement — le créateur des machines. Il a l’habitude d’écrire le code dans un langage de programmation — il doit maintenant apprendre à décoder un langage politique.

Alexei Grinbaum, CEA

A relire sur binaire :  « la menace des chatbots » par Alexei Grinbaum paru en juin 2016