Éducation & numérique : la formation

ToutEduc a rendu compte des propositions Inria émises dans le cadre des Etats généraux du numérique pour l’Éducation. L’institut national en sciences et technologies du numérique partage ici le 3ème volet de ses recommandations, celles qui concernent la formation au numérique en education. Serge Abiteboul

Cet article est repris d’une tribune de ToutEduc.

Dans le cadre des Etats généraux du numérique pour l’Éducation, Inria a émis plusieurs recommandations et a choisi ToutEduc pour leur présentation. Nous avons publié le premier volet sur la recherche (ici) et le second volet sur l’action publique (ici). Voici le troisième volet, relatif à la formation aux compétences de base du numérique ainsi qu’aux usages du numérique tant pour les enseignants que les citoyens. A venir une présentation du « Livre blanc » d’Inria sur les enjeux et défis du numérique pour l’éducation.

La formation au numérique : un enjeu fondamental, un défi colossal.

Il est urgent de ne plus attendre (1) pour initier nos enfants aux fondements du numérique afin qu’ils puissent appréhender au mieux le monde d’aujourd’hui sans uniquement être dans une posture de consommateurs, voire y être aliénés. Ce travail a commencé : introduit progressivement (2) dans l’enseignement secondaire (et aussi primaire), tous·tes les élèves en classe de seconde des lycées généraux et technologiques sont maintenant initié·e·s à la science informatique et aux technologies du numérique, abordant aussi les aspects sociétaux, tandis qu’une vraie formation à l’informatique est proposée parmi les spécialités de fin de lycée. Mais la maîtrise des usages des outils numériques s’est révélée primordiale pendant la crise sanitaire et le travail à distance qui s’est imposé continuera à être utilisé dans la durée. De plus, les différences dans les usages développés par les enseignant·e·s peuvent également être un facteur d’inégalité. Des élèves n’ont pas le même accès aux mêmes types d’activités selon le degré d’accessibilité et d’intégration du numérique de leurs enseignant·e·s. On voit donc combien il est urgent et essentiel d’accompagner l’ensemble des enseignant·e·s dans leurs compétences numériques et dans leur capacité à faire un usage raisonné et éclairé du numérique pour soutenir les apprentissages notamment dans une optique de réduction des inégalités.

Les besoins sont immenses et au-delà des enseignant.e.s, ils nous concernent toutes et tous. Il est urgent de considérer la maîtrise des fondamentaux du numérique comme faisant partie de la culture du citoyen du XXIème siècle. Qu’est-ce qu’une donnée ? Un algorithme ? À quoi sert la programmation ? Comment une machine calcule ? en sont des éléments essentiels. Il s’agit de réaliser une alphabétisation au numérique en contribuant au développement des compétences transversales comme la pensée informatique ou les compétences numériques auprès du plus grand nombre.

La formation au numérique est un enjeu citoyen qui doit donner lieu à des actions visant à développer la culture numérique et les compétences numériques des différentes catégories d’âges et de métiers. Cette formation est particulièrement critique pour les décideurs et décideuses dans les choix d’investissement notamment liés au numérique éducatif dans les collectivités territoriales et à l’échelle nationale. Il s’agit donc de nous former, tous et toutes, en commençant par nos enfants. Et pour cela, il faut commencer par les professionnels de l’éducation (enseignant·e·s et les cadres de l’éducation).

Une première priorité : la formation des professionnel·le·s de l’éducation.

Au-delà de la nécessaire formation aux fondamentaux de l’informatique, les professionnel·le·s de l’éducation doivent développer leur capacité à analyser les différents usages du numérique dans le contexte des différentes tâches de leur métier. Ils doivent également savoir intégrer différents types d’outils numériques (3) afin de les utiliser de manière la plus pertinente possible et créative dans leur activité pédagogique, comme une analyse au niveau européen (4) le recommande très justement. La formation aux usages du numérique doit tenir compte tant des usages numériques déjà pressentis d’un point de vue éducatif (par exemple. les jeux sérieux ou éducatifs ayant été conçus avec une intention à la fois ludique et éducative), que des usages numériques généraux (p. ex. les tendances à utiliser les jeux numériques afin de permettre aux enseignants d’exploiter leur usage ludique pour en faire un usage pédagogique).

À ce titre, l’intégration au sein des INSPÉ (Instituts nationaux supérieurs du professorat et de l’éducation) de formations plus approfondies en informatique est essentielle, en particulier pour les futur·e·s professeur·e·s de la spécialité NSI (Numérique et sciences informatiques). Cela l’est aussi pour des formations plus larges en lien avec l’enseignement de SNT (Sciences numériques et technologie), et cela concerne tous les enseignant.e.s au sein de leurs différentes spécialisations. En effet, comment concevoir d’être face à des élèves ayant acquis des compétences et un usage éclairé du numérique, par des savoirs et savoir-faire au niveau de ses fondements, sans avoir reçu soi-même cette formation minimale ?

Nous recommandons des formations aux SNT pour tous et toutes, apprenants de tous niveaux et de toutes spécialités, ainsi que pour tous les formateurs, enseignant·e·s et cadres d’éducation. Cela n’est pas encore acquis, car cet enseignement sur le numérique n’est pas explicitement prévu dans les heures de formation de la nouvelle maquette du Master MEÉF (Métiers de l’enseignement, de l’éducation, et de la formation). Il faudrait également créer un RAP (réseau d’apprentissage personnel) pour développer une entraide et tirer profit des communautés de pratiques, pour soutenir le développement professionnel des personnels enseignants. Sur un autre plan, pour les personnels d’encadrement de l’Éducation nationale, une formation au management du numérique éducatif existe, incluant la mise en place d’une offre pédagogique numérique à destination de l’ensemble de la communauté éducative.

Ceci nécessite une augmentation importante du nombre d’heures consacrées à la formation des enseignant·e·s en exercice, avec une reconnaissance des heures de formation en ligne et de la participation aux communautés de pratiques. On notera que, dans le cadre de la réorganisation annoncée de Réseau Canopé, la formation continue des enseignants sera l’une de ses missions principales.

Par ailleurs, le besoin de formation en pédagogie des ingénieures et ingénieurs pédagogiques produisant des ressources éducatives, est également important. En effet, la création de ressources numériques interactives, parfois utilisées en autonomie ou en semi-autonomie, déporte la création pédagogique beaucoup plus dans la phase de développement de la ressource (conception amont) que sur son utilisation (usage aval). Il est donc essentiel de former ces professionnel·le·s à la fois à la didactique des disciplines enseignées et aux leviers pédagogiques, en les rendant capables de scénariser et de faire un usage critique et éclairé du numérique. Des actions de formation innovantes de type SmartEdTech (6) permettent, tant à des professionnel·le·s issu·e·s du monde de l’éducation qu’à ceux venant du monde industriel du numérique, de développer collectivement une approche interdisciplinaire dans les projets EdTechs, intégrant de manière opérationnelle les savoir-faire des deux communautés.

Une seconde priorité : faire « université » de manière citoyenne autour du numérique.

Ce sera dans plusieurs années qu’une génération d’élèves aura progressivement acquis les compétences nécessaires pour maîtriser collectivement le numérique, au fil des formations de leurs enseignant·e·s. Il faut agir aussi dès maintenant au niveau de la formation tout au long de la vie. Bien sûr, il faut construire des formations adaptées selon les branches professionnelles et les besoins générationnels mais surtout, il faut envisager des formations de base pour les citoyens et les citoyennes de notre pays.

Il est important que ces formations citoyennes se fassent en regard d’un référentiel de compétences indépendant des certifications liées à des produits commerciaux eu égard à des questions de souveraineté. Aussi, nous proposons que la certification PIX (5) soit la référence française en matière de compétences culturelles de base en informatique.

Pour illustrer la stratégie que nous proposons, citons un pays, la Finlande qui a mis en place une formation en ligne de 50 heures à destination privilégiée des cadres du pays (1% de la population), mais accessible à l’ensemble de la population, afin de comprendre les bases de l’intelligence artificielle et des enjeux sociétaux induits par ces technologies disruptives (cette formation est également disponible en français (7)).

En France, la formation https://classcode.fr/iai, qui met l’accent sur des activités ludiques, concrètes et faciles à partager, devrait permettre d’inclure le plus grand nombre et pourrait servir de base à une formation plus large en complément d’autres formations moins techniques comme Objectif IA venant offrir une première entrée culturelle sur ces sujets.

Au-delà de ces ressources, il faut créer un espace de partage et de réflexion collective sur ces sujets. Dans cette optique, la notion d’ ‘université citoyenne et populaire du numérique en ligne’ adossée à un maillage d’initiatives territoriales, pourrait s’appuyer sur les succès d’initiatives déjà déployées en France, par exemple, Class’Code (8), engagée par Inria et ses partenaires en 2016 ou encore mobilisant les entreprises du numérique pour engager leur personnel dans des actions et en prenant appui sur celles qui le font déjà, Concrètement, il s’agit de passer de la formation des enseignant·e·s à la formation de toutes les citoyennes et tous les citoyens, labellisée et attestée, pour couvrir un besoin de formation à la pensée informatique tout au long de la vie, à travers une démarche partenariale et collective implémentée par l’action collaborative de ses partenaires. De façon hybride (en ligne et sur les territoires) on vient y satisfaire sa curiosité, discuter des questionnements posés par ces sujets, et surtout relier à son quotidien – p. ex. à l’aide de démarches de maker ou d’autres dans des tiers lieux – ces techniques pour les apprivoiser, cette offre se mettant au service des structures existantes comme détaillé par l’association EPI (9).

Conclusion

Selon une étude France Digitale-Roland Berger (10), la France était en 2019 en tête des investissements dans l’Intelligence Artificielle – levier du numérique de demain – en Europe avec un doublement des fonds levés par rapport à 2018, et l’Europe elle-même se positionne très fortement sur ces sujets. Notre pays a aussi fait le choix crucial de ne pas s’en remettre aux grands acteurs industriels du numérique, mais de former ses jeunes générations, de gagner son indépendance pour choisir son avenir en ce ‘temps des algorithmes’ (11). Nous voilà en bonne voie de réussite et finalisons le travail commencé afin de relever ce défi.

Gérard Giraudon (Inria) Pascal Guitton (Université de Bordeaux & Inria), Margarida Romero (Université Côte d’Azur), Didier Roy (Inria & LEARN EPFL) et Thierry Viéville (Inria) se sont associés pour la rédaction de cette tribune.

NOTES

(1) L’enseignement de l’informatique en France – Il est urgent de ne plus attendre, rapport de l’Académie des Sciences, 2013 ici

(2) Le numérique pour apprendre le numérique ? Blog binaire de LeMonde.fr, 2020 (ici)

(3) Le référentiel de compétences des métiers du professorat et de l’éducation, 2013 (ici)

(4) Recommandation du conseil de l’Euope relative à des systèmes de qualité pour l’éducation et l’accueil de la petite enfance, 2019 (ici)

(5) Les compétences évaluées par Pix, 2018 ici

(6) MSc Smart Edtech, 2018– (ici)

(7) Un cours en ligne gratuit – Elements of AI (ici)

(8) Cette action de formation hybride offre un maillage du territoire au sein de tiers-lieux permettant de faire coopérer les acteurs de terrain. Après quatre ans de déploiement, plus de 80 000 personnes ont été formées, plus de 70 partenaires dans 10 régions métropolitaines et en outre-mer participent à des niveaux divers et plus de 430 000 internautes ont accédé aux ressources – librement réutilisables – proposées (ici)

(9) Apprentissage de la pensée informatique : de la formation des enseignant·e·s à la formation de tou·te·s les citoyen.ne.s, EPI, 2019 (ici)

(10) La France en tête des investissements européens dans l’IA en 2019, maddyness.com 2019 (ici)

(11) Le temps des algorithmes, 2017 (ici)

Formation à l’IA – épisode 3 : Class’Code / Inria IAI

Nous vous l’avions annoncé ici, Victor Storchan termine la série d’articles sur les initiatives de formation à l’intelligence artificielle (IA). Après « Elements Of AI« , et « Objectif IA« , il donne la parole à Frédéric Alexandre, Marie-Hélène Comte, Martine Courbin-Coulaud et Bastien Masse sur Class´Code IAI. Serge Abiteboul et Thierry Viéville.
La série: « Introduction« , « Elements Of AI”, “Objectif IA”, « Classcode IAI« .
La formation/certification à l’IA 

Victor Storchan (VS): Quelles ont été vos motivations initiales et vos objectifs pour l’élaboration de votre cours en ligne ?

L’équipe de Class´Code (CC): Il s’agit d’offrir une initiation à l’Intelligence Artificielle via une formation citoyenne, gratuite et attestée https://classcode.fr/iai, dans le cadre d’une perspective « d’Université Citoyenne et Populaire en Sciences et Culture du Numérique » où chacune et chacun de la chercheuse au politique en passant par l’ingénieure ou l’étudiant venons avec nos questionnements, nos savoirs et savoir-faire à partager.

Très concrètement on y explique ce qu’est l’IA et ce qu’elle n’est pas, comment ça marche, et quoi faire ou pas avec. On découvre les concepts de l’IA en pratiquant des activités concrètes, on y joue par exemple avec un réseau de neurones pour en démystifier le fonctionnement. On réfléchit aussi, ensemble, à ce que le développement de l’IA peut soulever comme questions vis-à-vis de l’intelligence humaine.

Ce MOOC a été développé sur la plateforme FUN par le Learning Lab Inria qui en assure l’animation.

VS: Quel est le public que vous visez ?

CC: La cible primaire est l’ensemble des personnes en situation d’éducation : enseignant·e, animateur·e et parents, qui doivent comprendre pour re-partager ce qu’est l’IA. C’est —par exemple­— abordé au lycée dans les cours de sciences de 1ère et terminale, c’est abordé de manière transversale dans les enseignements d’informatique et présent dans de nombreux ateliers extra-scolaires.

Par extension, toutes les personnes qui veulent découvrir ce qu’est l’IA et se faire une vision claire des défis et enjeux posés, ceci en “soulevant le capot”, c’est-à-dire en comprenant comment ça marche, sont bienvenues. Et c’est de fait une vraie formation citoyenne.

VS: Quels sont les apports de votre cours pour ce public ?

Ce qui rend ce cours attrayant est une approche ludique et pratique avec une diversité de ses supports –  vidéos conçues avec humour, tutos et activités pour manipuler (y compris avec des objets du quotidien) les mécanismes sous-jacents, des ressources textuelles pour aller plus loin, et des exercices pour s’évaluer. Toutes ces ressources sont réutilisables.

Ce qui rend ce cours unique, par rapport aux autres offres connues, est un forum pour échanger et des webinaires et rencontres en ligne ou en présentiel sur ces sujets, à la demande des personnes participantes : la formation sert de support pour des rencontres avec le monde de la recherche. Cette possibilité de dialogue direct entre personnes participantes, de proposer des ressources ou des liens en fonction des besoins est vécu comme un point majeur de cette formation.

VS: Pouvez-vous partager les premiers résultats à ce stade et quelles sont vos perspectives futures ?

CC: Ouvert en avril 2020, le MOOC Class’Code IAI “Intelligence Artificielle avec Intelligence” a attiré jusqu’à présent (mi-novembre) plus de 18800 personnes, dont beaucoup ont effectivement profité d’au moins un élément de la formation et délivré 1038 attestations de suivi. Il y a plus de 5300 personnes sur le forum et près de 600 messages échangés, beaucoup entre l’équipe pédagogique et les personnes participantes, mais aussi entre elles.
Nos mooqueurs et mooqueuses se disent satisfaits à plus de 94%.
Les rencontres en ligne attirent entre 50 et 100 personnes et sont vues par plusieurs centaines en replay.
Les vidéos sont réutilisées au sein de plusieurs ressources numériques en lien avec les manuels d’apprentissage des sciences en première et terminale qui inclut le sujet de l’IA ou sur le site lumni.fr de France Télévision (qq milliers de vues, mais pas de comptage précis).

Au niveau des perspectives, nous invitons les personnes à suivre ensuite par exemple Elements Of AI course.elementsofai.com/fr-be dans sa version francophone, pour se renforcer sur des éléments plus techniques, tandis que notre action s’inscrit dans la perspective de cette université citoyenne déjà citée.

VS: Comment vos ressources  participent-elles à la création d’une confiance dans le développement de ces innovations, et aident-elles à développer un esprit critique constructif à ces sujets ?

Nous avons deux leviers principaux.

Le premier est de dépasser les idées reçues (les “pourquoi-pas”) sur ce sujet et d’inviter à distinguer les croyances, les hypothèses scientifiques (qui pourront être infirmées, contrairement aux croyances qui ne seront jamais ni fausses, ni vraies), des faits avérés. Pour développer l’esprit scientifique il est particulièrement intéressant de montrer que, à l’instar de l’astrologie par exemple, il y a dans le domaine de l’IA l’émergence d’une pseudo-science qu’il faut expliciter et dépasser.

Le second est de “comprendre pour pouvoir en juger”. Nous voulons aider les personnes à avoir une vision opérationnelle de ce qu’est l’IA, pas uniquement des mots pour en parler, de façon à réfléchir en profondeur sur ce qu’elle peut apporter.

Motivé par la déclaration commune franco-finlandaise de “promouvoir une vision de l’intelligence artificielle juste, solidaire et centrée sur l’humain” nous pensons que la première étape est d’instruire et donner les moyens de s’éduquer. 

Une analyse plus précise est donnée ici expliquant la démarche d’ « Open Educational Resources and MOOC for Citizen Understanding of Artificial Intelligence » 

Le projet entrepreneurial 

VS: Quelles difficultés surmonte-t-on  pour déployer un projet comme celui-ci ? 

CC: Au niveau des moyens, forts de la réussite du projet Class´Code nous avons été soutenus sans souci par des fonds publics et avons eu les moyens des objectifs choisis.

Au niveau de la diffusion, il est moins facile de faire connaître notre offre qui est peu relayée médiatiquement, car le message est moins “sensationnel” que d’autres, nous construisons notre notoriété principalement sur les retours des personnes qui ont pu en bénéficier.

Au niveau des personnes, le principal défi est d’apaiser les peurs et d’aider à dépasser les idées reçues, parfois les fantasmes sur ces sujets : l’idée d’une intelligence qui émergerait d’un dispositif inanimé de la légende de Pinocchioau mythe du Golem est ancrée dans nos inconscients et c’est un obstacle à lever.

VS: Quels sont les bénéfices de la coopération entre partenaires de votre initiative, en particulier pour la réalisation d’un cours sur l’IA par nature interdisciplinaire ?

CC: Ils sont triples.

D’une part en associant des compétences académiques en sciences du numérique, neurosciences cognitives et sciences de l’éducation on se donne vraiment les moyens de bien faire comprendre les liens entre intelligence artificielle et naturelle, et d’avoir les bons leviers pour permettre d’apprendre à apprendre. 

Par ailleurs, à travers Class´Code et plus de 70 de ses partenaires, on donne les moyens aux initiatives locales, associatives ou structurelles de disposer de ressources de qualité et de les co-construire avec elles et eux, pour être au plus près du terrain. Notre collaboration avec des entreprises d’éducation populaire de droit public comme La Ligue de l’Enseignement ou de droit privé comme Magic Maker, ou des clusters d’entreprise EdTech comme celles d’EducAzur montre aussi que les différents modèles économiques ne s’excluent pas mais se renforcent sur un sujet qui est l’affaire de toutes et tous.

La collaboration avec la Direction du Numérique pour l’Education et l’Université Numérique d’Ingéniérie et de Technologie permet de se positionner comme fournisseur de ressources pour l’apprentissage à grande échelle de ces sujets, en mettant en partage un bien commun.

Les modèles d’écosystèmes français

VS: Au-delà de la formation, quels sont les atouts et les faiblesses de l’Europe pour peser dans la compétition technologique mondiale ?

CC: Il y a de multiples facteurs qui dépassent notre action. Mais relevons en un qui nous concerne directement : celui d’éduquer au numérique et ses fondements, que nous discutons ci-dessous.

VS: Votre initiative crée donc un lien éducation et IA, quels sont les liens à renforcer entre IA et éducation  (par exemple apprentissage de l’IA dans le secondaire)  et éducation et IA (par exemple des assistants algorithmiques), et quels sont les impacts socio-économiques visés ? 

CC: Les liens entre IA et éducation sont doubles : éduquer par et au numérique comme on le discute ici en explicitant les liens entre IA et éducation au-delà des idées reçues qui sont bien décryptées montrant les limites de l’idée que le numérique va révolutionner l’éducation. Nous nous donnons avec ce MOOC IAI les moyens pour que nos forces citoyennes soient vraiment prêtes à relever ces défis. L’apprentissage scolaire de l’informatique est un vrai levier et un immense investissement pour notre avenir, et la France a fait ce choix d’enseigner les fondements du numérique pour maîtriser le numérique

À ce sujet Inria publie un livre blanc « Éducation et numérique, Défis et enjeux » qui discute de ces aspects tout particulièrement en lien avec l’IA, tandis que l’Éducation Nationale met en place des groupes thématiques numériques (GTnum) animés conjointement par des équipes de recherche et des pédagogues, par exemple sur le « renouvellement des pratiques numériques et usages créatifs du numérique en lien avec l’IA ».

VS: Confier à des algorithmes des tâches qui mènent à des décisions cruciales, par exemple en matière de justice, d’embauche, ou d’autres décisions à forte conséquence humaine, questionne, quel est votre positionnement sur ce sujet ? Quelle place pensez-vous que l’éthique doit prendre dans votre enseignement ?

CC: Pouvoir se construire une éthique, c’est-à-dire se forger un jugement moral sur ce qu’il convient de faire ou pas avec l’IA, est en quelque sorte l’aboutissement de cette formation. Là encore cela passe par la compréhension de notions fines comme interprétabilité et explicabilité ou les causes des biais dans les mécanismes d’IA venant des données ou des algorithmes pour ne pas juste émettre des opinions superficielles à ce sujet. Aucun sujet technique n’est abordé sans que ces aspects éthiques ou sociétaux le soient comme c’est le cas en robotique.

D’un point de vue éthique, la responsabilité est toujours “humaine”, par exemple si on laisse l’algorithme décider, c’est notre décision de le faire : de déléguer la décision à un algorithme au lieu de la prendre soi-même, c’est un choix et c’est un humain qui doit faire ce choix. Si vous choisissez de “faire confiance” à une machine avec un algorithme d’IA, vous faites surtout confiance en votre propre jugement quant aux performances de ce mécanisme.

VS: Le fait que des tâches cognitives de plus en plus complexes soient réalisées par des programmes nous amène-t-il à reconsidérer l’intelligence humaine ? Est-ce que cela a des impacts sur notre vision de l’IA ? Sur son enseignement ? 

CC: C’est tout à fait le cas. On se pose souvent la question « symétrique » de savoir si une machine peut être ou devenir intelligente : le débat est interminable, car -en gros- il suffit de changer la définition de ce que l’on appelle intelligence pour répondre “oui, pourquoi-pas” ou au contraire “non, jamais”. La vraie définition de l’IA est de “faire faire à une machine ce qui aurait été intelligent si réalisé par un humain”, ce qui évite de considérer cette question mal posée. 

©cointre

En revanche, avec la mécanisation de processus cognitifs, ce qui paraissait “intelligent” il y a des années par exemple, le calcul mental devient moins intéressant avec l’apparition -dans ce cas- de calculettes. De même l’intelligence artificielle soulage les humains de travaux intellectuels que l’on peut rendre automatiques. Du coup, cela oblige à réfléchir à l’intelligence humaine en fonction et au-delà de ce que nous appelons la pensée informatique.

Par exemple, nous savons que plus le problème à résoudre est spécifique, plus une méthode algorithmique sera efficace, possiblement plus que la cognition humaine, tandis qu’à l’inverse plus le problème à résoudre est général, moins un algorithme ne pourra intrinsèquement être performant, quelle que soit la solution (no free lunch theorem). Il se trouve que les systèmes biologiques eux aussi ont cette restriction, l’intelligence humaine n’est donc peut-être pas aussi “générale” qu’on ne le pense. 

VS:  Nous vivons au temps des algorithmes. Quelle place voulons-nous accorder aux algorithmes dans la “cité” ? Est-ce que cela nous conduit à repenser cette cité ? Comment mieux nous préparer au monde de demain ? 

CC: En formant en profondeur les citoyennes et citoyens, nous nous donnerons « les moyens de construire un outil qui rend possible la construction d’un monde meilleur, d’un monde plus libre, d’un monde plus juste … » écrivent Gilles Dowek et Serge Abiteboul en conclusion du “temps des algorithmes”.

Que des robots assistent des personnes âgées pour reprendre leur exemple, sera un progrès, permettant de les maintenir chez eux, à leur domicile et dans l’intimité de leur dignité, mais si cela est vu uniquement comme un levier de réduction des coûts de prise en charge, ou un moyen de nous désengager d’une tâche parmi les plus humaines qui soit à savoir s’occuper des autres, alors la machine nous déshumanisera. 

Cet exemple nous montre surtout, comme la crise sanitaire le fait aussi depuis quelques mois, que des circonstances exceptionnelles nous obligent à revoir en profondeur les équilibres que nous pensions acquis pour notre société. Quand, et cela est en train d’advenir, nous aurons mécanisé la plupart des tâches professionnelles qui sont les nôtres aujourd’hui, nous allons devoir organiser autrement la société. 

Frédéric Alexandre, Marie-Hélène Comte, Martine Courbin-Coulaud et Bastien Masse.

Grand merci à Inria Learning Lab pour avoir porté et adapté le MOOC sur FUN ainsi que pour le forum.

Éducation & numérique : l’action publique

ToutEduc a rendu compte des propositions Inria émises dans le cadre des Etats généraux du numérique pour l’Éducation. L’institut national en sciences et technologies du numérique partage ici la suite de ses recommandations, celles qui concernent les EdTechs. Serge Abiteboul
Photo fauxels – Pexels

Cet article est repris d’une tribune de ToutEduc.

Dans le cadre des Etats généraux du numérique pour l’Éducation, Inria a émis plusieurs recommandations et a choisi ToutEduc pour leur présentation. Nous avons publié le premier volet sur la recherche (ici). En voici un second relatif à l’action publique.

Les auteurs* de cette tribune veulent « mettre en exergue la nécessité d’engager l’Etat et ses opérateurs dans la création de cadre permettant à des écosystèmes de se développer et de créer des dynamiques collectives au bénéfice de tous les acteurs qu’ils soient publics ou privés en favorisant la mise en commun des forces et en favorisant la dynamique économique ». Il s’agit de « créer les conditions du développement et de la mise à jour de ressources éducatives numériques », celles-ci étant conçues comme des « biens communs ». Toutefois, les auteurs que cette notion n’exclut pas l’intervention d’opérateurs privés, puisque, aujourd’hui des structures qui n’ont pas de statut « public » diffusent en ligne du contenu éducatif librement accessible et ouvert au plus grand nombre sur la planète à l’instar de ce que ferait un « Etat planétaire ». La question ne porte donc pas tant sur l’opposition « public-privé » que sur la restriction (au sens « réserver à un petit nombre ») de l’éducation et surtout des contenus pédagogiques. Le « Savoir » a vocation à être à libre disposition de tous, et le contenu pédagogique qui permet d’enseigner ce savoir doit être accessible au plus grand nombre. La question est surtout « Qui doit garantir le respect de la qualité scientifique des contenus et des valeurs culturelles de la société des matières enseignées ? ». Qui maîtrise le contenu enseigné maîtrise en effet la culture de la société et ses valeurs. Plus qu’une opposition « public-privé » il s’agit donc surtout de souveraineté, estiment les auteurs.

La tribune

« Inria a beaucoup œuvré depuis la fin des années 1990 au développement du logiciel ‘open source’, notamment pour le développement d’infrastructures sur lesquelles la société numérique se construit et où l’on retrouve la question de biens communs (voir ici). Mais le développement de logiciels open source au sein de communautés de personnes n’empêche pas la création d’activités économiques autour de ces logiciels et même la création d’entreprises privées (dont les plus emblématiques travaillent autour de Linux) qui contribuent à un bien commun.

Il semble ‘évident’ qu’il soit nécessaire de créer des biens communs en éducation.

Mais, d’une part il faut que ces bien communs soient évolutifs et basés sur des ressources libres et éditables par les acteurs éducatifs ce qui n’empêche pas que ces acteurs puissent être des entreprises privées aptes à assurer au mieux la maintenabilité des solutions et leur pérennité si cela garantit la meilleure efficience avec le modèle économique qu’il convient de trouver dans les meilleurs équilibres ; l’innovation réside en grand partie sur ce point.

D’autre part, ces ressources doivent pouvoir être indexées de manière à faciliter leur usage par les enseignants. Actuellement, malgré l’existence d’une quantité très importante de ressources, la localisation de celles-ci et la capacité à trouver facilement les ressources nécessaires pour les différentes disciplines et niveaux éducatifs reste un défi.

Par ailleurs, certaines ressources sont limitées dans leur diffusion parce qu’elles ont été développées par peu de personnes et que, pour de multiples raison les mises à jour s’arrêtent, voire quelques unes disparaissent ou parce qu’elles ont été développées avec des technologies propriétaires qui n’interopèrent pas. L’accessibilité de toutes les REN (ressources éducatives numériques) relève d’un enjeu éducatif majeur pour s’assurer que les inégalités éducatives ne s’accentuent pas du fait des limites d’accessibilité des ressources. Il faut souligner que les situations de handicap aggravent ce problème d’accès aux ressources. Dans ce contexte, on parle alors de l’absence d’accessibilité numérique qui exclut de facto des personnes du droit élémentaire de tous les citoyens à la formation. Cette remarque peut être étendue à l’accès à l’information, au divertissement, à l’emploi via les outils numériques devenus incontournables aujourd’hui. Enfin, nous pouvons rappeler que cette exclusion est d’autant plus douloureuse à vivre et à constater que le numérique offre des solutions bénéfiques potentielles aux personnes en situation de handicap.

Garantir la portabilité des données personnelles éducatives et développer l’interopérabilité des solutions logicielles

Le règlement général sur la protection des données (RGPD) a été un acte fondateur en définissant le cadre juridique pour les données à caractère personnel des citoyens de l’Union Européenne. Ce règlement, construit sur les principes de ‘privacy by design’ (c’est à dire la prise en compte de la gestion de la confidentialité en amont, dès la conception du système, et non pas en aval une fois le logiciel développé) et de consentement individuel, garantit la portabilité des données pour chaque résident de l’UE qui est donc un droit exécutoire. À ce jour, aucun système, y compris au sein de l’Éducation nationale ou de l’Enseignement supérieur ne garantit cette portabilité. En effet, au motif que le cadre juridique autorise une exception à ce droit individuel dans le cadre de l’exercice du service public d’éducation, peu d’efforts sont faits pour permettre aux données personnelles d’éducation de circuler.

Difficile donc de concevoir qu’à l’âge où la plupart des productions individuelles des élèves se font par le numérique, on s’interdise de leur permettre de les conserver et réutiliser facilement ; chose qui paradoxalement, à l’âge du cahier papier semblait une évidence et était encouragée ! On se coupe ainsi d’une formidable opportunité de développement individuel et économique, pour le bénéfice de chacun des acteurs : élèves, enseignants, parents, chercheurs, et entreprises du secteur. Sans rentrer dans les débats techniques, des principes techniques existent en particulier via les systèmes de gestion des informations personnelles (PIMS) (1). Les PIMS permettent aux personnes de gérer leurs données à caractère personnel dans des systèmes de stockage sécurisés locaux ou en ligne et de les partager au moment et avec les personnes de leur choix. La start-up Inrupt, co-fondée par l’inventeur du Web, Tim Bernes-Lee, a été créée avec pour objectif de redonner aux internautes un plein contrôle sur leurs données et elle vient d’annoncer le lancement de son produit entreprise Solid (ici). Le cœur de l’action publique est alors de favoriser et de garantir la portabilité des données personnelles éducatives et nous recommandons la création du dossier de formation personnalisé permettant à tout apprenant de se réapproprier ses données d’éducation dans le contexte de société apprenante (2) (3) et qui s’inscrit pleinement dans la réforme du compte personnel de formation. Mais cela ne suffit pas car il faut aussi encourager voire imposer des standards pour l’interopérabilité des solutions logicielles, seule apte à garantir que toute solution technique ne tombe pas dans une escarcelle monopolistique quelle qu’elle soit dont on sait que c’est un frein à toute évolution, à toute innovation y compris dans le cadre d’une vision de ‘bien public’ (4).

Créer un observatoire des EdTechs

Nous proposons d’ailleurs de re-créer un observatoire des Edtechs. Une première initiative avait vu le jour en mars 2017 avec la création d’un Observatoire EdTechs porté par Cap Digital avec le soutien de la Caisse des dépôts et de la MAIF. Cet observatoire a permis de mettre en avant la dynamique des startups EdTechs mais n’a pas réussi, peut-être par manque de moyens et de maturité du secteur, à créer un observatoire des pratiques, des usages, de l’offre et de la demande dans le vaste champ de la formation (formation initiale et continue, etc.). Cet observatoire a été fermé en 2019.

Néanmoins, le besoin existe et va au-delà de la première version qui était essentiellement une liste statique d’entreprises des EdTechs. Actuellement, de très nombreux sites web fournissent des informations relatives au numérique éducatif : le très riche site Eduscol de l’Éducation nationale, le site de la DNE pour la veille et la diffusion des travaux de recherche sur le numérique dans l’éducation, les ressources pédagogiques développées par le CNED, les ressources de Canal U, l’initiative HUBBLE déjà citée, l’observatoire eCarto des territoires porté par la Banque des territoires, des observatoires d’académies (Paris, La Réunion, etc.), des sites d’associations d’entreprises (Afinef, EdTech France, EducAzur, etc.) Mais il n’y a pas à ce jour un observatoire qui permette d’agréger des informations, d’observer à l’échelle nationale des tendances et de mettre à disposition des données consolidées du numérique éducatif et encore moins d’avoir un travail de synthèse de référence et de parangonnage français et international (a minima dans l’espace francophone).

Aujourd’hui l’information sur le numérique éducatif est donc fragmentée et mélange contenus, solutions, informations, etc.

Aussi, nous recommandons de mettre en place un observatoire (français) des EdTechs pérenne sous la forme d’une plateforme web recensant les dispositifs utilisés dans l’enseignement et la formation, avec des évaluations quand elles existent, une cartographie des équipes de recherche travaillant sur le numérique pour l’éducation, une cartographie des entreprises du secteur et de leurs solutions, un blog listant les innovations du moment, etc.

Un tel observatoire doit être le reflet de l’écosystème français de l’usage des EdTechs et à ce titre il doit être construit en partenariat avec les associations d’entreprises et les clusters EdTechs régionaux mais aussi avec l’implication forte des acteurs de la formation (Éducation nationale, universités, écoles, etc.), du monde de la recherche et des collectivités territoriales. Cet observatoire devrait pouvoir jouer un rôle majeur de mise en relation avec des alter ego en Europe mais aussi dans ceux de l’espace francophone.

Pour porter une telle ambition, des moyens seront nécessaires mais il nous semble que pour garantir la neutralité et la pertinence de cet observatoire, il doit être porté par l’action publique à l’instar de ce qu’elle a réussi à faire avec PIX ; on pourrait par exemple réfléchir à le structurer avec les nouvelles missions actuellement envisagées pour le réseau Canopé et certainement avec la collaboration des ministères les plus concernés (MENJ, MESRI, MEIN).

* Les auteurs :

Gérard Giraudon (Inria). Pascal Guitton (Université de Bordeaux & Inria, Jean-Baptiste Piacentino (Edtech One), Margarida Romero (Université Côte d’Azur), Didier Roy (Inria & LEARN EPFL) et Thierry Viéville (INRIA) se sont associés pour la rédaction de cette tribune.

Notes

(1) « Managing your digital life with a Personal information management system », Serge Abiteboul, Benjamin André et Daniel Kaplan, Communications of the ACM, ACM, 2015, 58 (5), pp.32-35. hal-01068006

(2) « L’école dans la société du numérique », rapport n°1296 de la commission parlementaire des affaires culturelles et de l’éducation, rapporteur Bruno Studer, octobre 2018 (92 pages).
http://www.assemblee-nationale.fr/15/rap-info/i1296.asp

(3) « Un plan pour co-construire une société apprenante », François Taddei, Catherine Becchetti-Bizot, Guillaume Houzel, avril 2018 (88 pages).https://cri-paris.org/wp-content/uploads/2018/04/Un-plan-pour-co-contruire-une-societe-apprenante.pdf

(4) Les standards pour le numérique éducatif se sont développés au cours des dernières décennies, notamment en lien avec des plates-formes de formation (Learning Management Systems) par le biais des normes comme SCORM, AICC ou xAPI. Le standard Learning Technology Standards, IEEE-LTSC-LOM, permet également de décrire des objets d’apprentissage. Malgré le développement initial de SCORM, les standards restent encore trop peu intégrés dans de nombreuses ressources éducatives. Ces standards ne tiennent pas suffisamment compte des aspects pédagogiques et didactiques, bien que la LOM ou sa forme plus moderne la MLR (compatible avec le Web sémantique) intègre des éléments pédagogiques, sans vraiment faire office de standard. La plateforme edX y réfléchit car il est nécessaire de développer un standard si l’on veut disposer de normes plus largement utilisées. Le développement d’une terminologie commune en sciences de l’éducation comme le propose le « Lexicon project » est également un enjeu tant pour la recherche en sciences de l’éducation que pour le développement de solutions éducatives interopérables.

Formation à l’IA – épisode 2 : Objectif IA

Nous vous l’avions annoncé ici, Victor Storchan va nous présenter trois initiatives de formation à l’intelligence artificielle (IA). Après « Elements Of AI« , c’est au tour de Théophile Lenoir, Responsable du programme Numérique et Milo Rignell, Chargé de l’innovation à l’Institut Montaigne de nous parler d’Objectif IA. Serge Abiteboul et Thierry Viéville.
La série: « Introduction« , « Elements Of AI”, “Objectif IA”, « Classcode IAI« .
La formation/certification à l’IA

Victor Storchan (VS): Quelles ont été vos motivations initiales et vos objectifs pour l’élaboration de votre cours en ligne ?

Théophile Lenoir et Milo Rignell (TL&ML): L’initiative Objectif IA a été lancée, d’une part, afin de déconstruire un certain nombre d’idées reçues tout en recentrant le débat sur les vrais enjeux de société et, d’autre part, pour permettre à notre pays et à nos entreprises d’être en mesure de se saisir des opportunités de l’intelligence artificielle (IA) et d’être compétitives à l’avenir. 

C’est pour rendre l’IA accessible au plus grand nombre que nous avons développé une formation en ligne, gratuite, et qui ne prend que quelques heures à compléter. 

Cette volonté s’accompagne d’un objectif concret : permettre à 1 % des Français de se former à l’IA grâce à Objectif IA.  

VS: Quel est le public que vous visez ? Quels sont les apports de votre cours pour ce public ?

TL&ML: Objectif IA s’adresse à tous ceux qui souhaitent, en quelques heures, mieux comprendre cette technologie afin de participer activement à son développement au sein de notre société et dans notre quotidien. 

Nous constatons néanmoins que la formation est particulièrement utile pour deux types de publics. Elle permet aux jeunes et aux personnes en reconversion professionnelle de découvrir les nombreux métiers de l’IA et de la donnée avant de s’y lancer ; et elle permet aux dirigeants et aux collaborateurs d’entreprises et de structures publiques de se saisir de cette technologie, à tous les niveaux. 

VS: Pouvez-vous partager les premiers résultats à ce stade et quelles sont vos perspectives futures ?

TL&ML: En décembre 2020, 90 000 personnes avaient commencé la formation et 50 000 personnes, soit plus de la moitié, avaient complété l’ensemble des chapitres du cours et ainsi obtenu leur certificat de réussite. 

Plus de 80 structures se sont par ailleurs engagées à former leurs collaborateurs – des entreprises de tous les secteurs, des régions, des acteurs publics comme Pôle emploi et la Gendarmerie nationale, des universités, des associations et d’autres acteurs de la société civile. 

Fort de ce premier succès en France, nous envisageons de proposer l’initiative à de nouveaux publics. La version anglaise du cours sera disponible à partir de février 2021 et permettra à Objectif IA d’élargir sa formation à l’échelle européenne, aux côtés d’autres initiatives existantes, mais aussi sur le continent africain, où plusieurs acteurs ont déjà exprimé un intérêt fort.   

VS: Comment vos ressources  participent-elles à la création d’une confiance dans le développement de ces innovations, et aident-elles à développer un esprit critique constructif à ces sujets ?

TL&ML: Plusieurs sondages (Ifop, 2018 ; Ipsos, 2018) révèlent clairement la corrélation entre une meilleure connaissance et compréhension de l’IA d’une part, et la confiance envers elle d’autre part. La formation Objectif IA permet non seulement de mieux se rendre compte du potentiel de cette technologie pour la santé, l’environnement, le transport et bien d’autres secteurs, mais aussi de replacer les vraies questions sociétales au centre du débat public en démystifiant un certain nombre d’idées reçues. Trois chapitres sont ainsi expressément consacrés à resituer le potentiel de l’IA au-délà des mythes, à identifier ses enjeux éthiques et à évaluer son impact sur le travail.                   

Le projet entrepreneurial 

VS: Quelles difficultés surmonte-t-on  pour déployer un projet comme celui-ci?

TL&ML: A la différence de nombreux MOOCs, qui affichent des taux de complétion entre 5 % et 15 %, plus de la moitié des apprenants qui débutent Objectif IA complètent le cours, souvent en quelques heures seulement. L’enjeu est donc de convaincre de plus en plus de personnes de débuter le tout premier chapitre ! Cela se fait du bouche à oreille, mais aussi avec des soutiens et une mobilisation institutionnels. 

VS: Quels sont les bénéfices de la coopération entre partenaires de votre initiative, en particulier pour la réalisation d’un cours sur l’IA par nature interdisciplinaire ?

TL&ML: Objectif IA a été développé au sein d’un partenariat, à première vue hétéroclite, inédit entre l’Institut Montaigne, la startup OpenClassrooms et la Fondation Abeona.    

L’Institut Montaigne et la Fondation Abeona s’intéressent tous deux depuis longtemps aux enjeux de l’IA et nous avons travaillé ensemble à la production d’un rapport sur les biais algorithmiques, Algorithmes : contrôle des biais S.V.P. L’une des propositions fortes de ce rapport est notamment une sensibilisation large aux enjeux de l’IA. En tant que leader français de la formation en ligne et ayant déjà une offre conséquente de formations en ligne aux métiers du numérique, OpenClassrooms apporte une expertise pédagogique très riche et une plateforme qui recense plus de trois millions de visiteurs par mois. 

Cette co-construction, à laquelle ont également participé des utilisateurs et des experts de l’IA, a permis de développer un contenu dont la qualité et l’accessibilité se retrouvent dans le pourcentage de personnes terminant le cours. 

Les modèles d’écosystèmes

VS: Au-delà de la formation, quels sont les atouts et les faiblesses de l’Europe pour peser dans la compétition technologique mondiale ? La dynamique européenne sur l’IA actuelle est-elle suffisamment ambitieuse ?

TL&ML: Disposant d’un précieux savoir-faire dans plusieurs secteurs industriels, les entreprises européennes ont de nombreux atouts pour prendre de l’avance – à condition de comprendre les enjeux numériques et d’IA et de développer des nouveaux usages dont dépendra leur compétitivité. C’est pourquoi il faut non seulement plus de personnes formées aux métiers de la donnée et de l’IA, aujourd’hui déjà en tension, mais aussi la mobilisation de l’ensemble des collaborateurs de ces groupes, en allant des instances dirigeantes aux collaborateurs qui interagiront avec ces nouvelles technologies, sans nécessairement qu’elles en constituent le métier. 

Objectif IA met ces compétences en situation, en suivant pas à pas les étapes d’un projet d’intelligence artificielle et en passant par les différents métiers impliqués. 

VS: Selon une étude France Digitale-Roland Berger, la France était en tête des investissements dans l’IA en Europe avec un doublement des fonds levés en 2019 par rapport à 2018. Quelles sont les spécificités du modèle français ?

TL&ML:  Il est difficile de tirer des conclusions des niveaux d’investissement en capital risque, qui dépendent des levées de fonds d’un petit nombre d’entreprises. 2019 a par exemple été l’année de la levée record de 230 millions de dollars par Meero, qui automatise l’édition de photos grâce à l’intelligence artificielle, soit 20 % des fonds levés en 2019. 

Comparé à d’autres marchés, comme celui des Etats-Unis, en Europe la part d’investissements publics est plus importante et certains financeurs tels que les fonds de pensions et d’universités jouent un rôle considérablement réduit. En France par exemple, la Banque publique d’investissement (Bpifrance) joue un rôle particulièrement important. 

Enfin, l’innovation en IA ne provient pas uniquement des levées de fonds de start ups. Le gouvernement a investi une somme non négligeable, 1,5 milliards d’euros sur cinq ans. Dans plusieurs secteurs, par exemple médicaux et industriels, la France dispose déjà d’acteurs qui investissent fortement en IA, bénéficiant en outre d’avantages fiscaux compétitifs.

VS: Votre initiative crée donc un lien éducation et IA, quels sont les liens à renforcer entre IA et éducation  (par exemple apprentissage de l’IA dans le secondaire)  et éducation et IA (par exemple des assistants algorithmiques), et quels sont les impacts socio-économiques visés ?

TL&ML: Concernant l’éducation à l’IA, les niveaux de compréhension nécessaires varient considérablement selon les publics. Pour la majorité de la population, il est utile de comprendre les principaux enjeux, sans prendre plus de temps que les quelques heures de formation proposées par Objectif IA

Dans le domaine de l’éducation, les professeurs doivent garder un rôle central. Des outils d’IA peuvent néanmoins soutenir leur travail en permettant un enseignement adapté aux besoins individuels de l’élève et en soulageant leur charge de travail. Dans le domaine de l’apprentissage de la lecture par exemple, des associations comme Agir pour l’école utilisent la reconnaissance vocale des sons que lit un élève pour permettre un apprentissage plus autonome et des exercices adaptés à son niveau de lecture. 

VS: Confier à des algorithmes des tâches qui mènent à des décisions cruciales, par exemple en matière de justice, d’embauche, ou d’autres décisions à forte conséquence humaine, questionne, quel est votre positionnement sur ce sujet ? Quelle place pensez-vous que l’éthique doit prendre dans votre enseignement ?

TL&ML: Face aux risques de discrimination des algorithmes à fort impact, deux considérations importantes entrent en jeu : le point de départ auquel nous nous comparons, c’est à dire les biais humains déjà présents, et la possibilité de mesurer les résultats finaux pour détecter, et ainsi corriger, d’éventuels biais. 

La formation Objectif IA consacre plusieurs chapitres de son cours à restituer les enjeux éthiques, non seulement en démystifiant certaines idées reçues, mais également en précisant les points de vigilance et en proposant des solutions concrètes aux enjeux d’utilisation des données, d’information, de décisions algorithmiques et de biais. 

VS: Le fait que des tâches cognitives de plus en plus complexes soient réalisées par des programmes nous amène-t-il à reconsidérer l’intelligence humaine ? Est-ce cela a des impacts sur notre vision de l’IA ? Sur son enseignement ?

TL&ML: Les systèmes d’intelligence artificielle sont très performants lorsqu’il s’agit de certaines tâches précises. Cela peut donner l’illusion que l’IA évolue rapidement vers le niveau d’intelligence humaine, et ainsi développer une vision négative et menaçante de l’IA. 

Si les résultats de systèmes d’IA continuent à s’améliorer à grands pas, dans la plupart des cas ces avancées sont liées aux progrès en matière de puissance de calcul, qui ne sont pas toujours synonymes d’une plus grande intelligence, au sens de l’intelligence générale. 

Comprendre la différence entre les atouts de l’intelligence étroite des systèmes d’IA largement utilisés dans notre société, et ceux de l’intelligence générale, le “sens commun”, dont disposent les humains, est essentiel pour articuler au mieux les deux. 

VS: Nous vivons au temps des algorithmes. Quelle place voulons-nous accorder aux algorithmes dans la “cité” ? Est-ce que cela nous conduit à repenser cette cité ? Comment mieux nous préparer au monde de demain 

Le recours de plus en plus massif aux algorithmes pour répondre à certains besoins quotidiens, tant au niveau individuel que collectif, est inévitable et doit être encouragé. Il existe néanmoins en France une défiance particulièrement forte envers les outils numériques – les difficultés du gouvernement à déployer l’application StopCovid (renommée TousAntiCovid) en est un exemple. Ces contestations mêlent parfois une variété d’enjeux posés par les outils numériques au sens large (protection des données personnelles, surveillance, transparence). Tout l’objectif d’Objectif IA est d’aider à démêler ces enjeux dans le cas de l’IA.

Théophile Lenoir, Responsable du programme Numérique, Institut Montaigne.
Milo Rignell, Chargé de l’innovation, Institut Montaigne.

 

Éducation & numérique : la recherche

ToutEduc a rendu compte des propositions Inria émises dans le cadre des Etats généraux du numérique pour l’Éducation. L’institut national en sciences et technologies du numérique partage ses premières recommandations, celles qui concernent la recherche. Serge Abiteboul
© Inria / Photo L. Jacq

Cet article est repris d’une tribune de ToutEduc.

La clôture le 5 novembre dernier des EGNE, États généraux du numérique pour l’Éducation terminait un cycle de débats où de nombreux contributeurs ont pu exprimer leurs idées et leurs propositions notamment sur le site web participatif des EGNE.

Inria a publié fin 2020 un livre blanc sur les enjeux et défis du numérique pour l’éducation, a saisi l’occasion pour proposer sept recommandations (voir ToutEduc ici) que l’institut a regroupées en trois grandes thématiques : la recherche, la formation au et par le numérique et l’action publique. Nous avons jugé important qu’Inria, en tant qu’institut national de recherche en sciences et technologies du numérique, apporte sa contribution aux débats.

La synthèse des EGNE peut se résumer avec les 40 propositions réparties dans les cinq grands chapitres qui organisaient les débats (téléchargez le PDF). De nombreuses propositions font écho aux recommandations que Inria avait proposées et cette première tribune revient sur la thématique recherche et évaluation, qui correspond aux propositions 10 (1) et 32 (2).

Le numérique : science et technologie, industrie et culture.

Le numérique transforme le monde car comme toute « technique révolutionnaire » inventée par l’Humain, il transforme la société dans laquelle il a été inventé et intégré (3). Il est donc important de comprendre et d’anticiper cette transformation pour, a minima, tenter d’en éviter les inconvénients et surtout en tirer le plus grand bénéfice pour nous tous. En effet, la technique est a priori « neutre » ; cependant, un mauvais usage par l’Humain peut amener à de graves déconvenues. Le numérique – et en son cœur l’informatique – n’est pas qu’une technologie, c’est aussi une science, une industrie et maintenant une culture. C’est pour cette raison que nous cherchons à permettre à chacun de devenir acteur et non simple consommateur de cette transformation, pour permettre à chaque citoyen d’exercer ses droits et devoirs démocratiques. Pour cela il est indispensable d’aider chacun à acquérir un niveau minimal d’acculturation au numérique afin qu’il n’y soit pas aliéné.

C’est dans cette intention que Inria propose sa contribution sur la formation au numérique et par le numérique, face aux enjeux et défis éducatifs actuels. La recherche en sciences du numérique, en collaboration avec d’autres disciplines dans des approches transdisciplinaires, et au premier chef les sciences de l’éducation, les sciences cognitives et les neurosciences, doit contribuer à développer des travaux scientifiques où l’enjeu est de savoir travailler ensemble au-delà des silos disciplinaires, en se focalisant sur quelques défis majeurs et en sachant définir des méthodologies d’évaluation des résultats de ces travaux, évaluation sans laquelle il ne peut y avoir de progrès solide au bénéfice des apprenants.

Un enjeu central et prioritaire : la réussite scolaire.

Parmi les très nombreux sujets d’études sur l’Éducation, ceux autour de la réussite scolaire sont la clé de voûte de l’enjeu sociétal de l’éducation. Ce sujet de recherche pose la question d’aider à engager pleinement les élèves dans les activités pédagogiques grâce à des approches exploitant l’informatique, que ce soit comme support aux processus d’enseignement et d’apprentissage (Technology Enhanced Learning) ou en utilisant le numérique pour étudier ces processus (comme le font les approches Computational Learning Sciences).

La première question est de s’interroger sur comment favoriser la réussite scolaire. Il convient d’y répondre en élaborant des programmes de recherche conjoints avec les sciences cognitives, les sciences de l’éducation et les sciences du numérique fondées notamment sur l’IA, le traitement automatique des langues, la robotique, la réalité virtuelle/augmentée. Cette synergie scientifique doit permettre d’élaborer des environnements d’apprentissage adaptés aux caractéristiques individuelles, et encore plus nettement aux personnes en besoin d’adaptation scolaire, en particulier en situation de handicap. Cette démarche s’inscrit dans un vaste programme scientifique autour de la modélisation de l’apprenant en questionnant l’émergence d’une « science computationnelle de l’apprentissage ».

Passer des opinions à une étude rigoureuse des actions éducatives.

Il est également nécessaire de s’interroger sur la façon de mesurer précisément les effets induits. Parmi les voies à suivre, nous pouvons mentionner le développement d’études expérimentales rigoureuses menées avec des enseignants ainsi qu’avec des dispositifs numériques de mesure de l’attention et d’états cognitifs/conatifs (motivationnels) (voir ici). Ces mesures s’effectuent à partir d’analyses de traces d’utilisations de logiciels (learning analytics), d’analyses de captations vidéo cherchant à identifier le comportement d’un utilisateur mais également, à terme, avec des interfaces cerveau-ordinateur (BCI, Brain Computer Interface) ou bien avec d’autres signaux physiologiques que ceux liés à l’activité cérébrale. Par exemple, on peut mentionner l’utilisation de mesures biométriques comme la pupillométrie ou encore les électroencéphalogrammes (EEG) utilisés dans l’analyse de l’activité de l’apprenant dans des environnements numériques d’apprentissage comme NetMaths (Ghali&al-2018, note 4 et ici). Il s’agit de développer la théorie en même temps qu’on met en œuvre les approches opérationnelles qui en découlent.

Parmi ces sujets de recherche, il nous semble particulièrement pertinent d’étudier, en intégrant aussi le point de vue des sciences du numérique, la question de l’amotivation (Sander-2018, note 5), qui est l’une des causes de l’échec scolaire. Une telle initiative permettrait de construire un programme de recherche abordant les volets suivants :

● De quoi s’agit-il ? Quels facteurs psychologiques sont engagés ? En se rapprochant notamment de spécialistes en sciences cognitives et de psychologues de l’éducation qui travaillent sur ce sujet depuis des décennies ;

● De quoi résulte-t-elle ? Identification des facteurs de l’individu et des facteurs contextuels des « conditions extérieures » (milieu social, conditions familiales, etc.).

Inria souhaite améliorer la structuration et la visibilité de ses recherches fortement pluridisciplinaires (par exempple ici) sur ce sujet, notamment en développant des partenariats avec des acteurs académiques et économiques, à travers des équipes-projets communes afin de pouvoir construire dans des cycles courts des cadres théoriques, des conditions d’expérimentation pertinentes et de garantir leur diffusion effective et opérationnelle.

Quelques équipes de recherche Inria ont déjà ouvert la voie comme l’équipe-projet Flowers, et d’autres encore que l’on peut découvrir sur le site web de l’INRIA (ici), sans oublier d’autres équipes de recherche par exemple à Sorbonne Université (Mocah du LIP6) ou à l’université de Lorraine (Kiwi du Loria).

Chercher c’est bien, prouver c’est mieux : évaluer l’éducation.

Avoir un impact réel et objectivé nécessite d’avoir une évaluation indiscutable et pour cela de développer des méthodologies rigoureuses d’évaluation du numérique éducatif. Comme l’a rappelé Stanislas Dehaene dans son intervention du 4 novembre lors des EGNE où il a évoqué l’analogie avec l’évaluation dans le domaine de la santé avec les essais cliniques, certaines intégrations passées du numérique ont été réalisées sans évaluation de leurs impacts sur les apprentissages ou bien alors analysées dans le cadre d’expérimentations à portée trop limitée. Face aux défis de la complexité des causes, il est nécessaire de développer des recherches transdisciplinaires aboutissant à des études rigoureuses, produisant des résultats solides sur les effets du numérique éducatif.

Les équipes de développement de solutions d’envergure telles que Sesamath (ici), ViaScola (ici), Léa (ici) (liste non exhaustive) fonctionnent le plus souvent avec des enseignants chevronnés et entretiennent parfois des collaborations de recherche, tant dans la phase de conception que dans l’évaluation des résultats. Comme exemple caractéristique, citons NetMaths (ici), plateforme interactive québécoise d’apprentissage des mathématiques particulièrement réussie, tant du point de vue des contenus que de celui des collaborations avec la recherche.

Cette démarche de conception collaborative n’est pas toujours adoptée dès l’analyse des besoins et durant l’élaboration de la solution. Cela empêche par exemple de proposer dans les solutions développées des indicateurs et des traces d’apprentissage (logs) selon un modèle de traces adapté à l’évaluation.

Pour dépasser les limites actuelles, nous recommandons l’intégration d’une démarche d’évaluation dès la phase de conception. Ces évaluations doivent pouvoir décrire de manière claire et détaillée les usages et la situation d’apprentissage concernés.

Dans la prise de décision en lien avec le numérique éducatif, il est important de pouvoir apporter des indicateurs en lien avec les résultats de recherche. Comme dans le cas du Nutri-Score, le développement d’indicateurs compréhensibles faciliterait la prise de décision sur les outils EdTechs et leurs contextes d’utilisation.

Gérard Giraudon (*). Pascal Guitton, (***) Margarida Romero (**), Didier Roy (****) et Thierry Viéville (*) se sont associés pour la rédaction de cette tribune.

(*) Inria

(**) Université Côte d’Azur

(***) Université de Bordeaux & Inria

(****) Inria & LEARN EPFL

(1) Proposition n° 10 : Favoriser les projets associant chercheurs et enseignants pour une conception collaborative d’outils adaptés aux besoins de la communauté éducative et une analyse de leurs usages pour mettre à disposition des logiciels dont l’efficacité pour les apprentissages peut être mesurée

(2) Proposition n° 32 : Aider les laboratoires de recherche et assurer le transfert des innovations dans l’éducation pour développer des solutions numériques en pointe et transférer dans l’éducation les derniers résultats de la recherche académique

(3) « Du mode d’existence des objets techniques », Gilbert Simondon, collection Analyse et Raisons Aubier éditions Montaigne, 1958 ; à noter qu’il y a eu 3 autres éditions augmentées aux éditions Aubier (1969, 1989, 2012).

(4) Ghali&al-2018] « Identifying brain characteristics of bright students », Ghali, Ramla, et al. Journal of Intelligent Learning Systems and Applications 10.03 (2018) : 93.

(5) Sander-2018] : « Les neurosciences en éducation – Mythes et réalité », E. Sander, H. Gros, K. Gvozdic, C. Scheibling-Sève, Edition Retz, 2018″

Formation à l’IA – épisode 1 : Elements Of AI

Nous vous l’avions annoncé ici, Victor Storchan va nous présenter trois initiatives de formation à l’intelligence artificielle (IA).
Il s’entretient aujourd’hui avec Temuu Roos, Professeur d’IA et de Data Science à l’Université d’Helsinki, sur le MOOC « Elements Of AI” déployé en Finlande. Serge Abiteboul et Thierry Viéville.
La série: « Introduction« , « Elements Of AI”, “Objectif IA”, « Classcode IAI« .
La formation/certification à l’IA

Victor Storchan (VS) : Quelles ont été vos motivations initiales et vos objectifs pour l’élaboration de votre cours en ligne ?

Teemu Roos (TR): D’une certaine façon, nous voulons permettre aux gens de se lancer dans la technologie de la manière qu’ils jugent la plus appropriée pour eux-même. Certains voudront peut-être commencer à acquérir des compétences qui leur permettront d’évoluer et commencer à résoudre des problèmes par l’IA dans leur travail. Mais plus que cela, nous espérons que les gens pourront se forger leur opinion sur le type de technologie que nous devrions développer et comment cela devrait être réglementé.

VS: Quel est le public que vous visez ? Quels sont les apports de votre cours pour ce public ?

TR: En bref, notre cours s’adresse à tout le monde sauf ceux qui travaillent dans la technologie. Cependant, nous avons eu des retours indiquant que même pour ce type de personnes certaines parties du cours couvrant les implications sociétales leurs sont utiles.

Pour le grand public, le cours propose une introduction en douceur sans nécessiter aucune connaissances techniques a priori.

VS: Pouvez-vous partager les premiers résultats à ce stade et quelles sont vos perspectives futures ?

Sur les modèles d’écosystèmes français, finlandais et européen, questions spécifiques selon les partenaires

TR: Nous avons maintenant plus d’un demi-million d’inscriptions dans plus de 170 pays, et le cours est actuellement classé premier parmi tous les cours d’informatique ou d’IA sur Class Central. Nous venons de lancer le cours de suivi “Building AI”. Notre perspective d’avenir consiste à viser l’objectif de formation de 1% de la population européenne et à terme le monde entier.

VS: Comment vos ressources participent-elles à la création d’une confiance dans le développement de ces innovations, et aident-elles à développer un esprit critique constructif à ces sujets ?

Lors d’une déclaration commune en Août 2018, la France et la Finlande ont affirmé leur volonté partagée de “jouer un rôle actif pour promouvoir une vision de l’intelligence artificielle juste, solidaire et centrée sur l’humain, à la fois fondée sur la confiance et facteur de confiance”.

TR: Nous sommes pleinement attachés à la vision centrée sur l’humain d’une IA européenne digne de confiance : le cours invite le participant à se forger une opinion personnelle, éduquée et critique sur l’IA dès le début. Par exemple, le quatrième exercice demande au participant de critiquer les définitions existantes de l’IA et de proposer une définition qui lui est propre et qu’il juge plus pertinente. Un autre exercice lui demande de trouver des solutions au phénomène dit de « bulle de filtre » sur les réseaux sociaux. Le fait est qu’il n’y a aucune bonne ou mauvaise réponse à ces questions, et qu’aucune de leurs questions n’est notée automatiquement sous forme de questions à choix multiples, contrairement à ce qui est courant dans les MOOC. Au lieu de cela, les participants sont notés par d’autres participants dans un processus d’évaluation par les pairs, afin que chaque participant soit exposé aux pensées et aux arguments des autres.

Le projet entrepreneurial 

VS: Quelles difficultés surmonte-t-on pour déployer un projet comme celui-ci ?

TR: Étant donné que le projet n’est pas seulement un cours en ligne mais une initiative plus large, il implique un réseau de collaboration étendu avec plusieurs partenaires dans chaque pays. Cela vient avec des frais généraux de coordination qui sont importants et nécessite des levées de fonds. Le projet, qui est un mélange de politiques éducatives, scientifiques, industrielles, publiques, et de communication est tout à fait unique dans son genre. Ceci rend difficile de le placer dans les catégories de projets déjà existantes.

VS: Pour “Elements of AI” qui est en train d’être déployé en Europe, quelles sont les difficultés spécifiques que l’on rencontre lors du passage à l’échelle européenne ?

TR:  Le projet a reçu un énorme soutien de la Commission européenne et d’autres acteurs ainsi que de nos partenaires locaux dans chaque pays de l’UE, donc d’une certaine manière cela a peut-être été moins douloureux que prévu. Bien entendu, coordonner le projet est une tâche colossale. Il y a eu des problèmes mineurs liés à l’appariement de notre « marque » avec diverses organisations nationales et initiatives – par exemple, nous voulons garder le contrôle de toute publication dans le cadre de la marque “Elements of AI”. Cela signifie que nous ne pouvons pas systématiquement accepter les contenus que nous suggèrent nos partenaires dans les différents pays. À terme, nous aimerions bien sûr poursuivre la co-création de contenus éventuellement sous une marque commune avec nos merveilleux partenaires nationaux. Mais le l’ampleur et l’urgence du projet ont jusqu’à présent mis ces plans en suspens.

Note: Elements Of AI a reçu des fonds européens pour être traduit dans toutes les langues européennes.

Les modèles d’écosystèmes

VS: Au-delà de la formation, quels sont les atouts et les faiblesses de l’Europe pour peser dans la compétition technologique mondiale ? La dynamique européenne sur l’IA actuelle est-elle suffisamment ambitieuse ?

TR:  La fragmentation de l’industrie est probablement le facteur le plus important. Il a des retombées sur la capacité de retenir les talents et les investissements en Europe. Au lieu de ça, on observe un mouvement des experts vers les États-Unis, notamment lors de montées en puissance appuyées par des fonds de capital-risque américains. L’Europe peut faire beaucoup mieux en tirant parti d’une main-d’œuvre qualifiée et d’institutions de recherche de qualité.

VS: Une récente étude McKinsey a identifié la Finlande (avec 8 autres pays nordiques) comme pouvant prendre le leadership sur le numérique européen. Comment décririez-vous les spécificités de l’écosystème finlandais ? 

TR: L’écosystème finlandais a récemment investi considérablement dans la numérisation à tous les étages. Les investissements en IA commencent peut-être seulement maintenant à augmenter en volume, mais le bon positionnement stratégique sur le numérique offre un environnement fertile pour un bon retour sur investissement de l’IA. Il convient de noter que ce ne sont pas seulement les industries des TIC (Technologies de l’information et de la communication) et des jeux qui sont manifestement « nées du numérique », les piliers traditionnels de l’industrie finlandaise (foresterie, industrie, maritime, construction) sont également bien préparés.

VS: Votre initiative crée donc un lien éducation et IA, quels sont les liens à renforcer entre IA et éducation  (par exemple apprentissage de l’IA dans le secondaire)  et éducation et IA (par exemple des assistants algorithmiques), et quels sont les impacts socio-économiques visés ?

TR: Je crois qu’il est le plus important d’apprendre les bases au secondaire : les mathématiques, le numérique, et peut-être la programmation. Si l’IA peut être introduite à ce niveau dans une certaine mesure, elle devrait l’être sous l’angle de la “littératie numérique” plutôt que par la dimension technique. Personnellement, je suis assez vieille école quand on parle d’éducation. Je vois une certaine valeur à appliquer l’IA dans l’éducation personnalisée. Par exemple, les applications d’apprentissage des langues telles que Duolingo sont bonnes parce que l’apprentissage de la langue exige la répétition, la répétition, et encore la répétition. Mais je pense toujours que dans l’ensemble, l’éducation nécessite une interaction interhumaine.

VS: Confier à des algorithmes des tâches qui mènent à des décisions cruciales, par exemple en matière de justice, d’embauche, ou d’autres décisions à forte conséquence humaine, questionne, quel est votre positionnement sur ce sujet ? Quelle place pensez-vous que l’éthique doit prendre dans votre enseignement ?

TR: L’IA centrée sur l’humain est le concept clé ici. Nous devons toujours évaluer les conséquences du déploiement des systèmes d’IA d’une manière qui englobe l’ensemble du système : comment s’opère l’interaction souvent complexe et dynamique entre le système, ses opérateurs et ses utilisateurs. Il ne suffit pas de tester le logiciel indépendamment de son contexte.

VS: Le fait que des tâches cognitives de plus en plus complexes soient réalisées par des programmes nous amène-t-il à reconsidérer l’intelligence humaine ? Est-ce cela a des impacts sur notre vision de l’IA ? Sur son enseignement ?

TR: Je considère toujours l’IA comme un outil. L’utilisation de l’outil libère les humains pour faire plus de tâches « humaines ».

VS: Nous vivons au temps des algorithmes. Quelle place voulons-nous accorder aux algorithmes dans la “cité” ? Est-ce que cela nous conduit à repenser cette cité ? Comment mieux nous préparer au monde de demain?

TR: Comme je l’ai dit, je considère l’IA et les algorithmes comme des outils (certes complexes) et leur place devrait se limiter à celle qu’ont les outils dans notre société.

 

 

Formation à l’intelligence artificielle : la bande annonce

La formation des Européens aux enjeux technologiques et en particulier leur acculturation aux défis transverses de l’intelligence artificielle (IA) sont devenus des éléments incontournables des différentes stratégies IA présentées ces dernières années par les États membres de l’Union. Les défis sont de taille. Victor Storchan devient journaliste pour nous et nous propose une série d’articles pour nous présenter plusieurs initiatives. Serge Abiteboul et Thierry Viéville.

La série: « Introduction« , « Elements Of AI”, “Objectif IA”, « Classcode IAI« .

Oui, les défis sont de taille. Il s’agit d’abord de garantir que chacun pourra, dans sa vie professionnelle, maîtriser les connaissances indispensables pour  travailler dans un environnement de travail où l’IA sera omniprésente. Chacun aura aussi à comprendre le monde dans lequel il vit pour être un citoyen pleinement éclairé.  Pour ce qui est de l’IA, les approches participatives et inclusives entre les utilisateurs avertis et les concepteurs des modèles d’IA sont indispensables au développement d’une IA de confiance, respectueuse de la vie privée, transparente et non-discriminante. La formation en IA a donc un rôle considérable à jouer.

Mais quelle formation ? Nous présentons un regard croisé entre trois telles formations. Le but est  de partager les motivations, les premiers résultats, les visions de trois écosystèmes :

Temuu Roos, le créateur du MOOC « Elements Of AI”, parle de la genèse de ce cours en Finlande, puis sur son déploiement dans toute l’Europe et son ambition de former 1% de la population de l’Union. 

Théophile Lenoir et Milo Rignell partagent leur objectif de former le plus grand nombre de français aux fondamentaux de l’IA avec le MOOC “Objectif IA”.

Frédéric Alexandre, Marie-Hélène Comte, Martine Courbin-Coulaud et Bastien Masse, décrivent la plateforme de formation ``IAI´´ de ClassCode du Inria Learning Lab.

Ces regards croisés permettent de saisir les enjeux, et de comprendre la complémentarité de ces trois approches. Ils permettent également de questionner les parcours entrepreneuriaux de chacun et le rôle des écosystèmes finlandais, français et européens dans le processus de déploiement d’un contenu pédagogique qui bénéficie au plus grand nombre. 

Victor Storchan, Ingénieur en IA.

Comment les expériences numériques s’invitent dans le climat et l’hydrologie ?

Un nouvel « Entretien autour de l’informatique ».  L’informatique joue un rôle essentiel en climatologie comme l’ont déjà expliqué à binaire Valérie Masson-Delmotte (Les yeux dans les nuages) et Olivier Marti (Le climat dans un programme informatique). Mais l’étude du climat est si essentielle qu’il mérite qu’on s’attarde sur le sujet. Dans un entretien réalisé par Serge Abiteboul et Claire Mathieu, Agnès Ducharne, Directrice de recherche au CNRS nous parle d’une autre facette de la climatologie. Elle est spécialiste de la modélisation de l’hydrologie des surfaces continentales et des interactions climat-végétation-sol. Elle nous raconte les liens intenses entre climat et hydrologie qu’elle étudie avec le numérique.
Agnès Ducharne, CNRS

B – Pouvez-vous nous raconter brièvement votre carrière ?

AD – J’étais une enfant curieuse, dans une famille pas du tout tournée vers les études. J’ai pu profiter de l’enseignement de la République, à l’école et au lycée. J’étais intéressée par les sciences, en particulier la biologie, et j’ai eu la chance de pouvoir entrer à l’École Normale Supérieure en biologie. J’y ai découvert l’écologie scientifique, ce qui a été une révélation pour moi. J’ai été emballée par la vision systémique des choses et une forme de syncrétisme entre des disciplines variées qu’apportent l’écologie.

Au moment de choisir un sujet de thèse, je m’intéressais aux liens entre déforestation et climat. J’ai rencontré Katia Laval, professeur de climatologie. Elle est devenue ma directrice de thèse et m’a orientée vers le climat et l’hydrologie continentale. Je m’y suis lancée à l’aveugle. J’ai appris en lisant et en parlant avec des gens. Ce qui caractérise mon parcours, c’est la curiosité et l’envie de comprendre les liens de la nature avec les sociétés humaines, le climat n’en étant qu’une composante. Je suis hydrologue, mais également climatologue. Tout le monde voit bien ce qu’est la climatologie, l’étude du climat. L’hydrologie, quant à elle, s’intéresse à l’eau, et plus précisément à l’eau continentale, à sa répartition spatiale et à sa dynamique temporelle. L’hydrologie dépend bien sûr du climat, par exemple les quantités de pluie. Mais, dans l’autre direction, la disponibilité en eau influence la végétation et le climat. La présence humaine est impactée par ce système hydro-climatique, mais elle le perturbe également, et c’est l’étude de ces interactions qui me motive depuis plus de 20 ans.

L’hydrologue, Saint Oma

B – Vous vous intéressez à l’évolution de l’hydrologie, sa situation dans le passé et les projections sur l’avenir ?

AD – C’est au cœur de ce que je fais. J’utilise des modèles numériques qui décrivent les propriétés physiques et biophysiques des bassins versants, dans le but de comprendre l’évolution de l’hydrologie. Pour certains usages, on peut se contenter de modèles du transfert de l’eau. Par exemple, pour dimensionner des ponts, des ouvrages, dans le cadre de plan de prévention des inondations, on s’intéresse à des événements extrêmes issus du passé. On utilise des observations du climat, de la topographie, de l’occupation des sols, pour reconstituer l’hydrologie correspondante et vérifier qu’une installation ne sera pas inondée trop souvent. On peut aussi tester avec ce genre de modélisation l’intérêt de mesures de prévention, par exemple de digues, en modifiant la topographie exploitée par le modèle, ou la position de l’installation.

Ce qui est essentiel dans la modélisation numérique de l’environnement, c’est qu’elle nous permet d’interpoler des observations incomplètes dans l’espace et le temps, sur la base de règles physiques et rationnelles. On essaie ainsi de reconstruire les évolutions du passé, mais aussi de quantifier l’importance relative des facteurs qui contrôlent les changements hydrologiques. Un de ces facteurs est le climat, qui change en ce moment, et parmi les questions que l’on se pose, il y a celle de savoir si d’autres facteurs peuvent amplifier les changements induits par le climat, ou au contraire les atténuer.

Si l’on prend l’occupation des sols par exemple : une forêt renvoie davantage d’eau de pluie sous forme d’évapotranspiration qu’une culture et encore plus qu’un parking, qui génère en contrepartie plus de ruissellement qu’une forêt. Si donc on combine imperméabilisation et intensification des pluies extrêmes, qui constitue une des signatures du réchauffement climatique, on augmente « doublement » les risques d’inondations. L’irrigation peut aussi modifier substantiellement l’hydrologie régionale. L’eau nécessaire pour irriguer les cultures est habituellement prise dans des cours d’eau à proximité ou dans des nappes souterraines. Il faut souligner que l’eau des nappes n’est pas statique, elle coule, en général vers les cours d’eau, donc quand on prend de l’eau, on détourne cette eau de sa destinée naturelle, les cours d’eau. Du coup, l’irrigation modifie considérablement le régime des cours d’eau. Dans le monde, les 3/4 des prélèvements d’eau dans les rivières et les nappes sont effectués pour l’irrigation. S’y ajoutent les prélèvements pour l’eau potable, ainsi que pour les activités industrielles, par exemple pour le refroidissement des centrales électriques ou des usines métallurgiques. On peut observer tous ces prélèvements d’eau quand on regarde l’évolution long-terme des débits des cours d’eau, qui diminuent dans de nombreux endroits de la planète. Dans les zones très irriguées comme l’Inde ou la Californie, la baisse des ressources en eau souterraine est même détectable depuis l’espace, par gravimétrie satellitaire.

Lit d’un cours d’eau intermittent, Ile de Naxos (Grèce), Avril 2019. Agnès Ducharne.

On peut aussi observer l’effet des barrages artificiels, qui réduisent la variabilité saisonnière des débits entre saison des pluies et saison sèche. Mais de nombreux barrages servent aussi pour l’irrigation, ce qui rajoute comme impact de diminuer le débit aval du cours d’eau. Un exemple archétypique est celui d’Assouan sur le Nil, qui a entrainé une baisse de débit d’un facteur 5 environ entre le début et la fin des années 1960, c’est-à-dire la période de construction du barrage. Croisée avec la croissance démographique dans la basse vallée du Nil, cette baisse pose désormais des problèmes d’accès à l’eau. Mais il faut garder en tête que cette croissance démographique a été permise par l’intensification de l’agriculture, elle-même permise par la possibilité d’irriguer en dehors des périodes de crue du Nil grâce au barrage. Cet exemple montre la multi-factorialité des problèmes liés à l’eau, pour lesquels il est rarement possible de trouver une solution optimale.

Dans ce cadre, les simulations numériques sont donc très utiles pour explorer toute une gamme de solutions. Le principe est d’informer et calibrer un modèle hydrologique avec l’ensemble des observations disponibles sur une période donnée, puis de s’en servir pour projeter des situations différentes, y compris dans le futur : Que se passerait-il si on accélérait la déforestation ? Voire si on supprimait toutes les forêts de la Terre entière ? Quelle différence de débits entre le climat actuel et le climat de 2100 ? Pour répondre à cette dernière question, les modèles hydrologiques doivent s’articuler avec des estimations du climat futur, fournies par des modèles climatiques.

B – Nous sommes de plus en plus conscients, collectivement, des problèmes soulevés par le dérèglement climatique. Avons-nous des raisons de nous inquiéter aussi pour l’eau ?

AD – Bien sûr. Climat et hydrologie sont très intimement liés. Regardons l’évolution du cycle de l’eau. La Terre se réchauffe, à cause de l’augmentation des gaz à effet de serre dans l’atmosphère, qui augmente le rayonnement infra-rouge renvoyé à la surface de la terre. Cette énergie supplémentaire favorise l’évaporation par les surfaces terrestres, tout comme le fait qu’une atmosphère plus chaude peut contenir plus de vapeur d’eau. Au contraire, l’augmentation CO2 a tendance à réduire l’évapotranspiration, car les plantes peuvent assimiler la même quantité de carbone par photosynthèse en ouvrant moins leurs stomates. Ces changements modifient la teneur en eau de l’atmosphère, ainsi que la répartition des précipitations et leur régime. Mais les processus impliqués sont complexes, variables dans le temps et l’espace, et il serait impossible d’estimer comment ils vont se manifester sans l’apport des modèles climatiques.

Grâce à ces outils, les climatologues ont trouvé que le cycle de l’eau s’intensifie à l’heure actuelle, si bien que dans les zones et périodes où il pleut beaucoup, il pleuvra encore plus avec le réchauffement. Par exemple, les crues cévenoles, ou les cyclones, sont appelés à devenir plus intenses ou plus fréquents. En parallèle, les zones et périodes sèches vont s’accroître en intensité et durée de sécheresse. En articulant modèles climatiques et hydrologiques, on retrouve ces tendances dans les cours d’eau et nappes souterraines, avec quelques modulations liées notamment aux temps de résidence plus importants dans les bassins versants que dans l’atmosphère.

B – A quelle échelle de temps ces changements vont-ils se réaliser ?

AD – Les échelles de temps sont les mêmes que celles qui sont explorées par les climatologues, avec des changements importants d’ici la fin du XXIe siècle, typiquement, mais qui sont déjà en cours.

B – Et pour ce qui est de la situation particulière de la France ?

AD – Tous les exercices prospectifs auxquels j’ai participé montrent malheureusement que pour le pourtour méditerranéen, qui fait notoirement partie des zones sèches de la planète, les choses vont empirer, c’est une quasi-certitude. De plus, ces zones sont en été largement alimentées par la fonte de la neige qui stocke l’eau temporairement à l’échelle d’une saison. À l’heure actuelle, cette fonte est plus forte qu’elle n’a été il y a 50 ans, ce qui compense les baisses de précipitation en cours qui sont encore assez faibles. Mais le réchauffement va se poursuivre, la quantité de neige va diminuer, et viendra un temps où cet effet de stockage saisonnier de précipitations hivernales pour être rendu en été aura disparu. Quand les glaciers auront fondu, l’absence de leur apport se rajoutera à l’effet direct sur les précipitations et augmentera la sécheresse hydrologique de ces zones méditerranéennes.

Ça c’est pour le sud. Quand j’ai commencé à travailler sur les impacts hydrologiques du changement climatique, au début des années 2000, on pensait par contre qu’en France, les zones plus au nord allaient être préservées. Ce sont des zones plutôt humides et les modèles climatiques indiquent qu’il y aura un accroissement des précipitations dans les zones les plus humides, mais malheureusement pas à l’échelle de la France. Ainsi, même au nord de la France, il faut s’attendre à une baisse sensible des précipitations, en tout cas l’été, et cela pose des questions d’adaptation pour l’agriculture et les écosystèmes, ainsi que les activités qui exploitent les cours d’eau et les nappes.

B – Est-ce que cela suggère des politiques publiques ? Peut-être des constructions de nouveaux barrages ?

AD – Oui. Mais les constructions de barrages sont contestées car quand on construit un barrage, on ne crée pas d’eau. En fait, un barrage joue un peu le même rôle que la neige : retenir de l’eau quand il y en a beaucoup, pour la redistribuer à d’autres moments. Remplacer les neiges qui disparaissent par des barrages ? Pourquoi pas, mais les barrages posent aussi des problèmes d’autre nature que purement hydriques, en altérant le transport sédimentaire dans les cours d’eau, et les conditions de vie des espèces aquatiques.

Surtout, pour quels usages est-ce qu’on réserverait ainsi cette eau ? C’est un problème qui n’est pas résolu. Quand une ressource est limitée, quelle qu’elle soit, c’est compliqué de l’attribuer de manière équitable à tous les gens qui en ont besoin, et qui prétendent tous en avoir besoin plus que leur voisin, sans compter les usagers muets comme les poissons. Il y a des gens qui travaillent sur ces questions, avec de la théorie des jeux par exemple. Mais actuellement, dans la pratique, c’est l’agriculture qui gagne. Et c’est vrai qu’on a besoin de manger. Néanmoins, quand les agriculteurs captent cette ressource, ils en privent tous les usagers aval. On le voit très nettement en France dans le sud-ouest, où il y a énormément de petites retenues, y compris des retenues sauvages. Quand on met une retenue à un endroit, on peut s’en servir à proximité, mais les usagers aval sont pénalisés. Cela peut être des écosystèmes naturels, mais aussi d’autres agriculteurs, ou les urbains, car les villes sont souvent en aval des bassins versants. On ne peut pas imaginer de généraliser ça sans mieux gérer la pénurie. Car comme les barrages ne créent pas d’eau, ils resteront désespérément vides en cas de sécheresses prolongées, comme on peut déjà le constater en Californie.

B – Cela milite pour une réflexion publique et le choix de critères pour gérer l’eau ?

AD – Oui. Il faut bien sûr garantir à l’agriculture un certain accès à l’eau mais en réfléchissant à la bonne façon d’utiliser cette eau. Il y a actuellement des aides pour l’agriculture irriguée. Ce n’est pas toujours une bonne idée. Par exemple, le maïs a besoin d’eau pendant la saison sèche en France : est-il raisonnable de continuer à le cultiver de manière intensive en France ?

Nos simulations mettent en évidence le problème des ressources en eau au cours du prochain siècle. Nous travaillons sur plusieurs scénarios de réchauffement, qui sont eux-mêmes contraints par plusieurs scénarios d’émission de gaz à effet de serre. Nos résultats montrent ainsi que pour éviter des conséquences désastreuses, il est indispensable de limiter les émissions de gaz à effet de serre dans l’atmosphère. Si on ne tient pas les engagements de l’accord de Paris, on aura un réchauffement supérieur à deux degrés. Il faut en tirer les conséquences. Cela risque de générer des conflits d’usage de l’eau. On parle souvent de tels conflits en Afrique ou au Moyen-Orient. Mais en France, aussi ! Et ce type de conflits ne se résout pas de manière pacifique, même en France. Le barrage de Sivens (*) n’en est qu’un avant-goût.

B – Quelle est la place de l’informatique dans votre travail ?

AD – L’informatique est au cœur de tout ce que je fais. Pour ce qui est du climat, les entretiens pour binaire de Valérie Masson-Delmotte et Olivier Marti insistent déjà sur l’utilisation de l’informatique. Je ne peux que confirmer cela dans le cadre de l’hydrologie. Nos modèles combinent la connaissance théorique que nous avons de l’environnement avec les observations variées qui sont collectées in situ et par satellite. Les équations se traduisent en un système complexe de lignes de code informatique qui, alimentés par des données, permet d’approcher le fonctionnement qu’on peut observer. Pour moi, la principale vertu d’un modèle numérique est de réaliser une synthèse intelligente des connaissances théoriques et des observations. Cela permet de comprendre ce qui se passe et mais aussi de réaliser des projections robustes d’évolutions futures sous différents scénarios. On peut ainsi contraster les conséquences hydrologiques de deux scénarios d’émission de gaz à effet de serre de manière quantitative.

B – Quelle confiance peut-on avoir dans les résultats ?

AD – La modélisation numérique présente évidemment des incertitudes mais on peut les quantifier. Comment s’y prend-t-on ? On travaille sur ce qui a été observé dans le passé. On vérifie si les modèles reproduisent correctement, par exemple, les débits observés. Typiquement, on calibre le modèle (on choisit ses paramètres) sur une partie des données et on valide avec les autres la robustesse du modèle et de ses paramètres. Cette étape de validation permet d’estimer une incertitude, une marge d’erreur, laquelle sert à proposer une marge d’erreur dans nos projections du futur. Si on est pointilleux, il faut ajouter que cette marge d’erreur est elle-même incertaine, car elle suppose que les erreurs du modèle seront les mêmes dans le climat futur que dans le climat passé, ce que rien ne garantit. Mais c’est une malédiction universelle quand on essaie d’imaginer ce qu’on ne peut pas observer. Et la confiance est renforcée par l’assise théorique des modèles.

Et puis, nous nous plaçons vraiment dans l’esprit des travaux du GIEC (**). Nous ne faisons pas des prévisions car nous ne savons pas quelles seront les émissions de gaz à effet de serre dans le futur. Nous réalisons des projections selon certains scénarios, qui correspondent à des hypothèses sur les facteurs d’évolution du climat ou de l’hydrologie. Ce qui est intéressant dans ce cadre, c’est de comparer deux scénarios, car on peut souvent conclure avec une bonne confiance que « celui-ci va être pire que l’autre » même en présence d’incertitude.

B – Est-ce que vous travaillez avec des informaticiens ?

AD – L’Institut Pierre-Simon Laplace où je travaille a développé son propre modèle du climat, qui intègre un modèle « des surfaces continentales », au sein duquel je travaille sur la composante hydrologique. Au total, une centaine de personnes travaillent sur le modèle de climat, dont des informaticiens. D’une part, ils nous aident avec les techniques numériques que nous utilisons. D’autre part, ils gèrent les logiciels ; ils définissent les environnements de développement logiciel et organisent les différentes composantes pour que le modèle soit plus performant, bien adapté aux calculateurs à notre disposition. Olivier Boucher pilote le développement scientifique et technique.

B – Qu’attendez-vous de vos doctorants, en termes de formation ? Et de formation en informatique ?

AD – On peut dire que, souvent, je forme d’autres moi-même. Comme moi, ce sont des spécialistes en environnement, des spécialistes en géologie, génie civil, ou agronomie. Quand ils arrivent, ils ne sont pas du tout aguerris en techniques numériques et n’ont pas de compétence particulière en programmation. Les étudiants d’aujourd’hui n’en connaissent pas plus en informatique que mes premiers étudiants. Je leur fais suivre des formations. Les outils que nous utilisons sont codés en Fortran, donc ils suivent des cours de programmation en Fortran. Il faut aussi qu’ils s’habituent à l’environnement logiciel mis en place par l’équipe technique. C’est indispensable pour la reproductibilité et la fiabilité des simulations. Et puis, quand ils arrivent, ils connaissent Windows. On les forme à l’operating system Unix. Ils apprennent à programmer en shell. C’est très formateur, cela leur permet de mieux comprendre ce qu’ils font. En général, ils aiment beaucoup ça. Ce qui a beaucoup changé pour la formation en informatique, ce sont les ressources en ligne. Ils se forment beaucoup tout seuls.

Mais il ne suffit de savoir réaliser ces simulations. Un grand pan de notre travail, c’est d’analyser leurs résultats, des fichiers avec des masses de données. Il y a des librairies spécialisées pour travailler ces données, en Python, Matlab, R, pour faire des statistiques, visualiser les données. Car une carte pour représenter des évolutions dans le temps sur des régions particulières, c’est plus parlant que des tableaux de chiffres !

B – Fortran, Unix, des environnements logiciels, Python, Matlab, analyse de données, visualisation. Pour des étudiants qui ne connaissaient pas a priori grand-chose en informatique… Et vous personnellement, est-ce que vous ne finissez pas par passer beaucoup de temps sur de l’informatique ?

AD – Comme je ne fais pas de terrain, oui, je passe beaucoup de temps devant un écran. Mes outils de travail favoris, ce sont ces modèles numériques de l’hydrologie. Au fond, je fais des expériences numériques.

Mais je participe aussi à des projets collaboratifs. J’ai des échanges par exemple avec des gestionnaires de l’eau. Ce sont des démarches itératives. Nous proposons des simulations et nous confrontons nos résultats avec leurs observations sur le terrain. Leurs opinions nous permettent de modifier nos modèles pour mieux décrire la réalité des choses. Par exemple, mon modèle actuel ne décrit pas l’irrigation comme on le souhaiterait et on a démarré actuellement une thèse sur ce sujet. Nos outils sont toujours des simplifications de la réalité. Par exemple, au début, on ignore des phénomènes du second ordre. Et puis, quand on est satisfait de notre capture du premier ordre, on essaie de modéliser le second ordre. Les observations de terrain, les spécialistes de terrain, nous aident à choisir nos pistes de recherche.

B – Y a-t-il une question que vous auriez aimé qu’on vous pose et qu’on n’a pas posée ?

AD – J’aurais aimé vous parler de modélisation spatiale du réseau hydrographique. Il s’agit d’utiliser des données et des méthodes numériques pour reconstituer les lignes bleues des cartes, y compris dans des zones où elles sont mal connues. Or c’est le cas un peu partout quand on remonte un fleuve vers ses sources. La source officielle de la Seine est sur le plateau de Langres, mais il y en a en fait une multitude d’autres : où sont-elles ?

Avec mon équipe, nous sommes partis de données topographiques de très haute résolution qui permettent de reconstituer numériquement les directions d’écoulement, donc les lignes bleues potentielles depuis toutes les crêtes. Puis nous avons proposé un modèle empirique pour raccourcir ces lignes potentielles, en fonction d’informations sur la géologie, la pente, et le climat. Nous avons calibré ce modèle dans des pays où les données hydrographiques sont précises comme la France ou l’Australie, avant de l’appliquer au monde entier. Et nous avons obtenu une densité de cours d’eau 10 fois supérieure à ce qui était connu. Grâce à ce travail, on connait beaucoup mieux les petits cours d’eau, qui sont souvent les plus sensibles au réchauffement climatique.

Serge Abiteboul, Inria & ENS Paris, Claire Mathieu, CNRS & Université de Paris

(*) Le barrage de Sivens est un projet abandonné de barrage sur le cours du Tescou, un affluent du Tarn dans le bassin de la Garonne (France). Après des affrontements violents en 2014, qui ont vu la mort de Rémi Fraisse, le projet initial a été abandonné en 2015 par arrêté préfectoral.

(**) GIEC : Le Groupe d’experts intergouvernemental sur l’évolution du climat, organisme intergouvernemental ouvert à tous les pays membres de l’Organisation des Nations unies (ONU).

 

FBP comme Fondation Blaise Pascal

« Compte tenu de l’importance croissante du numérique dans notre société, il est essentiel de comprendre comment fonctionne l’informatique. La fondation Blaise Pascal procure de superbes occasions d’apprendre à vivre dans un monde numérique en s’amusant. »

Serge Abiteboul, Président de la Fondation Blaise Pascal

La fondation Blaise Pascal a pour vocation de promouvoir, soutenir, développer et pérenniser des actions de médiation scientifique en mathématiques et informatique à destination de toute citoyenne et citoyen français, sur l’ensemble du territoire. Ses actions se portent plus particulièrement vers les femmes et les jeunes défavorisés socialement et géographiquement, et ce dès l’école primaire.

Créée en 2016 sous égide de la Fondation pour l’Université de Lyon par l’Université de Lyon et le CNRS rejoints en 2019 par Inria, la fondation Blaise Pascal est présidée par Serge Abiteboul, et animé par toute une équipe.

Un exemple d’action soutenues par la fondation : les Cigales ? Des vacances mathématiques, sportives et culturelles pour des lycéennes de Première, accueillies au Centre international de rencontres mathématiques ! ©cirm

Reconnue d’utilité publique, la fondation vise à donner le goût des mathématiques et de l’informatique au plus grand nombre ainsi que plus largement à faire rayonner la culture scientifique. À travers deux appels à projets par an, son ambition est de démultiplier l’impact des acteurs de la médiation en mathématiques et en informatique et stimuler l’émergence des projets de médiation innovants. Entre 2017 et 2020, ce sont 227 projets partout en France, touchant plus d’un million et demi de personnes, qui furent soutenus.

Jeu de 7 familles de l’informatique : pour découvrir cette jeune science à travers les femmes et les hommes qui l’ont construite et l’histoire de leurs idées. ©interstices.info

Parce que la fondation se veut au plus près des besoins du terrain et des enjeux de société, ses actions agissent en faveur de la mixité, de la diversité en science et de la sensibilisation à un numérique responsable et frugal. Elles ont pour objectif de lutter contre les discriminations de genre, lever les freins sociaux et culturels, et attirer plus de filles vers les métiers scientifiques. Aux côtés de ses partenaires associatifs engagés, elle œuvre ainsi pour positionner ces disciplines au cœur de la formation des jeunes générations afin d’anticiper les besoins en compétences clés des métiers de demain.

Car aujourd’hui, et encore davantage demain, les enjeux liés au numérique sont et seront au cœur de notre société, comme la protection des données, l’intelligence artificielle, la cyber-sécurité, les crypto-monnaies… Il est donc essentiel que chaque citoyenne et chaque citoyen puisse les appréhender avec discernement.

Plus d’informations: https://www.fondation-blaise-pascal.org/

Bonne année 2021

2021, l’année des communs du numérique

Quel est le point commun entre Grace Hopper, Linus Torvalds et Tim Berners-Lee ? Ce sont trois géant.e.s des communs du numérique que nous célèbrerons cette année. Grace Hopper ne se voyait sûrement pas comme une pionnière des communs du numérique. Vous ne la voyiez probablement pas comme cela. Pourtant, son premier compilateur était bel et bien un extraordinaire bien commun. Et puis, surtout, nous sommes fanas de Grace dans binaire, alors nous nous sommes permis de l’associer à l’année des communs du numérique.

L’équipe de binaire vous souhaite une bonne année 2021
🥰🥰🥰