Enfin un CAPES en informatique !

Isabelle Guérin-Lassous est présidente du jury du nouveau CAPES Numérique et Sciences Informatiques (NSI) qui a auditionné les futurs professeurs qui enseigneront dès cette rentrée les sciences du numérique comme option au lycée en classes de première et terminale. Elle revient sur la mise en place de cette première édition du concours.
Article repris du site du CNRS.
Crédit photo Centre Jacques Cartier

L’informatique est devenue incontournable dans nos sociétés actuelles. Comment aurions-nous vécu le confinement sans les outils informatiques, tant d’un point de vue personnel que professionnel ? La période de confinement aurait sûrement été très différente : pas de continuité pédagogique pour les élèves, un plus grand nombre de professions et d’entreprises à l’arrêt, une communication plus réduite entre la famille et les amis, un accès à la culture encore plus limité, etc.

L’informatique est donc incontournable et pourtant… Peu de gens ont une idée, même assez générale, de ce qui se passe derrière ces outils informatiques. Les métiers de l’informatique sont constamment en tension et en recherche de profils compétents depuis de nombreuses années.

Si l’informatique est enseignée depuis le début des années 1970 dans l’enseignement supérieur, l’enseignement de l’informatique au lycée est un long chemin fait d’avancées et de reculs. Il y a eu des premières expériences d’enseignement en informatique, dès le début des années 1970, dans quelques lycées. Puis diverses options d’informatique ont vu le jour entre 1982 et 2015. Mais il faut attendre septembre 2019 pour que l’informatique soit enseignée au lycée comme discipline à part entière !

Depuis la rentrée scolaire 2019, la discipline informatique est enseignée au sein de deux nouveaux enseignements introduits lors de la réforme du lycée. SNT (Sciences Numériques et Technologie) est enseigné aux élèves de seconde générale et technologique. C’est un enseignement commun qui balaye les principaux concepts et enjeux de l’informatique.  NSI (Numérique et Sciences Informatiques) est proposé comme enseignement de spécialité aux élèves de première et de terminale de la voie générale. Le programme de NSI est vaste et organisé au sein de quatre thèmes-clés de l’informatique que sont les données, les algorithmes, les langages et les machines.

Cet enseignement répond à deux objectifs principaux. Il doit apporter une culture générale sur l’informatique permettant de comprendre les grands principes sous-jacents à l’informatique et aux outils extrêmement utilisés de nos jours (comme par exemple le Web ou les réseaux sociaux). Il doit aussi faire prendre conscience de l’impact de l’informatique sur nos sociétés et inciter à l’adoption de bonnes pratiques. Le deuxième objectif, avec l’enseignement de NSI, est d’apporter une formation large aux élèves intéressés par cette discipline, permettant d’aborder le supérieur avec un socle significatif de connaissances.

Si l’arrivée de l’informatique dans l’enseignement au lycée est une avancée majeure pour la discipline qui était attendue depuis longtemps, un autre enjeu, de taille, est de disposer d’enseignants experts dans cette discipline. Les enseignants qui assuraient les précédentes options en informatique possèdent déjà un bagage avéré dans la discipline, mais le programme de NSI est bien plus large et le nombre d’élèves à former bien plus conséquent. Il était donc indispensable d’avoir plus d’enseignants aptes à enseigner l’informatique.

Si l’arrivée de l’informatique dans l’enseignement au lycée est une avancée majeure pour la discipline, un autre enjeu de taille est de disposer d’enseignants experts dans cette discipline.
,

Des enseignants volontaires ont pu suivre le DIU (Diplôme Inter-Universitaire) Enseigner l’informatique au lycée qui s’est mis en place dès le printemps 2019. Les enseignants qui valident ce DIU peuvent alors enseigner NSI. En parallèle, un CAPES, dénommé CAPES NSI, a été créé pour un premier recrutement en 2020.

Organiser le premier concours d’un CAPES repose sur de nombreux défis : trouver un jury constitué de membres aux origines professionnelles du monde de l’enseignement et compétences informatiques variées, sans oublier le respect de la (presque) parité ; élaborer les sujets des épreuves d’admissibilité et les leçons des épreuves d’admission, ce qui n’est pas une tâche facile quand tout est à inventer ; mettre au point un système informatique léger, rapide et robuste, équipé de multiples logiciels utiles au concours, sur lequel chaque candidat pourra préparer, en temps limité, sa présentation orale ; recruter des futurs enseignants qui ont une culture informatique large et solide sur les attendus du programme et qui seront capables d’enseigner la discipline à des jeunes souvent accro au numérique mais sans réelle connaissance des mécanismes sous-jacents aux outils utilisés.

Le concours du CAPES NSI en 2020 est une cuvée spéciale. C’est certes le premier concours, mais le calendrier du concours a été fortement chamboulé par la crise sanitaire actuelle, comme beaucoup de concours de recrutement. Dans ce contexte, les épreuves orales ont été annulées et les épreuves écrites, qui sont devenues les épreuves d’admission, ont eu lieu fin juin. Ce n’est évidemment pas une configuration idéale pour effectuer un premier recrutement, mais l’important est que le concours ait été maintenu et qu’il permette de recruter les premiers enseignants disposant du CAPES NSI pour la rentrée 2020. Le concours de cette année va d’ailleurs être hautement sélectif, tout particulièrement pour l’enseignement public avec 30 postes mis au concours pour le CAPES externe et un peu plus de 300 candidats présents aux épreuves et 7 postes ouverts pour le 3e concours et presque 150 candidats présents aux épreuves.

Le nombre de postes mis au concours en 2020 est certes modeste mais il est normal de prendre la température au lancement d’une nouvelle discipline, notamment sur le nombre d’élèves prenant la spécialité NSI en première, puis en terminale, mais aussi sur le vivier de candidats prêts à présenter le concours du CAPES NSI, ou sur le nombre de préparations au CAPES proposées dans les universités et le nombre d’étudiants inscrits à ces préparations. Mais il est fort probable que le nombre d’enseignants aptes à enseigner l’informatique au lycée devra être significativement augmenté dans le futur. Avoir des enseignants compétents et motivés sur tout le territoire est une étape incontournable pour l’essor de l’enseignement de l’informatique au lycée, car ne l’oublions pas, au-delà de la culture générale, le France a besoin de plus de jeunes qui se tournent vers les formations en informatique, et plus leur expérience sera bonne au lycée, plus ils seront enclins à poursuivre vers ces formations !

Isabelle Guérin-Lassous
Professeur à l’Université Claude Bernard Lyon 1, membre du LIP

Le désir d’aider avec Dilingco

Dilingco est une société plurielle : jeux sérieux pour apprendre avec le numérique, offre de formation et d’auto-formation, édition d’ouvrages papier ou en ligne, etc. C’est un exemple typique d’entreprise du XXIème siècle fondée avec une volonté de partage et des valeurs éthiques. Partons à sa découverte en donnant la parole à Alain Rochedy, son président.

Vous publiez sur le web des jeux sérieux et des modules de formation. Mais qu’est ce qu’un jeu sérieux pour vous ?

©avansteduc.com

Nos jeux sérieux déroulent des pages qui présentent de manière ludique, décalée et pédagogique les divers aspects d’un thème, sous forme de contenus attrayants et de pages courtes adaptées à la navigation Internet. Ces jeux sont sérieux par leurs aspects instructifs, ou par ce qu’ils mettent en valeur des activités, en lien avec l’économie d’une région.

Par ces temps de confinements et de grandes souffrances économiques, cette fonction de promotion régionale est plus que sérieuse : vitale.

D’où vous est venu le besoin de faire un tel site Internet ?

Notre site est né du besoin de mise en ligne de documents de cours pour aller vers la publication de contenus interactifs : ces jeux sérieux et un calculateur pédagogique virtuel.

Au delà du contenu, ce site concrétise un rêve, celui de créer un groupe de passionnés qui développent des produits à hautes valeurs sociétales.

Pour réaliser des jeux sérieux orientés tourisme, savoir-faire, sport, ou œnologie, on mêle la recherche et la synthèse documentaire, la rédaction de textes et la création de figures.

Comment s’utilisent ces jeux sérieux ?

Nos jeux sérieux, bien qu’accessibles par le catalogue de notre site, ont vocation à être utilisés directement sur un site partenaire. L’entreprise ou l’organisme partenaire configure dans son site Internet un bouton qui ouvre le jeu configuré sans afficher de page propre à notre site. L’intégration du jeu dans le site partenaire est optimale, l’utilisateur n’a pas à choisir un jeu dans le catalogue Avansteduc et il revient automatiquement au site partenaire une fois le jeu terminé.

©avansteduc.com

Le jeu « Massif de la Chartreuse »est représentatif de cette complémentarité, ouvrons le ensemble pour voir. C’est un exemple de jeu, décalé, ludique, captivant, non lié à des présentations purement touristiques, et complémentaire des contenus des offices régionaux de tourisme.

On pourra aussi expérimenter le  «  Jeu Valence Romans Agglo »., pour mieux se rendre compte.

Une personne qui navigue sur internet passe en moyenne quelques minutes par site visité, mais plusieurs dizaines de minutes sur nos jeux sérieux.

C’est une forme d’addiction aux jeux ? 

Non. C’est tout simplement un comportement différent lié à l’aspect ludique, qui permet de prendre son temps, se poser, et satisfaire sa soif de connaissances 🙂

Vous proposez aussi des modules d’initiation à l’informatique ?

Les sections “Comprendre le numérique” et le “Calculateur pédagogique” sont complémentaires et ont pour but de faire comprendre le fonctionnement d’un ordinateur de l’intérieur, dans ses entrailles électroniques, mais sans les lourdeurs d’une présentation trop technique.

Le premier se focalise sur la connaissance et résume sous forme d’un jeu une série d’éléments de base. On commence par  lister les pages pour s’imprégner du sujet avant de passer au jeu, qui implique réellement l’utilisateur, vérifie ses réponses, et contrôle sa progression page à page suivant ses acquis.

Le calculateur pédagogique complète comprendre le numérique par des travaux pratiques. Les travaux pratiques sont divisés en études progressives, où seules les cartes électroniques concernées sont visualisées et accessibles, puis en études globales où les six cartes électroniques du calculateur sont présentes. Le calculateur exécute alors  un programme « clignotement de LEDs ». Le calculateur peut alors s’utiliser en mode automatique, pas à pas, ou même en dépannages virtuels.

Le parti pris est de faire le plus simple possible mais avec la réalisation d’un vrai calculateur qui permette de comprendre le fonctionnement global d’un ordinateur avec ses interactions entre matériels et logiciels. Les composants électroniques ne sont détaillés au niveau physique mais au niveau logique : stockage des instructions et des variables, exécution des instructions, réalisation de tests, cadencement des opérations, etc.

Avec sa carte d’entrées/sorties 8 boutons 8 LEDs, ses petites cartes mémoires et son unité arithmétique simplifiée, ses 8 instructions de base et son unique programme de clignotement de LEDs, le calculateur offre une simplicité optimale pour obtenir un calculateur le plus pédagogique du monde. Quelques composants de plus en ferait un calculateur réel.

Quel lien avec les nouveaux enseignements d’informatique au lycée ?

Le point clé est de pouvoir incarner et rendre tangible les connaissances théoriques par une compréhension plus pratique et plus globale. À la marge des programmes actuels, on peut ainsi expliquer avec enthousiasme le binaire, présenter la fonctionnalité d’un composant logique, et le fonctionnement global d’un ordinateur simplifié.

On pourra même faire du dépannage virtuel après les autres travaux pratiques, ce qui permet la synthèse des connaissances et la sensibilisation des démarches de résolution de problèmes.

Cela concerne l’enseignement NSI de spécialité informatique de première et terminale, l’enseignement supérieur (IUT,BTS, …), et la formation professionnelle (AFPA, CUEFA, CFA, CND, …),  ressources annexes complémentaires ou pivot central de certaines parties du programme, mais aussi outil de révision, ou d’évaluation.

Comment s’est faite l’évaluation des modules informatiques ?

Nous nous sommes adressés à des Ministères, à des organismes publics de formation, à des lycées préparatoires aux grandes école et à des lycées professionnels. Nous avons un partenariat avec https://aconit.org, le conservatoire français de l’informatique et de la télématique, dont les publications et ses collections sont beaucoup visitées par les professeurs, qui ont relu et corrigé nos contenus.

Ces évaluations permettent de situer les outils par rapport aux niveaux des élèves et par rapport aux programmes, de détecter les améliorations et modifications à apporter, de mesurer l’impact des lignes réseaux.

Comment allez vous faire pour améliorer le référencement de votre site ?

Faire arriver nos jeux dans la page de tête des moteurs de recherche passe par la multiplication des jeux et par l’utilisation maximale des techniques de référencement.

En 2021 nous publierons les jeux Bordeaux au cours des siècles, Nantes, Vannes, Le Nord, Alsace, et Côte d’Azur.

Nous rêvons d’un futur où la notoriété du site sera suffisante pour inciter les responsables de sites institutionnels à nous demander la réalisation de jeux sérieux.

Quel est le modèle économique ?

Les jeux sérieux et les modules Informatique sont en accès et en utilisation libres : nous voulons faire du calculateur pédagogique un blockbuster utilisé de facto dans l’enseignement. C’est l’explosion du nombre d’accès dans ce domaine qui va rejaillir  sur tous nos jeux sérieux et sur la notoriété de notre site.

Des visuels publicitaires sont placés dans la colonne de droite de certaines pages des jeux sérieux. Les revenus engendrés devraient rapidement nous permettre d’atteindre un niveau d’équilibre pour accompagner notre développement. Merci aux sociétés qui dès à présent nous font confiance par leurs présences dans nos pages !

La société Dilingco est riche de ses produits et des expériences acquises. Ses produits en accès libres évoluent dans le monde du numérique en ligne, ils sont originaux et ils répondent à des besoins forts de mobilité virtuelle, de divertissement et d’éducation en ligne. Parmi ces produits une pépite, le calculateur pédagogique.

En cette période Covid il y a urgence de faire connaître les produits Avansteduc aux utilisateurs concernés. Des associations, des établissements publics individuels, des personnes clairvoyantes et engagées vont l’y aider.

Espérons que binaire vous aidera aussi à vous faire connaitre…

Thierry Viéville, Inria, interroge Alain Rochedy <alain.rochedy@dilingco.com> https://www.avansteduc.com

Note des éditeurs : Alain Rochedy n’est pas un « copain » et binaire ne reçoit rien en échange de cet article. C’est seulement que nous partageons les valeurs avancées.

Des problèmes aux propriétés aux algorithmes

Un nouvel « Entretien autour de l’informatique ». Gabrielle Demange est une économiste française, directrice d’études à l’EHESS et professeure à l’École d’économie de Paris. Elle est lauréate de la médaille d’argent du CNRS en 2015. C’est une spécialiste en théorie des jeux, économie des réseaux, théorie du choix social et risque. Elle répond aux questions de binaire notamment sur les liens entre ses travaux et l’informatique. Un coup d’œil passionnant sur un domaine aux frontières des maths, de l’économie et de l’informatique.
Gabrielle Demange, cnrs.fr

binaire : Comment devient-on professeure d’économie à l’École Normale Supérieure ?

GD : Mon parcours a été très franco-français. J’avais fait l’École normale, en maths, puis au lieu d’enchaîner directement sur une thèse, je suis allée à l’ENSAE, l’École nationale de la statistique et de l’administration économique Paris. À l’époque la théorie des jeux était classée en maths, mais plus ça allait plus je me sentais en décalage avec mes collègues mathématiciens. Je suis ensuite entrée à l’EHESS, École des hautes études en sciences sociales, dont la pluridisciplinarité convenait mieux à mon travail. Il n’était pas nécessaire de préciser dans quel domaine on candidatait. Cette ouverture m’a séduite. Cela me permettait de me rapprocher des statistiques, mais aussi de l’économie et des sciences sociales.

binaire : Vous vous êtes rapprochée aussi de l’informatique ?

GD : Oui. Prenons un sujet que j’ai étudié, la représentation proportionnelle, qui sous-tend une  réforme électorale  en Suisse. Le but est d’obtenir une représentation la plus proportionnelle possible : suivant les cantons et suivant les partis. Deux contraintes fortes se posent : des tout petits cantons doivent néamoins avoir un représentant et on ne peut pas couper un député en morceau, donc la proportionnalité toute bête est exclue. Mais comment trouver une solution satisfaisante pour un vote donné ? J’ai travaillé avec Michel Balinski, un spécialiste en recherche opérationnelle. Nous sommes partis des propriétés que l’on cherchait à vérifier, nous avons défini des solutions et des algorithmes pour les calculer.

Vous m’avez interrogé sur mon rapprochement avec l’informatique. Pour moi, l’algorithme apportait une solution théorique au problème. Mais un jour, cette solution a été implémentée, est devenue un logiciel, une solution. Avec l’informatique, notre solution devenait pratique. Elle s’est répandue partout en Suisse.

« Votation à Yverdon » by Olivier Anh, CC BY-NC-SA 2.0

binaire : Dans des sciences humaines et sociales, un sujet est souvent celui de l’acceptabilité des algorithmes. Est-ce que la méthode de vote en Suisse a été acceptée facilement ?

GD : Je ne pensais pas que ce serait une méthode acceptée par les hommes politiques. Mais ils ont aimé qu’on puisse expliquer la méthode, que chacun puisse vérifier qu’on n’avait pas triché. L’utilisation d’un algorithme et de l’informatique contribuait à la transparence du système. Les hommes et femmes politiques n’avaient même pas besoin de connaître ou de comprendre l’algorithme. Ils l’acceptaient parce qu’on pouvait décrire les propriétés de la solution d’une façon assez simple. On ne pouvait pas garantir la proportionnalité exacte, donc on ajustait suivant certains critères qu’on pouvait comprendre, qui étaient acceptables. C’est une histoire qui se raconte très bien.

binaire : Est-ce que vous atteignez une forme d’optimalité ?

GD : On n’a pas d’« optimalité » mais une caractérisation, en théorie du choix social, en termes d’axiomes, de propriétés. L’approche mathématique est de de définir des propriétés, et de démontrer qu’il y a presque toujours une solution qui satisfait les propriétés. Presque toujours, mais pas toujours. C’est un problème compliqué. Par exemple, avec la méthode utilisée en Allemagne, on ajuste le nombre de représentants en fonction des résultats et ça peut générer des effets pervers. Il est même arrivé qu’un parti, après avoir reçu davantage de votes, se retrouve au final avec moins de représentants.

binaire : Quel est votre background en informatique pour arriver à concevoir des algorithmes ? Est-ce que vous programmez vous-mêmes les algorithmes que vous inventez ?

GD : Mon background consistait au départ principalement en des études en maths à l’ENS, en statistiques et en théorie des jeux à l’ENSAE. Mais vous savez, on pose des problèmes et on essaie de les résoudre. On prend les outils qu’on trouve pour les résoudre. Je ne suis pas informaticienne, mais les algorithmes étaient des outils pour résoudre des problèmes sur lesquels je travaillais. Les algorithmes sur lesquels j’ai travaillé n’étaient pas si compliqués que ça.

Cela m’est parfois arrivé de programmer moi-même des algorithmes. Par exemple, je l’ai fait pour une méthode de classement, mais ce n’était pas bien compliqué non plus. En général, je laisse la programmation aux spécialistes. Il y a par exemple des gens qui savent travailler sur d’énormes bases de données, pas moi.

« Auctioneers Hard at Work » by USFWS Mountain Prairie, CC BY 2.0

binaire : Vous avez aussi travaillé sur les enchères multi-objets ?

GD : Oui, dans les années 80-90. J’ai travaillé sur des enchères dites non manipulables, des enchères pour lesquelles c’est plus difficile de tricher. Vous avez plusieurs types d’objets, chaque acheteur veut un seul objet. On trouve ce type de questions dans les télécoms. Vous avez une ressource limitée, les longueurs d’ondes et des entreprises qui souhaitent les acquérir. C’est un problème d’affectation de ressources avec aussi des contraintes, par exemple si le territoire est divisé en plusieurs zones, les entreprises veulent des zones contigües. Un marché ne fonctionne pas, vu le nombre limité d’entreprises intéressées, aussi on a recours à des enchères,

C’était avant internet. Avec internet, on est tombé sur des problèmes très proches de ceux que j’avais étudiés, pour la plupart avec le mathématicien David Gale. Un objet à vendre, cela peut être la place sur le côté d’une page internet pour de la publicité. Ces places sont mises aux enchères. Comment les acheteurs vont-ils enchérir ? Comment va-t-on allouer les places ensuite ?

binaire : En fait pour ces problèmes d’allocation de ressources, on cherche souvent d’abord à établir des propriétés mathématiques désirables, et puis ensuite à trouver des algorithmes qui apportent des solutions qui satisfassent ces propriétés ?

GD : C’est une approche classique dans la théorie du choix social et celle du mechanism design. Il y a un travail fondateur de Kenneth Arrow, un théorème d’impossibilité sur les problèmes de vote, lié à des travaux très anciens de Condorcet. Si vous appliquez la règle de la majorité, cela marche bien si vous avez deux candidats, mais dès que vous en avez 3 il peut y avoir des cycles appelés cycles de Condorcet. Kennet Arrow a étudié ce problème de façon générale.

Les citoyens expriment leurs préférences pour des personnes à élire et je veux trouver un ordre qui agrège ces préférences « le mieux possible ». Kenneth Arrow a mis en évidence des propriétés souhaitables. Chacune séparément est naturelle, mais il a montré que dans certains cas, il n’existe pas de solution qui respectent toutes ces propriétés.  Il va nécessairement falloir relâcher certaines propriétés.

Pour les problèmes d’allocation de ressources, la même approche s’applique. Prenez la méthode « d’enchère au second prix ». Chacun enchérit jusqu’à ce qu’il n’y ait plus qu’une seule personne qui veuille l’objet. Cette personne paie alors le plus haut prix qu’une autre personne ait proposé. Cette technique à de très bonne propriétés. Personne n’a de raison de mentir sur le prix qu’il est prêt à payer. Mais dès qu’on sort de ce cadre simple, ça se complique.

J’ai travaillé à une généralisation de cette méthode au cas où il y a plusieurs objets. C’est un problème qui se formalise bien et s’énonce bien. Des informaticiens  travaillent sur ce problème lorsqu’il se complique, quand on ne peut plus garantir en même temps certaines propriétés pour la solution, quelle peut être la complexité de trouver cette solution, etc. Ces approches soulèvent tout un paquet de problèmes passionnants, notamment celui de la collusion possible entre les participants qui remet tout en cause.

binaire :  Vous avez travaillé sur un sujet qui fait couler beaucoup d’encre aujourd’hui, la taxation des grandes plateformes d’internet.

GD : Oui, même si ce n’est pas mon cœur de métier. La vraie question c’est, comment on taxe ?

Un des principes phares en économie pour la taxation des entreprises, c’est de taxer leurs bénéfices, pas leurs chiffres d’affaire. Maintenant comment taxer des entreprises multinationales dont il n’est pas simple de localiser les bénéfices dans les différents pays où elles opèrent. Actuellement, avec Francis Bloch, nous sommes en train d’examiner des propositions mises en avant par l’OCDE et qui pourraient s’appliquer. De son côté, une multinationale, disons Google, doit fournir par pays des données sur son chiffre d’affaires, ses profits, les impôts payés (country-by-country report). De telles déclarations par les entreprises peuvent être à terme une base pour une taxation même si ce n’est pas satisfaisant car leurs déclarations peuvent être biaisées. Comment sont-elles calculées ?

Ces plateformes tirent de la valeur des données qu’elles capturent de leurs utilisateurs. On peut voir leurs services comme la monétisation de ces données. On a construit un « modèle » partant d’utilisateurs qui n’aiment pas qu’on prenne leurs données mais qui n’aiment pas non plus payer pour les services. En tant qu’utilisateur vous avez deux options : soit on prend vos données et vous avez accès gratuitement aux services, soit vous payez et dans ce cas la plateforme ne prend pas vos données. Cela pourrait permettre de connaitre la valeur des données, au moins du point de vie des utilisateurs. Cela pourrait ainsi servir de bases à la taxation.

binaire : Quels sont selon vous les principes qui devraient sous-tendre une telle taxe ?

GD : La taxe numérique française est une taxe sur un chiffre d’affaires. Deux entreprises peuvent avoir le même chiffre d’affaire et des bénéfices très différents. Surtout, cette taxe ne prend pas en compte les investissements ce qui ne donne aucune incitation à faire des investissements. Pour cela, ce n’est pas, selon moi, une bonne taxe. À l’OCDE ils sont en train d’étudier la répartition des bénéfices. A partir de là, on pourra imaginer des taxations locales.

Un principe sacro-saint de la taxation internationale, c’est d’éviter la double taxation. Une idée serait de dire : on se met d’accord sur un niveau de taxe minimum. En choisissant un paradis fiscal comme les Bahamas pour son siège social, l’entreprise se retrouve en dessous du minimum. Les autres pays pourront alors la taxer localement pour arriver au minimum. Ce serait une façon de lutter contre l’évasion fiscale qui résulte de la concurrence fiscale à laquelle se livrent des pays.

binaire : Sur quoi portent vos travaux récents ?

J’étudie les nouvelles règlementations internationales mises en œuvre après la crise sur les produits financiers dérivés. Un volet important est d’obliger de passer par des CCP (pour central counterparty). Pour échanger un produit dérivé, deux banques, par exemple la BNP et Goldman Sachs, sont obligées de passer par une de ces institutions financières qui va jouer le rôle de tampon entre les deux en supportant le risque d’un défaut de paiement d’une des deux banques.  C’est un peu comme si le contrat initial était partagé en deux contrats.

Pensez à la faillite de Lehman Brothers. Toutes les banques qui échangeaient des produits des produits dérivées avec Lehman Brothers étaient atteintes par la faillite. Dans ce mode d’alors, il y avait le risque qu’une faillite ne se propage. Dans le nouveau mode, seul le risque de défaut des CCP met en danger les banques. On remplace le risque de défaut des différents membres par le risque de défaut des institutions financières elles-mêmes.

binaire : Est-ce que c’est un concept nouveau ? Est-ce que nous sommes maintenant parfaitement protégés ?

GD : Cela existait déjà depuis pas mal de temps dans certains marchés spécifiques, par exemple celui des produits agricoles. Je me suis entendu pour acheter une certaine quantité de blé à un certain prix mais les transactions se feront dans quatre mois lors de la récolte. Que va-t-il se passer s’il y a un défaut de l’entreprise avec laquelle je le suis entendu à ce moment-là ? Ce principe de prise en charge existait déjà. L‘idée a été de l’étendre aux produits dérivés après la faillite de Lehman Brothers.

Il reste des risques quand les conditions deviennent exceptionnelles. Le Brexit pose par exemple un sérieux problème : la plupart  des CCP opérant en Europe  sont à Londres.

binaire : Votre rôle est de participer à la définition de bonnes propriétés pour les CCP ?

GD : Une CCP par certains côtés se définit par ses règles.  Mes travaux actuels portent sur les CCP et  traitent plus généralement de la gestion des défauts sans passer par un organisme central telle qu’une CCP. Que se passe-t-il quand une entreprise, une banque, fait défaut qui peut avoir des effets en cascade ?  Comment gérer ces crises ? Il faut des procédures de résolution bien coordonnées pour éviter la panique, pour éviter que tout le système s’effondre parce que chacun essaie de récupérer ses billes avant les autres. Comment décider des montants des remboursements quand il peut y avoir des liens contractuels dans tous les sens ? La théorie du choix social procure des outils.

binaire : La théorie du choix social ? Ce n’est pas sûr que tous nos lecteurs soient familiers avec cette théorie. Pouvez-vous nous dire en deux mots de quoi il s’agit.

GD : La combinaison de choix individuels conduit à des décisions collectives. Comment y arrive-t-on ? Comment peut-on faire que ces décisions soient les plus éclairées possibles, les plus justes. On touche ici à des questions économiques comme les enchères ou des sujets politiques comme le vote. La théorie du choix social s’attache à définir des « bonnes » solutions et, de plus en plus à les calculer, par des algorithmes par exemple.

On pourrait parler aussi d’un autre domaine, le mechanism design, qui est assez proche par certains côtés du choix social. La différence première si on voulait les séparer c’est que le mechanism design s’intéresse plus précisément au comportement des gens, alors que la théorie du choix social est plus théorique, mais il y a quand même un lien très fort. Le mechanism design prend le problème du point de vue de l’utilisateur et considère ses incitations à « manipuler » la règle, par exemple, à voter ou non de façon sincère.

On arrive là aussi très vite à problèmes informatiques très étudiés dans des universités comme Berkeley ou par des entreprises de la Silicon Valley. On regarde par exemple des problèmes d’affectation de ressources dynamiques (online en anglais). Cela veut dire qu’on a sans cesse de nouveaux clients qui arrivent avec de nouvelles demandes, des VTC, des restaurants, etc.  Le problème s’imbrique bien de plus en plus avec l’informatique.

binaire : Est-ce que l’informatique a changé des choses dans votre domaine ?

GD : Les problèmes que j’étudie sont à la frontière de plusieurs domaines. Les chercheurs qui sont le plus actifs sont souvent aujourd’hui des informaticiens. J’ai contribué récemment à un volume sur « The future of economic design ». Plus de la moitié des contributions  viennent de départements d’informatique. Des informaticiens sont de plus en plus souvent invités à des conférences en mechanism design ou théorie du choix social.

Ce qui m’a aussi frappé c’est que l’informatique a fait ressortir certains travaux que j’avais réalisés il y a longtemps et qui restaient jusque-là purement théoriques. Je n’avais jamais pensé que les systèmes de représentation proportionnelle  que j’avais proposés pouvaient être utilisés en pratique. Je m’intéressais surtout aux propriétés souhaitables et l’algorithme n’était qu’une preuve de la possibilité de les calculer. Avec l’informatique, cela devenait réel.

Serge Abiteboul, Inria & ENS, Paris, Claire Mathieu, CNRS & Université de Paris

Petit binaire: C’est l’histoire d’un GAN

Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible un des mécanismes qui nous donne l’impression d’une intelligence artificielle : les réseaux antagonistes génératifs (Generative Adversial Network ou GAN en anglais). Marie-Agnès EnardPascal Guitton  et Thierry Viéville.

 

 

Portrait d' Edmond de Belamy
Le Portrait d’ Edmond de Belamy ©Public Domain

432 500 dollars une fois … 432 500 dollars deux fois … 432 500 dollars trois fois … adjugé ! Nous sommes chez Christie’s le 25 octobre 2018, ce “Portrait d’Edmond de Belamy”, une toile d’une série représentant une famille bourgeoise fictive des XVIIIe et XIXe siècle, vient de partir à un bon prix. Et tu sais quoi ? C’est la première œuvre d’art, produite par un logiciel d’intelligence artificielle, à être présentée dans une salle des ventes.

– Ah l’arnaque !!!

Ah non non, ce n’est pas une escroquerie, les gens le savaient, regarde la signature : c’est une formule mathématique en référence au code de l’algorithme utilisé.

Image générée par le réseau adverse génératif StyleGAN, en se basant sur une analyse de portraits. L'image ressemble fortement à une photographie d'une vraie personne.
Image générée par le réseau adverse génératif StyleGAN, en se basant sur une analyse de portraits. L’image ressemble fortement à une photo d’une vraie personne. ©OwlsMcGee 

– Oh … mais c’est dingue, ça marche comment ton algorithme ?

C’est assez simple, deux réseaux de calcul sont placés en compétition :

Le premier réseau est le “générateur”, à partir d’exemples (des tableaux du XIXe siècle), il génère un autre objet numérique artificiel (un tableau inédit “dans le style” du XIXe siècle);

Son adversaire le “discriminateur” essaie de détecter si le résultat est réel ou bien s’il est généré.

– Et alors ?

Le générateur adapte petit à petit ces paramètres pour maximiser les chances de tromper le discriminateur qui lui aussi adapte ces paramètres pour maximiser les chances de démasquer le générateur. Bref le second entraîne le premier qui finit par être super performant, comme cette image qui ressemble fortement à une photographie d’une vraie personne.

Architecture d'un réseau de type GAN
Architecture d’un réseau antagoniste génératif (generative adversial network ou GAN en anglais) : on voit le générateur créer des données factices dont la diversité provient d’un générateur aléatoire, et un discriminateur recevoir (sans savoir quoi est quoi) un mélange de données réelles et factices, à chacune de ces prédictions l’erreur est répercutée pour permettre d’ajuster les paramètres : pour le discriminateur l’erreur est de ne pas distinguer le réel du factice et pour le générateur de se faire démasquer.
©geeksforgeeks

– Attends … tu peux être plus clair et revenir en arrière : c’est quoi un “réseau de calcul” ?

Ah oui pardon. Très simplement on s’est aperçu que si on cumule des millions de calculs en réseaux (on parle de réseaux de neurones) on peut approximativement faire tous les calculs imaginables, comme reconnaître un visage, transformer une phrase dictée en texte, etc… Et pour apprendre le calcul à faire, on fournit énormément d’exemples et un mécanisme très long ajuste les paramètres du calcul en réduisant pas à pas les erreurs pour avoir de bonnes chances  d’obtenir ce que l’on souhaite.

– C’est tout ?

Dans les grandes lignes, oui, on l’explique ici, c’est un truc rigolo et tu peux même jouer avec ici si tu veux.

https://www.lemonde.fr/blog/binaire/2017/10/20/jouez-avec-les-neurones-de-la-machine

Vue de l’interface qui permet de tensorflow playground
Vue de l’interface qui permet de “jouer avec des neurones artificiels” : on voit en entrée les caractéristiques calculées sur l’image (features) par exemple  X1 discrimine la gauche de la droite (envoie une valeur négative si le point est à gauche et positive si il est à droite), puis les unités de calculs (les “neurones”) organisées en couche (layers) jusqu’à la sortie du calcul. ©playground.tensorflow.org

– J’ai bien entendu dans tes explications que tu as dit “on peut approximativement faire” et “on a de bonnes chances” ! Donc c’est pas exact et en plus ça peut toujours se tromper ??

Un urinoir en porcelaine renversé et signé : la création artistique probablement la plus controversée de l’art du XXe siècle. ©gnu

Absolument, c’est pour cela qu’il faut bien comprendre les limites de ces mécanismes qui donnent des résultats bluffants mais restent simplement de gros calculs. Mais bon ici on s’en sert pour faire de l’art donc obtenir un résultat inattendu peut même se révéler intéressant.

– Tu veux dire que le calcul est “créatif” car il peut se tromper et faire n’importe quoi ?

Oui mais pas uniquement. La créativité correspond bien au fait de ne pas faire ce qui est attendu, mais il faut un deuxième processus qui “reconnaît” si le résultat est intéressant ou pas.

 

Pour parler de création artistique il faut être face à quelque chose de :

1/ singulier, original donc, résultat d’une création, par opposition à une production usuelle ou reproduction
ET
2/ esthétique, s’adressant délibérément aux sens (vision, audition), à nos émotions, notre intuition et notre intellect (nous faire rêver, partager un message), par opposition à une production utilitaire.

– Ah oui mais alors quelque chose ne peut être reconnu comme artistique que par un humain ?

Oui, ou par un calcul dont les paramètres ont été ajustés à partir d’un grand nombre de jugements humains.

– Et ces calculs que tu appelles “réseaux antagonistes génératifs”, ils servent juste à faire de l’art ?

Pas uniquement, on les utilisent dans d’autres formes artistiques comme la musique aussi, mais au delà pour générer des calculs qui explorent des solutions à des problèmes complexes comme par exemple : pour la découverte de nouvelles structures moléculaires (encore au stade des essais),  en astronomie pour modéliser des phénomènes complexes, et sous une forme un peu différente pour gagner au jeu de go. L’intérêt est de fournir des nouvelles données d’entraînement (tu sais qu’il en faut des millions) quand elles sont à la base en nombre insuffisant.

– Tu sais ce qui me surprend le plus ? C’est que c’est finalement facile à comprendre.

Cool 🙂

 Pour faire le portrait d’un oiseau
Pour faire le portrait d’un oiseau. Une réflexion artistique sur la création artistique par Jacques Prévert. ©scribd

– N’empêche que ça questionne sur ce que l’on peut considérer comme de l’art, in fine.

Oui ce qu’on appelle l’intelligence artificielle, remet surtout en question ce que nous considérons comme naturellement intelligent.

– Et tu crois que “ça” pourrait faire de la poésie ?

 

De la mauvaise poésie peut-être…  laissons le dernier mot à Jacques Prévert :

Illustration du sonnet apocryphe
©TîetRî

« il se croyait pouet
car il sonnet,
en fait
c’était une cloche »

– Menteur : la citation est apocryphe, c’est toi qui l’a générée !

Discriminateur, va 😉

 

 

Références et liens supplémentaires :
– Le Portrait d’Edmond de Belamy : https://fr.wikipedia.org/wiki/Portrait_d’Edmond_de_Belamy
– La présentation des GANs : https://fr.wikipedia.org/wiki/Réseaux_antagonistes_génératifs
– Des présentations alternatives complémentaires des GANs :
https://www.lebigdata.fr/gan-definition-tout-savoir
https://www.lesechos.fr/tech-medias/intelligence-artificielle/les-gan-repoussent-les-limites-de-lintelligence-artificielle-206875
– En savoir plus sur ces réseaux de calcul “profonds” https://pixees.fr/ce-quon-appelle-le-deep-learning/
– À propos de création artistique et numérique https://pixees.fr/mais-que-peut-on-appeler-creation-artistique

L’open science au chevet des fakes news

La pandémie de COVID-19 en France et dans le monde a été l’occasion de débats scientifiques et médiatiques parfois violents. Ces débats ont montré les limites d’un système de recherche trop opaque et complexe qui a permis de répandre de fausses informations ou de partager des conclusions sans réels supports scientifiques. L’Open Science est une approche qui permet de limiter ces biais. Plusieurs chercheurs ont utilisé des technologies actuelles afin d’évaluer et d’analyser les articles de recherche sur la Covid-19 et ainsi quantifier la qualité et la véracité des informations relayées. 

Photo de Prateek Katyal provenant de Pexels

Depuis plus de 10 ans, des centaines de scientifiques ont commencé à promouvoir l’Open Science ou science ouverte en Français. L’Open Science un mouvement qui cherche à rendre la recherche scientifique et les données qu’elle produit accessibles à tous et dans tous les niveaux de la société

Pour rappel, le processus de publication scientifique est le même dans toutes les disciplines. Les scientifiques soumettent le résultat de leurs travaux à d’autres scientifiques du même domaine afin qu’ils évaluent la pertinence, la reproductibilité et qualité des résultats. Cette “revue” d’article fait l’objet d’un rapport (qui n’est pas systématiquement rendu publique). L’article est ensuite corrigé (ou pas) et mis à disposition sur des plateformes accessibles à tous s’il est accepté.

Avec l’Open Science, la démarche consiste à aller plus loin, en s’engageant à détailler toutes les étapes des travaux et leurs résultats, et en rendant accessibles, compréhensibles et réutilisables ces travaux à tous et toutes (amateurs comme experts). Face à l’urgence liée à la pandémie de COVID-19, les articles de recherche sur COVID-19 ont été vérifiés par d’autres scientifiques de façon bien plus rapide, de nombreux résultats scientifiques contradictoires et débats entre scientifiques ont été exposés au grand public et ont semé la confusion parmi chercheurs, journalistes ou citoyens. 

Avec mes co-auteurs, de domaines de recherche différents, nous avons donc décidé d’analyser les articles de recherche sur COVID-19 afin d’évaluer le niveau de transparence, la qualité du travail scientifique et la rigueur des évaluations faites sur ces travaux.  Cette étude fait l’objet d’un article qui, sur le principe de l’Open Science, est actuellement en attente de relecture par nos pairs : https://www.biorxiv.org/content/10.1101/2020.08.13.249847v1.full. Notre  article fait l’état des lieux de la démarche de transparence et des erreurs commises dans les publications scientifiques sur la COVID-19 et propose des pistes d’améliorations (reposant sur les principes de l’Open Science) afin de les éviter à l’avenir. 

Pour binaire, nous nous sommes principalement intéressés à deux questions :

 1. Est-ce que la revue accélérée par les pairs a été faite de façon rigoureuse ?

2. Est-ce que les journalistes ont partagé des résultats non validés par la communauté scientifique ?

Revue accélérée par les pairs. 

Nous avons analysé les articles scientifiques disponibles sur PubMed (la base de données de référence d’articles de médecine) pour retrouver les articles sur COVID-19 (12 682 articles quand nous avons débuté notre analyse) en utilisant un programme pour trouver tous les articles dont les métadonnées donnent le temps qu’ont passé les pairs pour la revue de ces articles. Sur l’ensemble des articles dont les temps de revue sont disponibles (8455 articles), 700 ont été validé par les pairs en moins de 24h. La durée classique d’une revue par les pairs, bien que dépendante du domaine de recherche, est en général bien plus longue (en général plusieurs semaines/mois). Nous nous sommes donc intéressés à ces 700 articles en particulier en les classant par catégorie : 

  – 123  lettres éditoriales

74  articles de recherche “courts” 

 – 503  articles de recherche ”classique”

Parmi ces deux dernières catégories, nous avons pu observer que les auteurs de certains  articles étaient également membres du comité éditorial de la revue dans laquelle l’article est publié, constituant ainsi ce que l’on appelle un conflit éditorial. C’est le cas pour 41% des articles de recherche et 37% des articles courts. Bien que cela ne soit pas rare, la combinaison d’un conflit éditorial et d’un temps de revue très court est particulièrement suspecte, notamment lorsque les rapports de revue ne sont pas disponibles publiquement.

Partage de résultats non validés dans les médias

En étudiant les données, nous avons constaté que les articles non encore validés par les pairs avaient presque 10 fois plus de couverture médiatique si leur sujet était COVID-19. Bien qu’il soit normal de reporter des résultats de recherche récents, les articles non validés par les pairs peuvent contenir des approximations, des erreurs ou mêmes des conclusions non fondées par les données collectées. Un partage des contenus de ces articles  participe donc directement à la potentielle désinformation du grand public.

Quelles solutions pour éviter ce genre de dérapages à l’avenir ?

Il s’agit en fait d’adopter directement les principes de transparence évoqués au début de cet article et de respecter leurs usages. Ils peuvent directement aider à rendre la recherche plus fiable, plus sérieuse et plus robuste. En voici l’illustration sur deux des points mentionnés :

1. Adopter les revues par les pairs ouvertes à tous. Cela permet de rendre disponible directement en ligne le rapport de revue  avec l’article de recherche et de savoir si la revue a été faite de façon rigoureuse ou non. 

2. Bien que le partage d’articles non validé par les pairs soit un des principes de la science ouverte et transparente, le public scientifique les consulte avec prudence quand à la validité des travaux. Cette approche de prudence et de réserve est le point central pour des publics non avertis. Si les médias s’en emparent pour une communication grand public, ils doivent eux aussi être transparents et mentionner que les conclusions de l’article pourraient changer une fois la revue par les pairs effectuée et que celui-ci est en attente de vérification par un public scientifique.

D’autres principes de l’Open Science qui auraient pu aider pendant cette pandémie sont mentionnés dans notre article. Nous évoquons par exemple l’article de The Lancet qui a du être rétracté de la revue scientifique pour soupçons de fabrication ou falsifications des données. Dans ce cas, le fait de devoir partager, en parallèle de la publication d’un manuscrit scientifique, le jeu de données sur lequel le manuscrit se base, est une solution évidente. 

En attendant la relecture et publication officielle de notre manuscrit, nous avons entamé une démarche de co-signature de l’article par d’autres scientifiques qui a déjà collecté plus de 400 signatures à l’heure actuelle. L’appel à signature est disponible ici: http://tiny.cc/cosigningpandemicopen. Nous sommes convaincus qu’il y a un réel enjeu technologique, éthique et sociétal à participer à cette démarche Open Science. Nous espérons que le monde de la recherche puisse enfin devenir ce qu’il aurait dû toujours être: un bien commun, accessible avec une transparence complète et gage de qualité et de confiance. 

Lonni Besançon, chercheur associé à l’université Monash (Australie)

Comment saisir ce que font les réseaux de neurones ?

Comment comprendre et expliquer une décision automatisée prise par un algorithme de ce qu’on appelle l’Intelligence Artificielle, ou IA, (par exemple un réseau de neurones) ? Il est plus qu’important de pouvoir expliquer et interpréter ces résultats, parfois bluffants, qui orientent souvent nos décisions humaines. Éclairage grâce à Marine LHUILLIER et Ikram CHRAIBI KAADOUD. Pascal Guitton et Thierry Viéville.

Interprétabilité vs explicabilité : comprendre vs expliquer son réseau de neurone (1/3) Premier d’une série de trois article ( ici  et  ) qui questionnent sur les concepts d’interprétabilité et d’explicabilité des réseaux de neurones, on commence ici par une introduction aux problématiques liées à la compréhension de ces algorithmes de Machine Learning.

Cet article est publié conjointement avec le blog scilog, qui nous offre ce texte en partage.

Le Machine Learning

Cette problématique tire ses origines du concept même du Machine Learning également appelé Apprentissage Machine ou Apprentissage Automatique.

Le Machine Learning (ML) est un sous-domaine de recherche de l’intelligence artificielle qui consiste à donner une capacité d’apprentissage à une machine (un ordinateur) sans que celle-ci n’ait été explicitement programmée pour cela [WhatIs, 2016] et ce, en ajustant son calcul en fonction de données dites d’apprentissage. En d’autres termes, un algorithme de ML consiste à demander à notre machine d’effectuer une tâche sans que l’on ne code précisément les différentes étapes et actions qu’elle devra réaliser pour y arriver mais en ajustant les paramètres d’un calcul très général aux données fournies.

Justement, ces prises de décision automatisées, liées à l’utilisation d’algorithmes de Machine Learning, notamment les réseaux de neurones artificiels, dits profonds quand il y a de nombreuses couches de calcul (on parle alors de Deep Learning), soulèvent de nos jours de plus en plus de problématiques d’ordre éthique ou juridique [Hebling, 2019].

L’expression “prise de décision” d’un algorithme fait référence ici à la prise de décision réalisée par un humain suite à une proposition (i.e. prédiction) issue de cet algorithme. Il s’agit donc d’une proposition de décision.

Ces problématiques sont principalement dues à l’opacité de la plupart de ces algorithmes de Machine Learning. Elles amènent donc de plus en plus de chercheurs, de développeurs, d’entreprises et aussi d’utilisateurs de ces outils à se poser des questions d’interprétabilité et d’explicabilité de ces algorithmes.

Figure 1 – Projet “Explainable AI” de la DARPA. Image extraite de Turek [2017] .

De la boîte noire à l’IA explicable


« La principale différence entre l’IA des années 1970 et celle d’aujourd’hui est qu’il ne s’agit plus d’une approche purement déterministe » [Vérine et Mir, 2019]. 

En effet, l’implémentation des algorithmes d’IA a fortement évolué ces dernières années. Précédemment fondés en majorité sur les choix des développeurs, l’agencement des formules et des équations mathématiques utilisées, ces algorithmes et leurs prises de décision étaient fortement influencés par les développeurs, leur culture, leur propre façon de penser. Désormais, ces règles sont bien plus issues des propriétés “cachées” dans les données à partir desquelles les algorithmes vont apprendre, c’est à dire ajuster leurs paramètres. Bien entendu, l’implémentation sera toujours influencée par le développeur mais la prise de décision de l’algorithme ne le sera plus tout autant. De ce fait, la prise de décision automatisée par ces algorithmes s’est opacifiée.        

Ainsi, aujourd’hui si un réseau de neurones est assimilé à une « boîte noire » c’est parce que les données en entrée et en sortie sont connues mais son fonctionnement interne, spécifique après apprentissage, ne l’est pas précisément. Quand on étudie les couches cachées profondes d’un réseau (représentées sur notre figure 2 par le cadre le plus foncé) on observe que la représentation interne des données est très abstraite, donc complexe à déchiffrer, tout comme les règles implicites encodées lors de l’apprentissage.

Figure 2 – Représentation schématique d’un réseau de neurones selon le principe d’une « boîte noire », par les autrices.

Ce phénomène est notamment dû à l’approche que les nombreux chercheurs et développeurs en IA ont eu pendant des années : la performance de ces algorithmes a été mise au centre des préoccupations au détriment de leur compréhension. 

Soulignons également un autre aspect impliqué dans ce phénomène de “boîte noire » : le volume croissant des données !  En effet, les corpus de données utilisés ont vu leur volume exploser ces dernières années, ce qui n’était pas le cas au début de l’IA. La taille désormais gigantesque des données prises en compte par les algorithmes gène, si ce n’est empêche, l’analyse et la compréhension de leurs comportements par un cerveau humain. Par exemple, si une personne peut analyser un ou dix tickets de caisse simultanément, il devient vite impossible pour elle de chercher des similitudes sur plus d’une centaine d’entre eux pour comprendre et prédire le comportement des consommateurs d’un supermarché. Cela est d’autant plus vrai lorsqu’il s’agit de milliers ou de millions de tickets de caisse en parallèle. Il devient par conséquent difficile de comprendre les décisions résultant de l’analyses et des prédictions de ces algorithmes.

Si la démystification des “boîtes noires” que représentent les réseaux de neurones devient un sujet majeur ces dernières années, c’est entre autre au fait que ces outils sont de plus en plus utilisés dans des secteurs critiques comme la médecine ou la finance. Il devient alors indispensable de comprendre les critères pris en compte derrière leurs propositions de décision afin de limiter au maximum par exemple, les biais moraux et éthiques présents dans ces dernières.

Justement, les propositions de décisions issues d’algorithme d’IA, posent des questions cruciales et générales notamment en termes d’acceptabilité de ces outils. Le besoin de confiance et de transparence est ainsi très présent et très prisé. Il y a donc aujourd’hui une vraie réorientation des problématiques liées au Machine Learning notamment le besoin de les expliquer [Crawford, 2019]. 

Effectivement, comment avoir confiance en la proposition de décision d’un algorithme d’IA si nous ne pouvons expliquer d’où elle provient ? L’entrée en vigueur du RGPD,  particulièrement de l’article 22-1 stipulant qu’une décision ne peut être fondée exclusivement sur un traitement automatisé, ajoutée au fait qu’un humain a besoin d’éléments explicites et non opaques pour prendre une décision, ont fortement accéléré les recherches dans ce domaine.

Interprétabilité ou explicabilité ?

Les besoins de transparence et de confiance dans les algorithmes de Machine Learning (e.g. les réseaux de neurones ou les mécanismes d’apprentissage par renforcement) ont ainsi fait émerger deux concepts : l’interprétabilité et l’explicabilité. Souvent associés, il semble important d’expliciter que ce sont deux concepts différents : définissons-les ! 

L’interprétabilité consiste à fournir une information représentant à la fois le raisonnement de l’algorithme de Machine Learning et la représentation interne des données dans un format interprétable par un expert en ML ou des données. Le résultat fourni est fortement lié aux données utilisées et nécessite une connaissance de celles-ci mais aussi du modèle  [Gilpin et al., 2018].

L’explicabilité quant à elle consiste à fournir une information dans un format sémantique complet se suffisant à lui-même et accessible à un utilisateur, qu’il soit néophyte ou technophile, et quelle que soit son expertise en matière de Machine Learning [Gilpin et al., 2018]. Par exemple, le métier de chercheuse ne sera pas expliqué de la même manière à des lycéennes, lycéens qu’à des étudiants en informatique. Le jargon utilisé est adapté à des concepts partagés par ceux qui émettent l’explication et ceux qui la reçoivent.

En d’autres termes, l’interprétabilité répond à la question « comment » un algorithme prend-il une décision (quels calculs ? quelles données internes ? …), tandis que l’explicabilité tend à répondre à la question « pourquoi » (quels liens avec le problème posé ? quelles relations avec les éléments applicatifs ? …). À noter que l’interprétabilité est la première étape à réaliser afin de faire de l’explicabilité. Un modèle explicable est donc interprétable mais l’inverse ne l’est pas automatiquement !

Cela explique aussi pourquoi nombreux sont ceux qui travaillent sur l’interprétabilité des réseaux de neurones artificiels. Champ de recherche vaste et passionnant, que chacun peut aborder à travers son propre prisme, il a connu une véritable explosion du nombre de travaux et de publications depuis la fin de l’année 2017 avec notamment le projet Explainable AI (XAI) de la DARPA, l’agence du département de la défense des Etats-Unis chargée de la recherche et du développement (Figure 1). 

Domaines palpitants, l’interprétabilité et par extension l’explicabilité sont donc des sujets en plein essor dont de nombreuses questions d’actualités sont encore loin d’être résolues !

Que retenir ? 

Sous domaines de recherche de l’IA, le Machine Learning, le Deep Learning et donc les réseaux de neurones, suscitent de nos jours un véritable intérêt tant leur impact devient important dans nos vies. En parallèle d’améliorer précision et performance, la communauté IA a de plus en plus besoin de comprendre la logique interne et donc, les causes des prises de décisions de ces algorithmes. Or comment s’assurer de la pertinence d’une prédiction d’un réseau de neurones si les raisons derrière celle-ci sont obscures ? 

Par ailleurs, peut-on tout expliquer ou interpréter ? Qu’en est-il des décisions issues de contexte très complexes nécessitant de gros volumes de données où l’ensemble des éléments est bien trop vaste pour être assimilé par un cerveau humain ? Ces questions ouvertes sont justement l’objectif des travaux de recherche qui tendent vers une compréhension humaine des réseaux de neurones. 

C’est donc dans le but  de démystifier ces “boîtes noires” que les chercheurs, entreprises ou encore utilisateurs s’intéressent de plus en plus au domaine de l’interprétabilité, i.e. la compréhension de la logique interne des réseaux de neurones,  et celui de l’explicabilité, i.e. la capacité d’expliquer les raisons à l’origine d’une prédiction de ces mêmes réseaux.  

Nous verrons dans la suite de cette série de trois articles les questions auxquelles il est nécessaire de répondre afin de choisir entre deux approches d’interprétabilité à utiliser selon le cas d’usage mais aussi comment elles aident à rendre les IA plus transparentes et compréhensibles. 

La suite est ici, avec le 2ème article.

 Marine LHUILLIER et Ikram CHRAIBI KAADOUD.

  • Ingénieure R&D en informatique en passe d’être diplômée de l’EPSI Bordeaux, Marine s’est spécialisée lors de sa dernière mission dans la recherche à la jonction de l’IA et des Sciences cognitives, notamment dans le domaine de l’interprétabilité. 
  • Ikram quant à elle, chercheuse IA & Sciences cognitives, ainsi qu’ancienne Epsienne, se passionne pour la modélisation de la cognition ou autrement dit comment faire de l’IA inspirée de l’humain. Toutes deux ont collaboré dans le cadre d’un projet de recherche en Machine Learning sur l’interprétabilité des réseaux de neurones chez l’entreprise onepoint.