Pour un Bureau de Transformation du Droit en Code

En 2015,  je me suis penché sur la question de la capture de la fiscalité par l’informatique, et j’ai essayé d’expliquer ce que faisait le logiciel OpenFisca. Cela a donné un article de Binaire, Dessine moi les impôts ! Des années plus tard, je me suis demandé ce qu’était devenu ce domaine. J’ai demandé à des amis de la Société Informatique de France. Ils m’ont répondu que la meilleure personne pour nous parler de cela était Denis Merigoux. Il a répondu présent et a écrit cet article pour binaire.

Je ne comprend pas pourquoi mon allocation a été réduite le mois dernier.
Tu peux aller voir le simulateur, mais ne t’y fies pas trop c’est approximatif.
Je crois que j’ai été trop prélevée, je ne comprends pas comment mon taux a été calculé.

Nombreux sont celles et ceux d’entre nous pour qui ces phrases rappellent une expérience vécue. Quel est le point commun entre ces situations ? Derrière les impôts, les allocations, les cotisations, les retraites et nombre de dispositifs qui régissent notre vie en société, se trouvent des opérations de calcul effectuées par des logiciels. Les interfaces de ces logiciels ont remplacé les préposés au guichet depuis plus de trente ans, avec des mots d’ordre de modernité, d’efficacité et de facilité d’utilisation. Certes, je fais partie de la génération qui a largement évité le remplissage de formulaires en trois exemplaires grâce aux télédéclarations et aux nouveaux sites Internet du gouvernement, dont l’initiative est aujourd’hui coordonnée par la DINUM. Mais force est de constater que derrière les interfaces des logiciels, le traitement automatique de ces demandes génère de nombreuses frictions et un sentiment de méfiance, qui est une des causes du non-recours : c’est la fracture numérique. Et les conséquences de cette fracture sont d’autant plus graves que les personnes sont dans des situations précaires ou défavorisées. C’est pour cette raison que je me penche depuis deux ans sur les programmes informatiques qui appliquent automatiquement le droit.

La page de résultats typique d’un simulateur officiel

Mais comment ce sujet est-il devenu mon dada ? J’ai eu la chance de faire des études poussées d’informatique dans une filière où la France est en pointe, les méthodes formelles, qui s’occupent justement de sécuriser le fonctionnement des logiciels dits “critiques” : contrôle des centrales nucléaires, pilotage automatique des trains, des avions, etc. Puisque l’état de droit se réalise quotidiennement et pour des millions de personnes par les logiciels qui appliquent automatiquement le droit, je les considère également comme critiques.

Cependant, les méthodes formelles ne sont pas magiques. Elles sont vulnérables par leur talon d’Achille : tout ce qui n’est pas capturé dans le code informatique qu’on étudie. C’est avec cette limite en tête que je me suis penché sur une fondation passant un peu inaperçue des édifices mathématiques construits dans mon domaine de recherche : comment est-on sûr que le programme informatique que l’on produit est bien celui que l’on veut ?

Algorithmes publics : service public administratif ou commun numérique ?

C’est là où mon chemin croise celui du calcul des impôts et des prestations sociales. En effet, tous les paramètres du calcul sont décrits très précisément par des lois et des décrets. Facile alors : il suffit de traduire ce corpus juridique en code informatique et hop, on applique le droit automatiquement. Facile, vraiment ? Cette seule traduction fait l’objet de tout un domaine de recherche depuis trois décennies. Spoiler : c’est en fait très compliqué.

En effet, la structure des textes juridiques est basée sur une forme de logique propre qui rentre mal dans les cases habituelles des informaticiens. De plus, il ne suffit pas de lire les lois et décrets pour savoir comment le programme informatique doit fonctionner : il faut les interpréter, et ce n’est pas une mince affaire ! C’est en partie pour cela que les juristes font de très longues études et travaillent en collectif, par exemple dans une administration ou un tribunal, où ils exercent leur expertise.

Concrètement, la traduction du droit en code informatique entraîne une myriade de micro-choix habituellement invisibles mais qui peuvent entraîner des conséquences concrètes sur les utilisateurs du logiciel. Par exemple, un logiciel peut prévoir une case supplémentaire dans son formulaire d’entrée pour accommoder votre situation particulière prévue par le droit, ou bien vous laisser vous débrouiller pour trouver une combinaison magique des autres cases qui déclenche le “bon” résultat.

Interface du simulateur d’impôt sur le revenu

Le logiciel qui applique automatiquement le droit doit être compris comme une extension du pouvoir de l’administration, qui parfois peut être amenée à faire des choix discrétionnaires. Celle-ci possède une marge de manœuvre pour interpréter la loi, mais ces interprétations peuvent être contestées devant le tribunal administratif. Cependant, une prise de décision automatique par un logiciel peut obscurcir les moyens par lesquels le droit est appliqué. Le législateur a donc prévu des garde-fous pour que les personnes puissent comprendre ce qui leur arrive, et contester si elles le souhaitent. Ainsi, l’article 47-2 de la loi informatique et libertés impose à l’administration responsable du logiciel : […] la maîtrise du traitement algorithmique et de ses évolutions afin de pouvoir expliquer, en détail et sous une forme intelligible, […] la manière dont le traitement a été mis en œuvre […].

Le code source de tels logiciels est aussi librement communicable à quiconque en fait la demande au titre de l’article L300-2 du code des relations entre le public et l’administration. Enfin, un guide pratique à l’usage des administrations rédigé par Etalab résume le cadre juridique applicable.

Tous ces droits sont beaux sur le papier mais ils se heurtent à une dure réalité : la dette technique(*) des administrations. La dette technique en informatique grandit au fil du temps, de l’obsolescence des technologies et de la perte de compétences sur les logiciels. J’ai déjà documenté ce à quoi pouvait ressembler cette dette technique à la DGFiP sur le calcul de l’impôt sur le revenu : la complexité de la sédimentation des évolutions du droit au fil des années rend difficile une application effective des droits théoriques exposés ci-devant. En effet, on peut publier le code source mais si celui ci est incompréhensible et/ou impossible à exécuter sur sa machine (si vous arrivez à faire tourner le code COBOL de la CNAF, prévenez-moi !), cela ne sert pas à grand chose. De plus, savoir expliquer en détail toutes les étapes d’un calcul automatique nécessite une machinerie informatique qui est absente de la plupart des logiciels de l’administration.

Extrait des sources COBOL des logiciels de la CNAF

Face à cette situation, il y a ceux qui poussent pour une réforme complète de la manière de travailler des administrations, sous le slogan “rules as code”. Leur manifeste est admirablement complet : il faut que les règles soient écrites avec la manière de les informatiser en tête, dans un format directement transposable dans un logiciel. Les services publics quant à eux doivent se réorganiser pour atteindre des objectifs de transparence et de prise en compte des alertes quant à l’impact des décisions automatisées (“better rules”). Cela pose un idéal à atteindre, mais tellement éloigné des pratiques actuelles qu’il est difficile d’y aller directement. On peut également critiquer la volonté d’étendre le domaine de l’automatisation au delà du statu quo.

Pour réformer les manières de faire des administrations, d’autres proposent de passer par la construction d’un commun numérique. En France, c’est le cas d’OpenFisca qui promeut depuis une dizaine d’années une base de code contributive contenant actuellement la quasi-intégralité du calcul des impôts et prestations sociales. Originant de l’Institut des Politiques publiques et d’une volonté des économistes universitaire, il est actuellement utilisé par l’application LexImpact (Assemblée nationale), et les simulateurs 1jeune1solution (ministère du travail) et Estime (Pôle emploi). Ce commun a vocation à être utilisé également par des entreprises, des associations, etc.

Son application principale dans l’administration, portée par une start-up d’État de la DINUM, le simulateur de droits mes-aides devenu le Portail Numérique des Droits Sociaux, a connu une histoire tumultueuse racontée par ma collègue Marie Alauzen, et qui pourrait se résumer par un choc des cultures qui a dégénéré en conflit. En effet, la base de code d’OpenFisca a été originellement pensée uniquement pour la simulation et non la production de décisions administratives : elle n’a jamais été utilisée par les ministères pour calculer “pour de vrai” (liquider) les impôts ou les prestations sociales. Les ministères sociaux craignaient alors que les résultats parfois erronés de mes-aides ne leur soient opposés alors qu’ils n’avaient pas le contrôle total sur la base de code du logiciel.

Avertissement sur la page de résultat du portail numérique des droits sociaux

Par ailleurs, le code d’OpenFisca ne prend pas en compte tous les cas particuliers pourtant prévus par le droit. Le processus de transformation du droit en code qui y est à l’œuvre se base en partie sur des sources juridiques (lois, décrets) mais pas de manière systématique. Certes, l’objectif d’OpenFisca est de tendre vers la systématisation, mais ce processus dont j’ai fait l’expérience, combiné aux spécificités techniques d’OpenFisca (Python), ne permet pas selon moi d’atteindre un niveau d’assurance et de correction suffisant pour la production de décisions administratives automatisées. Ce constat vaut également pour Publicodes, autre langage de programmation utilisé pour traduire le droit en code dans des simulateurs développés et maintenu par l’administration (comme mon-entreprise.fr).

Comment avancer concrètement ?

Nous avons maintenant tous les ingrédients du cocktail. D’un côté, une science informatique de la précision et des décennies de recherche sur la traduction du droit en code. De l’autre côté, une situation frustrante où des administrations, même mises sous la pression d’initiatives externes, n’arrivent pas à éliminer leur dette technique pour remplir leurs obligations légales et diminuer les frictions liées à l’application automatique du droit.

Je propose donc de mélanger tout cela au shaker et d’esquisser un chemin pour faire avancer l’état de l’application automatique du droit en France, surtout en ce qui concerne les transferts financiers (impôts, prestions sociales). J’identifie plusieurs axes concrets nécessaires à cette avancée.

Audit et rétro-ingénierie des systèmes d’information administratifs

Comme toutes les grandes organisations, l’administration a accumulé depuis l’informatisation de ses systèmes dans les années 1960 à 1980 une certaine dette technique. Cette dette technique se traduit par une perte de maîtrise sur l’évolution et le changement des logiciels. “L’informatique ne le permet pas…”, admet la secrétaire d’État chargée des personnes handicapées le 17 juin 2021 au Sénat en réponse à une question sur la déconjugalisation de l’aide adulte handicapé (AAH). Rien de conceptuellement impossible pourtant sur le calcul de la déconjugalisation, mais le système d’information de la CNAF semble incapable d’effectuer les multiples passes de calcul nécessaires à cette réforme, à l’instar du partage des aides au logement en cas de garde alternée.

Comment débloquer ce genre de situations ? C’est ici que mon domaine d’expertise entre en scène. Grâce à une analyse précise et exhaustive, il est possible de rétro-ingénierier le comportement d’un logiciel accablé par la dette technique, pour ensuite le répliquer à l’aide d’une technologie plus moderne ou plus adaptée.

Pour ce faire, point de baguette magique, mais le travail laborieux et méticuleux d’archéologues informatiques, qui viennent fouiller les logiciens anciens à la recherche d’indices sur ce qu’ils font et comment ils ont été construit. La rigueur des méthodes formelles de ces archéologues assure la qualité du résultat. Le travail se fait à partir du code source des logiciels à auditer, mais aussi de la mémoire des humains qui les ont conçus. Aussi, ce travail ne peut se faire que depuis les bureaux des administrations où ces logiciels ont été développés et maintenus, donc avec le soutien d’une hiérarchie qui donne les moyens d’investir sur une nouvelle tâche qui s’ajoute à la gestion des urgences du quotidien.

C’est précisément ce que j’ai fait à la DGFiP avec le compilateur Mlang. Cette démarche de rétro-ingénierie s’accompagne d’un véritable travail d’audit qui remonte les bugs et les problèmes. Elle permet aussi d’isoler dans le système d’information la partie qui applique le droit automatiquement à proprement parler du reste de la “plomberie” informatique qui fait transiter les données d’un endroit à un autre.

Extrait du code source de l’impôt sur le revenu

Production et maintenance de logiciels appliquant automatiquement le droit

Une fois la rétro-ingénierie effectuée et la capacité de mouvement informatique recouvrée, il nous faut des outils et une méthode permettant de produire et maintenir les logiciels appliquant automatiquement le droit dans le respect du cadre juridique et des contraintes de l’administration.

En m’appuyant sur l’état de l’art du domaine, j’ai développé avec ma collègue juriste Liane Huttner le langage de programmation spécifique Catala ainsi qu’une méthode de production du code impliquant un duo juriste-programmeur, capable de discuter la correction de la traduction en franchissant les barrières de l’interprétation. Nous avons pensé Catala directement pour un usage administratif en production pour les problèmes de calcul d’impôts, de prestations sociales et plus généralement de transferts financiers définis par la loi ou la réglementation. Néanmoins, je ne pense pas que Catala soit adapté à toutes les situations d’automatisation de l’application du droit (l’aide à la rédaction des décisions de justice ou l’analyse de la jurisprudence par exemple) et il faudra sûrement développer ou utiliser d’autres outils supplémentaires ou complémentaires.

La production et la conception de logiciels appliquant automatiquement le droit doit selon moi associer de manière étroite et continue les juristes, gardiens de la bonne interprétation des lois par l’administration dans le cadre de l’état de droit, et les programmeurs, artisans d’un code source lisible et maintenable. Cette association devrait se faire dans de petites équipes travaillant directement sur les sources législatives et réglementaires et le code source informatique : le modèle traditionnel de production en “cycle en V”, reposant sur la production d’un document de “spécification��� intermédiaire, qui éloigne des textes originaux, ne suffit souvent pas à désambiguïser les énoncés juridiques pour les programmeurs et assurer le niveau de qualité nécessaire pour ces logiciels critiques. L’enjeu de repenser la production des logiciels est crucial, car il faut empêcher de nouveaux désastres techniques, organisationnels et humains comme Louvois.

Programmation en binôme juriste-programmeur avec Catala

Formation professionnelle et développement d’un réseau d’expertise

Denier axe concret d’avancée : il est important de reconnaître que la traduction du droit en code informatique pour son application automatique est un problème commun à beaucoup d’administrations, et suffisamment compliqué pour nécessiter une expertise ad-hoc. J’estime à une petite centaine le nombre de personnes (juristes ou programmeurs) directement impliquées, au sein de l’État français et de ses opérateurs, dans la spécification ou l’implémentation de logiciels destinés à l’application automatique du droit. Voici en effet une liste non-exhaustive des logiciels concernés : tous les impôts gérés par la Direction Générale des Finances Publiques (DGFiP), l’allocation de retour à l’emploi gérée par Pôle Emploi, toutes les prestations sociales gérées par la Caisse Nationale d’Allocations Familiales (CNAF) et la Caisse Centrale de la Mutualité Sociale Agricole (CCMSA), le calcul des cotisations sociales géré par l’Union de Recouvrement des Cotisations de Sécurité Sociale et d’Allocations Familiales (URSSAF), le calcul des pensions effectué par la Caisse Nationale d’Assurance Vieillesse (CNAV). Ce à quoi on peut ajouter tous les statisticiens travaillant dans les départements d’étude d’impact sur le modèle de micro-simulation Inès, au sein de la Direction de la Recherche, des Études, de l’Évaluation et des Statistiques (DREES), et de l’Institut national de la statistique et des études économiques (INSEE).

Ces agents ont développé au fil des années à travailler sur ces logiciels une double expertise. Premièrement, une expertise générale sur la transformation du droit en code informatique et l’état d’esprit qu’elle nécessite ; deuxièmement, une expertise très pointue sur le calcul qu’effectue le logiciel et les textes juridiques qui le spécifient. Cette double expertise est longue à acquérir (cela se compte en années d’expérience), et la formation se fait actuellement “sur le tas” au sein même des équipes gérant les logiciels. Il n’est d’ailleurs par rare d’y trouver des agents cumulant plusieurs dizaines d’années d’expertise, véritables mémoires vivantes du logiciel qui voient avec inquiétude l’émergence d’un turn-over plus élevé dans leur équipe, qui rendrait impossible le maintien des compétences sur le long terme.

La reconnaissance au niveau des ressources humaines de la spécificité de la transformation du droit en code informatique doit être faite pour éviter la déperdition des compétences, qui arrive avec les changements de poste vers des emplois hors de ce domaine (souvent pour des raisons d’évolution de carrière). Cette reconnaissance pourrait également déboucher sur la création d’un véritable réseau professionnel, vivier de candidats pour des postes identifiés “traduction du droit en code informatique”. Ce réseau pourrait assurer une partie de la nécessaire formation professionnelle à ces enjeux, au moins sur la partie d’expertise générale, et être un pool d’expertise spécifique sur chacun des logiciels qui appliquent automatiquement un morceau du droit.

Pour un Bureau de Transformation du Droit en Code

Nous avons ici développé trois axes concrets pour améliorer l’état des logiciels appliquant automatiquement le droit en France : audit et rétro-ingénierie des systèmes existants, outils adaptés pour la maintenance et la production des traductions du droit vers le code informatique, réseau d’expertise et de formation professionnelle à ces enjeux dans l’administration.

Ces axes montrent un besoin récurrent de mutualisation d’expertise et d’outils nécessaires à des équipes actuellement éparpillées dans l’administration. Attention : chaque administration reste évidemment compétente dans son interprétation du droit et sa traduction dans le fonctionnement des logiciels qu’elle gère. Néanmoins, ce besoin de mutualisation appelle selon moi à la création d’une institution centrale, que j’appellerais hypothétiquement “bureau de transformation du droit en code”. Ce bureau serait investi d’une triple mission :

– fournir une aide opérationnelle et de l’expertise ponctuelle aux administrations désirant réduire la dette technique de leurs systèmes informatiques appliquant automatiquement le droit ;
– maintenir et développer des outils et méthodologies pour la transformation du droit en code, voire produire directement cette traduction ;
– être le camp de base et l’école professionnelle du réseau des personnes directement impliquées dans la transformation du droit en code au sein de l’administration.

La composition de ce bureau devrait mélanger des programmeurs et des juristes, des agents provenant des différentes administrations et des chercheurs, chacun amenant sa perspective complémentaire sur le sujet et travaillant ensemble sur les axes définis au-dessus. Les obligations légales de transparence des algorithmes publics feraient nécessairement du bureau une interface entre les administrations, et avec les personnes ou groupes travaillant sur le sujet de l’explicabilité et de la loyauté de ces algorithmes publics, à Étalab notamment.

Ce bureau n’aurait pas vocation à centraliser tous les personnels de l’administration travaillant sur les logiciels appliquant automatiquement le droit. Les directions responsables de ces logiciels garderaient évidemment leurs équipes afférentes. Il correspondrait donc à des emplois supplémentaires, qui me semblent nécessaires à l’amélioration de l’application automatique du droit en France.

Denis Merigoux, Inria

(*) La dette technique est un concept du développement logiciel inventé par Ward Cunningham en 19921. Le terme vient d’une métaphore, inspirée du concept existant de dette dans le domaine des finances et des entreprises, appliquée au domaine du développement logiciel. Typiquement, quand on développe un code informatique, on est loin de la perfection du premier coup. On s’attend à ce que ce code soit amélioré, corrigé, pendant sa durée de vie.

Les modèles numériques en renfort dans la lutte contre le cancer

La recherche contre le cancer s’étend continuellement en intégrant de nouvelles techniques et en interrogeant la biologie au travers d’une myriade d’autres disciplines : chimie, physique nucléaire, mécanique, imagerie, ou modélisation mathématique. Et qu’en est-il des modèles numériques ? Claire Villette nous propose un panorama de ce que la recherche scientifique nous offre à ce sujet. Pauline Bolignano  et Thierry Viéville.

Figure 1: Illustration des multiples échelles de description du vivant impliquées dans l’étude du cancer [1] (les numéros renvoient aux références en fin d’article).

Le cancer a des implications à tous les niveaux de description du vivant, des mutations génétiques jusqu’au patient et au sous-groupe de la population auquel il appartient (Figure 1). Face à la quantité croissante de connaissances et de questions associées, les modèles numériques sont de puissants outils conceptuels pour clarifier les processus biologiques impliqués et suggérer des tests expérimentaux susceptibles d’apporter de nouveaux éléments de compréhension. Lors des phases initiales du développement de nouvelles thérapies par les laboratoires pharmaceutiques, les modèles numériques permettent notamment de multiplier les expériences tout en respectant de strictes contraintes de temps et de coût. Ils favorisent également la diminution des tests sur animaux en remplaçant certains tests pré-cliniques.  

Descriptions empiriques et formulations mathématiques déterministes

On distingue deux grandes catégories de modèles aux visées différentes. Les modèles basés sur de larges bases de données (dits ‘data-driven’) ont vocation à décrire numériquement un ensemble d’observations expérimentales ou cliniques, de façon à mettre en évidence des leviers thérapeutiques et proposer de nouvelles pistes d’investigation. De leur côté, les modèles dits ‘mécanistiques’ proposent et implémentent sous forme d’équations mathématiques des mécanismes déterministes susceptibles de conduire aux observations rapportées et ainsi de les expliquer. 

Les modèles de type data-driven sont particulièrement puissants pour révéler des corrélations entre différents facteurs, sans pour autant présumer de relations de cause à effets, ce qui leur vaut la qualification informelle de boîtes noires. Les modèles développés suivant des algorithmes de ‘machine learning’, et les modèles statistiques en général, font typiquement partie de cette catégorie. Par exemple, l’équipe de recherche de Van’t Veer [2] a combiné l’analyse de tissus biologiques et de données cliniques pour établir un classificateur de risque de rechute chez des patientes atteintes de cancer du sein et traitées par chirurgie. Pour cela, elle a utilisé les profils d’expression génique provenant d’échantillons de tumeurs de 78 patientes, associés aux données cliniques sur l’évolution de leur maladie. Par une analyse statistique dite de classification supervisée, l’équipe est parvenue à définir un groupe de 70 gènes (sur un panel d’environ 25000) dont les profils d’expression permettent d’identifier les patientes à risque élevé de rechute avec métastases distantes dans les cinq ans suivant le diagnostic. Validé par un essai clinique, ce classificateur permet de proposer un traitement complémentaire de chimiothérapie aux patientes à risque, en épargnant aux autres ses effets secondaires toxiques.

Figure 2: Modèles mécanistiques de Mayneord décrivant la croissance tumorale. A-B : Représentation schématique des modèles de tumeur sphérique considérant une division cellulaire en tout point du volume (A) ou seulement dans la couche périphérique d’épaisseur fixe e (B). C : Observations expérimentales de croissance tumorale chez le rat. D : Exemples de simulations de croissance tumorale utilisant les deux modèles.   

A la différence des modèles de type boîte noire, les modèles mécanistiques sont particulièrement utiles pour formuler des hypothèses qui serviront à la compréhension du phénomène étudié, et pourront être falsifiées [a] par des tests expérimentaux spécifiques. Le modèle de croissance tumorale proposé par Mayneord [3] en 1932 en est un exemple historique simple. Au cours de ses travaux sur la thérapie par rayons X, Mayneord s’est intéressé au taux de croissance de tumeurs implantées chez le rat. Alors qu’une croissance de type exponentielle était attendue étant donnée la loi de prolifération des cellules basée sur la division d’une cellule mère en deux cellules filles, il a remarqué au contraire que le diamètre des tumeurs augmentait de manière linéaire avec le temps (Figure 2C). L’analyse de coupes de ces tumeurs a également montré que seule une fine couche de cellules en périphérie de la tumeur était en état de prolifération active. Mayneord a alors implémenté deux descriptions mathématiques de la variation de volume tumoral au cours du temps, toutes deux conservant un rythme constant de division cellulaire (Figure 2A-B). Selon le premier modèle, toute cellule tumorale était susceptible de se diviser, quelle que soit sa position dans le volume de la tumeur. Selon le second modèle, seules les cellules sur une fine couche périphérique d’épaisseur fixe continuaient à se diviser. Les simulations de croissance tumorale calculées suivant le premier modèle ont produit des profils exponentiels en désaccord avec les observations expérimentales. En revanche, celles calculées suivant le second modèle ont reproduit fidèlement les profils de croissances expérimentaux (Figure 2D). La théorie selon laquelle les tumeurs grossissent par prolifération des cellules périphériques, les cellules intérieures tombant progressivement en dormance sous l’effet de la raréfaction de l’oxygène et autres molécules clés, est toujours globalement acceptée aujourd’hui et sert de base à de nombreux travaux de recherche [4].

Il existe tout un spectre de modèles hybrides, qui combinent formulations mécanistiques et considérations statistiques. Ils permettent d’agréger les connaissances scientifiques partielles et les données expérimentales ou cliniques collectées régulièrement. La variabilité des processus biologiques au sein d’une population se prête particulièrement bien à ce type de modélisation, qui permet de définir un mécanisme général commun à tous les individus du groupe, couplé à une définition statistique des variations observées. 

Figure 3 : Représentation schématique du modèle semi-mécanistique de Friberg décrivant l’effet de la chimiothérapie sur la prolifération des neutrophiles. Des paramètres variables d’un patient à l’autre contrôlent le système d’équations différentielles qui régit le nombre de pré-neutrophiles et leur passage au travers des différentes phases de maturation (eg : kprol, ktr, γ, …). 

Ainsi, Friberg et son équipe [5] ont proposé un modèle semi-mécanistique décrivant l’effet toxique de plusieurs chimiothérapies sur la population de neutrophiles (un type de globule blanc) des patients (Figure 3). La partie mécanistique du modèle décrit par un système d’équations différentielles la prolifération des pré-neutrophiles dans la moelle osseuse, puis leur transition par différents stades de maturation avant leur passage dans le sang où ils effectueront leur tâche immunitaire. Ce système d’équations décrit aussi l’effet délétère de la chimiothérapie sur les pré-neutrophiles, et les mécanismes de rétroaction propres à leur prolifération. Bien que l’effet général de la chimiothérapie sur les neutrophiles soit comparable d’un patient à l’autre, il existe des différences importantes, notamment dans la sévérité du phénomène et la rapidité de récupération. En variant la valeur des paramètres contrôlant les équations, ce même système peut simuler la grande majorité de ces différents comportements. A partir de larges bases de données collectant les mesures de neutrophiles dans le sang de nombreux patients, l’équipe a défini des lois de probabilité pour ces paramètres, permettant ainsi la création de modèles de toxicité spécifiques à chaque patient. Ce type de modèle permet d’évaluer la toxicité attendue chez un patient moyen dans le cas d’un changement de dose ou de fréquence d’administration, les extrêmes d’une population, ainsi que la proportion de patients susceptible de présenter une toxicité dépassant le seuil jugé tolérable. Une fois calibré sur les données spécifiques à un patient donné, il permet également des prédictions individualisées.

Applications thérapeutiques et perspectives cliniques 

Malgré de nombreux travaux académiques sur le sujet, les modèles (semi-)mécanistiques restent souvent cantonnés à la recherche fondamentale. Il faut cependant saluer le lancement de récents essais cliniques directement basés sur l’exploitation de certains d’entre eux. Ainsi, Michor et son équipe [6] ont proposé en 2014 un modèle mécanistique pour décrire le phénomène d’émergence de résistance du glioblastome à la radiothérapie. Ils ont ensuite utilisé ce modèle pour simuler différentes séquences de radiothérapie et suggérer celles qui minimisaient l’apparition de résistance. L’une d’elles est actuellement testée en clinique dans un essai de phase I [b]. De même, le modèle semi-mécanistique de l’équipe de Norton [7] a permis le développement d’une séquence de chimiothérapie (capecitabine) qui optimise le rapport entre dose administrée et toxicité, dans le cadre du traitement du cancer métastatique du sein. Confortée par des essais cliniques de phases I et II, cette séquence est actuellement évaluée en phase III.

La modélisation numérique dans le domaine biomédical prend de l’ampleur, notamment grâce aux progrès techniques du matériel informatique et à la généralisation de la numérisation des données. L’augmentation des performances des processeurs accélère les calculs. Leur parallélisation, dans un ordinateur individuel, et surtout à grande échelle au sein des supercalculateurs, permet de réaliser de multiples calculs simultanément. Selon le type de simulation, cette parallélisation peut augmenter de plusieurs ordres de grandeur la vitesse de la simulation, et ainsi rendre utilisables en quelques heures ou jours des modèles complexes qui auraient nécessité jusqu’à plusieurs années de calculs sur un unique processeur à un seul cœur (unité de calcul). L’accessibilité des données nécessaires à l’implémentation des modèles est également en constante amélioration, bien qu’il y ait toujours là une grosse marge de progression. La numérisation des dossiers patients des hôpitaux, la mise en place de plateformes standardisées de stockage des données expérimentales ou cliniques, ainsi que la démocratisation des initiatives de libre-accès, soutiennent ce processus. 

A l’heure actuelle, un immense effort est déployé pour traduire les avancées techniques obtenues dans la manipulation de larges bases de données en bénéfices cliniques dans la lutte contre le cancer. Deux domaines prennent un essor particulier : l’analyse d’imagerie médicale, et celle des signatures biologiques observables dans les résultats expérimentaux de type ‘-omics’ (genomics, proteomics, metabolomics,…). Ceux-ci contiennent un très grand nombre de mesures réalisées dans une même expérience, et se sont considérablement développés grâce aux avancées technologiques, en matière de séquençage ARN par exemple. Des modèles de type data-driven sont en développement pour mettre à jour des corrélations entre images médicales ou signatures biologiques et données cliniques concernant le diagnostic du cancer, l’efficacité spécifique de certains traitements, l’émergence de résistance au traitement, ou l’apparition d’effets secondaires toxiques. De grands acteurs du domaine de l’informatique ont d’ores et déjà rejoint les groupes de recherche et les laboratoires pharmaceutiques pour relever le défi.  

Claire Villette, Chercheuse à l’Université KU Leuven.

Notes

a- Il est considéré comme impossible de démontrer de façon absolue la validité d’un modèle. La ‘falsification’ d’une hypothèse consiste à la tester pour révéler d’éventuelles incohérences et démontrer son invalidité. Lorsqu’elle résiste à la falsification (ie l’invalidité n’a pas pu être démontrée), l’hypothèse est considérée comme recevable dans les limites des conditions testées. 

b- Les essais cliniques de phase I constituent souvent la première administration du traitement à l’homme. Ils visent à étudier sa tolérabilité et à établir les dose et fréquence d’administration recommandées. Les essais de phase II cherchent à confirmer cette recommandation et à discerner son efficacité. Les essais de phase III impliquent un nombre important de patients et comparent le traitement proposé à un traitement standard pour évaluer rigoureusement son efficacité.

Références

1- Bekisz, S. and Geris, L., 2020. Cancer modeling: From mechanistic to data-driven approaches, and from fundamental insights to clinical applications. Journal of Computational Science, 46, p.101198. 

DOI: 10.1016/j.jocs.2020.101198.

Licence image: https://creativecommons.org/licenses/by-nc-nd/4.0/

2-   Mook, S., Van’t Veer, L.J., Rutgers, E.J., Piccart-Gebhart, M.J. and Cardoso, F., 2007. Individualization of therapy using MammaPrint® : From development to the MINDACT Trial. Cancer genomics & proteomics, 4(3), pp.147-155.

3-  Mayneord, W.V., 1932. On a law of growth of Jensen’s rat sarcoma. The American Journal of Cancer, 16(4), pp.841-846.

4- Orrell, D. and Fernandez, E., 2010. Using predictive mathematical models to optimise the scheduling of anti-cancer drugs. Innovations in Pharmaceutical Technology, 33, pp.58-62.

5- Friberg, L.E., Henningsson, A., Maas, H., Nguyen, L. and Karlsson, M.O., 2002. Model of chemotherapy-induced myelosuppression with parameter consistency across drugs. Journal of clinical oncology, 20(24), pp.4713-4721.

6-  Leder, K., Pitter, K., LaPlant, Q., Hambardzumyan, D., Ross, B.D., Chan, T.A., Holland, E.C. and Michor, F., 2014. Mathematical modeling of PDGF-driven glioblastoma reveals optimized radiation dosing schedules. Cell, 156(3), pp.603-616.

7-  Traina, T.A., Dugan, U., Higgins, B., Kolinsky, K., Theodoulou, M., Hudis, C.A. and Norton, L., 2010. Optimizing chemotherapy dose and schedule by Norton-Simon mathematical modeling. Breast disease, 31(1), pp.7-18.

Urgence d’Agir : le sommet de la finance durable et accélération des objectifs par l’IA

Patricia Gautrin,  doctorante en éthique de l’IA et chercheure à l’Algora Lab, un laboratoire interdisciplinaire de l’Université de Montréal et du MILA, aborde ici, d’un point de vue québecois, le concept de finance durable, et comment l’IA peut aider à cela. Merci à elle et CScience IA pour l’autorisation du partage de cet article, disponible aussi chez nos confrères au lien suivant. Ikram Chraibi Kaadoud  et Thierry Viéville.

Au-delà du Net zéro : la finance sera-t-elle le catalyseur du changement? C’est la grande question posée au Sommet de la finance durable mené par Finance Montréal, les 18 et 19 mai derniers. Les banques, comme le Mouvement Desjardins, sont à la table!

Il faut savoir qu’à la Conférence de Glasgow sur les changements climatiques, les banques des pays signataires se sont effectivement engagées pour le « Pacte de Glasgow pour le climat » envers la neutralité carbone. Avec tous types d’institutions financières (assureurs, fonds de pension, gestionnaires d’actifs), elles ont fait un choix vert. Mais comment se manifeste cet engagement de la part de la Finance? À quoi renvoie ce qu’on nomme l’investissement durable?

Sommet de la finance durable 2022

Florian Roulle, suivi de Guy Cormier, président et chef de la direction du Mouvement Desjardins, pour une discussion sur la terrasse du Centre PHI

Selon Florian Roulle, directeur principal, stratégie et partenariats et responsable finance durable chez Finance Montréal, « alors que les défis mondiaux de la durabilité deviennent de plus en plus interconnectés, la finance est dans une position unique pour agir en tant que catalyseur du changement systémique. »

LA CARBONEUTRALITÉ, LE NET ZÉRO, LE ZEN, ET LA DÉCARBONATION

Une carboneutralité signifie une économie qui n’émet pas de gaz à effet de serre. C’est l’équivalent du Net zéro et du Zen. La « décarbonation » est l’action de limiter ces gaz. Pour nuancer son obligation, la carboneutralité admet une certaine compensation carbone qui consiste soit en des mesures physiques, comme la plantation d’arbres, soit technologiques permettant la réduction des émissions.

« Nous devons passer d’un comportement négatif envers la nature, à un comportement positif. »  Elizabeth Maruma Mrema, secrétaire exécutive à la Convention des Nations Unies sur la diversité biologique

Or, la neutralité carbone paraît encore floue car elle est définie de plusieurs manières, avec différentes balises et peut laisser place à l’écoblanchiment. De plus, la neutralité carbone renvoie à des réalités plutôt disparates, selon les pays et les industries.

Sommet de la finance durable

Elizabeth Maruma Mrema, secrétaire exécutive à la Convention des Nations Unies sur la diversité biologique, au centre et Hugo Lacroix, surintendant, marchés de valeurs, Autorité des marchés financiers, à droite.

La neutralité carbone n’a véritablement de sens qu’à l’échelle de la planète, c’est la raison pour laquelle le milieu de la finance élabore des cadres internationaux afin d’orienter l’investissement en faveur d’une économie durable. Le GIEC (Groupe intergouvernemental d’experts sur l’évolution du climat), par exemple, fournit des évaluations quant aux changements climatiques.

De plus, « les grandes chaleurs vécues au Soudan, ces jours-ci, s’ajoutent à la crise du blé et affichent l’urgence planétaire d’agir pour le climat », précise Nisreen Elsaim, présidente du Groupe consultatif des jeunes sur le changement climatique au Cabinet du Secrétariat général de l’ONU.

Par ailleurs, Elizabeth Maruma Mrema, nous rappelle les enjeux majeurs de la biodiversité et la nécessité d’agir sur plusieurs fronts en matière d’écologie. Il faut prendre en compte 4 secteurs majeurs (la terre, la mer, l’atmosphère et l’eau potable) pour répondre aux enjeux critiques et complexes de la nature.

NORMES COMPTABLES INTERNATIONALES

L’IFRS (International Financial Reporting Standards) qui impose une transparence dans la divulgation a mis en place l’ISSB (International Sustainability Standards Board) afin de mesurer les résultats de la finance durable sur une base commune et de lutter contre l’écoblanchiment. D’ailleurs, Montréal accueillera prochainement un bureau de l’ISSB.

« La route est longue, mais nous avons les standards ! » – Hugo Lacroix, surintendant, marchés de valeurs, Autorité des marchés financiers

Sommet de la finance durable 2022

Centre PHI, Sommet de la finance durable 2022

Hugo Lacroix énonce alors les 3 principes clés, en faveur de l’intégration de ces normes, dans les plans de transition :

      • Identifier l’engagement commun
      • Calculer les impacts de la transition
      • Se conformer aux normes canadiennes et internationales

En Europe, l’EFRAG (European Financial Reporting Advisory Group), est un autre régulateur possédant ses propres standards.

LES CRITÈRES ESG

Or, l’ISSB n’est pas le seul cadre commun auquel les institutions financières doivent se plier, les critères ESG font également office de régulation.

« Le secteur financier doit se mobiliser bien au-delà du Net zéro. » – Florian Roulle, Finance Montréal

En effet, le secteur financier doit mesurer l’impact des activités d’une entreprise, non seulement sur l’Environnement, mais aussi sur la Société et la Gouvernance, tel que le recommande les critères financiers ESG. La finance responsable, devient la finance durable à travers ces critères.

Sommet de la finance durable au Centre PHI

Sommet de la finance durable au Centre PHI

Or, en investissant selon des normes ESG, les entreprises font face à de nouveaux risques. De surcroît, les PME ont de la difficulté à estimer ce qui sera demandé par les acteurs financiers. La plupart voient les nouvelles normes comme des contraintes additionnelles et ne sont pas en mesure d’en évaluer les bénéfices. Très peu d’entreprises sont en mesure de fournir un plan de décarbonation et même une comptabilisation de l’empreinte carbone. Or, elles manquent ainsi des opportunités d’affaires.

Alexandre Bernhardt, responsable mondial de la recherche sur le développement durable chez BNP Paribas, conseille alors d’éviter de recourir à la diversification des portefeuilles, afin de miser davantage sur l’engagement des tiers parties. Ceci permettra de faciliter l’intégration des PME.

Il faut établir un chemin clair et crédible avec des cibles basées sur la science et des données fiables et accessibles.

LA SCIENCE DES DONNÉES ET L’IA

Les données ESG sont considérées comme des données extrafinancières, mais elles sont de plus en plus recueillies par les investisseurs. Les grands groupes financiers fournissent désormais des données ESG, en plus des données financières traditionnelles.

De plus, les investisseurs calculent de plus en plus l’E-réputation grâce à une analyse globale des données, sur les réseaux sociaux par exemple. Grâce aux données extrafinancières, on peut mesurer la notoriété publique des investissements. On procède ici à une analyse des propos sur les réseaux sociaux.

Au niveau de l’empreinte carbone, peu d’outils numériques existent actuellement. Aussi, les PME ont de la difficulté à évaluer le bien-fondé de nouveaux outils. Certaines entreprises font appel à un service-conseil. D’autres s’inspirent des normes IASB. Par ailleurs, certaines données sont structurées, tandis que d’autres ne le sont pas.

LE FLOU ENTOURANT LE SCOPE 3

« 90% du carbone provient des compagnies en Scope 3. » – Alexandre Bernhardt, responsable mondial de la recherche sur le développement durable chez BNP Paribas.

Le plus grand défi de la transition écologique pour les investisseurs est l’ajout du Scope 3, un périmètre de calcul supplémentaire, établi dans la méthodologie internationale de comptabilité carbone GHG Protocol. En bref:

    1. 1. Scope 1 = calcul des émissions directes de gaz à effet de serre
    2. 2. Scope 2 = calcul des émissions indirectes liées à l’énergie
    3. 3. Scope 3 = calcul des autres émissions dîtes indirectes

 

Si les entreprises en Scope 3 sont les plus polluantes, elles sont aussi celles qui divulguent le moins l’impact environnemental et social de leurs activités.

De plus, la distinction entre fonds ESG et fonds à impact social n’est toujours pas claire. Alors que certains investisseurs utilisent l’ESG comme outil de gestion du risque, d’autres l’utilisent pour améliorer leur position sur la finance durable afin de s’aligner sur les questions de société et d’impact.

Isabelle Laprise, vice-présidente, stratégie d’investissement durable, et gestionnaire de portefeuille institutionnel chez Jarislowsky Fraser, rappelle l’importance de la Déclaration de la place financière durable et de la Déclaration de l’investissement canadien pour le changement climatique qui rassemblent autour des mêmes objectifs.

Par ailleurs, Guy Cormier, président et chef de la direction du Mouvement Desjardins, affirme que l’écosystème québécois est petit, en matière de finance, mais très agile !

 

Patrica Gautrin.  Patricia est doctorante en éthique de l’IA, sous la direction de M. le professeur Marc-Antoine Dilhac, et chercheure à l’Algora Lab, un laboratoire interdisciplinaire de l’Université de Montréal et du MILA, qui développe une éthique délibérative de l’IA et de l’innovation numérique et analyse les aspects sociétaux et politiques de la société algorithmique émergente. Patricia est également journaliste en éthique de l’IA pour CScience IA, un média 100% dédié à l’Intelligence artificielle au Québec et auteure du livre « PAUSE: Pas d’IA sans éthique » dans lequel elle aborde le rôle des systèmes artificiels intelligents, leurs impacts sociaux et la nécessité de prendre conscience de l’impact de l’IA. En tant que présidente d’Intelligence NAPSE, un Think Thank sur la place de l’éthique en IA, elle cherche à développer un nouveau cadre éthique international de l’IA aligné sur l’Objectif de Développement Durable 16 des Nations Unies.

IA explicable, IA interprétable: voyage dans les archives Binaires

Peut-on comprendre et expliquer une décision automatisée prise par un système d’intelligence artificielle ? Pouvons-nous faire confiance �� ce système autonome ? En tant qu’utilisateur, cela engage notre responsabilité et pose des questions. A travers Binaire, plusieurs chercheurs ont partagé leur travail à ce sujet ! Voici un résumé et récapitulatif autour de l’explicabilité et l’interprétabilité proposé par Ikram Chraibi Kaadoud chercheuse en IA passionnée de médiation ! Marie-Agnès Enard, Pascal Guitton et Thierry Viéville.

Un petit rappel de contexte

Dans de nombreux domaines, les mutations technologiques de ces dernières années ont mené à la disponibilité et à la prédominance de données complexes et hétérogènes. Par conséquent, de plus en plus de domaines d’application font appels aux systèmes d’intelligence artificielle (IA) dans le but de comprendre ces données, réaliser des prédictions jusqu’à aider l’humain à prendre des décisions.  Dans notre quotidien, les prises de décisions assistées par  des systèmes d’IA (voir automatisées quand urgence oblige) sont ainsi devenues une réalité quasi-omniprésente : algorithme de recommandation de médias, identification ou reconnaissance d’espèces animales et végétales, détection de pathologies, etc. 

Dans ce contexte, l’humain, à la fois concepteur et utilisateur de tels systèmes d’IA, est un acteur incontournable. Amené à prendre des décisions basées sur ces systèmes, il engage sa responsabilité dans les choix qu’il effectue ce qui entraîne une exigence forte en termes de transparence et de compréhension des comportements de ces systèmes d’IA. Or, cette compréhension est loin d’être garantie puisque l’explicabilité* des modèles (notamment les propriétés d’interprétabilité des modèles à base de réseaux de neurones) est actuellement un sujet très complexe, objet d’études et de débats au sein même de la communauté scientifique en IA.  Ce qui se traduit par de la méfiance de la part du grand public, face à ces systèmes considérés  comme opaques parfois qualifiés de « boîtes noires ». 

L’explicabilité* d’une IA vs celle d’un expert: Quand un expert humain prend une décision, il peut expliquer sur quelles connaissances, à partir de quels faits et quelles inférences il a utilisées pour arriver à sa conclusion. On parle d’explicabilité pour un système d’IA quand il peut lui aussi décrire comment a été construite sa décision. Dans certains cas, cette explication peut-être très complexe, voire impossible à appréhender par un humain ; en effet, un système de raisonnement automatisé peut enchaîner un très grand nombre de données, d’inférences qui dépassent de loin la capacité de nos cerveaux. Et c’est d’ailleurs bien pour ça que nous faisons appels à des machines qui ne sont pas intelligentes mais qui savent traiter des masses gigantesques d’informations.

 

Depuis 2018, l’entrée en vigueur du règlement européen général de protection de données (RGPD), ainsi que les exigences sociétales en faveur de systèmes IA de confiance, ont permis l’essor d’algorithmes d’IA explicables et transparents dans le paysage informatique. Chacune et chacun a, en théorie, le droit et la possibilité d’exiger une explication des processus de traitement automatique de données tels que justement les systèmes d’IA, mais pouvoir le faire au niveau des connaissances de toutes et tous est un défi culturel et pédagogique.

Cela a eu comme conséquence une explosion des travaux de recherche publiés sur ces sujets (explicabilité, interprétabilité, transparence, éthique, biais), et également une restriction de l’utilisation et l’amélioration d’un certain nombre de modèles existants autant dans l’industrie que – et surtout – dans la recherche.

Mais qu’est-ce que l’IA explicable (ou XAI pour eXplainable Artificial Intelligence) ?

En résumé, l’IA explicable peut être considérée comme une solution permettant de démystifier le comportement des systèmes d’IA et les raisons à l’origine de ce dernier. Il s’agit d’un ensemble d’approches et d’algorithmes permettant de proposer, par exemple,  des systèmes d’aide à la décision et d’explication de ces décisions. Expliquer le raisonnement d’un système, avec ses points forts et faibles, ainsi que son potentiel comportement dans le futur est le but de ce domaine. Pourquoi cela ? Entre autres: 1) favoriser l’acceptabilité de ces systèmes en prenant en compte les aspects éthiques et transparents, et le profil de l’utilisateur cible de cette explication, 2) veiller au respect de l’intégrité morale et physique de chacune et chacun, 3) augmenter les connaissances des experts grâce à la connaissance extraite par ces mécanismes d’IA explicable.

En résumé, la dimension humaine est donc omniprésente depuis la conception jusqu’ à l’utilisation en passant par l’évaluation de modèle d’IA explicable.

Pour en savoir plus, le blog binaire récapitule  les liens vers les articles que nous avons déjà partagés sur ces sujets :

Comment comprendre ce que font les réseaux de neurones est le point d’entrée de ce sujet. Voici une série de trois articles grand public pour commencer de Marine LHUILLIER , Ingénieure d’études et Data engineer (spécialiste des données et de leur traitements) :  

 

Démystifier des systèmes d’IA d’aide à la décision et les expliquer, permet également d’amener une connaissance pertinente à la portée du public ciblé. Un médecin peut donc voir en un système d’IA un moyen d’acquérir plus de connaissances sur une pathologie par exemple. L’IA transparente devient alors un outil d’apprentissage au service d’une expertise. Le Dr Masrour Makaremi nous avait partagé son point de vue sur cet aspect :

 

Les algorithmes d’explicabilité peuvent être aussi être utilisés dans des contextes très ludiques comme le jeu de bridge. Il s’agit d’un jeu de cartes qui nécessite de maîtriser plusieurs compétences intéressantes à modéliser artificiellement et à démystifier, telles que faire des déductions, émettre et réviser des hypothèses, anticiper les coups de l’adversaire ou encore évaluer les probabilités. Marie-Christine Rousset, Professeur d’informatique à l’Université Grenoble Alpes, se penche et explique comment fonctionne le robot de bridge Nook, développé par NukkAI,  laboratoire privé d’Intelligence Artificielle français dédié aux développements d’IA explicables :

 

L’IA explicable peut aussi être un moyen de favoriser l’acceptabilité de l’IA dans l’agriculture. Dans ce domaine, où la compétence de terrain est très présente, l’IA peut se révéler être un objet de frustration car elle ne permet pas de comprendre les tenants et les aboutissants. Emmanuel Frénod, mathématicien et professeur à l’Université de Bretagne Sud, au sein du Laboratoire de Mathématiques de Bretagne Atlantique, aborde le sujet de l’intégration d’outils en IA en agriculture et de la problématique des boîtes noires dans ce domaine :

 

NOTRE PETIT PLUS : UNE NOUVELLE VIDÉO !

Deux chercheuses en IA de l’IMT Atlantique, Lina Fahed et Ikram Chraibi Kaadoud, sont intervenues à Women Teckmakers Montréal et Québec 2021, un programme mis en place par le Google developpers Group afin de souligner le talent des femmes dans le milieu de l’informatique, de promouvoir la passion et d’accroître la visibilité de la communauté technologique féminine. Ces chercheuses ont ainsi abordé des éléments de réponses aux questions de confiance en IA et ont discuté des concepts de transparence et d’éthique à travers l’explicabilité en IA, un sujet de recherche toujours d’actualité.

Cette présentation en français (avec des planches en anglais facilement lisibles, nous permettant aussi de se familiariser avec ce vocabulaire anglo-saxon) introduit aux concepts d’explicabilité et d’interprétabilité en IA, et fournit une description des grandes familles de stratégies en explicabilité, y compris d’un point de vue technique.  Il aborde également les difficultés inhérentes au domaine notamment lorsque les données sont hétérogènes (c’est à dire de différents formats) , ou encore en questionnant l’impact éthique et sociétale du sujet au vu de l’omniprésence des systèmes IA dans notre environnement. 

Ikram Chraibi Kaadoud , chercheuse postdoctorale travaillant actuellement sur le sujet de l’intelligence artificielle eXplainable (XAI) sur des séries temporelles hétérogènes à l’Institut des Mines Télécom Atlantique.

L’IA contre l’inaction climatique et pour activer la transition énergétique

 Patricia Gautrin , doctorante en éthique de l’IA et chercheure à l’Algora Lab, un laboratoire interdisciplinaire de l’Université de Montréal et du MILA,   nous présente et discute ici le rôle potentiel de l’IA pour l’inaction climatique et comment cet outil peut aider à activer la transition énergétique. Merci à elle et CScience IA pour l’autorisation du partage de cet article, disponible aussi chez nos confrères sur le lien suivant. Ikram Chraibi Kaadoud et Thierry Viéville.

Grâce à l’explosion des données sur le climat, l’IA offre des possibilités de visualisation de scénarios nous permettant de prendre conscience de notre inaction climatique. Elle déploie également l’étude des changements climatiques et facilite une transition efficace vers des énergies propres.

Rappelez-vous de la marche de Montréal pour le climat du 27 septembre 2019, avec Greta Thunberg, de la ferveur des militants rassemblés près du monument George-Étienne Cartier, sur l’avenue du Parc… Mises au pied du mur, nos sociétés réagissent et emboîtent nécessairement le pas vers la transition énergétique. Or, comment atteindre plus rapidement nos objectifs de décarbonation? Comment changer drastiquement nos habitudes et ne plus dépendre des énergies non renouvelables?

« Prendre d’urgence des mesures pour lutter contre les changements climatiques et leurs répercussions. »– Objectif 13 des Nations Unies

CONSTAT ALARMANT ET INACTION CLIMATIQUE

Année après année, nous ne pouvons que constater les effets dévastateurs des changements climatiques. Désormais, ils affectent tous les pays du monde, en perturbant les vies et les économies nationales. Selon le rapport 2021 du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC): « la température de la planète devrait augmenter de 1,5°C dès 2030, soit dix ans plus tôt que la précédente prévision du GIEC. Le GIEC étudie cinq scénarios et le plus pessimiste prévoit un réchauffement compris entre 3,3 et 5,7°C

« Le niveau des océans s’est élevé de 20 cm depuis un siècle, et le rythme de cette hausse s’est accéléré durant la dernière décennie avec la fonte des calottes glaciaires. D’après les prévisions, la mer pourrait gagner 1 mètre d’ici 2100 et 2 mètres d’ici 2300

Le GIEC montre que la concentration de gaz carbonique (CO2) dans l’atmosphère depuis 2011 est en moyenne de 410 ppm (parties par million), un niveau jamais atteint depuis 2 millions d’années. Sachons que le CO2 est le principal agent des gaz à effet de serre à l’origine du réchauffement climatique. De plus, les émissions de CO2 sont dues aux énergies fossiles. D’après la NASA, « 19 des années les plus chaudes se sont produites depuis 2000, à l’exception de 1998.»

« Toute la planète chauffe et certaines régions plus que d’autres. Selon les experts, la fonte des calottes glaciaires constitue un point de rupture. Elle aura des conséquences dévastatrices, radicales et même irréversibles pour la planète et l’humanité », confirme le GIEC. L’inaction climatique finira par nous coûter bien plus que de s’engager dans la transition énergétique. Cependant, réduire les émissions de gaz à effet de serre, tout en renforçant la résilience climatique, ne peut que créer prospérité et vie meilleure.

L’IA POUR VISUALISER LES IMPACTS DU CLIMAT

L’apprentissage automatique permet de scénariser et d’amplifier nos gestes pour voir où nous mènerait l’inaction climatique. Alors, pour visualiser l’effet des changements climatiques sur une zone donnée, une équipe de recherche en intelligence artificielle du Mila a développé un site Web. Le site Ce climat n’existe pas génère un filtre réaliste de l’effet des changements climatiques à partir de Google Street View.

Cette expérience nous permet de voir les scénarios envisageables si l’inaction climatique demeure le réflexe global. Conçu par une classe d’algorithmes d’apprentissage automatique, ce projet a mobilisé des spécialistes et de collaborateurs sous la direction de Yoshua Bengio.

L’IA AMASSE DES DONNÉES SUR LE CLIMAT

Les données amassées sur le climat sont de plus en plus nombreuses et leur variété de même que leur hétérogénéité s’amplifient. Or, les méthodes de traitement et d’analyse deviennent de plus en plus complexes.

Grâce à de nouveaux capteurs, nous avons accès aux données satellitaires, aux stations météorologiques et aux simulations qui nous permettent de faire des observations climatiques sans pareil. De surcroît, les données de production et de consommation d’énergie sont de plus en plus accessibles. Cependant, de grands défis persistent quant à l’extraction de ces données et à leur analyse. L’apprentissage statistique offre alors de bons outils de calcul.

L’IA POUR ANALYSER LE CLIMAT

Bien que nous soyons souvent témoin de prévisions météorologiques fautives, les estimations sur les variations climatiques sont beaucoup plus fiables, car elles reposent sur des données stables, comme les saisons ou la géographie.

« On peut prévoir le climat alors même qu’on ne sait pas prévoir la météo au-delà de quelques jours.» – Olivier Talagrand, directeur de recherche émérite CNRS au Laboratoire de Météorologie Dynamique.

L’IA engendre une approche pilotée par les données, pour extraire les caractéristiques primordiales du climat. Ce qui permet de procéder à la classification :

      • des régimes météorologiques ;
      • des modes de variabilité climatique ;
      • des chaînes de causalité.

ANALYSE DE CAS EXTREMES

L’IA offre également la possibilité d’analyser et de simuler des cas extrêmes, parfois très impactants. Elle permet de déceler ces conditions climatiques extrêmes et leurs changements, et ensuite de modéliser les relations entre extrêmes météorologiques. Enfin, l’analyse peut montrer les impacts potentiels sur les sociétés ou sur les écosystèmes de ces situations extrêmes. On procède alors à une analyse de la chaîne de causalité de ces extrêmes.

LA MODELISATION CLIMATIQUE

L’IA permet l’élaboration de paramètres physiques, comme la convection, le rayonnement ou encore la micro-physique, pour produire des modèles climatiques. Ces modèles sont alors fondés sur des méthodes d’apprentissage de type physics-inspired AI (IA inspirée par la physique).

En effet, une intelligence artificielle pure, ou sans contrainte physique, n’est pas pertinente dans le cas des changements climatiques et ne fournit pas de bonnes extrapolations ou généralisations. Elle doit être alimentée par des données physiques.

L’IA POUR ACTIVER LA TRANSITION ÉNERGÉTIQUE

Tout d’abord, il faut comprendre que les données climatiques seraient inexploitables sans l’intelligence artificielle. Puis, sachons que l’IA est en mesure de développer des scénarios de transition énergétique.

« L’IA sera utilisée dans la supervision et le contrôle du trafic des véhicules autonomes dans le but de réduire l’empreinte énergétique et environnementale des transports.» – Institut EuropIA

Les actions concrètes permises par l’IA:

      • Modélisation de la topologie des réseaux
      • Gestion de contraintes comme l’intermittence
      • Modélisation du comportement des consommateurs et des producteurs
      • Estimation des modèles prédictifs profonds de séries temporelles
      • Identification des ressources renouvelables
      • Gestion du réseau pour assurer son équilibre optimal, sa résilience et sa flexibilité

Comment une entreprise peut-elle lutter contre les changements climatiques avec l’IA ?

Les entreprises peuvent faire partie de la solution en s’engageant à décarboner leurs activités et chaînes d’approvisionnement. Pour ce faire, elles peuvent :

      • améliorer leur efficacité énergétique par des calculs prévisionnels ;
      • réduire l’empreinte carbone de leurs produits, services et processus grâce aux données recueillies et aux analyses ;
      • fixer des objectifs de réduction des émissions en phase avec les recommandations des spécialistes du climat ;
      • augmenter leurs investissements dans le développement de produits, services et solutions sobres en carbone ;
      • automatiser la chaîne d’approvisionnement.

 

En somme, l’IA transforme complètement le monde de l’énergie et de l’environnement, grâce aux performances de l’apprentissage et aux capacités phénoménales de traitement massif de données. La mobilité change grâce à la conduite autonome. La gestion globale de la demande énergétique et des systèmes complexes, comme la production décentralisée d’énergie renouvelable ou l’optimisation de procédés industriels, ce fera grâce à l’IA.

« L’électrification croissante du mix énergétique et la diversification des sources de production, intermittentes, variables, distribuées, les multiples techniques algorithmiques incluant l’IA engendrent un formidable potentiel de nouvelles fonctionnalités au service des secteurs de l’énergie, de la mobilité et de l’environnement grâce à des moyens de communication autorisant des transferts massifs de données et à l’augmentation phénoménale des puissances de calcul », selon l’Institut EuropIA.

L’intelligence artificielle est source d’innovation. Elle attire le monde des start-ups et transforme radicalement « tant l’offre d’énergie que le rapport du citoyen à son usage de l’énergie. »

Autres articles sur le même thème :

 

Patrica Gautrin.  Patricia est doctorante en éthique de l’IA, sous la direction de M. le professeur Marc-Antoine Dilhac, et chercheure à l’Algora Lab, un laboratoire interdisciplinaire de l’Université de Montréal et du MILA, qui développe une éthique délibérative de l’IA et de l’innovation numérique et analyse les aspects sociétaux et politiques de la société algorithmique émergente. Patricia est également journaliste en éthique de l’IA pour CScience IA, un média 100% dédié à l’Intelligence artificielle au Québec et auteure du livre « PAUSE: Pas d’IA sans éthique » dans lequel elle aborde le rôle des systèmes artificiels intelligents, leurs impacts sociaux et la nécessité de prendre conscience de l’impact de l’IA. En tant que présidente d’Intelligence NAPSE, un Think Thank sur la place de l’éthique en IA, elle cherche à développer un nouveau cadre éthique international de l’IA aligné sur l’Objectif de Développement Durable 16 des Nations Unies.