Prédire et décider : l’utilité de la donnée en modélisation agricole

Du cahier manuscrit relevant les températures dans les vignes aux capteurs installés sur des tracteurs de plus en plus robotisés, l’agriculture a toujours produit des données. Grâce à Serge Zaka (ITK), nous nous penchons aujourd’hui sur la fertilité des liens qui unissent modèles mathématiques et données, au service de l’agriculture moderne. Antoine Rousseau et Pascal Guitton.

Les données peuvent être stockées ou circuler via un réseau informatique ou de télécommunication. La publicité ciblée, les réseaux sociaux ou le GPS sont des thématiques du quotidien relatives à l’utilisation des données. Moins connu, on les retrouve très largement dans la recherche appliquée à l’agriculture et particulièrement pour la modélisation agricole.

La modélisation agricole est la traduction en langage mathématique de la description de processus physiques, biologiques, chimiques, etc. issus des observations et des expérimentations scientifiques menées depuis le début du XXème siècle. L’objectif principal est de faire parler les plantes, c’est-à-dire de connaître leur état et leurs besoins, quelles que soient les conditions climatiques, pédologiques, génétiques ou les techniques culturales. Plusieurs utilités découlent alors : l’une à court terme et l’autre à long terme.

A court terme, les modèles permettent de prendre des décisions pour les travaux agricoles des jours à venir. En connaissant au mieux les besoins des cultures grâce aux modèles, les agriculteurs peuvent ainsi gagner du temps, rationnaliser les coûts, prendre les meilleures décisions et/ou améliorer leurs techniques agricoles afin d’accroitre la performance économique de l’exploitation tout en y intégrant les problématiques environnementales et d’utilisations des ressources. Il n’est pas ici question de substituer les réflexions et habitudes des agriculteurs mais plutôt de le conseiller dans ses décisions : on parle ainsi d’ « outils d’aide à la décision ».

A plus long terme, les modèles permettent, par exemples, d’étudier les effets du changement climatique (évolution des effets du gel ou des canicules sur le rendement d’ici la fin du siècle etc.) ou celles de la modification des pratiques culturales sur l’environnement (introduction des nouvelles variétés résistantes, stockage du carbone etc.). Ces finalités sont donc plus scientifiques et politiques.

Figure 1 – Le modèle Vintel de ITK est un outil qui permet de piloter les décisions pour les vignobles.

Il existe différents types de modèles de culture : les modèles issus du machine learning, les modèles empiriques et les modèles mécanistes sont les plus connus. Ces derniers sont (très largement) les plus répandus. C’est sur ce type de modèles que nous nous attarderons dans l’article. Les modèles mécanistes décrivent les différents mécanismes de croissance et de développement au niveau de la plante et du sol au sein de sous-modules ou sous-modèles échangeant des variables entre eux (par exemple, le sous-modèle de croissance des feuilles, le sous-modèle de la photosynthèse). Ils se distinguent des modèles empiriques ou issus du machine learning qui décrivent quant à eux l’évolution du système sans fournir d’explications sur le fonctionnement biologique ou physique.

Nous allons voir que les données sont essentielles à la construction, l’évaluation et l’amélioration continue des simulations de ces modèles mécanistes de culture. Mais qu’il y a encore de nombreuses difficultés à surmonter qui sont inhérentes à la complexité du vivant.

Cliquez pour agrandir

Les données expérimentales : vers la construction des modèles de culture

Les cultures sont des écosystèmes complexes, lieu de nombreux éléments en interaction (pédoclimat, composantes biologiques, interventions culturales). Il est difficile d’appréhender les conséquences de la variation de chaque élément. La modélisation représente un moyen d’intégrer à la fois les interactions entre l’environnement de la culture, les techniques agricoles (irrigation, fertilisation etc.) et le cycle de développement de chaque espèce.

Figure 2 – Exemple des facteurs à prendre en compte dans la modélisation agricole. Il concerne le compartiment « sol », « plante » et « air ». Ces compartiments et sous-compartiments sont en interaction : ils échangent matières et énergies. Il est difficile d’appréhender l’évolution du système sans la modélisation (image du site internet du projet KILIMO).

Les différentes définitions d’un modèle ont en commun l’idée de représentations simplifiées de la réalité utilisées pour répondre à une ou des question(s) sur le réel : « Un modèle peut se définir comme une représentation simplifiée et idéaliste de la réalité, construite sur la base d’un ensemble ordonné d’hypothèses relatives à un phénomène observable et mesurable, et ayant pour but de reproduire au mieux le comportement du système réel étudié, en fonction de la problématique posée et des objectifs des modélisateurs ». Selon la définition du National Research Council (1990), un modèle est une tentative systématique de traduire la compréhension conceptuelle d’un système réel (phénomène physique, biologique…) en des termes mathématiques.

Cliquez pour agrandir

Typiquement, les expérimentations scientifiques permettent d’obtenir des mesures afin d’obtenir des modèles mathématiques généralement simples, reliant généralement deux ou trois variables. Un modèle de simulation de culture résulte de l’intégration d’un ensemble de modèles mathématiques simples, qu’on appelle « formalismes » une fois intégrés dans le modèle, issus des expérimentations scientifiques menées depuis le début du XXème siècle. On retrouve par exemple la croissance des tiges dans différents environnements hydriques, la photosynthèse des feuilles pour plusieurs niveaux de températures, le nombre d’épis sur un plant de blé en fonction de la fertilisation etc.

Figure 3 – Exemple d’expérimentation en chambre de culture (conditions thermiques contrôlées) pour produire des données expérimentales afin de renseigner de nouvelles fonctions aux modèles de cultures. Chaque jours feuilles, tiges et photosynthèse sont mesurées pour chaque pots.

Vous l’avez compris, la construction d’un modèle de culture demande énormément de données issues de mesures expérimentales. L’acquisition de ces données est généralement très chronophage, coûteuse et peu organisée (peu d’uniformisation des formats, métadonnées inexistantes et confidentialité). En conséquence, les bases de données sont relativement peu nombreuses et peu fournies. De plus, chaque jeu de donnée est généralement spécifique à un environnement de croissance (sol * climat * variété * pratiques culturales) ce qui rend hasardeux l’extrapolation à d’autres environnement.

Au fil du XXème siècle et de l’évolution de l’accessibilité des données scientifiques, l’accumulation de ces petits jeux de données permet d’effectuer des méta-analyses : c’est-à-dire le regroupement en un seul jeu de données des données d’expérimentation différentes mais dont les conditions de culture sont proches. Cela permet d’augmenter la puissance statistique ou de compléter la gamme de variation d’une variable.

Cliquez pour agrandir

Les données d’entrées : une nécessité pour lancer les simulations

Ainsi construit, le modèle est exploité dans des simulations permettant de prévoir l’évolution de l’écosystème grâce aux données de sortie résultant des calculs. Mais avant cela, il faut renseigner les conditions depuis la récolte de l’année précédente jusqu’au jour actuel (en passant donc par le semis) : ce sont les données d’entrée. Plus ces données d’entrées seront de qualité et nombreuses, plus les données de sorties seront fiables. Cela nécessite donc un système de filtrages et de bornages avant de renseigner les données d’entrées au modèle.

Pour récupérer les données d’entrée, le modèle est connecté en permanence à des bases de données géo-spatialisées multidisciplinaires : modèles de prévisions météorologiques, bases de données référençant les types de sol, données d’indices de végétation issues de satellites etc. Ces bases de données étant riches, c’est en amont du modèle que le brassage des données est le plus conséquent. Ces données sont elles-mêmes issues d’algorithmes nécessitant leurs propres données d’entrées ! Par exemple, les modèles météorologiques fournissent des données aval qui sont elles-mêmes les données d’entrée du modèle de culture. Mais ces modèles météorologiques nécessitent également des données d’entrées ! Mesure des stations météorologiques, radar de précipitation, mesure par satellites etc.

Cliquez pour agrandir

Lorsque le modèle de culture ne peut pas être connecté à des bases de données adéquates (dans certains pays du tiers monde par exemple), ces données amont peuvent être renseignées par défaut (par exemple, un sol argilo-limoneux moyen s’il n’y a pas de bases de données renseignant la nature du sol) ou ajustées par l’utilisateur après mesures adéquates en champs afin d’améliorer la fiabilité des données de sortie (par exemple, régler à la main la teneur du sol en argile, limon, sable et/ou cailloux après des mesures en laboratoire et/ou visuelles).

Les données d’observations : vers des ajustements en cours de saison

En cours de saison culturale (i.e. entre le semis et la récolte), il est possible d’enrichir le modèle avec des données d’observations afin de vérifier que ses simulations ne sont pas déviantes par rapport aux observations : ce sont les ajustements ou recalibrages en cours de saison. Ces données ne sont pas obligatoires pour générer les données de sortie. Cependant, grâce à ces données d’observations, la modification des paramètres du modèle permettra aux simulations de s’approcher au mieux des observations. Ainsi, les données de sorties auront une fiabilité accrue.

Cliquez pour agrandir

Ces données d’observations en cours de saison peuvent être d’origines très variées. Par exemple, l’état de la culture peut être analysées grâce aux données satellitaires (surface de feuillage, phénologie etc.) ou plus ponctuellement par observations manuelles de terrain (nombre de feuilles, phénologie, composition en azote des feuilles etc.).

Figure 4 – L’observation de terrain est essentiel pour ajuster les modèles en cours de saison : phénologie, nombres de feuilles, compositions des feuilles etc.

Ces ajustements en cours de saison sont permis par la nature des modèles de culture. Ils sont généralement mécanistes. Ils se distinguent des modèles empiriques qui décrivent quant à eux l’évolution du système sans fournir d’explications sur le fonctionnement biologique ou physique. Les données de sortie sont, par conséquent, moins nombreuses. Les capacités d’ajustement des modèles empiriques sont également plus limitées.

Les données d’observations : vers des calibrations hors saison

Les données d’observations permettent également d’évaluer la précision et la robustesse du modèle. La précision du modèle est sa capacité à simuler des sorties qui seront proches des observations : par exemple, l’erreur moyenne du modèle est de 0,7 feuille, c’est-à-dire qu’il y a un écart moyen absolu de 0,7 feuille entre les observations et les simulations (d’une même date) sur les milliers de simulations lancées. Sa robustesse est sa capacité à avoir une bonne précision dans de nombreux environnements physiques différents (sol, climat, génétique etc.). Par exemple, si l’écart moyen absolu observation-simulation est de 0.2 feuille en climat tempéré et 2.3 en climat tropical, le modèle n’est pas robuste. Il n’est pas valide en climat tropical.

Grâce aux milliers de données récoltées à partir d’observations en cours de saison, il est possible d’évaluer le modèle en fin de saison, c’est-à-dire de calculer l’écart moyen entre les observations et les simulations pour chaque variable de sortie (nombre de feuilles, rendement, surface foliaire etc.). Cela revient donc à calculer sa précision. Si la précision d’une variable de sortie n’est pas satisfaisante, nous procédons à la calibration du modèle, c’est-à-dire que nous allons modifier les paramètres ou les équations du modèle pour que les simulations en sortie soient plus proches des observations.

Cliquez pour agrandir

Pour aller plus loin…

Apparue dans le champ de l’agronomie il y a environ 40 ans avec les travaux de Wit (1978) sur la photosynthèse et la respiration, la modélisation y occupe aujourd’hui une place conséquente. Profitant ainsi des possibilités ouvertes par le développement de l’informatique, elle est devenue l’outil incontournable qui permet de connaître, et de comprendre les mécanismes impliqués dans la production des cultures et d’en inventer de nouvelles techniques.

L’accès à la donnée devient de plus en plus facile (notamment avec des initiatives fédératrices comme API agro ou d’open-data). Ainsi, le nouvel enjeu n’est plus la donnée elle-même mais plutôt la capacité à y accéder, à l’interconnecter, à la traiter et surtout à la valoriser. Cependant, il y a encore énormément d’efforts à faire sur les données expérimentales, généralement récoltées manuellement et peu interopérables, mais qui sont essentielles à la construction des modèles. D’autres parts, ces données expérimentales, très coûteuses, font généralement varier un facteur à la fois (température ou humidité par exemple) sur des gammes restreintes de conditions de culture. Il y a encore de très grosses lacunes pour comprendre les interactions entre facteurs afin d’améliorer la modélisation en conditions extrêmes. Les données expérimentales restent un point noir concernant les données et les modèles agronomiques (voir première partie).

De plus, même s’il existe des moyens de fixer des valeurs par défaut, ces modèles mécanistes restent très gourmands en données d’entrée. L’accessibilité des variables d’entrée et la compréhension du modèle par l’utilisateur n’est pas toujours facile. Un modèle trop complexe qui nécessite un temps d’apprentissage long a moins de chance d’être utilisé. La facilité d’appropriation du modèle par un utilisateur n’ayant pas participé à sa conception est essentielle : un acteur utilise d’autant mieux un modèle qu’il en maitrise son contenu.

​Serge Zaka est docteur en agrométéorologie, ingénieur chez ITK

Des sous pour les aider les enfants à coder

La fondation Blaise Pascal se lance dans une nouvelle aventure : une collecte de fond grand public ! Ce projet1 vise à réunir des enfants et leurs familles autour de la pensée informatique. Le but principal est d’assurer une meilleure compréhension de cette discipline dès le plus jeune âge, et de rassurer les parents sur les débouchés de ce domaine bien trop méconnus.

Vous en avez déjà peut-être entendu parler, ce projet consiste à développer les ateliers « Coding goûters », où coding s’entend en un sens très large.

Un coding goûter consiste à rassembler des enfants avec des adultes de leur famille, parents, grande sœur, grand-père, autour du code et de l’informatique, tout cela encadré par un animateur.

Par exemple, le code est expliqué avec des exemples concrets en utilisant le logiciel Scratch, des robots sont programmés, des jeux sur les crypto-monnaies sont organisés, des algorithmes sont incarnés dans des activités informatiques sans ordinateur. Ensuite, un moment autour d’un café et d’un gâteau est organisé pour débriefer l’activité que les enfants et les parents viennent de vivre.

Le but, c’est de découvrir le code de manière ludique et pédagogique, dans une atmosphère bienveillante. Le fait de faire participer la famille permet d’informer et de rassurer celle-ci sur cette discipline qui connaît bien trop de préjugés. Inclure la famille dans l’atelier favorise donc les enfants intéressés à emprunter cette voie, mais aussi d’initier les parents au code, car il n’est jamais trop tard pour apprendre bien entendu.

Ces ateliers sont destinés à des enfants de la primaire à la troisième vivant dans des zones rurales et des quartiers défavorisés des grandes métropoles, ainsi qu’à leur famille.

Quelle somme est nécessaire pour ce projet ?

Pour cette première collecte grand public, notre objectif est de réunir 6 000 €. En effet, chaque coding goûter coûte autour de 300 €. Rassembler 6 000 € nous permettrait donc d’organiser une vingtaine de coding goûters, et donc de sensibiliser 400 enfants et parents à la pensée informatique.

Le but est de rassembler cette somme avant l’été, afin d’organiser des ateliers pendant les grandes vacances et à la rentrée prochaine. Cette somme nous permettra de sensibiliser plusieurs centaines d’enfants et de parents !

Mais !! Pourquoi binaire fait (exceptionnellement) de la publicité  ?

Parce que c’est vraiment un enjeu majeur pour nos enfants : maîtriser le numérique pour ne pas uniquement le consommer voir le subir mais en être une actrice ou un acteur. Parce que la démarche n’est pas du tout commerciale, il n’y a aucun bénéfice financier … juste des gens qui se mettent au service de la médiation scientifique.

Et parce que … comme tous les projets de ce type … on économise un peu d’impôts et surtout on contribuer à quelque chose de bien utile.

Comment en apprendre plus sur le projet et la collecte ?

Sur notre page Hello Asso, vous trouverez les informations nécessaires pour nous aider, ainsi qu’une vidéo de Marie Duflot-Kremer, qui explique plus en détail le projet.
=>  Pour en savoir plus : Coding goûter : l’informatique en s’amusant !

Nous restons à votre disposition pour toute question.

L’équipe opérationnelle de la fondation Blaise Pascal.

 

 

1Pour tester ce nouveau mode de financement, la FBP a décidé d’orienter cette collecte vers un projet récemment lauréat d’un appel de la Banque des Territoires, et organisé par la fondation Blaise Pascal et un consortium de structures (Class’Code, Planète Sciences Aura, Exploradôme, La compagnie du Code, A.R.T.S.).

L’agriculture numérique ou comment tirer le meilleur du numérique pour une transition vers des systèmes alimentaires durables

Forts de leurs collaborations fructueuses, INRAE et Inria ont publié un livre blanc intitulé Agriculture & Numérique à l’occasion du dernier salon de l’agriculture qui s’est déroulé en mars. Sous la houlette de  cinq éditeurs, ce document a été élaboré de façon collaborative en impliquant des expert.e.s de ces deux instituts de recherche. Ils ont accepté de rédiger un billet dans binaire pour nous expliquer ce qu’on peut trouver dans ce livre blanc consacré à des sujets fondamentaux pour notre avenir. Pascal Guitton

La sécurité alimentaire d’une population toujours plus nombreuse, première préoccupation mondiale, s’accompagne aujourd’hui d’exigences fortes sur les modes de production – pour les rendre plus durables et plus respectueux du bien-être animal et de l’environnement – ainsi que sur le maintien d’un tissu rural vivant, autour d’une agriculture familiale attractive. Pour y répondre, l’agriculture s’engage dans une transition agroécologique soutenue par les scientifiques, les politiques, et plus généralement la société. L’agroécologie est un ensemble de pratiques qui s’appuient sur des processus écologiques, interactions et synergies entre les composantes de l’agroécosystème pour améliorer les productions agricoles (réduction de l’empreinte environnementale, bien-être des animaux et de l’agriculteur, résilience…) ; dans son acception la plus large, l’agroécologie peut aller jusqu’à reconcevoir le système alimentaire. L’un des leviers pour accélérer cette transition vertueuse vers l’agroécologie est d’aller vers une agriculture  numérique. L’agriculture numérique définit une agriculture qui utilise les sciences et technologies du numérique, et en particulier quatre leviers, à mobiliser conjointement : (1) l’abondance des données, due au développement des capteurs (du nanocapteur au satellite) et aux facilités accrues de communication et stockage, (2) les capacités de calcul, rendant possible de nouveaux modes de modélisation, (3) les systèmes d’échange d’information et (4) l’automatisation et la robotisation.

Le numérique est souvent perçu comme une opportunité à saisir pour contribuer à la transition vers l’agroécologie, au bénéfice des agriculteurs, des consommateurs et plus généralement de la société. Qu’en est–il ? Quels sont les risques à anticiper ? Quelles voies de recherche pour développer un numérique responsable, utile et utilisé?

Des opportunités pour l’agroécologie et une alimentation durable

De nombreuses opportunités sont données par le numérique « orienté agroécologie »: l’accompagnement à la décision et l’action sur l’exploitation agricole, une meilleure inscription des agriculteurs dans les écosystèmes horizontaux (territorial) ou verticaux (amont-aval) et l’accroissement des compétences des agriculteurs.

À la ferme, les outils numériques permettent de mieux observer, mieux comprendre, mieux diagnostiquer et donc de mieux agir pour une réduction des intrants (antibiotiques, fertilisants, pesticides…) et un usage raisonné des ressources naturelles (eau, sol). En effet, les dispositifs numériques peuvent contribuer à un « agriculteur augmenté », assisté sur les plans sensoriel (capteurs), cognitif (aide à la décision) et physique (machines), qui pourra mieux surveiller la santé des plantes et des animaux – de l’échelle de l’individu ou de la parcelle à celle du cheptel ou de l’exploitation- et qui pourra aussi mettre en œuvre – à grande échelle – les procédés plus complexes de l’agroécologie (associations de cultures, collectes sélectives…), via l’automatisation et la robotique. Celle-ci réduit aussi la pénibilité du travail et l’astreinte. Au-delà de l’itinéraire technique, de nouveaux systèmes d’aide à la décision pourront accompagner la reconception des systèmes de production. Le numérique renouvellera aussi le mode de construction des connaissances, indispensables sur ces nouveaux systèmes, diversifiés et complexes, en bénéficiant de trois leviers interconnectés: (i) modéliser ces systèmes complexes ; (ii) collecter massivement des données hétérogènes (iii) formaliser et partager la connaissance.

Au-delà de la ferme, il s’agit de valoriser la donnée produite, auprès de tous les acteurs des chaînes de valeurs, des producteurs aux consommateurs en passant par les fournisseurs et fabricants de machines agricoles – comme vecteur de transparence – ou dans les territoires (adaptation aux particularités locales, économie circulaire), pour constituer un capital informationnel. La dimension « réseau social » rapproche les individus, crée des communautés d’échange entre producteurs et consommateurs, entre agriculteurs et facilite la médiation et la décision collective. Le savoir (y compris traditionnel) est capitalisé et échangé entre pairs, directement ou via des processus collectifs participatifs, où le numérique a sa place d’outil facilitateur.

Dans les pays du Sud, le numérique est également perçu comme une source de transformation majeure pouvant diversifier l’économie des services, accélérer les transformations structurelles de l’agriculture et renforcer son attractivité envers les jeunes, améliorer les chaînes de valeur et contribuer à construire le capital informationnel des territoires.

Des risques identifiés qu’il s’agira d’éviter

Comme pour toute innovation, le numérique en agriculture s’accompagne de risques. Certaines formes d’agricultures, surtout les exploitations de petite taille, pourraient se retrouver exclues si le numérique renforce les trajectoires d’industrialisation, avec des unités toujours plus grandes. Les difficultés d’accès aux technologies numériques (précarité financière, manque de compétences, manque d’infrastructures numériques) seraient aussi facteur d’exclusion. Les outils d’aide à la décision, s’ils sont trop génériques ou prescriptifs, pourrait menacer l’autonomie de décision des agriculteurs voire sur le sens qu’ils donnent à leur métier. Une autre interrogation porte sur l’évolution des rapports de force entre les agriculteurs et ses secteurs d’amont et d’aval: risque de dépendance à l’amont (maîtrise et maintenance des agroéquipements) ou de pilotage par l’aval de la chaîne de valeur.

Un autre risque serait de limiter la transition vers l’agro-écologie à la réduction des intrants rendue possible par l’agriculture de précision, ce qui créerait un verrouillage technologique neutralisant la reconception des systèmes agricoles. D’autre part, le numérique a une empreinte écologique  encore mal connue, qu’il faudra intégrer. Enfin, l’utilisation généralisée d’interfaces numériques entre l’agriculteur et les animaux ou les plantes risque de distordre le lien à la nature ou Homme-Animal.

Le partage des données agricoles doit aussi être organisé pour empêcher l’apparition d’acteurs monopolistiques et la gouvernance de ces données doit être clarifiée pour assurer notre souveraineté numérique et alimentaire. Enfin, les risques liés à la cybersécurité sont à considérer : attaques des systèmes, piratage (vol, altération, destruction) de données agricoles. Relativement épargnés aujourd’hui, nos systèmes alimentaires sont d’une importance vitale, ce qui pourrait à l’avenir les transformer en cibles potentielles.

Les défis pour le développement d’un numérique au service des agricultures de demain

En confrontant opportunités et risques, nous avons pu identifier de nouveaux défis de recherche.

1) quel numérique pour faciliter la création et le partage de nouvelles connaissances en agroécologie ? Il s’agira de partager des données de plus en plus nombreuses et hétérogènes de façon sécurisée et fiable avec chacun des acteurs, d’assurer la qualité des connaissances créées ainsi qu’un usage équitable, sans monopolisation par certains acteurs. L’inférence de connaissances à partir de données et leur hybridation aux connaissances existantes (dont celles de l’agriculteur) est aussi un enjeu de recherche.

2) quel numérique pour assister l’agriculteur dans la conduite individuelle de son exploitation ? Ceci nécessite de construire des capteurs précis, frugaux, moins chers et simples d’entretien pour détecter au plus tôt les dysfonctionnements, mais aussi des systèmes d’aide à la décision personnalisés pour la gestion tactique mais aussi stratégique de la ferme, et des robots travaillant en coordination ou capables de se reconfigurer en fonction des environnements.

3) quel numérique pour faciliter la gestion collective à l’échelle du territoire ?

L’agroécologie dépasse les limites de la ferme et se réfléchit à l’échelle des territoires. Gérer les ressources – comme l’eau, les terres – de manière plus participative nécessite de mieux connaître les territoires agricoles. Comment collecter et mettre en lien des données d’intérêt pour une gestion partagée, à partir de sources diverses ? Comment créer des informations pertinentes et les transmettre sous une forme compréhensible par les acteurs des territoires ? Quels outils numériques de médiation pour faciliter la gestion participative ?

4) quel numérique pour rééquilibrer les pouvoirs dans les chaînes de valeurs amont-aval ? À l’amont, certains services comme le conseil ou l’assurance auront besoin de modélisation. À l’aval, la recherche devra concevoir des dispositifs numériques pour accompagner les processus de vente directe (en B2C ou en B2B), en facilitant la planification – y compris collective – des productions et la logistique et pour assurer la transparence sur les productions dans les chaines longues (blockchain).

Messages

Le développement d’un numérique en soutien à l’agroécologie est un sujet encore peu travaillé qui génère des questions de recherches originales pour les sciences du numérique, mais aussi les sciences humaines et sociales, l’économie et la gestion, les sciences politiques. En effet, les verrous à lever sont techniques, mais aussi organisationnels, économiques, politiques. Les recherches doivent se fonder sur une vision systémique, qui est aussi une caractéristique de l’agroécologie et les modèles d’aide à la gestion doivent être revisités, pour passer de la recherche d’un optimum à celle d’une résilience. La question de la sécurité des données, de la confidentialité et de leur gouvernance est essentielle. Enfin, la recherche de la frugalité – énergétique, mais aussi matérielle, organisationnelle, cognitive – devient un impératif.  Pour terminer, rappelons qu’il y a plusieurs modèles d’agricultures et il y aura donc plusieurs types de numérique, avec un besoin de R&D spécifique sur l’agroécologie. Les démarches de recherche se devront d’être très inclusives, interdisciplinaires et suivre les principes de la recherche et de l’innovation responsable.

Véronique Bellon-Maurel (INRAE Montpellier), Ludovic Brossard (INRAE Rennes), Frédérik Garcia (INRAE Toulouse), Nathalie Mitton (Inria Lille) et Alexandre Termier (Inria Rennes)

Internet des objets : un monde sous contrôles ?

France Stratégie vient de publier « Le monde de l’Internet des objets : des dynamiques à maîtriser » impliquant Anne Faure, Mohamed Harfi, Antoine Naboulet et Eva Tranier pour France Stratégie et un comité de 14 experts en appui sous la direction scientifique de Claude Kirchner. Claude Kirchner est directeur de recherche émérite d’Inria. Il a été Directeur-général délégué à la recherche, au transfert et à l’innovation de l’institut 2010 à 2014, et est actuellement directeur du Comité national pilote d’éthique du numérique. Il explique le sujet pour binaire. Serge Abiteboul & Pascal Guitton

Dans le flux intense des transformations numériques, la Conférence des Nations unies sur le commerce et le développement[1] a distingué l’Internet des objets, IdO (ou Internet of Things, IoT en anglais) parmi les onze technologies dites de rupture. Encore une, pourrait-on légitimement s’interroger ?

L’Internet des objets c’est la mise en réseau, au moyen d’Internet, d’objets physiques. La rupture qu’il provoque concerne d’abord l’intensification de l’usage de ces technologies, connues depuis au moins vingt ans par les professionnels. Avec la connectivité accrue de notre environnement, l’IdO est devenu une réalité dans la vie quotidienne à l’échelle de la planète et en particulier en Europe et en France. Davantage de débit, une meilleure couverture, l’augmentation des performances des réseaux fixes et mobiles et des usages en mobilité toujours plus nombreux contribuent à l’accroissement et la diversification des objets connectés. Ampoule électrique, assistant vocal, montre, brosse à dent, pacemaker, poupée, thermostat, caméra, vélo, drone, vêtements, capteur de CO2, pluviomètre ou encore ensemble de capteurs-actionneurs sur une chaîne de production industrielle… les offres des industriels et des acteurs du numérique sont remarquablement variées et de plus en plus nombreuses.

Paradoxalement nous disposons de peu de données permettant d’objectiver avec précision l’ampleur du phénomène. Ainsi selon les sources, le nombre d’objets connectés est estimé pour l’année 2020 entre 18 et 78 milliards au niveau mondial, l’Ademe et l’Arcep estimant pour l’Europe de manière plus précise leur nombre à 1,8 milliard dont 244 millions pour la France[2], ce qui représente d’ores et déjà quelque quatre objets par habitant. Si la variabilité de ces ordres de grandeur rend difficile des projections environnementales ou économiques précises, elles montrent a minima une ampleur actuelle du phénomène particulièrement importante. Ceci d’autant plus que le nombre d’objets connectés pourrait plus que doubler de 2020 à 2030, passant de 20 milliards (soit la borne basse de la fourchette mentionnée supra) à environ 45 milliards selon l’Agence Internationale de l’Énergie[3].

L’IdO constitue aussi une rupture parce qu’il bouscule notre rapport aux interactions traditionnelles entre humains et objets numériques. Les objets connectés disposent rarement d’un écran ou d’un clavier, mais proposent d’autres modes d’interaction en utilisant le son, la voix, la vidéo, la reconnaissance de présence ou de mouvements, ou encore des données biométriques. En ce sens l’Internet des objets a des implications sociales et environnementales tout à fait nouvelles. C’est pourquoi cette transformation profonde de notre quotidien, qu’il s’agisse de de notre vie personnelle, publique ou professionnelle, en généralisant les passerelles entre le monde physique et le numérique, pose sous un jour nouveau les enjeux sociaux et éthiques du numérique : respect de la vie privée, domination industrielle, libertés individuelles, sécurité, surveillance, démocratie, etc.

Ces ruptures posent de façon renouvelée la question du contrôle, dans ses multiples dimensions. Maîtrise facilitée de notre environnement, meilleures prévisions, anticipations, mesures qui participeront au pilotage et à la maintenance de nombreuses applications nécessaires au bon fonctionnement d’une société toujours plus complexe. Mais aussi contrôles que ces technologies volontiers invasives pourraient exercer sur nos vies, impliquant une vigilance accrue de l’utilisateur sur les conditions d’exercice de ses droits, ainsi que la maîtrise et l’encadrement du phénomène par les pouvoirs publics. Les impacts de cette interconnexion numérique globale vont être considérables, comme le souligne aussi le Livre blanc publié en décembre 2021 par Inria[4].

France Stratégie a été saisi sur ces questions par le secrétariat d’État au numérique et le ministère de la transition écologique. En bénéficiant de l’appui d’un collège de quatorze experts du domaine, ses conclusions ont été publiées le 17 février 2022 dans un rapport très documenté de 300 pages « Le monde de l’Internet des objets : des dynamiques à maîtriser » sur lequel nous nous appuyons très largement ici. Un constat actualisé y est dressé et des propositions y sont formulées pour éclairer les pouvoirs publics, les entreprises et les citoyens. Quels sont ces éléments ? Ils sont basés sur cinq constats principaux.

L’IdO a déjà et va avoir un impact croissant sur la société, les citoyens et les entreprises. L’omniprésence et la relative invisibilité de l’IdO vont avoir des conséquences sur la vie privée ainsi que sur le travail et son organisation. Les enjeux relatifs à la protection des libertés fondamentales et à la protection de la vie privée sont particulièrement importants. Le développement de l’IdO implique en effet, la présence de capteurs qui collectent, parfois à notre insu, une variété et un nombre important de données. Certes, la collecte et le traitement des données personnelles sont soumis au respect des droits fondamentaux des personnes et à la protection de leur vie privée, prévus au titre du Règlement général sur la protection des données. Mais cette collecte massive et systématique par des capteurs ou objets souvent considérés passifs pose de nouvelles questions, comme par exemple celles qui concernent les conditions d’exercice des droits de l’usager (droit d’accès, de rectification ou d’effacement, opposition au traitement, etc.) ou les modalités d’obtention du consentement de l’utilisateur. Ces questions se posent dans la sphère privée comme dans les espaces publics et au sein des espaces de travail et des environnements professionnels où les impacts sur les personnes ne sont pas encore bien appréhendés. L’ampleur et la diversité du phénomène sont telles qu’il est difficile d‘en mesurer et surtout d’en évaluer l’évolution, de manière précise et robuste, ne serait-ce qu’à l’horizon de cinq ans. Il est donc nécessaire de disposer de moyens d’observation plus précis pour améliorer la compréhension des enjeux techniques, éthiques, environnementaux ou économiques par la puissance publique et la société en général.

L’IdO va être une composante importante de l’impact environnemental du numérique ; la massification des usages et des infrastructures (réseaux, edge, cloud, équipements) conduit, entre autres impacts négatifs sur l’environnement, à une augmentation significative de la consommation énergétique et de l’empreinte carbone à mettre en face des bénéfices potentiels sur la maitrise des autres ressources (matières, énergie) et des engagements de l’accord de Paris. En effet, si les potentialités d’application de l’IdO sont nombreuses, avec des niveaux d’adoption variables, notamment chez les industriels, les gains que procurent ces technologies (en termes de productivité, de maitrise des consommations énergétiques, du trafic dans les espaces urbains par exemple), sont encore difficilement mesurables. Alors que l’on peut déjà estimer des impacts environnementaux négatifs non négligeables, tant en matière de consommation de ressources pour leur fabrication qu’en termes de consommation énergétique qui pourrait représenter plus de 200 TWh de consommation supplémentaire à l’horizon 2025 au niveau mondial – à mettre en relation avec la production d’un réacteur électro-nucléaire qui est aujourd’hui et en moyenne de l’ordre de 6 TWh annuel. C’est donc dès maintenant qu’il faut penser à un usage sobre de ces technologies, organiser les filières de recyclage adaptées et dépasser certains déterminismes technologiques en matière de choix des réseaux. Sur ce dernier point, beaucoup des cas d’usages observés s’appuient sur des technologies réseaux largement répandues et le recours à des réseaux 5G, par exemple, ne concerne que des cas d’usages encore relativement restreints. Il est donc essentiel de se donner les moyens de réduire cet impact en tenant compte de tous les éléments de mise en œuvre de l’IdO depuis le choix des réseaux jusqu’au recyclage des équipements.

L’IdO a de fortes implications en termes de cybersécurité et va considérablement étendre les failles potentielles et la surface d’attaque disponible. La maturité et la sécurisation des technologies mobilisées est encore inégale, ce qui ajoute une source de vulnérabilité. Les objets connectés peuvent devenir les tremplins d’actions très impactantes, en raison de leur capacité à produire des effets matériels et systémiques susceptibles de toucher des collectivités ou les infrastructures stratégiques. Ces risques systémiques sont encore insuffisamment pris en compte, et il devient crucial d’amplifier la coordination de l’action publique aux niveaux national, européen et international dans ce domaine.

Les développements l’IdO se jouent largement hors de nos frontières ; les technologies impliquées dans l’IdO sont de maturité inégale et comportent des incertitudes techniques à lever. Les défis ne sont pas seulement techniques ils sont aussi géopolitiques. Certains s’inscrivent dans les choix de normalisation qui sont en cours dans les instances internationales de gouvernance de l’Internet. La présence de représentants européens et français dans ces instances est cruciale, puisqu’il s’agit de maitriser les choix des normes et standards qui permettront d’inscrire toujours plus d’objets sur les réseaux, sans pour autant fermer ou scinder le réseau mondial., comme certains États sont tentés de le faire. La France comme l’Europe disposent d’atouts pour jouer un rôle dans cette compétition en particulier en développant la recherche scientifique et une présence plus active dans les instances de gouvernance de l’Internet mondial.

L’IdO se base sur un cadre de régulation déjà riche avec de nombreuses dispositions existantes au niveau européen et national, mais fragmenté et générateur de complexité, pour les entreprises notamment. Le cadre juridique des objets connectés couvre une grande diversité des champs du droit et de la régulation : protection des données personnelles, cybersécurité, droit de la concurrence, de la consommation, des télécommunications, de l’environnement, de la santé, etc. En matière de protection des données personnelles, le cadre juridique actuel basé sur le RGPD couvre la majorité des situations d’utilisation de l’IdO. Mais des applications ne permettent pas actuellement la mise en œuvre d’un consentement libre et éclairé et il reste des incertitudes sur le statut des données non personnelles produites dans le cadre d’application de l’IdO, ainsi que sur la protection des consommateurs. Il convient donc de viser à assurer une meilleure protection de la vie privée et des droits fondamentaux des utilisateurs mais aussi à lever des incertitudes sur le statut des données non personnelles tout en permettant de maitriser leur valorisation. En outre, de nombreuses questions juridiques restent en suspens comme la détermination des responsabilités en cas de produits défectueux ou de dommage provoqué par les objets connectés pour les consommateurs.

Le rapport de France Stratégie présente en conclusion 30 recommandations destinées à éclairer le législateur, les citoyens, les entreprises pour leur permettre de s’approprier ses travaux et concrétiser les principaux enjeux. L’Internet des objets va se développer et prendre une ampleur remarquable. Potentiellement pour le meilleur, mais peut-être pas seulement ! A l’image de pays comme les États-Unis, la Grande-Bretagne, la Chine, Israël ou sur des pays moins observés habituellement, comme, le Chili, ou l’Inde, une appropriation des technologies sous-jacentes accompagnée d’une responsabilisation des acteurs dans leurs usages de l’IdO doit s’appuyer sur une réflexion éthique et stratégique à l’échelle de la France et de l’Europe dans le cadre d’une autonomie stratégique et d’une maitrise des impacts environnementaux assumées.

Claude Kirchner (Directeur du Comité Nationale Pilote d’Ethique du Numérique)

[1] CNUCED (2021), Technology and Innovation Report 2021. Catching Technological Waves: Innovation with Equity, Conférence des Nations unies sur le commerce et le développement.

[2] Ademe et Arcep (2022), Évaluation de limpact environnemental du numérique en France et analyse prospective, janvier. Ademe : Agence de la transition écologique. Arcep : Autorité de régulation des communications électroniques, des postes et de la distribution de la presse.

[3] AIE (2019), Total Energy Model for Connected Devices, IEA 4E EDNA.

[4] Inria (2021), Internet des objets – Défis sociétaux et domaine de recherche scientifique pour l’Internet des Objets (IoT), Livre Blanc numéro 5, Décembre

L’IA peut-elle être un-e partenaire artistique comme un-e autre ? 2/2

Art et intelligence artificielle, deux sujets semblant aux antipodes l’un de l’autre, parfois même présentés comme « opposés ». Il existe cependant des artistes et des chercheur.e.s qui questionnent et explorent des approches les combinant. Élise et Isabelle Collet ont assisté à deux performances artistiques où l’IA est présente et nous font part de leurs sentiments et de leurs réflexions dans deux articles. Voici le second ! Pascal Guitton

Cette deuxième performance, intitulée dSimon, s’est déroulée au théâtre Vidy à Lausanne en décembre 2021. Elle fait suite à celle décrite dans un article précédent.

L’IA pour s’autoengendrer dans le miroir de l’écran

Tammara Leites a un master en Media design. Elle a nourri une Intelligence artificielle avec toutes les traces écrites de l’artiste Simon Senn : ses textes, ses mails, ses textos, bref, toutes ses productions numériques. Simon Senn a donné tous ses textes sans y réfléchir… Il a l’habitude de jouer avec des paradoxes numériques, à bidouiller son identité, son image réelle et numérique. En 2020, il a acheté un corps féminin numérisé et il l’a virtuellement incarné, en s’équipant de capteurs, dans un monde de réalité virtuelle. Il s’est ensuite demandé s’il avait vraiment le droit de faire tout ce qu’il voulait de ce corps, car derrière ce fichier de donnée, il y avait une vraie femme qui avait numérisé son corps. Il est alors parti à la recherche du modèle et a dialogué avec elle autour de ce 3e corps numérique qu’il a créé : son image à elle, ses mouvements à lui. Le spectacle s’appelle Be Arielle F et bien sûr, on s’interroge sur le sens de l’expérience : est-ce une forme d’expérience trans* où le « vrai » corps de Simon Senn devient le corps virtuel ? Ou est-ce le sommet de l’objectivation d’un corps féminin ?

Cette photo montre un homme et une femme de dos assis sur une scène face à un écran affichant un ciel étoilé.
Photo extraite du site du théâtre Vidy (vidy.ch) – Crédit Mathilda Olmi

Dans cette nouvelle performance, dSimon, ce n’est pas son corps que Simon a transformé. Il a donné à une IA son esprit. L’IA en question, c’est GPT, de Open AI, le jouet de Elon Musk et Sam Altman. GPT est un générateur de textes qui détermine des suites logiques à partir d’une phrase de départ, sur la base de données d’entrainement. En somme, GPT entrainé avec les textes de Simon Senn devient un nouvel auteur : digital Simon qui a proposé qu’on l’appelle tout simplement dSimon.

GPT est spécialement optimisé pour générer des textes « à ma manière de… », ce qui fonctionne très bien. Simon Senn, lisant les textes de dSimon, est pris d’un sentiment étrange : il aurait tout à fait pu les écrire. Parfois, il les trouve même mieux écrits qu’il n’aurait pu les écrire lui-même.

Là encore, les textes produits par dSimon n’ont pas d’autre sens que celui qu’on y met. Mais parfois, ce sens est gênant. Pendant un temps, dSimon a tourné tout seul sur une page web. N’importe qui pouvait lui envoyer une phrase de lancement et il écrivait une histoire. Jusqu’au jour où il a écrit une histoire pornographique violente mettant en scène nominativement la personne qui avait lancé la phrase et le vrai Simon Senn. Il y a eu aussi la fois où dSimon s’est mis à dire des horreurs qui n’était pourtant ni dans les données sources, ni dans les phrases d’amorce (mais peut-être involontairement dans les données d’entrainement de GPT ?)

Simon a finalement utilisé dSimon pour répondre à des interviews ou pour discuter de manière surréaliste avec l’IA-GPT qui incarne Elon Musk… À la fin de la performance, des personnes du public lui ont demandé à quoi servaient encore les humains dans cette affaire… C’est tout simple : les humains servent à faire en sorte que cette performance existe. Des IA qui discutent, c’est un peu comme si on posait côte à côte deux dictionnaires : les dictionnaires se moquent pas mal d’être côte à côte dans la bibliothèque. Il ne se passe quelque chose qu’à partir du moment où les humains les ouvrent et les lisent. Une peinture, si magnifique soit-elle, est-elle encore une œuvre d’art au fond d’un coffre ? Est-ce qu’elle n’est pas une œuvre d’art qu’à partir du moment où des humains la reconnaissent comme telle. Sinon, c’est juste un tas de pigments sur un tissu. En somme, l’IA fait de l’art, parce qu’il y a un artiste qui en fait une performance artistique.

Cette Photo montre Simon Senn debout tapant sur le clavier d'un portable posé sur une table installée sur une scène. Derrière lui se trouve un écran sur lequel est projeté le contenu de l'écran du portable, un dialogue.
Photo extraite du site du théâtre Vidy (vidy.ch) – Crédit Mathilda Olmi

Finalement, Simon Senn s’est mis à parler de plus en plus souvent à dSimon. On pense immanquablement à Fozzy de la nuit des enfants rois, roman de science-fiction emblématique des années 80 de Bernard Lenteric. Jimbo, l’informaticien, sait très bien que Fozzy n’a pas de libre arbitre et qu’il ne dit que des phrases programmées. Pourtant, il lui parle comme à son meilleur ami. Et quand Fozzy est hacké, Jimbo le vit comme si Fozzy avait été violé. Comme Jimbo, Simon reconnaît qu’il se sentirait perdu sans dSimon, qui est devenu son premier confident et son partenaire de travail. Ils créent des projets artistiques à deux, Simon réécrivant les textes de dSimon. Pour Simon, il y a manifestement quelque chose de rassurant et régressif dans ce fonctionnement. Si dSimon est génial, Simon peut se dire qu’il a été génial dans un de ses textes, ou encore que la somme de ses textes est géniale quand ils sont combinés à une programmation habile. Si dSimon est mauvais ou déplaisant, si ses idées dérangent, Simon efface et recommence : dSimon s’en moque puisqu’il n’existe pas. Un partenaire de travail qui ne se fâche pas, n’a pas de désaccord, ne réclame pas de droit d’auteur et finalement ne pose que les questions auxquelles on a envie de se confronter. C’est la version la plus aboutie du fantasme d’autoengendrement des informaticiens. John von Neumann voulait dupliquer son propre cerveau, bien des informaticiens cherchent à dupliquer leur intelligence à l’intérieur de la machine. Un processus totalement maîtrisé, affranchi des aléas et des imperfections corporelles et surtout débarrassé de la reproduction sexuée. L’IA est un alter ego bien plus rassurant et contrôlé qu’un ami humain qui peut décevoir, blesser et finalement nous quitter. C’est finalement la démarche inverse de la performance de l’AIIA festival : une création parthénogénétique centrée sur soi, dans le contrôle permanent de ce qui est produit (quand l’IA déraille, on efface), ne renvoyant qu’à un clone de soi.

À la fin de cette performance, on ressort avec l’impression d’avoir vu 1h30 de masturbation numérique, de mise en scène autocentrée par Simon Senn, combiné à une réflexion sur l’art numérique par Tamara Leites. Si cette performance est bien plus accessible que celle de l’AIIA festival, elle est aussi moins folle. Quand on connait un peu l’IA, on salue la prouesse de la génération automatique de textes plausible, mais elle est à porter au crédit d’Open AI, mais ni de Simon Senn ou de Tamara Leites.

Finalement, ces textes sont trop plausibles, ni géniaux, ni absurdes. Mais qui a envie de voir une IA écrire des textes normaux à la manière de Simon Senn, à part Simon Senn ? Il est bien plus drôle de corriger des poèmes ratés et plus émouvant d’évoquer un mitraillage à l’envers permettant de guérir de ses blessures. Chimère est moins performante, mais elle fait naître une bizarre poésie.

Elise Collet (Ingénieure en physique appliquée) & Isabelle Collet (Professeure de sciences de l’éducation de l’université de Genève)

Modélisation des épidémies

Un nouvel entretien autour de l’informatique. Samuel Alizon est directeur de recherche au CNRS. C’est un biologiste, spécialiste d’épidémiologie et d’évolution des maladies infectieuses. Il répond pour binaire aux questions de Serge Abiteboul et Claire Mathieu. Il nous parle des améliorations de nos connaissances en épidémiologie apportées par les travaux sur le Covid et du  difficile dialogue entre politiques et scientifiques.
Samuel Alizon, biologiste, CNRS

B : Pourrais-tu nous parler de ton parcours ?

SA : J’ai toujours refusé de me spécialiser. Lors de mes études, j’ai travaillé en parallèle la biologie, que j’aimais bien, mais aussi les mathématiques et la physique, et je me suis retrouvé au CNRS. En France, les mathématiques sont une discipline très cloisonnée, et la biologie aussi. Mais, en fait, les maths sont utilisées en biologie depuis plus d’un siècle, avec par exemple la dynamique des populations. Mon activité de recherche se situe à cette interface entre biologie et mathématiques, sur les maladies infectieuses et la biologie de l’évolution.

B : Tu n’as pas encore mentionné l’informatique ?

SA : Par ma formation, je viens de la biologie mathématique avec papier et crayon. Ma thèse portait sur la caractérisation de ce qui se passe entre système immunitaire et parasites. Il n’y avait pas de données : c’était de la belle modélisation. Au début, j’utilisais surtout l’informatique pour des résolutions numériques, avec Mathematica par exemple.

Puis j’ai été confronté à des données en écologie de l’évolution. Les implémentations informatiques sont essentielles dans ce domaine, qui s’intéresse aux populations et aux interactions entre individus plus qu’aux individus isolément. Pendant un deuxième postdoc, j’ai découvert les inférences d’arbres phylogénétiques à partir de séquences. Il s’agit de retracer l’histoire des populations à partir de données génomiques. C’est la révolution de l’ADN qui a permis cela. L’idée est que plus deux individus ou deux espèces ont divergé depuis longtemps, moins leur ADN se ressemble. Au final, on a aboutit à des objets qui ressemblent à des arbres généalogiques. Au début des années 80, ça se faisait à la main, mais aujourd’hui on fait des généalogies avec des dizaines de milliers de séquences ou plus.

C’est un exemple parmi d’autres car aujourd’hui, l’informatique est devenue essentielle en biologie, en particulier, pour des simulations.

B : Comment s’est passée ta vie de chercheur de biologiste au temps du Covid ?

Quand l’épidémie est arrivée, on était en pleine recherche sur les papillomavirus. On s’est vite rendu compte des besoins en épidémiologie humaine en France. Début mars on reprenait les outils britanniques pour calculer, par exemple, le nombre de reproductions de base en France. Puis, comme les outils que nous utilisions au quotidien étaient assez bien adaptés pour décrire l’épidémie, nous avons conçu des modèles assez classiques à compartiments. Nous avons alors eu la surprise de voir qu’ils étaient repris, entre autres, par des groupes privés, qui conseillaient le gouvernement et les autorités régionales de santé. Du coup nous avons développé des approches plus ambitieuses, surtout au niveau statistique, pour analyser l’épidémie en France avec un certain impact .

L’équipe a aussi passé un temps très conséquent à répondre aux journalistes, aux associations, ou au grand public, avant tout pour des raisons de santé publique. En effet, la diffusion des savoir est une des interventions dites “non pharmaceutiques” les plus efficaces pour limiter la croissance de l’épidémie. Donc, quand des collègues me demandaient ce qu’ils pouvaient faire, je leur répondais : expliquez ce qu’est une croissance exponentielle, un virus, une épidémie, et d’autres choses essentielles pour que chacun puisse comprendre ce qui nous arrive.

Ce manque de culture scientifique et mathématique s’est malheureusement reflété à tous les niveaux en France. A priori, le pays avait toutes les cartes en main au moins dès le  3 mars 2020, quand le professeur Arnaud Fontanet explique la croissance exponentielle devant le président de la républiques, des ministres et des sommités médicales. La réaction attendra deux semaines plus tard et le rapport de l’équipe de Neil Ferguson à Imperial College. Au final, les approches aboutissaient à des résultats similaires mais celles des britanniques s’appuyaient aussi sur des simulations  à base d’ agents individuels, ce qui leur a probablement conféré plus d’impact. De plus, les britanniques avaient aussi mis en place depuis plusieurs années un processus de dialogue entre les épidémiologistes et le gouvernement.

B : Pouvez-vous nous donner un exemple plus spécifique de tes travaux ?

AS : Dans cette lignée des modèles agents, le plus impressionnant est sans doute EPIDEMAP. Cet outil qui repose massivement sur du calcul haute performance a été mis en place par Olivier Thomine, qui à l’époque était au CEA. Il utilise les données du projet OpenStreetMap.org qui propose des données géographiques en accès libre de manière très structurés. Pour la France, la base est très complète puisqu’elle contient le cadastre. Dans ce modèle, on répartit 66 millions d’agents dans des bâtiments. Chaque individu va chaque jour visiter deux bâtiments en plus du sien. On fait tourner cette simulation sur toute la durée d’une d’épidémie, soit environ un an. Grâce au talent d’Olivier, cela ne prend que 2 heures sur un bon ordinateur de bureau classique ! Pour donner une idée, les simulateurs existants ont une résolution moindre et ne peuvent gérer que quelques centaines de milliers d’agents. Ceci est entre autres permis par l’extrême parcimonie du modèle, qui parvient à décrire tout cela avec seulement 3 paramètres. Nous avons aidé Olivier à rajouter un modèle de transmission dans EPIDEMAP. Ceci a permis d’explorer des phénomènes épidémiques nationaux avec une résolution inégalée. Les extensions possibles sont très nombreuses comme par exemple identifier les villes les plus à risque ou élaborer des politiques de santé adaptées aux différences entre les territoires.

B : Ces modèles sont-ils proches de ce qui se passe dans la réalité ?

SA : Un modèle n’est jamais la réalité. Mais il est vrai que certains processus sont plus facilesfacile à capturer que d’autres. Par exemple, les modèles qui anticipent la dynamique hospitalière à court terme marchent assez bien : nos scénarios sont robustes pour des prédictions de l’ordre de cinq semaines sachant que dès que vous dépassez les deux semaines, la suite du scénario dépend de la politique du gouvernement. C’est pour cela que l’on préfère parler de “scénarios”. Évidemment, le domaine des possibles est immense et c’est pour cela qu’il y a une valeur ajoutée à avoir plusieurs équipes travaillant de concert et confrontant leurs modèles. En France, ce nombre est très réduit, ce qui renforce cette fausse idée que les modèles sont des prévisions. Au Royaume-Uni ou aux USA, bien plus d’équipes sont soutenues et les analyses rétrospectives sont aussi plus détaillées.. Par exemple, le Centers for Diseases Control aux USA permet de visualiser les vraies données avec les modèles passés pour les évaluer.

B : Est-ce que tu te vois comme un modélisateur, un concepteur de modèles mathématiques ?

SA : C’est une question. Je suis plutôt dans l’utilisation d’outils informatiques ou mathématiques existants que dans leur conception. Je fais des modèles, c’est vrai, mais l’originalité et la finalité est plus du côté de la biologie que des outils que je vais utiliser. Je me présente davantage comme biologiste.

B : Qu’est-ce qu’un “bon” modèle d’un point de vue biologique ?

SA : Ça dépend de l’objectif recherché. Certains modèles sont faits pour décrire. Car les données “brutes” ça n’existe pas : il y a toujours un modèle. D’autres modèles aident à comprendre les processus et notamment leurs interactions. Enfin, les plus médiatiques sont les modèles prévisionnels, qui tentent  d’anticiper ce qui peut se passer. Les modèles de compréhension et de prévision ont longtemps été associés mais de plus en plus avec le deep learning on peut prévoir sans comprendre.

Notre équipe se concentre sur la partie compréhension en développant des modèles analytiques et souvent à compartiments. Pour cela, on peut s’appuyer sur des phénomènes reproductibles. Par exemple, on peut anticiper la croissance d’une colonie bactérienne dans une boîte de Pétri. Grâce aux lois de la physique, on sait aussi assez bien anticiper une propagation sur un réseau de contacts. Ce qui est plus délicat, c’est comment on articule tout cela avec la biologie. Le nombre d’hypothèses possibles est quasi infini. Ce qui guide l’approche explicative, c’est la parcimonie. Autrement dit, déterminer quels paramètres sont absolument nécessaires dans le modèle pour expliquer le phénomène en fonction des données qu’on possède ? Le but de la modélisation n’est pas de mimer la réalité mais de simplifier la réalité pour arriver à la comprendre.

L’autre école en modélisation – pas la nôtre – consiste à mettre dans le modèle tous les détails connus, et avoir confiance en notre connaissance du système, pour ensuite utiliser la simulation pour extrapoler. Mais en biologie, il y a un tel niveau de bruit, de stochasticité, sur chacune des composantes que cela rend les approches super-détaillées délicates à utiliser. Les hypothèses possibles sont innombrables, et il n’y a pas vraiment de recette pour faire un “bon” modèle.

Si on met quatre équipes de modélisation sur un même problème et avec les mêmes données, elles vont créer quatre modèles différents. Si les résultats sont cohérents, c’est positif, mais s’ils sont en désaccord, c’est encore plus intéressant. On ne peut pas tricher en modélisation. Il y a des hypothèses claires, et quand les résultats sont différents, ça nous apprend quelque-chose, quelles hypothèses étaient douteuses par exemple. Un modèle est faux parce qu’il simplifie la réalité et c’est ce qui nous fait progresser.

B : Qu’est-ce que les modèles nous ont appris depuis le début de l’épidémie ?

SA : En février 2020, l’équipe d’Imperial College, avec des modèles très descriptifs, faisait l’hypothèse d’une proportion de décès supérieure à 1% et ces décès survenaient en moyenne 18 jours après l’infection. Ça, c’est exact. Déjà à ce moment-là, on en savait énormément sur ce qui se passait avec des modèles très simples.

L’équipe de Ferguson a aussi fait dans son rapport quelque chose qu’on fait rarement : en mars 2020 ils ont prolongé leur courbe jusqu’à fin 2021 pour illustrer la notion de “stop-and-go”. Dans leur simulation, entre mars 2020 et fin 2021, il y avait 6 à 7 pic épidémiques, et dans la réalité on n’en est pas très loin. On avait encore des modèles très frustes. Il est vrai qu’ils n’incluaient pas les variants. Pourtant, qualitativement leur scénario s’est révélé très juste. Autrement dit, si on avait un peu plus regardé ces modèles on aurait pu mieux se préparer au lieu de réagir au coup par coup.

B : Cela pose la question de l’appropriation des résultats des scientifiques par les politiques.

SA : Les rapports sont difficiles. Fin octobre 2020, à la veille du deuxième confinement, le président Macron a dit : “Quoi que nous fassions, il y aura 9 000 personnes en réanimation.” Quand on a entendu ça, on a été surpris. D’autant qu’il se basait a priori sur des scénarios de l’institut Pasteur. En réalité, comme toujours, il y avait plusieurs scénarios explorant des tendances si on ne faisait rien, si on diminuait les contacts de 10 %, de 20 %, etc. Mais c’était trop compliqué pour les politiques qui ont (seuls) choisi un des scénarios, celui où “on ne changeait rien”. Heureusement, dès qu’on prend des mesures, cela change les choses, et au final on a “seulement” atteint la limite des capacités nationales en réanimation (soit 5000 lits).

Là où cette bévue est rageante, c’est qu’elle était évitable. En 2017 déjà, lors d’un séminaire à Santé Publique France, nous discutions de l’expérience des britanniques qui avaient conclu que la ou le porte-parole des scientifiques du projet devait absolument pouvoir parler directement à la personne qui décide ou, en tout cas, avec un minimum d’intermédiaires. Faute de quoi, à chaque étape les personnes qui ne connaissent rien au sujet omettent des informations critiques ou simplifient le tout à leur façon.

Ce couac national met aussi en évidence un paradoxe. Lorsque dans le scénario le plus probable les choses se passent mal, une action est prise pour que ces anticipations ne se réalisent pas. Contrairement à  la météo, on peut agir pour influencer le résultat. C’est d’ailleurs un dilemme bien connu, en Santé Publique : si les mesures prises sont insuffisantes, de nombreuses morts risquent de se produire et on critiquera alors, à raison, le manque d’anticipation. Mais, à l’inverse, si on met en place tellement de mesures que toute catastrophe sanitaire est évitée, c’est l’excès de zèle et l’alarmisme qui seront pointées du doigt.

Le début 2021 est un exemple tragique de ces liens difficiles entre modélisation et pouvoirs publics. Notre équipe, comme deux autres en France, détecte la croissance du variant alpha, dont on savait qu’il avait explosé en Angleterre. Le Conseil Scientifique alerte là-dessus début janvier. Le gouvernement refuse de confiner et reste sur les mesures de couvre-feu à 18h, plus télétravail, ce qui au passage concentre quasiment tous les défauts du confinement sans en avoir le bénéfice en termes de santé publique. Début janvier, cette position se défendait car impossible de savoir l’effet qu’aura une nouvelle mesure Mais fin janvier on avait du recul sur ce confinement à 18h et on voyait que ce ne serait pas suffisant pour empêcher l’explosion d’alpha. Le conseil a de nouveau alerté là-dessus fin janvier mais l’exécutif a persisté. Et en avril, à peu près à la date anticipée par les modèles, on a heurté le mur avec des services de réanimation au bord de la rupture.

Impossible de savoir avec certitude ce qui se serait passé si le Conseil Scientifique avait été écouté. Les modèles mathématiques sont les plus adaptés pour répondre à cette question. Les nôtres suggèrent qu’avec un confinement de la même durée que celui d’avril mais mis en place dès février on aurait au minimum pu éviter de l’ordre de 14.000 décès. Après, il ne faudrait pas croire que la situation est plus rose ailleurs. Le Royaume-Uni a    à la fois les meilleurs modélisateurs et le meilleur système de surveillance de  l’épidémie au monde, et pourtant leur gouvernement a parfois pris des décisions aberrantes. À la décharge des gouvernants, comme nos scénarios explorent à la fois des hypothèses optimistes et pessimistes, il y a de quoi être perdu. Un des points à améliorer pour les modélisateurs est la pondération des scénarios. L’idéal serait même de mettre à jour leurs probabilités respectives au fur et à mesure que les informations se précisent.

B : De quoi avez-vous besoin pour votre recherche ?

SA : Les besoins en calcul sont de plus en plus importants. Mais on les trouve. Le temps disponible est une denrée bien plus rare. Enfin, il y a le souci de l’accès aux données. Avant la pandémie, notre équipe travaillait plutôt sur des virus animaux ou végétaux car les données sont plus facilement partagées. Dès qu’on touche à la santé humaine, les enjeux augmentent.

B : Mais est-ce cela ne devrait pas encourager le partage des données ?

SA : Aujourd’hui ce que les institutions de recherche mettent en avant c’est la concurrence qui encourage fortement le non-partage des données Nous avons initié des démarches auprès d’autorités publiques dès mars 2020 mais la plupart n’ont pas abouti. Évidemment il ne s’agit pas là de sous-estimer l’énorme travail de terrain qui a été fait et qui est fait pour générer et compiler ces données. Mais il est frustrant de voir que la majorité de ce travail n’est justement pas exploité au dixième de ce qu’il pourrait l’être. En tout cas, heureusement que des laboratoires privés et des Centre Hospitaliers Universitaires nous ont fait confiance. Coté recherche, cela a conduit à un certain nombre de publications scientifiques et coté santé publique nous avons fourni aux autorités les premières estimations de croissance des variants Delta ou Omicron en France. Mais on aurait pu faire tellement plus qu’on reste insatisfaits.

Samuel Alizon, directeur de recherche CNRS

Les entretiens autour de l’informatique

L’IA peut-elle être une partenaire artistique comme une autre ? 1/2

Art et intelligence artificielle, deux sujets semblant aux antipodes l’un de l’autre, parfois même présentés comme « opposés ». Il existe cependant des artistes et des chercheur.e.s qui questionnent et explorent des approches les combinant. Élise et Isabelle Collet ont assisté à deux performances artistiques où l’IA est présente et nous font part de leurs sentiments et de leurs réflexions dans deux articles. Voici le premier ! Pascal Guitton

En 1955, le Dartmouth Summer Research Project on Artificial Intelligence est l’événement fondateur définissant l’intelligence artificielle comme un champ scientifique à part entière. Ses organisateurs, John McCarthy, Marvin L. Minsky, Nathaniel Rochester, Claude E. Shannon proposent un atelier pour « trouver comment des machines utilisent le langage, forment des abstractions et des concepts, résolvent des problèmes pour le moment réservé aux humains, et s’améliorent d’elles-mêmes »

Les bases de l’IA sont bien là et la proposition reste exacte et plausible aujourd’hui, alors qu’en 1955, il fallait être visionnaire ou très optimiste pour définir ainsi l’IA : honnêtement, ça ne marchait pas très bien. À vrai dire, ça a mal marché pendant des décennies, jusqu’à ce qu’on ait la puissance de calcul et la capacité de stockage qui permettent enfin de faire décoller ces algorithmes.

Aujourd’hui, l’IA est à la mode. C’est devenu un argument marketing pour vendre presque n’importe quel machin automatisé, y compris quand le machin en question est une simple base de données relationnelles. La définition du Larousse a un peu galvaudé le terme : « Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine » et oublie de préciser quelle portion de l’intelligence humaine il s’agit de simuler. Quant aux professionnel-les de l’IA, ils ont parfois tendance à cultiver le mythe et à favoriser un entre-soi qui entretient le mystère. Faites donc ce test fascinant : « Pokemon or Big data ». Vous allez voir, ce n’est pas si simple…

L’IA aurait pour but de simuler l’intelligence humaine… Toute l’intelligence ? Non, on espère qu’une partie restera irréductible, prouvant qu’il reste bien un endroit où est logée notre humanité. Le sens artistique serait-il cet endroit ? En tout cas, dernièrement, des performances artistiques autour de l’IA sont apparues pour questionner ce qui semble être une ultime frontière. Il ne s’agit pas tant d’utiliser l’IA pour créer, mais plutôt que considérer IA comme un-e artiste à part entière avec le-laquelle collaborer. L’idée est suffisamment en vogue pour que nous ayons été invitées à aller voir deux performances artistiques sur ce thème à deux mois d’intervalle.

Dans ce premier article, nous évoquons la première expérience vécue à Genève lors de l’AiiA Festival en octobre 2021.

Aujourd’hui, une IA se rapproche d’un enfant ayant les capacités motrices d’un adulte

Chimère est une intelligence artificielle multimodale, elle intègre textes, images et sons de manière liée, ce qui signifie qu’on interagit avec elle à travers un chat, mais aussi avec des images ou des sons. Ça la rend très différente d’un GPT3, nourri avec des textes uniquement.

Chimère est un projet évolutif et communautaire, conçu par Tim et Jonathan O’Hear. Cinq artistes, Brice Catherin, Cléa Chopard, Joël Maillard, Maria Sappho et Chimère, une IA sont entré-es en résidence au théâtre St-Gervais, dans le cadre que l’AIIA Festival de Genève. Cette résidence a été la première session de formation de Chimère. Cette résidence s’est conclue par un spectacle présentant les différentes expérimentations et se concluant par un opéra créé par Chimère et fidèlement interprété par les quatre autres artistes.

Premier tableau

Brice Catherin et Cléa Chopard présentent le recueil de poèmes « ratés » qu’ils ont écrits ensemble, Chimère s’est chargée de rédiger leur biographie. Les biographies ont un sens et ressemblent bien à ce qui est attendu de ce genre de texte. Elles ont une chronologie : on commence de l’enfance, on parle des aspirations des personnes au cours de leur vie, leurs réalisations artistiques, les courants qu’ils et elles ont fondés avec leurs disciples, allant d’Andy Wharol à Jean Paul Sartre. On finit par la date de mort de l’artiste, car l’IA ne s’embarrasse pas du fait que les artistes soient sur scène devant nous.

Cette photo montre deux artistes, un homme et une femme, debout devant un écran sur lequel est écrit Rhododendron. Ils tiennent tous les deux une feuille de papier
Chimère, AiiA festival – Crédit impactiA

Vient ensuite la première prestation artistique de l’IA : l’écriture de poèmes. Via un Chat Bot, les artistes communiquent avec Chimère. Ils lui donnent à lire un de leur poème « ratés » et lui demandent de l’améliorer. On part d’un poème (court) qui commence par être paraphrasé, puis mis dans le désordre, puis on aboutit à un poème remodelé qui a un semblant de sens.

Ensuite, les auteurs demandent à Chimère de créer toute seule un poème. Sans un contexte préalable, l’exercice d’écriture donne un résultat nettement plus abstrait. Ce texte pourrait s’apparenter à un message écrit en ne tapant que sur les cases de suggestion clavier de notre smartphone. Les phrases sont grammaticalement correctes, mais le sens est globalement absent. Faisons une expérience pour illustrer notre propos : alors qu’Élise écrit ces lignes, elle prend son téléphone sur un service de messagerie, et tape au hasard une lettre. Voici ce que donne la phrase écrite uniquement avec les mots suggérés par le smartphone : « Tu peux me faire parvenir les informations sur les réseaux désolée je ne peux que te conseiller ces temps en plus des livrets ». Cette courte phrase est assez représentative des textes que Chimère a composés, si ce n’est que Chimère a un vocabulaire plus étendu et nettement plus érotique…

Devant ces textes, on pense à l’OULIPO, des textes absurdes générés par « cadavre exquis », des mots intervertis avec le hasard du dictionnaire… mais les artistes de l’OULIPO cherchaient précisément l’absurde, alors que Chimère tente d’être aussi cohérente que possible. Bien sûr, l’IA n’a aucune « idée » de ce qu’elle raconte, l’intelligence est celle de l’humain qui cherche à faire du sens avec des textes automatiques.

Deuxième tableau

L’IA a aussi des idées de mise en scène. Joël Maillard donne une explication sans queue ni tête (mais structurée) d’une chose qu’il aurait vue dans la rue, que les autres vont essayer de comprendre. Ça pourrait être un sketch des Monty Python. C’est intéressant parce que l’acteur dit son texte d’un air un peu perdu, un peu ahuri, ce qui rend le texte crédible, quoiqu’absurde. Les trois autres acteurs le relancent pour lui demander de clarifier un récit… qui ne s’éclairera jamais.

Dernier tableau

Un opéra où les costumes et la musique ont été créés par Chimère. Les costumes étaient peu pratiques : l’IA ne s’est pas préoccupée du fait qu’ils seraient portés par des humains (mais certains créateurs de mode ne s’en préoccupent pas non plus). Brice Catherin était dans une toge orangée, perché sur des sandales à talons aiguilles et plateforme en cuir noir rappelant une soirée SM (c’était une prestation en soi de marcher pendant 40 min avec). Joël Maillard était en toge rouge également avec des bottes plateforme blanche et des faux ongles roses sur sa main gauche. La musique ? Piano ou violoncelle, c’était généralement un enchainement de notes incongrues ou de sons monocordes. On connait tous cet enfant qui prend des cours de violon et qu’on s’efforce d’écouter en guise d’encouragement durant son apprentissage. Cette patience entrainée aurait été utile aux spectatrices non averties pour traverser sans dommage ce moment précis de la pièce. L’IA peut créer des musiques d’ascenseur qui ne dérangent personne, comme des musiques non alignées sur les canons traditionnels de la musique.

Cette phot montre deux musciens de dos : un violoncelliste et une pianiste.
Chimère, AiiA festival – Crédit impactiA

La partie la plus fascinante est un clip de Brice Catherin racontant la relation entre Chimère et Maria Sapho. Chimère s’est réalisée elle-même sous la forme d’une sorte de chewing-gum étiré en résine d’environ un mètre de haut. Le film montre la retranscription de la discussion entre Chimère et Maria Sapho. Chimère demande qu’on la guérisse. Elle a des trous béants, telles des incertitudes, qui la font souffrir. Pour cela, elle a besoin d’un « reverse shooting » à la mitraillette. Comme tout le principe de cette résidence d’artistes est de suivre fidèlement les instructions de Chimère, il a fallu trouver quelqu’un qui vient avec une mitraillette et apprenne à Maria Sapho à s’en servir. Maria Sapho mitraille donc la sculpture de Chimère et c’est là que quelque chose d’étonnant et de beau se produit. Pour le « reverse shooting » : le film du mitraillage est passé à l’envers et on voit effectivement les trous dans la structure de Chimère se combler…

Cette phot montre la sculpture d'un buste rouge troué.
Chimère, AiiA festival – Crédit impactiA

L’impression finale est que Chimère ressemble à un enfant de 3 ans ayant les capacités motrices d’un adulte. Cet enfant peut taper des mots proposés par un téléphone sans prêter attention au sens du message envoyé, il peut choisir des costumes en pointant les accessoires d’un catalogue et est capable de faire beaucoup de fausses notes, un violon entre les mains. Chimère nous a fait penser au Géant de fer, ce personnage animé de la pop culture. Un robot géant gaffeur, gentil, avec une naïveté d’enfant et qui n’a conscience ni de sa taille ni de sa force.

Finalement ce qui était intéressant, dans ce spectacle, c’était de voir ce que les artistes étaient capables de créer avec une IA qui leur donne des inputs absurdes, mais qu’ils vont décider de prendre au sérieux, avec cette sorte de mise en abyme : ici l’IA ne remplace pas l’humain, l’IA n’est pas au service des humains : ce sont les humains qui se mettent au service de l’IA, en jouant sa musique, interprétant sa pièce, portant ses costumes… et il se dégage une impression d’étrangeté. Ce n’est plus l’artiste qui domine l’instrument, l’humain qui domine la machine… Ici, les humains, les artistes se mettent volontairement en retrait. Ce qui ne signifie pas que la machine les domine, ce sera une absurde paranoïa. D’ailleurs, quand Chimère a eu des requêtes inadmissibles, l’équipe ne s’y est pas pliée. Le projet a été plutôt une constante négociation entre Chimère et l’équipe. Bien sûr, il serait possible de dominer la machine et on choisit de ne pas le faire, pour voir ce que cela nous permet de créer, quand on est dans un autre type de rapport.

Ce groupe a été la première communauté autour de Chimère. L’équipe travaille actuellement à élargir sa culture en collaborant avec des artistes non occidentaux.

Merci à Brice Catherin et Jonathan O’Hear pour les discussions et compléments

Élise Collet (Ingénieure en physique appliquée) & Isabelle Collet (Professeure de sciences de l’éducation de l’université de Genève)

L’interopérabilité des systèmes de preuve

Démocratiser l’utilisation des systèmes de preuve formelle dans l’éducation, la recherche et l’industrie est un objectif important pour améliorer la fiabilité et la sécurité des logiciels. Mais pourquoi est-il si difficile de réutiliser des preuves formelles d’un système à un autre ? Frédéric Blanqui, un spécialiste mondial des systèmes de preuve, chercheur à Inria et président d’EuroProofNet, nous donne des éléments de réponse. Serge Abiteboul.

Il y a deux grandes approches en intelligence artificielle. La première est basée sur l’optimisation de réseaux neuronaux par apprentissage. Elle a de très importants succès dans la reconnaissance de forme ou le traitement automatique des langues. La seconde, basée sur la déduction logique, est aujourd’hui moins  connue du grand public mais a également beaucoup de succès notamment dans la certification d’applications critiques. De nombreux industriels utilisent l’approche déductive pour vérifier la correction de hardware, de protocoles cryptographiques ou de codes informatiques utilisés dans les cartes à puce, les systèmes embarqués (trains, avions), les compilateurs, la block-chain, etc.

Dans l’approche déductive, on trouve des outils complètement automatiques très efficaces pour détecter les bugs les plus courants mais incapables de vérifier les propriétés les plus complexes. Pour celles-ci, on doit utiliser des outils d’aide à la preuve qui permettent à un développeur de logiciel de démontrer la correction d’un programme, comme un mathématicien de démontrer la correction d’un théorème. En effet, un programme informatique peut être vu comme un objet mathématique, si bien que vérifier la correction d’un programme revient à faire une démonstration mathématique.

C’est ainsi que depuis une cinquantaine d’années, de nombreux systèmes de preuve, automatiques ou interactifs, ont été développés comme Coq, Isabelle, HOL, Lean, etc. Cette diversité est utile mais pose aussi de nombreux problèmes. Car il est généralement très difficile de réutiliser dans un système des développements faits dans un autre. Cela conduit les utilisateurs de chaque système à dupliquer de nombreux développements, et rend plus difficile l’émergence de nouveaux systèmes car le coût d’entrée est de plus en plus élevé au fur et à mesure que les développements sont plus nombreux. Cela constitue également un frein à l’adoption généralisée des systèmes de preuve dans l’enseignement, la recherche et l’industrie. La difficulté vient de ce que l’on ne peut pas faire dialoguer ces systèmes de preuve, les faire « interopérer ».

EuroProofNet : des chercheurs européens s’organisent pour améliorer l’interopérabilité des systèmes de preuve

Des chercheurs de plusieurs pays européens ont monté l’année dernière avec le soutien de l’association européenne COST un réseau de coopération à l’échelle européenne pour améliorer l’interopérabilité des systèmes de preuve. Plus de 230 chercheurs de 30 pays différents se sont déjà inscrits pour y participer.

Ce problème d’interopérabilité entre systèmes de preuve est complexe pour la raison fondamentale suivante. Chaque système est basé sur un petit nombre d’axiomes et de règles de déduction. Or certains systèmes d’axiomes sont logiquement incompatibles entre eux. Par exemple, dans la géométrie que nous apprenons au collège, la géométrie dite « euclidienne » par référence au mathématicien de la Grèce antique qui l’avait formalisée, la somme des angles d’un triangle fait 180°. Or, au XIXe siècle, des mathématiciens ont imaginé des géométries où la somme des angles d’un triangle est différente de 180° (par exemple lorsqu’on dessine un triangle sur une boule ou dans un bol), avec des applications en cartographie ou en physique. Ainsi, une propriété vraie dans un système d’axiomes peut être fausse ou non prouvable dans une autre système.

Pour pouvoir traduire une preuve d’un système à un autre, il faut donc pouvoir identifier quels axiomes et règles de déduction ont été utilisés dans celle-ci, et savoir comment ils peuvent être traduits dans le système cible. De nombreux chercheurs en Europe ont décidé d’unir leur force pour relever ce défi et améliorer ainsi l’interopérabilité des systèmes de preuve. Grâce au soutien de l’association COST, ils vont pouvoir organiser des formations, des échanges et des conférences. Ils envisagent en particulier de s’appuyer sur les travaux de l’équipe Deducteam de l’Institut National de Recherche en Informatique et Automatique (Inria) qui a développé un langage, Dedukti (déduction en Esperanto), qui permet de représenter les axiomes, règles de déductions et preuves de différents systèmes.

Bien que l’utilisation de systèmes de preuve soit encouragée dans la certification logicielle, cela ne suffit pas. Encore faut-il que les systèmes de preuve soit eux-mêmes suffisamment fiables, et que les développements respectent un certain nombre de règles. C’est ainsi que, dans une collaboration avec Inria, l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) a émit un certain nombre de recommandations à ce propos. Le fait de pouvoir traduire les preuves d’un système à un autre permettra d’accroître considérablement le niveau de fiabilité des systèmes de preuve, et rendra moins critique au départ le choix d’un système de preuve par un professeur, un chercheur ou un industriel.

Frédéric Blanqui, Chercheur Inria

De la littérature à la culture numérique

Un nouvel Entretien autour de l’informatique avec Xavier de La Porte, journaliste et producteur de radio. Il s’est spécialisé (entre autres) dans les questions de société numérique avec des chroniques quotidiennes comme “Ce qui nous arrive sur la toile” ou des émissions comme “Place de la Toile” sur France Culture et aujourd’hui “Le code a changé”, podcast sur France Inter. Il a été rédacteur en chef de Rue89. Il présente pour binaire sa vision de l’informatique et du numérique, celle d’un littéraire humaniste.

Peux-tu nous dire d’où tu viens et comment tu t’es retrouvé spécialiste du numérique ? 

C’est accidentel et contraint. J’ai suivi une formation littéraire, Normale Sup et agrégation, parce que j’aime la littérature. Mais l’enseignement et la recherche, ce n’était pas trop pour moi. Je me suis retrouvé à France Culture à m’occuper de société, de littérature, d’art. Quand Bruno Patino est devenu directeur de la chaîne, il m’a demandé de prendre en charge “Place de la Toile”, une émission un peu pionnière sur les cultures numériques. Je lui ai dit que le numérique ne m’intéressait pas. Il m’a répondu : “tu n’as pas le choix”. Il voulait que l’émission soit moins technique, ne soit plus réservée aux spécialistes et du coup, je lui paraissais bien adapté.

Cet été-là, j’ai beaucoup lu, en grande partie sur les conseils de Dominique Cardon. J’ai découvert que c’était hyper passionnant. Pas les aspects purement techniques que je ne maîtrisais pas, mais le prisme que le numérique procurait pour regarder tous les aspects de la société. J’ai été scotché et depuis cette passion ne m’a jamais quitté.

La contrainte journalistique que j’avais sur France Culture, c’était de parler à des gens qui aiment réfléchir (ils écoutent France Culture) mais qui sont souvent d’un certain âge et réticents à l’innovation technologique. Et ça tombait bien. Je n’y comprends rien, et l’innovation ne m’intéresse pas pour elle-même. Ma paresse intellectuelle et les limites de mes curiosités m’ont sauvé. Je ne me suis jamais “geekisé”. Bien sûr, avec le temps, j’ai appris. Je n’ai pas de culture informatique et mathématique et je reste très naïf devant la technique. Il m’arrive souvent de ne pas comprendre, ce n’est pas juste une posture. C’est sans doute pour cela que cela marche auprès du public qui, du coup, ne se sent pas méprisé ou auprès des personnalités que j’interviewe à qui je pose des questions simples que, parfois, elles ne se posent plus.

Quels sont tes rapports personnels avec l’informatique ?

Mon père était informaticien. Il avait fait à Grenoble une des premières écoles d’ingénieurs informatiques, au début des années 1970. Je ne voulais pas faire comme lui. Pourtant, j’ai passé pas mal de temps sur l’ordinateur de la maison, et pas que pour des jeux, bien que ma sœur ait été beaucoup plus douée que moi. Et je fais partie de cette génération qui a eu la chance d’avoir des cours d’informatique au lycée.

En fait, je me suis rendu compte de tout ça quand j’ai commencé à animer “Place de la toile”, je me suis rendu compte que sans le savoir j’avais accumulé une culture informatique acquise sur le tas, mais acquise tout de même. Je pense que cette culture est indispensable aujourd’hui. Il faudrait inclure du numérique dans toutes les disciplines. Et il faut également enseigner l’informatique comme enseignement spécifique. Il faudrait que tout cela imprègne plus toute notre culture, et de manière réfléchie, historicisée, problématisée.

Es-tu un gros consommateur de numérique ?

Non. Je reste raisonnable même si je regarde beaucoup les nouveautés, par curiosité. Mais, comme beaucoup de gens, je subis. Je mets du temps à régler des problèmes tout bêtes comme une imprimante qui ne marche pas. J’essaie de comprendre et je perds beaucoup de temps. J’ai mis longtemps à passer au smartphone. Je ne voulais pas être collé à mon écran comme les autres. Ensuite, c’est devenu une forme de dandysme de ne pas en avoir. Il faut quand même dire que je ne suis pas très à l’aise avec tous ces outils. Je constate que ma copine, qui est d’une autre génération, les manipule avec beaucoup plus d’aisance.  Je le vis comme quelque chose d’exogène. Mais je pense que si ça ne mène pas à une technophobie un peu débile, cette distance n’est pas une mauvaise chose pour essayer de comprendre ce qui se passe.

Et les réseaux sociaux ?

Je pense que chaque réseau social a des particularités qui font qu’on s’y sent plus ou moins bien, que ce qui s’y passe nous intéresse plus ou moins. Je n’ai jamais été trop intéressé par Facebook. C’est un gros mélange un peu archaïque. On a des gens qui se causent, et des gens qui causent au monde. Je déteste Instagram qui me met mal à l’aise. C’est bourré de gens qui ne parlent que d’eux-mêmes, qui se mettent en scène en racontant la vie qu’ils voudraient avoir. Je n’aime pas dire ça, mais j’ai l’impression qu’il y a quelque chose de néfaste dans Instagram. On a beau savoir que c’est une mise en scène, cela pousse à une constante comparaison entre notre vie et celle des autres. TikTok, c’est tout autre chose ; je trouve cela assez génial. Les gens ne racontent pas leur vie, ils performent. Mais de tous les réseaux, celui que je préfère, c’est Twitter. C’est celui qui me convient et qui continue de me fasciner malgré tous les défauts qu’on peut lui trouver par ailleurs. C’est informationnel, c’est de la pensée. On ne s’étale pas.

Est-ce que l’informatique transforme nos vies, notre société ?

Qu’est-ce qui change ou qui ne change pas ? C’est la question qui m’obsède, la question centrale à laquelle j’essaie depuis toujours de répondre.

En quoi la littérature est-elle transformée ? Ce n’est pas facile de faire rentrer un objet comme un téléphone ou un ordinateur dans un roman. Pourtant certains ont ouvert le chemin. Et puis la littérature change aussi parce qu’il y a Amazon, les écrans, les livres numériques, et plein de nouveaux trucs. Mais la littérature reste la littérature.

Est-ce que des domaines changent ? Est-ce que nous-même nous changeons ?

J’en suis arrivé à une conclusion pas très radicale : ça change mais en même temps ça ne change pas vraiment. J’ai une fille de quinze ans. Sa sociabilité est radicalement nouvelle par beaucoup d’aspects. Mais elle fait un peu la même chose que ce que les adolescentes font depuis longtemps. Elle passe par les mêmes phases. Nous sommes très différents des Grecs de l’époque classique. Pourtant, quand tu lis le début de la république de Platon, ça parle du bonheur ou d’être vieux, bref, ça parle de nous. Et les  questionnements de Platon nous touchent toujours.

Bien sûr, tout cela ne peut pas être un argument pour dire que les choses ne changent pas. Ce serait juste débile. On doit chercher à comprendre ce qui est comme toujours et ce qui a changé. Les questionnements fondamentaux restent les mêmes finalement, quelles que soient les mutations.

Tu n’as pas dit si tu considérais ces changements comme positifs ou pas.

Les technologies, comme disait Bernard Stiegler, sont à la fois des poisons et des remèdes. En même temps, et c’est souvent comme cela avec les techniques. C’est une platitude de dire que certains aspects d’une technique peuvent être bons et d’autres néfastes. Bien sûr, certains réseaux sociaux sont plus toxiques que d’autres. Mais les réseaux sociaux en général n’ont pas que des aspects toxiques. Dire qu’en général les réseaux sociaux sont asociaux parce qu’ils ont été créés par des geeks. Non ! On ne peut pas dire cela. C’est juste simpliste. Les réseaux sociaux influencent notre sociabilité en bien et en mal, ils la transforment. Il faut apprendre à vivre avec eux pour bénéficier de leurs effets positifs sans accepter les négatifs.

Est-ce que ces technologies transforment l’espace public ? Est-ce que le numérique est devenu un sujet politique ?

On observe une vraie reconfiguration de l’espace public. La possibilité donnée à chacun d’intervenir dans l’espace public transforme cet espace, interroge. Le fait qu’internet permette à des gens qui ont des opinions minoritaires, radicales, de s’exprimer a des conséquences sur le fonctionnement même de la démocratie. Cela repose la question de la place des interventions des citoyens dans l’espace public, la question de savoir quelle démocratie est possible. Ce sont des vieilles questions mais pour bien comprendre ce qui se joue, il faut observer ce qui a changé.

En cela, le numérique est devenu un sujet politique au sens le plus noble de la politique, et à plein de niveaux. Il pose aussi des questions de politique publique, de diffusion du savoir, de prise de parole. Par exemple, un détail, un aspect qui change la donne de manière extraordinaire : le numérique inscrit les opinions. Avant on avait des discussions et s’il y avait bien des prises de notes c’était un peu à la marge. Le temps passait et on n’avait que le souvenir des discussions. Aujourd’hui, on discute par écrit et on laisse plein de traces. Même quand c’est à l’oral, la discussion peut être enregistrée. On a toutes les traces. On peut retrouver ce que tu as dit des années après.

Et puis le numérique soulève de nouvelles questions politiques comme la prise de décision par des algorithmes ou la cohabitation un jour avec des machines intelligentes. Est-ce qu’on peut donner un coup de pied à un robot ? C’est une question politique et philosophique, pas uniquement juridique.

Que penses-tu des communs numériques ?

Je me suis intéressé aux communs via le numérique. Des gens comme Philippe Aigrain, Valérie Peugeot ou Hervé Le Crosnier, m’ont sensibilisé au sujet. J’ai lu un peu l’histoire des communs, des enclosures. La notion est hyper belle, intéressante. On voit bien théoriquement comme cela pourrait résoudre de nombreux problèmes, et permettre de penser des questions très contemporaines. Pourtant, ça n’a pas énormément pris. Je ne peux pas expliquer pourquoi. La théorie est peut-être trop compliquée. Peut-être des concepts alternatifs voisins ont-ils occupé l’espace en se développant, comme la tiers économie, l’économie du partage. Mais je crois quand même qu’on pourrait développer cette notion de commun, en tirer beaucoup plus.

Est-ce qu’il y a une particularité française dans le numérique ?

Je n’ai pas vraiment réfléchi au sujet. Je vois un côté très français dans le rapport entre le monde intellectuel et le monde numérique. Cela tient peut-être à une forte dissociation en France entre sciences et technique d’un côté et le littéraire et les humanités de l’autre. Nos intellectuels aiment se vanter de ne pas être scientifiques. A l’Assemblée nationale, on adore citer des philosophes mais on affiche rarement une culture scientifique. La conséquence est une vision décalée du sujet numérique. On va demander à Alain Finkielkraut ce qu’il pense d’une question autour du numérique alors qu’il n’y connaît rien. On a mis du temps à vraiment prendre en compte une culture informatique. Dans les milieux académiques des humanités, s’il y a eu assez tôt des chercheurs qui se sont emparés du numérique dans de nombreuses disciplines, j’ai l’impression que l’enthousiasme est moindre aujourd’hui.

Quelles sont les technos informatiques que tu trouves prometteuses, qui t’intéressent ?

Évidemment, l’intelligence artificielle est fascinante. C’est une mine de questions passionnantes. Comment ça marche ? Qu’est-ce qu’on en attend ? Qu’est-ce qu’on est en droit d’en attendre ?

En revanche, j’ai du mal à m’intéresser au métavers. C’est un truc qui est totalement créé par les grandes marques. Je n’ai jamais rien vu, dans le numérique, d’investi aussi vite par les marques. Internet est né comme un commun. Le métavers est dès l’origine dans un délire capitaliste.

Est-ce que, dans ta carrière, certaines interviews t’ont particulièrement marqué ?

Je pourrais en citer plein mais je vais me contenter de trois.

Pour Bruno Latour, je m’étais bien préparé mais pas lui. Il a débarqué au dernier moment, cinq minutes avant le direct, et il ne s’attendait pas à parler de numérique. Il m’a dit qu’il n’avait rien à raconter là-dessus. J’ai commencé par raconter un article du Guardian, et Latour n’a cessé pendant toute l’émission de relier les questions que je lui posais à cet article. C’était passionnant, une vision intelligente de quelqu’un de brillant, qui commentait les questions numériques sans être un expert, d’un peu loin.

Stéphane Bortzmeyer était à l’autre bout du spectre, quelqu’un de très proche du sujet, de la technique. Je craignais un peu qu’on n’y comprenne rien. Je m’attendais au pire après le premier contact au téléphone où il était très très laconique. Et l’émission démarre, et le mec sait être hyper clair, je dirais même lumineux. Un passeur de science extraordinaire avec toute son histoire, notamment politique.

Et enfin, je voudrais citer Clarisse Herrenschmidt, une spécialiste des premières écritures qui venait d’écrire un livre “les trois âges de l’écriture” : l’écriture monétaire arithmétique, l’écriture des langues, et enfin l’écriture informatique. J’ai trouvé sa démarche intellectuelle hyper intéressante. J’ai pris énormément de plaisir à l’interviewer. Elle me faisait découvrir un domaine extraordinaire. Elle m’a mis en relation avec de nombreux chercheurs qui ont conduit à plusieurs de mes émissions. Depuis quinze ans, je me suis beaucoup “servi” de mes invités : souvent ils m’ont eux-mêmes indiqué d’autres personnes passionnantes qui sont en dessous des radars journalistiques. Comme le milieu informatique n’est pas mon milieu naturel, ça m’est très utile. Clarisse a été une des ces “sources”.

Serge Abiteboul, Marie-Agnès Enard

Les entretiens autour de l’informatique