Ordinateur quantique : quand un petit dessin vaut mieux qu’un long code

Un algorithme quantique, ça se dessine ? Oui ! C’est ce sur quoi a porté la thèse de Renaud Vilmart, il nous l’explique dans la rubrique « Il était une fois… ma thèse ». Renaud Vilmart est lauréat d’un accessit au prix de thèse Gilles Kahn 2020 et a effectué sa thèse au Loria. Pauline Bolignano et Antoine Rousseau

Renaud Vilmart

L’ordinateur quantique. On en entend parler dans les œuvres de fictions, souvent pour justifier une puissance de calcul invraisemblable, et plus récemment dans les actualités, avec entre autres le coup d’éclat de Google qui a réussi à faire tourner un programme bien plus efficacement que sur un ordinateur classique, ou encore avec les annonces gouvernementales pour promouvoir la recherche dans ce domaine.

Ça n’est pas pour rien que gouvernements et entreprises privées investissent dans cette recherche : les retombées auront un impact fort sur la société. On peut citer par exemple le protocole RSA, énormément utilisé dans notre vie de tous les jours (pour sécuriser des transactions bancaires ou des échanges d’information sur internet), et qui serait mis à mal avec un ordinateur quantique suffisamment dimensionné (ce qui n’est pour l’heure pas le cas). Plus rassurant : on peut citer la création de nouveaux protocoles de sécurité plus robustes, ou encore, comme ça a été mentionné ci-dessus, un coût de calcul moindre pour la résolution de certains problèmes.

Afin d’obtenir une compréhension plus profonde des phénomènes à l’œuvre dans les processus quantiques, de pouvoir les analyser (par exemple pour connaître l’utilisation des ressources qui en est faite), de vérifier qu’ils satisfont une certaine spécification, ou même encore de pouvoir les optimiser, il est important de se doter d’outils puissants permettant de réaliser ces tâches. C’est là qu’intervient le ZX-Calcul.

Ce langage permet de représenter avec des “dessins” (qui restent très formels) n’importe quel algorithme ou protocole quantique, et ainsi de visualiser le chemin emprunté par l’information (un peu comme la lumière suit une fibre optique). Un problème qui survient alors est que deux dessins différents peuvent représenter le même programme. Ça, on pouvait s’y attendre, car c’est également le cas pour les algorithmes classiques : il n’y a pas qu’une seule façon de trier un paquet de cartes, pourtant le résultat est toujours le même, à la fin les cartes sont triées.

Un “dessin” du langage ZX.
Un “dessin” du langage ZX.

Pour pallier ce problème, le langage est muni d’un ensemble de petites transformations, qui changent le dessin sans changer le résultat du programme. On peut d’ailleurs se servir de ces transformations pour prouver des propriétés sur nos programmes, ou même pour les optimiser : on va alors se servir des transformations pour réduire au maximum la taille du dessin, ce qui se traduit par une plus grande efficacité du programme qu’on représente.

Un exemple de transformation autorisée

Une question tout-à-fait légitime que l’on peut se poser alors est : a-t-on suffisamment de ces transformations ? Dit autrement, si deux dessins donnent le même résultat, est-ce que j’ai suffisamment de transformations dans ma besace pour passer de l’un à l’autre ? Cette question n’est pas seulement importante pour les applications citées au-dessus : elle l’est aussi pour mieux comprendre, à un niveau fondamental, l’informatique quantique.

Cela a fait l’objet de ma thèse, dans laquelle j’ai montré qu’un petit ensemble de transformations intuitives, qui de plus peuvent être justifiées très naturellement, est suffisant pour capturer le calcul quantique. Pour ce faire, on montre que l’on peut réécrire (à l’aide de nos transformations) n’importe lequel de ces dessins dans une forme particulière, qui de plus est la même pour deux dessins représentant le même programme. On obtient ainsi une chaîne de transformations qui permet de systématiquement passer d’un dessin à un autre s’ils représentent le même opérateur.

Renaud Vilmart chercheur ISFP (Inria Staring Faculty Position) au LMF (Laboratoire Méthodes Formelles)

Editathon Femmes & Sciences 2021

Les centres de sciences La Casemate (Grenoble) et le Quai des Savoirs (Toulouse) organisent du 11 au 14 mars prochain un éditathon Wikipédia intitulé « Femmes de l’Intelligence artificielle VS Femmes des sciences de la Terre : le match ». Binaire souhaite donner un coup de projecteur à cette initiative, en profitant de l’occasion pour inciter à aller enrichir l’encyclopédie libre pour mettre en lumière de manière plus large les femmes de l’informatique. Marie-Agnès Enard
Affiche editathon femmes et sciences
Sarah Krichen WMFr CC BY-SA 4.0
Qu’est-ce qu’un éditathon Wikipédia ?

Un édithathon est un évènement organisé par des communautés pour que des contributeurs créent, modifient et améliorent des articles sur un thème, sujet ou un type spécifique de contenu.  Ici, ce marathon d’édition a lieu sur Wikipédia que l’on ne présente plus.  Vous n’avez jamais contribué à Wikipédia, pas de panique, les nouveaux contributeurs y reçoivent généralement une formation de base à l’édition et tout type de profils sont recherchés pour améliorer ces contenus.

Une battle dédiée au femmes

« Femmes de l’Intelligence artificielle VS Femmes des sciences de la Terre : le match ». Choisissez votre équipe et défendez-la sur Wikipédia. Pendant 4 jours, que vous soyez un.e contributeur.trice habitué.e ou débutant.e, enrichissez les biographies de femmes dans ces deux disciplines. Tous les coups (ou presque) sont permis : création d’article, traduction d’un article depuis un Wikipédia étranger, enrichissement / correction d’un article existant, ajout de sources, légende de photos… A la fin, ce sont les femmes qui gagnent ! 😉

Le programme
Cet évènement est entièrement en ligne.
  • A partir du 11 février 2021, début du repérage et de la collecte des ressources pour préparer l’éditathon
  • Jeudi 11 mars matin, initiation à la plateforme Wikipédia, en ligne
  • Du jeudi 11 au dimanche 14 mars : éditathon avec soutien de Wikipédiens bénévoles sur un canal de messagerie Discord
Cet éditathon s’insère dans une semaine où d’autres événements « femmes et sciences » sont programmés à Toulouse et Grenoble (dont des conférences accessibles à tous). Plus d’infos sur la page projet sur Wikipédia
Liens utiles

Algorithmes décisionnels : expliquer n’est pas justifier

Fournir des explications du fonctionnement des algorithmes compréhensibles par des profanes ? Félicien Vallet s’entretient avec Clément Henin et Daniel Le Métayer, de l’équipe Inria Privatics, sur  les enjeux de l’explicabilité des algorithmes et leurs travaux de recherche sur ce sujet. Serge Abiteboul et Thierry Viéville.

Cet article a été initialement publié sur le site du Laboratoire d’innovation numérique de la CNIL (LINC), reproduit sur ce blog avec leur autorisation..

Les systèmes algorithmiques prennent une place de plus en plus importante dans nos vies, ce qui représente un indéniable progrès. Toutefois, si nous leur déléguons de plus en plus de tâches, cela ne doit pas se faire au détriment de notre capacité à garder le contrôle et la compréhension de leur fonctionnement.

LINC : En premier lieu, et même si cela peut sembler évident, pouvez-vous nous rappeler pourquoi il est indispensable de se préoccuper de l’opacité des systèmes algorithmiques ? 

Daniel Le Métayer : Il s’agit d’un problème majeur, notamment quand ces systèmes ont pour objet d’aider des humains à prendre des décisions qui peuvent avoir des conséquences importantes. Tout d’abord, si le décideur n’est pas en mesure de comprendre la logique à l’œuvre ou les raisons qui ont conduit à un résultat donné (prédiction, recommandation, etc.), il risque d’utiliser le système à mauvais escient. Des systèmes opaques, qui semblaient par ailleurs performants, ont été écartés de certaines applications sensibles pour cette raison précise. Le législateur l’a bien compris puisque l’obligation d’expliquer les résultats de certains types de systèmes algorithmiques a été introduite dans le droit. On peut penser notamment au RGPD en Europe, à la loi pour une République numérique en France ou encore à la Directive sur la prise de décision automatisée au Canada. On notera toutefois que ces obligations ne concernent pas tous les systèmes algorithmiques et que la définition des explications à fournir est souvent sujette à interprétation. Enfin, au-delà du droit positif, on sait que l’IA et les systèmes algorithmiques en général, posent de nombreuses questions d’ordre éthique (biais, perte d’autonomie, impacts sur la société, la démocratie, etc.). Or, comme l’a justement affirmé le rapport Villani en 2017, « une grande partie des considérations éthiques soulevées par l’IA tiennent à l’opacité de ces technologies ». Dans le même esprit, la CNIL a recommandé de « rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs » dans son rapport de synthèse « Comment permettre à l’homme de garder la main ».

Transparence, loyauté, explicabilité, redevabilité, etc. De nombreux termes sont fréquemment utilisés lorsqu’on évoque la compréhension du fonctionnement des systèmes algorithmiques. Pouvez-vous nous rappeler de quoi il est question ? 

Clément Hénin : En effet, il existe dans ce domaine une profusion de termes qui ne sont pas toujours bien définis, ni utilisés dans le même sens par différents auteurs. Pour notre part, nous pensons qu’il est utile de distinguer au moins quatre concepts essentiels que nous appelons respectivement transparence, explication, justification et contestation. Tout d’abord l’objectif de la transparence est de rendre visible. On rend transparent quand on montre, on expose. On pense généralement au code du système, mais ce peut être également le texte de l’algorithme, les documents de conception, ou encore les données d’apprentissage. Une explication a un but différent : il s’agit de rendre compréhensible. On distingue généralement les explications locales, qui consistent à expliquer une décision ou un résultat particulier, des explications globales, qui portent sur la logique générale du système. La justification est encore d’une autre nature : il ne s’agit pas de rendre compréhensible mais de rendre acceptable, de convaincre qu’une décision est « bonne ». Enfin, la contestation peut être vue comme l’opposée de la justification : son but est de convaincre qu’une décision est mauvaise.

Daniel Le Métayer : Les termes « explication » et « justification » sont parfois utilisés de manière indifférenciée dans la littérature. Pourtant, ils recouvrent des concepts tout à fait différents : une explication est endogène, dans le sens où elle constitue une information sur l’algorithme qui ne dépend que de celui-ci ; inversement, une justification est exogène, dans le sens où elle doit faire référence à un élément extérieur, qu’on peut appeler une norme, pour justifier le système (ou un de ses résultats). Prenons à titre d’illustration un système d’aide à la décision pour traiter des demandes de prêt bancaire. Un exemple d’explication pourrait être « votre demande de prêt est refusée car votre taux d’endettement dépasserait le tiers de vos revenus ». Cette information explique le refus mais ne le justifie pas. Une justification pourrait être : « votre demande de prêt est refusée car la loi interdit aux banques d’octroyer des prêts conduisant à un taux d’endettement dépassant le tiers des revenus ». Cette justification fait référence à une norme juridique mais d’autres formes de normes peuvent être envisagées (règle interne ou objectif de minimiser les défauts de remboursement par exemple). Quelle que soit sa forme, une justification doit pouvoir être contestée. La contestabilité est souvent mise en avant comme un objectif important dans la littérature mais peu de travaux ont jusqu’à présent porté spécifiquement sur ce point. Pour conclure sur la terminologie, il faut souligner que, même si elles ne répondent pas aux mêmes objectifs, la transparence, les explications et les justifications ne sont évidemment pas sans rapport : la transparence peut contribuer à la compréhension et les explications peuvent fournir des informations utiles pour formuler des justifications ou des contestations.

On parle souvent de système aidant à l’explication ou à la justification, menant des analyses globales ou locales, etc. On observe depuis quelques années une augmentation très importante du nombre de recherches menées sur ces sujets. Pouvez-vous préciser quels sont les enjeux de l’explicabilité des systèmes du point de vue scientifique ?

Clément Hénin : En effet, vue l’importance du problème, de plus en plus de chercheurs s’intéressent aux différents moyens de s’attaquer à l’opacité des systèmes algorithmiques. Une nouvelle communauté de recherche s’est d’ailleurs développée ces dernières années autour de ce qu’on appelle parfois XAI (pour « explainable AI »). De nombreuses méthodes ont été proposées, certaines fonctionnant « en boîte noire », c’est à dire sans connaissance du code du système, alors que d’autres, dites en « boîte blanche », interviennent sur ce code. Certaines ont pour but de rendre les systèmes interprétables (ou parle alors de système « intelligible ») alors que d’autres produisent des explications a posteriori de systèmes opaques. Chaque approche comporte des avantages et des inconvénients mais on peut identifier, de manière générale, plusieurs défis qui n’ont pas encore été relevés. Tout d’abord, celui de fournir des explications ou des justifications véritablement compréhensibles par des utilisateurs profanes (médecin, juriste ou personne affectée par les résultats des systèmes, par exemple). Ce domaine souffre encore beaucoup de ce que le chercheur Tim Miller et ses collègues ont appelé le syndrome des détenus qui veulent diriger l’asile (« beware of inmates running the asylum »), en l’occurrence des experts d’IA expliquant leurs propres productions. Les explications fournies par les méthodes existantes sont généralement unilatérales (non interactives) et fournies sous une forme fixe, décidée au préalable (par exemple des arbres de décision ou des listes de facteurs prépondérants) alors que les besoins des utilisateurs peuvent être variés et dépendants de leurs motivations et de leur degré de compétence. Par ailleurs, les justifications et les contestations n’ont pas fait l’objet de nombreux travaux de recherche jusqu’à ce jour. Pour conclure sur ce point, un aspect qui mérite également plus d’attention est aussi celui de l’évaluation expérimentale des résultats : on sait qu’il n’est pas simple de mesurer la qualité d’une explication ou d’une justification.

Plus spécifiquement pouvez-vous décrire les travaux que vous menez ?

Daniel Le Métayer : Nos travaux, qui se focalisent sur les méthodes « en boîte noire », portent sur deux aspects : les explications interactives et les justifications. Pour ce qui est des explications, nous partons du constat que les besoins diffèrent beaucoup d’une situation à une autre. Un employé de la banque qui cherche à comprendre les grandes lignes du système d’attribution de crédits n’a pas les mêmes besoins qu’un client qui souhaite contester une décision de refus ou un auditeur en charge de vérifier la conformité du système. Nous avons proposé un outil d’explications (appelé IBEX) qui repose sur une architecture à plusieurs couches permettant d’interagir avec chaque type d’utilisateur au niveau d’abstraction qui lui convient.  Ses demandes sont traduites automatiquement en exigences sur les explications à générer (simple ou complexe, générale ou spécifique, etc.), puis en paramètres du système de génération d’explications.  Celui-ci comporte deux phases principales : la sélection des données à fournir en entrée de l’algorithme et l’analyse des résultats produits par celui-ci.

Clément Hénin : Le deuxième volet concerne les justifications. Comme nous l’avons déjà mentionné, celles-ci font référence à des normes extérieures pour convaincre qu’une décision est bonne. Le système de justification que nous avons conçu (appelé Algocate) inclut trois types de normes (des règles explicites, des objectifs et des données de référence) qu’il peut employer pour appuyer des justifications ou des contestations de décisions particulières. Les justifications (ou les contestations, selon la situation) donnent lieu à un dialogue entre Algocate et l’utilisateur. Dans la première étape, un utilisateur peut fournir ses raisons de penser que la décision est mauvaise. Ces raisons sont analysées par Algocate en regard des normes disponibles. La réponse d’Algocate peut conforter l’utilisateur dans ses raisons ou au contraire contrer ses arguments. À l’issue du dialogue, l’utilisateur a collecté des arguments suffisants pour contester la décision ou pour l’accepter s’il juge que les normes employées sont légitimes et qu’elles s’appliquent effectivement dans ce cas.

Clément Henin est doctorant au sein de l’équipe projet Inria-Privatics

Daniel Le Métayer est directeur de recherche au sein de l’équipe projet Inria-Privatics


 Pour aller plus loin :

Le Dilemme de la Maladie

Peut-on établir un lien mathématique entre le comportement des gens et la propagation d’un virus ? La réponse est oui, et cela permet, en résolvant des équations, d’aider à la prise de décisions stratégiques pour gérer une pandémie.  Carl-Joar Karlsson et Julie Rowlett, chercheur et chercheuse au département des Sciences Mathématiques de l’université technique de Chalmers et de l’université de Göteborg, ont récemment publié un article dans le journal Scientific Reports du groupe Nature à ce sujet. Ils viennent nous l’expliquer dans binaire. Lonni Besançon et Pauline Bolignano

Connaissez-vous le jeu « pierre-feuille-ciseaux » ?  Pour jouer, vous choisissez de montrer soit une pierre (poing fermé), soit une feuille (main ouverte), soit des ciseaux (deux doigts).

Figure 1. Trois enfants jouant à pierre-feuille-ciseaux, et dessinant pierre, ciseaux et feuille de gauche à droite. Licence et source de l’image : creative commons zero 1.0 public domain https://openclipart.org/

Le jeu « pierre-feuille-ciseaux » est un exemple de jeu non coopératif.  Il s’agit d’un type de jeu dans lequel chaque personne décide indépendamment de ce qu’il veut faire.  Un autre exemple de jeu non coopératif est le dilemme du prisonnier.  Deux prisonniers ont été arrêtés et accusés d’avoir commis un crime.  Avant d’être emmenés dans des salles d’interrogatoire séparées, les prisonniers acceptent de garder le silence pendant l’interrogatoire. En attendant d’être interrogés individuellement, comme dans la figure 2, les prisonniers se demandent s’ils doivent se taire et tenir leur promesse, ou s’ils doivent la rompre et rejeter la responsabilité du crime sur l’autre prisonnier, en clamant leur innocence.  Nous considérons que le prisonnier choisit de coopérer s’il garde le silence, ou d’accuser s’il rejette la responsabilité du crime sur l’autre prisonnier.  Si un prisonnier coopère alors que l’autre accuse, l’accusateur est libéré, tandis que le coopérateur est condamné à la totalité de la peine.  Si les deux prisonniers coopèrent, ils reçoivent une peine minimale.  Si les deux prisonniers s’accusent mutuellement, ils reçoivent une peine modérée.  Que pensez-vous que les prisonniers sont le plus susceptibles de faire ?

Figure 2.  La décision de coopérer ou non en portant un masque pour limiter la propagation d’une maladie est un « dilemme de la maladie » similaire à celui du prisonnier.  Licence et source de l’image : creative commons zero 1.0 public domain https://openclipart.org/

Si vous répondez que les prisonniers vont probablement tous les deux s’accuser, alors soit vous avez un peu de bon sens, soit vous reconnaissez que c’est la stratégie d’équilibre unique dans le jeu.  Une stratégie d’équilibre est comme une impasse : personne dans le jeu ne peut améliorer sa situation en changeant son action seul.  Dans le dilemme du prisonnier, si les deux prisonniers s’accusent, si l’un d’entre eux changeait pour coopérer, alors ce prisonnier se verrait attribuer l’entière responsabilité du crime.  Ce n’est certainement pas une amélioration.  D’un autre côté, si un prisonnier coopère alors que l’autre accuse, alors il peut améliorer sa situation en accusant son complice également. Enfin, si les deux prisonniers coopèrent, alors si l’un d’eux passe à l’accusation de son complice, il améliore directement sa situation. Ainsi, dans ce jeu, la seule stratégie d’équilibre est l’accusation mutuelle.

Même un jeu aussi simple que le dilemme du prisonnier peut prédire non seulement les choix de comportement individuels mais aussi les tendances de comportement dans la société.  Comme de nombreux scientifiques, lorsque la pandémie a frappé, nous nous sommes demandés : pouvons-nous apporter une contribution scientifique significative pour aider d’une manière ou d’une autre ?

Comme la voie de transmission la plus courante de la COVID19 est aérienne, les masques sont une mesure d’atténuation importante [1].  Dans les endroits où les masques ne sont pas imposés par la loi, les gens peuvent choisir de les porter ou non.  Ainsi, par exemple, deux étrangers, Alice et Bob, choisissent de coopérer, en portant un masque, ou de se défaire, en ne portant pas de masque.  Ils font ce choix de manière indépendante, de sorte que nous pouvons considérer qu’il s’agit d’un « jeu » non coopératif, comme le montre les figures 2 et 3.  Si Alice coopère alors mais pas Bob, Alice paie le coût d’achat du masque et reçoit une certaine protection de son masque, alors que Bob ne paie aucun coût et reçoit une plus grande protection grâce à Alice.  S’ils portent tous deux un masque, ils paient tous deux un coût mais reçoivent également le maximum de protection.  Si aucun des deux ne porte de masque, ils ne paient rien mais ne bénéficient d’aucune protection.

Figure 3.  La décision de coopérer ou non en portant un masque pour limiter la propagation de la maladie est un « dilemme de la maladie » similaire à celui du prisonnier.  Licence et source des images : creative commons zero 1.0 public domain https://openclipart.org/

 

Dans notre travail [2], nous avons généralisé ce dilemme à un jeu à l’échelle de la société qui intègre davantage les contacts sociaux et la pression sociale.  La pression sociale peut surpasser la tentation de faire de la non-coopération lorsque d’autres personnes coopèrent et faire en sorte que les gens soient plus enclins à coopérer [3-7]. La décision de coopérer ou non est également influencée par la perception qu’ont les gens de la maladie et de son danger.  Lorsque les gens constatent des taux d’infection élevés, ils peuvent être plus enclins à faire preuve de prudence.  Leur décision est en outre influencée par le rythme auquel ils accèdent et reçoivent des informations sur la maladie, ainsi que par l’exactitude de ces informations.  Par exemple, s’ils reçoivent des informations indiquant qu’il n’est pas nécessaire d’atténuer la maladie ou que c’est une bonne idée de contracter la maladie et d’acquérir une immunité naturelle, le taux de coopération sera plus faible.  Les décisions des gens ne restent pas les mêmes ; ils peuvent à tout moment passer de la coopération à la non-coopération.

Dans un modèle épidémiologique compartimenté classique de propagation de la maladie, ces choix comportementaux ainsi que la possibilité de changer de comportement et d’influer sur la propagation de la maladie ne sont pas intégrés [8].  Inspiré par Poletti et. al. [9], nous avons modifié les modèles épidémiologiques de propagation des maladies pour intégrer tous ces facteurs de comportement humain, en nous concentrant sur les deux modèles épidémiologiques compartimentés les plus simples.  Dans le premier modèle, toutes les personnes de la population sont classées en deux compartiments : sensibles ou infectieuses.  C’est-à-dire qu’il n’y a pas d’immunité durable à la maladie.  Dans le second modèle, les personnes sont classées en trois compartiments : sensibles, infectieuses ou résistantes.  Dans ce modèle, les personnes qui se remettent d’une infection deviennent immunisées (résistantes) pendant un certain temps.  Dans notre travail, nous avons créé un ensemble d’équations mathématiques qui intègrent toutes ces considérations simultanément. En d’autres termes, nous avons combiné tous les facteurs comportementaux humains et leurs implications dans la propagation de la maladie.  Les équations que nous avons obtenues créent un système dynamique, qui peut décrire comment les comportements des personnes et les taux d’infection changent au fil du temps.  Tout comme la stratégie d’équilibre dans le dilemme du prisonnier qui prédit que les prisonniers vont très probablement s’accuser (donc ne pas coopérer), les points d’équilibre stables d’un système dynamique prédisent ce qui se passera au fil du temps.

Dans notre travail [2], nous avons calculé tous les points d’équilibre stables des systèmes dynamiques qui décrivent la façon dont les comportements et les taux d’infection changent au fil du temps.  Cela revient à résoudre (à la main) plusieurs équations mathématiques.

Les solutions de ces équations peuvent fournir des informations utiles pour les pandémies actuelles et futures.  Nous résumons ici ce que nous avons appris :

  • – Si la pression sociale est suffisamment élevée, il y aura une large coopération au sein de la population.
  • – Si ce n’est pas le cas, lorsqu’il est possible d’être infecté et d’être ensuite immunisé, sans lois ni sanctions pour défaut de coopération, il n’y aura pas de coopération généralisée dans l’ensemble de la population.
  • – Pour les maladies sans immunité durable, si la population générale reçoit suffisamment souvent des informations précises concernant les mesures d’atténuation efficaces, alors une coopération généralisée se produira au fil du temps entre tous les individus rationnels qui cherchent à agir dans leur meilleur intérêt.
  • – Pour la pandémie actuelle, nos travaux indiquent qu’avec le temps, les individus rationnels qui cherchent à agir dans leur intérêt et qui sont fréquemment exposés à des informations précises concernant les mesures d’atténuation efficaces auront tendance à porter des masques pour atténuer la propagation du virus.

Il est vrai que la théorie des jeux a une limite : elle ne fait aucune prédiction pour les individus qui ne sont pas rationnels et/ou qui ne cherchent pas à agir dans leur propre intérêt.  D’autre part, l’une des forces des mathématiques pures est qu’elles ne sont pas limitées à une maladie spécifique ou à une mesure d’atténuation.  Les mêmes principes s’appliquent à toute nouvelle maladie future.   De nombreux experts affirment que la question n’est pas de savoir si de nouvelles maladies apparaîtront à l’avenir, mais quand elles le feront.  Ainsi, tant pour la pandémie actuelle que pour toute autre pandémie future, notre travail propose une stratégie en trois étapes

Étape 1 : Supposer que la nouvelle maladie causée par le virus ne confère pas une immunité durable.

Étape 2 : Étudier le nouveau virus pour comprendre ses caractéristiques particulières et identifier ainsi des mesures d’atténuation efficaces pour ce nouveau virus particulier.

Étape 3 : Sensibiliser le public aux dangers de la maladie causée par le virus dans le cadre d’une campagne de publicité de masse et d’influence recommandant vivement d’éviter la maladie.  Conclure la publicité par un message positif et responsabilisant : une explication claire des mesures d’atténuation efficaces.

Il existe au moins deux exemples d’une stratégie comme celle que nous suggérons qui a été utilisée avec succès pour atténuer la propagation des maladies.  Le premier est la campagne publicitaire de la Faucheuse utilisée en Australie pour atténuer la propagation du VIH dans les années 1980. La seconde est la vidéo de la COVID jalouse du Vietnam.

L’application de ce que nous avons appris pour gérer le VIH afin de gérer les pandémies actuelles et futures est examinée plus en détail dans cet article [10].

La stratégie que nous suggérons peut sembler relever du bon sens pour de nombreux lecteurs, et si c’est le cas, alors tous ces calculs ne sont qu’un ensemble de sciences et d’équations qui réaffirment votre bon sens.  La stratégie pourrait également sembler familière aux combattants, car elle pourrait se résumer ainsi :

Figure 4.  Un ninja porte un masque et est prêt à se battre !  Licence et source de l’image : creative commons zero 1.0 public domain https://openclipart.org/
  1. Ne sous-estimez pas votre adversaire.
  2. Étudiez la technique de votre adversaire pour identifier ses faiblesses.
  3. Combattez votre adversaire et exploitez ses faiblesses.

Alors, portez votre masque comme le ninja de la figure 4 et continuez à vous battre jusqu’à ce que cet ennemi corona soit vaincu !  Les mathématiques et la science sont de votre côté !

 

 

 

Carl-Joar Karlsson et Julie Rowlett (Department of Mathematical Sciences, Chalmers University of Technology and The University of Gothenburg).

 

References:

[1]. Mitze, T., Kosfeld, R., Rode, J., and Wälde, K.  Face masks considerably reduce COVID-19 cases in Germany.  Proceedings of the National Academy of Sciences, 202015954; DOI: 10.1073/pnas.2015954117 December (2020)

[2]. Karlsson, C. J. & Rowlett, J.  Decisions and disease:  a mechanism for the evolution of cooperation.  Scientific Reports, 10:13113, https://www.nature.com/articles/s41598-020-69546-2 (2020).

[3]. Tanimoto, J. A simple scaling in the effectiveness of supporting mutual cooperation in donor-recipient games by various reciprocity mechanisms. BioSystems 96, 29–34 (2009).

[4]. Ohtsuki, H. & Nowak, M. A. The replicator equation on graphs. J. Theor. Biol. 243, 86–97 (2006).

[5]. Tanimoto, J. Fundamentals of evolutionary game theory and its applications, vol. 6 of Evolutionary Economics and Social Complexity Science (Springer, 2015).

[6]. Ohtsuki, H. & Nowak, M. A. Evolutionary games on cycles. Proc. Royal Soc. B 273, 2249–2256 (2006).

[7]. Taylor, M. A., C. & Nowak. Transforming the dilemma. Evolution 61, 2281–2292 (2007).

[8]. Kermack, W. O. & McKendrick, A. G.  « A Contribution to the Mathematical Theory of Epidemics ». Proceedings of the Royal Society A. 115 (772): 700–721, (1927).

[9]. Poletti, P., Caprile, B., Ajelli, M., Pugliese, A. & Merler, S. Spontaneous behavioural changes in response to epidemics. J. theoretical biology 260, 31–40 (2009).

[10]. Rowlett J. Mathematics Indicates That an HIV-Style Strategy Could Be Applied to Manage the Coronavirus. In: Mathematics Online First Collections. Springer, Cham. (2020) https://doi.org/10.1007/16618_2020_22

Fouiller les processus pour les améliorer

Dans la rubrique Il était une fois… ma thèse, Mathilde Boltenhagen,  doctorante en informatique à l’Université Paris-Saclay, à l’ENS Paris-Saclay, au CNRS, à l’Inria et au LSV, vient nous raconter ses travaux. Dans cet article, Mathilde fait faire le tour du monde à notre valise, un prétexte pour nous parler de son domaine de recherche : la fouille de processus. Pauline Bolignano et Serge Abiteboul

Aujourd’hui les entreprises se perdent dans l’immensité d’information qu’elles récoltent. Sans omettre les risques liés à la collecte massive de données personnelles, qui méritent une grande attention, enregistrer de l’information est souvent nécessaire mais aussi précieux pour améliorer le fonctionnement des entreprises. Dans cet article, nous nous concentrons sur les données de comportements, d’objets ou d’humains.

Prenons l’exemple d’une valise en soute [1]. Notre valise est d’abord étiquetée, puis enregistrée, avant de suivre son parcours personnalisé sur les tapis roulants l’amenant à son premier vol. Si escales il y a, les aéroports de transitions enregistreront son arrivée et son départ. A destination, la valise circulera sur le tapis devant lequel nous l’attendrons. Cette suite d’événements représente le comportement de notre valise.

Comportement d’une valise – Mathilde Boltenhagen

 

Les informations  recueillies au sujet de celle-ci, telles que sa destination et ses escales, doivent être connues des agences et aéroports afin de lui faire réaliser le voyage. Toutes ces données sont donc nécessairement enregistrées pour le bon fonctionnement du processus de transport de notre valise.

Supposons maintenant que notre valise ne soit pas arrivée. Comment est-ce possible alors que nous avions enregistré toutes les informations requises ? Il y a sans doute eu un problème dans le processus de cheminement qui a créé ce comportement anormal. L’analyse du problème permettra peut-être de la localiser. Mais se pose alors la question de comprendre comment détecter et prévenir de tels problèmes afin que cela n’arrive plus ?

C’est là qu’intervient la fouille de processus (en anglais, process mining) [2], si précieuse pour améliorer le fonctionnement des entreprises. En analysant les données des évènements enregistrés pour toutes les valises, on peut extraire une visualisation des comportements normaux et des comportements erronés. On construit des modèles qui sont une représentation simplifiée de la réalité destinés à être manipulés pour des traitements informatiques et décisionnels. C’est grâce à des modèles simples mais aussi conformes et précis que l’on parvient à améliorer des processus d’entreprises comme celui du cheminement de notre valise perdue.

Trouver un modèle présentant tous ces critères de qualité (simple, conforme et précis) est encore un problème de recherche [3]. Ma thèse en fouille de processus a pour objectif de confronter les données réelles et celles modélisées. Par exemple, j’ai proposé une méthode de partitionnement des comportements qui s’appuie sur un modèle [4]. Chaque groupe de comportements est alors associé à une petite partie de celui-ci qui le représente. Cette technique est très utile lorsque le modèle est complexe et peu lisible pour un humain, puisqu’on n’en extrait qu’une partie par groupe de comportements. De plus, si des comportements ne sont pas associés à une partie du modèle, on comprend qu’il existe des différences entre la modélisation et la réalité. Ce dernier point est un autre objectif de ma thèse : arriver à quantifier la différence entre la modélisation et la réalité.

Des processus comme l’acheminement d’une valise sont très nombreux, notamment dans les organisations complexes que sont nos hôpitaux. Ces structures présentent des quantités colossales de comportements différents. Réussir à modéliser et schématiser ces comportements promet alors une aide primordiale aux choix de décisions des organisations.

Mathilde Boltenhagen, Université Paris-Saclay, ENS Paris-Saclay, CNRS, Inria, LSV.

[1] Exemple inspiré de cas réels cités dans la littérature:  Process Mining Case Story: Copenhagen Airports A/S — Flux Capacitor et Gunnarsson, Björn Rafn, Seppe KLM vanden Broucke, and Jochen De Weerdt. « Predictive Process Monitoring in Operational Logistics: A Case Study in Aviation. » International Conference on Business Process Management. Springer, Cham, 2019.

[2] Van Der Aalst, Wil, et al. « Process mining manifesto. » International Conference on Business Process Management. Springer, Berlin, Heidelberg, 2011.

[3] Carmona, Josep, et al. Conformance Checking. Springer, Cham, 2018.

[4] Boltenhagen, Mathilde, Thomas Chatain, and Josep Carmona. « Generalized alignment-based trace clustering of process behavior. » International Conference on Applications and Theory of Petri Nets and Concurrency. Springer, Cham, 2019.

Miroir, mon beau miroir

 

La bande dessinée Mirror, Mirror de Falaah Arif Khan et Julia Stoyanovich parle de l’Intelligence Artificielle. À quoi sert aujourd’hui l’apprentissage automatique ? À quoi devrait-il servir ? À améliorer l’accessibilité des applis numériques notamment. C’était une réflexion destinée au départ aux étudiants en IA. Nous l’avons traduite en français pour binaire, avec l’aide de Eve Francoise Trement, parce que nous pensons qu’elle peut intéresser un bien plus large public.

Téléchargez la version française : https://dataresponsibly.github.io/comics/vol1/mirror_fr.pdf

Vous trouverez la version originale en anglais ainsi qu’une version en espagnol ici : https://dataresponsibly.github.io/comics/

Serge Abiteboul, Inria et ENS Paris, Pascal Guitton, Univ. de Bordeaux et Inria, et Victor Vianu, UCSD

Magie numérique et défis juridiques

Un nouvel « Entretien autour de l’informatique ». Christophe Lazaro est Professeur au Centre de Philosophie du Droit, à l’Université de Louvain, et membre du Comité National Pilote d’Éthique du Numérique (France). Nous poursuivons avec lui le voyage commencé avec Célia Zolynski sur le droit du numérique. Christophe nous amène aux frontières du droit, de la philosophie et de l’anthropologie.

Cet article est publié en collaboration avec theconversation.fr.

Christophe Lazaro, UCLouvain

B : Tu es juriste. Mais en préparant l’entretien, nous avons découvert que tu étais aussi spécialiste d’autres domaines. Peut-être pourrais-tu commencer par nous dire d’où tu viens.

TL : Je suis au départ juriste, en effet. Au début de ma carrière, j’ai été avocat pendant une courte période. J’’ai également étudié en parallèle la philosophie et l’anthropologie. Puis j’ai fait une thèse de droit assez tardivement, à 33 ans, à l’Institut Universitaire Européen de Florence sur les enjeux juridiques et philosophiques des rapports entre corps et prothèses. Je suis passionné par la question de la technique et du corps. Je pratique d’ailleurs le Tai Chi depuis des années. Ce qui me passionne, c’est surtout la rencontre entre l’être humain et les nouvelles technologies, d’un point de vue juridique bien sûr mais aussi anthropologique et philosophique.

B : Un de tes premiers travaux a porté sur les communautés de logiciel libre, plus particulièrement Debian.  

TL : Oui. Ce travail reflète d’ailleurs bien la rencontre de mes intérêts croisés pour le droit et l’anthropologie. J’ai fait une étude anthropologique de la communauté dite virtuelle Debian. C’est une communauté très démocratique qui développe des systèmes d’exploitation basés exclusivement sur des logiciels libres.  Elle est virtuelle parce que ses membres se rencontrent principalement sur Internet. C’était la première fois que j’avais vraiment l’occasion d’échanger avec des informaticiens. Dans mon labo d’alors, on travaillait sur le droit du numérique mais on ne parlait pas trop avec eux.

B : Tu as des compétences en informatique ?

TL : Je me vois un peu comme un « handicapé des machines » avec une grande soif de savoir parce que je n’y comprends pas grand-chose. Cela me pousse à poser des questions aux spécialistes. J’ai été bluffé par l’hyper-structure sociale et politique de la communauté Debian. J’ai d’ailleurs pu participer à cette communauté. C’était passionnant ! J’ai voulu comprendre comment ils fonctionnaient.

Ça a donné un livre. Ce genre d’études d’une communauté virtuelle était original pour l’époque. Avec le regain d’intérêt actuel pour les communs, cela vaut la peine d’aller regarder des communautés fondées sur cette notion de commun. Par exemple, à côté des communautés de logiciels libres, il y a des collectifs d’habitat groupé, des coopératives d’agriculture alternative ou des communautés d’éditeurs de Wikipédia. D’un point de vue anthropologique, ces initiatives interrogent l’essence même du concept de communauté. Comment peut fonctionner une communauté avec le don comme seule modalité d’échange et de coopération entre ses membres ?

B : Tu as aussi beaucoup réfléchi à l’ « augmentation » de l’humain avec la technique, et aux questions que cela pose en terme de justice ?

TL : D’abord, pour moi, une technologie n’augmente pas, elle transforme. Une simple note adhésive que nous utilisons au bureau n’ « augmente » pas la mémoire à proprement parler. Il permet d’organiser les tâches différemment, en transformant les actions à accomplir. Un sujet, par exemple, me passionne depuis ma thèse sur les prothèses : une fois la personne « transformée » par la technologie, que devient l’égalité ? Comment doit-on la traiter ? La technologie bouleverse les notions d’égalité et de mérite qui sont au cœur de nombreuses activités humaines. On peut parler d’Oscar Pistorius ou plus récemment de Blake Leeper, deux athlètes amputés équipés de prothèses souhaitant concourir au plus haut niveau aux côtés des  « valides ». Mon ouvrage La prothèse et le droit (vous excuserez l’autopromotion) qui a remporté en France le prix du livre juridique en 2016, aborde ce type de questions. Maintenant, avec l’IA, on va de plus en plus loin et cela questionne radicalement la nature de certaines activités qui étaient autrefois l’apanage exclusif des humains.

Surveillance numérique @serab

B : Pour prendre un exemple concret de question que cela pose, des outils informatiques notamment basés sur l’IA aident les employés des entreprises. Mais ils posent aussi des problèmes en termes de surveillance excessive des employés. Comment gérer cela ?

TL : Dans l’entreprise, on propose des outils pour organiser et faciliter le travail, pour optimiser la coordination et l’effectuation des tâches. Mais ces outils peuvent aussi servir à de la surveillance. Est-ce que les avantages apportés par cette transformation du travail et du rôle de l’employé compensent les risques de surveillance qu’ils introduisent ? La loi devrait être là pour dissuader de certaines formes disproportionnées de contrôle des employés, mais le  juriste d’aujourd’hui doit aussi être conscient des limites du droit face à l’ambivalence intrinsèque des technologies,. Je n’ai pas de solution pour empêcher les abus de ces technologies parce que celles-ci sont si géniales qu’on ne les voit pas, qu’elles opèrent en toute discrétion, et qu’on ne sait pas comment elles fonctionnent. J’ajouterais même que plus grand est leur confort d’utilisation, plus elles « disparaissent ». Cette invisibilité rend les modes de résistances juridiques ou autres difficiles à mettre en œuvre.

B : Cette invisibilité est quand même relative. Avec le numérique, on peut garder des traces de tous les traitements. On pourrait argumenter que le numérique est au contraire beaucoup plus transparent.

CL : C’est là que ça devient intéressant. Il faudrait distinguer des régimes suivant la visibilité d’un processus. Du point de vue de l’employé, s’il ne peut pas voir la surveillance, le processus de surveillance est transparent. C’est en cela que je parle d’invisibilité car les effets de la technologie ne s’éprouvent plus, à travers le corps et les sens. Et avec l’IA, on ira vers encore plus d’invisibilité en ce qu’on ne sait souvent même pas expliquer les choix des logiciels. Je pense que c’est un sujet à étudier.

B : Qu’est ce qui pourrait débloquer la situation ?

TL : L’anthropologie. (rire) Une alliance entre des informaticiens, des philosophes, des juristes… On est par essence en pleine interdisciplinarité. Les questions ne sont pas philosophiquement nouvelles. Mais, plutôt que d’en parler abstraitement, il faut s’attaquer à des questions précises sur des pratiques, dans des situations d’usage. Pour moi, la recherche a aujourd’hui atteint un seuil. D’un point de vue juridique ou éthique, elle tourne en rond en ressassant les mêmes questions et principes. Plutôt que de disserter sur l’éthique de l’IA d’une manière désincarnée, plutôt que de proposer un énième réflexion sur le dilemme du tramway et les véhicules autonomes… il faut envisager les choses de manière empirique et poser des questions en situation.

Par ailleurs, pour développer une éthique de l’IA, il faudrait se mettre d’accord d’abord sur une véritable méthodologie et l’appliquer ensuite en faisant collaborer des points de vue interdisciplinaires. Comme toute discipline, l’éthique ça ne s’improvise pas et, dans l’histoire récente, nous ne sommes qu’aux premiers balbutiements d’une coopération entre sciences humaines et sciences dures.

B : Qu’est-ce que le juriste peut nous dire sur le contentement éclairé et libre ?

TL : C’est un des points les plus problématiques à la fois d’un point de vue juridique et philosophique pour les technologies du 21e siècle. Le problème

Contentement totem @serab

c’est l’idée même que l’être humain pourrait exprimer un choix éclairé et libre dans ces nouveaux contextes ; les deux adjectifs étant essentiels.

 

Comment le consentement peut-il être « éclairé » ? L’utilisateur ne s’intéresse pas vraiment au fonctionnement des technologies qu’il utilise quotidiennement et on ne l’encourage pas à comprendre ce qu’elles font ou ce qu’elles lui font faire. On lui propose des services user-friendly et cette amitié « machinique » implique des routines incorporées, un aspect prothétique fort, une forme d’hybridation. Dans ce contexte, il est difficilement envisageable d’interrompre le cours de l’action pour demander à chaque fois un consentement, en espérant en plus que ce consentement ait un sens.

Il faudrait aussi parler du caractère « libre » du consentement. Avec les GAFAM, quelle est la liberté de choix face à un tel déséquilibre de pouvoir et d’information ? Avec Facebook, par exemple, vous devez accepter des CGU qui peuvent changer par simple notification. Et quel adolescent a vraiment le choix d’aller ou non sur Facebook ? Le choix n’existe plus d’un point de vue sociologique car se passer de Facebook pour un jeune c’est synonyme de mort sociale.

Si le RGPD a fait un peu avancer les choses, l’accent qui continue d’être mis sur la notion de consentement éclairé et libre est problématique. Avec la complexité de l’informatique, c’est la fiction du sujet rationnel, autonome, capable de consentir qui s’effondre. Depuis toujours, le droit est friand de fictions ; elles lui permettent d’appréhender la complexité du réel et de gérer les litiges qui en résultent. Aujourd’hui, il faudrait sans doute en inventer d’autres, car la magie du consentement dans l’univers numérique n’opère plus.

« Vous avez consenti, alors c’est bon ». Vous acceptez de vous livrer gracieusement à la bienveillance des plateformes qui prennent les décisions à votre place. C’est peu satisfaisant. Vous pouvez aussi attendre de l’informatique qu’elle vous aide. Oui, mais ça n’existe pas encore.

Antoinette Rouvroy parle de « fétichisation des données personnelles ». On devrait aussi parler de fétichisation du consentement. On ne peut continuer à mettre autant de poids dans le consentement. Il faut imposer des contraintes beaucoup plus fortes aux plateformes.

B : Tu as parlé d’aide apportée par l’informatique.  Peut-on imaginer des systèmes informatiques, des assistants personnels, des systèmes d’information personnelle, qui nous aident à exprimer nos choix ?

TL : Bien sûr, on peut imaginer une collaboration entre les machines et l’utilisateur. Mais il faudrait déjà que l’utilisateur ait les capacités de spécifier ce qu’il veut. Ce n’est pas évident. Qu’est-ce que cela représenterait pour un jeune, par exemple, de spécifier sa politique d’autorisation de cookies ?

B : Est-ce qu’on peut parler de personnalité juridique du robot ?

TL : C’est compliqué. La question fondamentale c’est de savoir si la notion de personnalité en droit procède de la simple pragmatique juridique, ou si c’est plus, si cela inclut une véritable valeur philosophique. Pour prendre un exemple, un chien d’aveugle est blessé par une voiture. Le juge a considéré ce chien comme une « prothèse vivante », une extension de la personnalité de l’aveugle. Cette construction lui a permis de donner une meilleure compensation car les régimes d’indemnisation diffèrent selon qu’il s’agisse d’une atteinte à l’intégrité physique d’un individu ou d’un dommage aux biens qu’il possède. Le droit ne dit pas ontologiquement si ce chien d’aveugle est une personne ou pas. C’est le contexte et la visée de justice qui ont conduit le juge à créer cette chimère. Pour ce qui est des robots, je pense, avec les pragmatistes, que l’on pourrait accorder une forme de personnalité aux robots. Il ne s’agit pas de dire qu’un robot est comme une « personne physique » et qu’il peut jouir de droits fondamentaux, par exemple. Non, c’est une autre forme de personne, un peu comme on l’a fait avec les « personnes morales ». Cela permettrait de résoudre des problèmes en matière de responsabilité.

B : Quelle est le sujet de recherche qui te passionne en ce moment ?

CL : Je travaille sur la notion de prédiction algorithmique ; ce qui va me donner beaucoup d’occasions de travailler avec des informaticiens. Il y a aujourd’hui une véritable obsession  autour des vertus prédictives de l’intelligence artificielle. Je trouve dingue l’expression « prédiction en temps réel » (nowcasting en anglais) ; une prédiction, c’est pour le futur. Comme anthropologue, je suis passionné par l’idée de comparer la prédiction algorithmique avec les pratiques divinatoires, qui restent encore très répandues. Dans son ouvrage « De divinatione », Cicéron s’attaquait à la question de l’irrationalité de la divination. C’est fascinant de voir qu’on rejoue au 21e siècle cette même question de la rationalité scientifique avec l’intelligence artificielle. C’est ça que j’essaie de comprendre. Comment est-ce qu’on part de résultats d’IA pour établir des savoirs prédictifs quasiment indiscutables ? Bien sûr, on peut comprendre la prédiction algorithmique quand elle s’appuie sur des validations expérimentales, qu’elle établit des taux de confiance dans les résultats. Mais on voit aussi se développer des prédictions  algorithmiques qui par certains aspects rejoignent plus les pratiques magiques que scientifiques.

Fêtons numériquement la science

En raison de la situation sanitaire, Inria a fait vivre aux  petit·e·s et grand·e·s une Fête de la Science 100% … dématérialisée début octobre 2020. Comment s’est déroulée cette suite d’échanges en ligne ? Même si beaucoup d’entre nous sont devenu.e.s utilisateurs de solutions largement répandues comme Zoom, Teams, GoToMeeting… comment les met-on en œuvre ? Comment respectent-elles la souveraineté ou la maîtrise de nos données ? Comment minimiser leur impact environnemental ? Benjamin Ninassi, qui était aux manettes de cet événement, nous raconte les coulisses et apporte des éléments de réponse à ces questions importantes. Pascal Guitton & Thierry Viéville.

Au fait, qu’est ce que la fête de la science ?

Tous les ans, les établissements de recherche français ouvrent leurs portes au grand public (ou vont à la rencontre du public) pendant quelques jours pour échanger sur leurs travaux sous forme de partages scientifiques ou d’activités ludiques. Cette année, le contexte sanitaire a rendu difficile voire impossible la tenue de ces événements dans les laboratoires et les universités. Ce fut alors l’opportunité de proposer pour la première fois au sein d’Inria une coordination nationale de l’événement, transverse à l’ensemble des huits centres de recherche, en offrant un contenu 100% dématérialisé et néanmoins 100% en direct live !

En effet, l’un des aspects très apprécié par le public de la fête de la science est la possibilité de dialoguer, de questionner en direct les scientifiques. Nous souhaitions conserver cette richesse malgré la distance imposée par l’utilisation d’outils numériques. Pas juste pré-enregistrer des vidéos, donc, mais bien produire en direct du contenu de qualité, permettant des interactions avec le public. Nous nous sommes alors penchés sur la question … car il y avait plusieurs défis techniques à relever !

Concrètement, en quoi consistait ces défis ?

Pour produire ces événements en direct, nous avions trois besoins essentiels :

– Permettre aux intervenant·e·s, et aux animateur·e·s, réparti·e·s sur tout le territoire, d’échanger comme s’illes étaient dans une seule et même pièce.

– Réaliser le montage vidéo en direct de l’intervention, à l‘image d’une régie de télévision.

– Offrir la possibilité au grand public d’échanger avec les scientifiques, en toute simplicité et en respectant la conformité avec les règles de protection de notre vie privée inscrites dans le RGPD.

Pour y répondre, nous avons pu nous appuyer sur les outils que nous avions mis en place pour nous adapter au contexte sanitaire depuis le mois de mars, dans la continuité de l’action du projet “Parlons Math”.

Vous avez donc réuni les intervenants dans une pièce virtuelle ?

Oui, pour relever ce défi, nous avons effectivement mis en place un “salon virtuel” : un outil de visioconférence permettant ainsi aux différentes intervenant.e.s d’interagir entre eux comme si elles étaient sur un plateau de télévision. Nous souhaitions également privilégier une solution open source et hébergée sur des serveurs français, dans une logique de souveraineté et de sobriété.

Nous avons eu la chance de pouvoir bénéficier de l’étude comparative de différentes solutions, réalisée quelques semaines avant par l’association Animath qui nous a été d’une grande aide  par ses retours d’expériences très riches. C’est donc vers le logiciel open source  BigBlueButton, initialement développé par des universitaires canadiens pour la formation à distance, que nous nous sommes tournés. Il offre à la fois les meilleures performances, une simplicité d’installation et d’administration, et un plus grand panel de fonctionnalités que ses concurrents actuels.

Le logiciel lui-même est une chose, mais nous voulions également une solution d’hébergement qui soit fiable, robuste, adaptable à l’évolution de nos besoins et localisée en France. Ce dernier point est non seulement important une logique de souveraineté, mais également de privacy by design, c’est-à-dire de veiller dès la conception d’une plateforme au respect de la vie privée des utilisateurs par exemple  en conservant leurs données sur le territoire national.

Il est hélas communément admis que le numérique est “juste” virtuel, mais la réalité est tout autre : le numérique repose sur des infrastructures physiques et toute action réalisée dans un logiciel a directement un impact matériel. Ces infrastructures possèdent  naturellement des limites qui, une fois dépassées, rendent les logiciels inutilisables. Dans le cas de la visioconférence, la principale ressource limitante est le temps de calcul disponible sur les processeurs du serveur . Une fois la saturation atteinte, l’utilisation est dégradée pour tous les utilisateurs de la plateforme (déconnexion, perte de stabilité, vidéo figée et/ou pixelisée ou son haché).

Notre besoin étant lié à de l’événementiel, il est très fluctuant : il était essentiel que nous puissions redimensionner notre infrastructure rapidement et en toute autonomie. Nous avons donc sélectionné un hébergeur professionnel (Scaleway) avec des serveurs localisés en France, capable de nous fournir la fiabilité, la sécurité, ainsi qu’une très grande souplesse et autonomie dans notre utilisation, le tout à des prix très compétitifs.

Après avoir affiné les procédures d’installation et d’intégration au contexte de l’hébergeur, il est devenu assez simple de déployer en quelques minutes notre propre serveur de visioconférence. Une première étape de franchie, notre salon virtuel dédié était opérationnel !

Une seconde difficulté est très vite apparue : les micros intégrés des équipements informatiques sont de qualités très inégales, de même que les connexions internet des différents intervenants. Il a ainsi fallu faire un certain nombre de tests techniques préparatoires individuels avec chacun d’entre eux, afin de déterminer les conditions idéales de connexion. Nous avons également eu recours, quand c’était nécessaire, à des hauts parleurs de conférence permettant de capter un son de bonne qualité tout en limitant l’écho. Ce type de matériel est largement démocratisé aujourd’hui, et en y ajoutant une bonne webcam il est possible d’équiper un espace dédié aux visioconférences avec une prise de son et d’image de bonne qualité pour un peu plus d’une centaine d’euros .

Le salon virtuel bigbluebutton juste avant le direct d’Hélène Barucq 

Un peu comme à la  télévision ?

Oui, il ne fallait donc pas juste diffuser un salon de visioconférence ; l’objectif était de produire un contenu qui soit agréable à regarder et à écouter. Il nous semblait important de travailler sur les médias de diffusion autant que sur le contenu des échanges. Pour autant, il était impensable d’imaginer réunir les personnes en charge du montage et de la diffusion sur un plateau : nous avons donc également virtualisé la régie.

Là encore nous avons privilégié la piste d’une solution open source (OBS Studio) disponible sur tous les systèmes d’exploitation. Ce logiciel offre, de manière intuitive, un grand nombre de fonctionnalités de montage vidéo. Il permet par exemple d’assembler sur une même scène une image de fond, sur laquelle on vient superposer les flux vidéos et audios des caméras des différents protagonistes. L’utilisateur peut également préparer plusieurs scènes à l’avance : la mire de début d’une émission, le lancement du jingle, une scène d’introduction avec les caméras des protagonistes affichées sur un infodécor, une autre scène présentant une caméra mobile ou des planches d’une présentation, une illustration ou une démonstration logicielle, etc.

Grâce à cet outil, nous avons ainsi pu créer un contenu dynamique, c’est-à-dire avec des plans de vue qui évoluent en fonction du déroulé, des changements de lieux, etc. Par exemple lors des deux interventions sur la robotique, nous alternons des scènes très diverses comme l’affichage ponctuel de la caméra mobile utilisée dans la vidéo de Serena Ivaldi sur les cobots, ces robots qui interagissent avec nous au quotidien, pour nous faire visiter la hall de robotique dans laquelle elle travaille, ou bien comme les déplacements réels du robot de la démonstration dans la vidéo de Jean-Pierre Merlet, sur les robots parallèles à câbles, juxtaposés à sa trajectoire théorique.

L’une des 3 “régies” en pleine diffusion

Serena Ivaldi nous fait visiter la halle de robotique du centre Inria – Nancy Grand Est à l’aide d’une simple caméra USB

Le logiciel intègre toutes les fonctionnalités permettant la diffusion en direct du flux vidéo ainsi généré, sur différentes plateformes de diffusions comme Youtube ou Twitch. Nous avons aussi prévu un diffuseur de secours, avec OBS Studio et les scènes préparées sur son poste de travail, prêt à prendre la relève en cas de soucis de connexion ou de matériel avec le  diffuseur initial.

Mais nous pouvons aussi nous passer de plateforme propriétaires  comme Youtube ou Twitch.  À cette fin, nous avions déployé un second serveur dédié à la réception et à la diffusion du flux vidéo qui offre une alternative. Diffuser les vidéos sur la chaîne Youtube InriaChannel, n’est donc pas une contrainte technique, mais un choix éditorial.

Et comment le public pouvait-il participer ?

Pour reproduire toute la saveur du présentiel, le public était en mesure de poser des questions aux scientifiques de manière simple, sans nécessiter une connexion à un média quelconque. Être le plus inclusif possible faisait partie de nos priorités. Nous avons donc mis au point une page web adaptative, accessible à la fois sur un ordinateur,  une tablette ou un smartphone, agrégeant le flux vidéo et un canal de discussion léger et ouvert à tou·te·s. Ainsi, tout spectateur pouvait interagir simplement en un clic. Un modérateur animait les discussions textuelles, et relayait oralement les questions aux intervenants, afin que l’enregistrement du direct contienne bien les questions et les réponses pour un visionnage ultérieur.

Nous avons également expérimenté l’usage d’un outil libre de quizz externe, mis à disposition par Framasoft qui rassemble les acteurs du libre en France, afin d’augmenter l’implication du public.

La page web dédiée au direct d’Antoine Rousseau, “Immersion au cœur d’un Tsunami”, où le public pouvait interagir pendant l’intervention, sur la simulation et la visualisation de tsunamis à partir de modèles géophysiques

Finalement, quelles étaient les ressources humaines impliquées ?

Sur les aspects techniques, une fois les plateformes logicielles en place, nous nous sommes relayés à trois pour assurer l’ensemble des tests techniques et des quatorze diffusions. Les animateur·e·s, modérateur·e·s et intervenant·e·s étaient propres à chaque intervention avec une coordinatrice nationale et un relais local.

Le coût matériel de l’ensemble de l’opération est également très léger, à peine quelques centaines d’euros en incluant la location des serveurs. Toutes les technologies open source mises en œuvre sont bien documentées et largement accessibles à qui voudrait se lancer dans l’aventure de la dématérialisation d’événements, de conférences, de formation. …

A vous de jouer !

Benjamin Ninassi (ingénieur de recherche au sein de la direction générale déléguée à la science d’Inria)

Vous pouvez retrouver l’ensemble des vidéos produites sur la playlist dédiée sur la chaîne youtube InriaChannel.