Pompes funèbres, neutralité des réseaux et RGPD

Hommage à Strowger (photo en bas à gauche), par Serge Abiteboul, Creative Commons

Penchons-nous sur les origines de la neutralité des réseaux. Dans les débuts d’Internet, l’absence d’enjeux commerciaux faisait que la neutralité allait de soi. Mais remontons encore plus loin jusqu’aux réseaux téléphoniques du 19ème siècle.

Quand le Capitaine Haddock appelait la boucherie Sanzot à Moulinsart, les correspondants étaient mis en relation par l’établissement d’une connexion physique (une ligne téléphonique) entre les deux. C’est le réseau téléphonique commuté (RTC) qui a été peu à peu remplacé en France par la technologie plus moderne de la voix sur IP (et disparaitra à partir de 2023).

A l’époque, la connexion entre le Capitaine Haddock et la boucherie Sanzot était réalisée par des opérateurs humains, comme la dame du 22 à Asnières. En 1891, un états-unien, Almon Strowger, invente le premier commutateur automatique. Les impulsions numérotées au cadran par le Capitaine Haddock vont pas à pas télécommander des sélecteurs de lignes jusqu’à établir la connexion entre les deux téléphones.

Almon Strowger était entrepreneur de pompes funèbres à Kansas City. L’épouse de son principal concurrent était opératrice du téléphone au central téléphonique manuel de la société de téléphone locale. Almon Strowger était persuadé que la dame en question détournait le trafic des clients en deuil au profit de l’entreprise concurrente. C’est pour cela qu’il a inventé le premier commutateur automatique Strowger.

Si on est encore bien loin de la fibre optique et des centraux numériques actuels, on voit bien les apports des pompes funèbres au domaine. La machine de Strowger s’attaque à deux sujets tellement actuels :

  1. la neutralité du réseau : en ne passant pas la communication aux Pompes Funèbres Strowger (ou en trainant pour la passer), l’opératrice violerait la neutralité du réseau dont elle est un élément clé.
  2. la protection des données privées : en passant la communication aux concurrents, l’opératrice violerait la confidentialité d’une information très personnelle, la mort de quelqu’un.

Et pour conclure, observons qu’un des arguments contre la neutralité des réseaux est que ce serait un frein à l’innovation. Pourtant, sans elle et Monsieur Strowger, peut-être serions-nous à demander à un opérateur ou une opératrice de nous envoyer la page http://binaire.blog.lemonde.fr/. Qui sait…

Serge Abiteboul, Inria et ENS Paris

Remerciements : P. Legend D. pour avoir attiré mon attention sur cette partie aussi édifiante que surprenante de l’histoire des télécoms.

Références  

Les déclinaisons de la neutralité, Serge Abiteboul, Enjeux numériques, N°4, déc. 2018, Annales des Mines

L’arrêt progressif du réseau téléphonique commuté, Arcep

http://www.almonbrownstrowger.com/ Le site d’Almond Brown Strowger

Rendez-vous dans 10 ans ?

Réalité virtuelle, réalité augmentée, deux expressions que nous entendons et lisons de plus en plus autour de nous. Afin de nous aider à mieux comprendre de quoi il s’agit, nous vous proposons d’utiliser un ouvrage [1] paru récemment sur ces sujets ; rédigé de façon collective par une trentaine de spécialistes tant du monde académique que du monde de l’entreprise, il détaille les principales évolutions de ces dix dernières années et décrit les principales évolutions attendues pour les dix ans à venir. Nous en avons extrait la post-face qui raconte, sous la forme d’une nouvelle, une journée de Marie, étudiante en 2028. Serge Abiteboul

Il est 7h du matin en ce lundi 6 septembre 2028, Marie, 21 ans, se lève. Son premier geste dès le lever consiste à poser ses lentilles de contact. Munies d’un système de capteurs (caméras, centrale inertielle…) et d’un système d’affichage avec opacité paramétrable, elles permettent d’afficher des informations 2D ou 3D. Elle enfile ensuite ses vêtements dits « techniques » qui sont équipés de nombreux capteurs qui renseignent en temps réel le micro-calculateur corporel. De la taille d’un grain de riz, il est implanté sous la peau de sa main entre le pouce et l’index. Ces capteurs mesurent un ensemble de données physiologiques et l’ensemble des données du mouvement du porteur.

Comme tous les matins, Marie se prépare ensuite pour faire son footing. Avec son groupe d’amis, ils ont décidé de courir sur le bord de la falaise d’un fjord norvégien très célèbre. Elle se déplace jusqu’à la zone d’exercice de son appartement équipée d’un tapis roulant multi-directionnel qui est intégré dans le sol de ces nouvelles résidences. Grâce à une commande vocale, elle lance la simulation de course et rejoint virtuellement son groupe. Les lentilles de contact masquent la vue de l’appartement et affichent le paysage du fjord norvégien. Marie retrouve 3 de ses amis qui sont prêts à s’élancer. Plusieurs caméras à très haute définition sont placées sur les murs devant elle et captent en permanence son visage afin de reconstruire en temps réel et en 3D ses expressions faciales, pour ensuite les reporter fidèlement sur son avatar dont les mouvements sont alimentés par les positions mesurées par les capteurs de ses vêtements. Bien entendu, tous les coureurs dialoguent de vive voix, souvent pour se chambrer, et les microphones/hauts-parleurs disposés dans chacun des appartements leur permettent également de percevoir les souffles plus ou moins courts. La technique actuelle permet de courir à plusieurs sur un site géographique choisi au préalable avec une excellente qualité de restitution des expressions faciales des différents participants et par exemple de voir qui est en forme aujourd’hui, ou au contraire, qui souffre du rythme adopté. Cependant, Marie et ses amis ne possèdent pas encore l’équipement dernier cri qui permettrait de reproduire les dénivellations du sol, ils ne peuvent courir que sur un terrain plat, limitant de facto les sites sur lesquels ils peuvent s’entraîner.

Après cette mise en jambe matinale, Marie ressent un sentiment mélangé d’appréhension et d’excitation. En effet, c’est le jour de sa rentrée à l’université où elle étudie la psychologie avec une spécialité  » Psychologie des IA ». Dans cette formation, deux aspects complémentaires sont pris en compte : la psychologie vue de l’usager humain face à l’IA et son dual, la « psychologie » de l’IA face à l’humain. Afin de se préparer pour arriver à l’heure dans ces locaux qu’elle ne connait pas encore, hier soir, elle a étudié l’accès à la flotte de véhicules connectés que la municipalité a mise en place pour augmenter la sécurité des usagers et diminuer les embouteillages sources notamment de pollutions. Comme elle n’a pas encore acheté la mise à jour qui lui permettrait d’utiliser ses lentilles de contact avec ce service, elle a chaussé un « vieux » casque de réalité virtuelle pour explorer la ville virtuelle. Elle sourit en pensant au premier visiocasque que son père avait rapporté à la maison quand elle avait 10 ans. Lourd, moche, avec un champ de vision ridicule, elle n’avait pas compris comment des gens pouvaient l’utiliser pendant des heures même pour jouer. Intérieurement, elle se dit que les chercheurs et les ingénieurs ont bien travaillé pendant cette décennie pour lui proposer un produit léger, esthétiquement réussi et qui ne permet pas d’atteindre les limites de la vision humaine. De la même façon, elle s’est connectée sur le serveur de l’université pour visualiser le chemin depuis l’entrée principale jusqu’à la salle de cours en adoptant le point de vue d’un piéton. Elle a terminé la soirée en parcourant les espaces virtuels ouverts sur les réseaux sociaux par des étudiants qui vont suivre la même formation qu’elle.

Cette photo montre une jeune femme qui porte un casque de réalité virtuelle
Casque de réalité virtuelle. Crédit : Tim Savage from Pexels.

Grâce à cette préparation, elle arrive sans encombre, et à l’heure, jusque dans l’amphithéâtre où elle s’installe à coté de Pierre qu’elle a rencontré hier soir sur son espace virtuel et avec lequel elle a aimé discuter. Comme entrée en matière, le prof assurant le premier cours leur propose de dérouler les écrans souples se trouvant dans les accoudoirs de leurs sièges et de les façonner en forme de demi-cylindre face à leurs visages pour s’immerger dans l’environnement virtuel qu’il utilisera comme support à son enseignement. Comme il est possible de rendre translucides ces écrans, les étudiants pourront ainsi alterner entre vision directe – naturelle – de l’enseignant et des autres étudiants et immersion dans l’environnement virtuel pédagogique pour mieux comprendre certaines parties complexes.

Après ce repas, place à la première séance de travaux pratiques dédiés à la découverte du fonctionnement du cerveau humain. Marie se retrouve dans une salle où sont installées des grandes tables blanches surmontées d’une structure métallique supportant de nombreux appareils dont elle ne connait pas la fonction mais qui lui font penser à la machinerie que l’on devine dans les salles de spectacle au-dessus de la scène pour l’éclairer et la sonoriser. Quand l’enseignante arrive, elle demande aux étudiants de se regrouper par deux autour des tables et de mettre en route les systèmes. Marie voit alors apparaitre une tête humaine qu’elle perçoit parfaitement grâce à la une vision en relief bien entendu mais aussi grâce au toucher. Elle comprend que la structure métallique comporte des projecteurs qui affichent les images et des capteurs qui détectent la position de ses mains et envoient à son micro-calculateur corporel des informations transmises aux récepteurs tactiles de ses doigts pour simuler le contact avec la tête. L’enseignante leur demande de réaliser une dissection virtuelle pour accéder au cerveau. Pour les guider pas à pas, s’affiche alors sur la table, une animation virtuelle montrant précisément les gestes à réaliser. Les étudiants peuvent la visualiser depuis n’importe quel point de vue, la rejouer autant de fois qu’ils le souhaitent, passer en accéléré, en ralenti… Il est loin le temps des MOOC qu’elle a découvert à l’école primaire et où tous les élèves regardaient la même vidéo. Comme les manipulations sont complexes, il est parfois nécessaire de travailler à quatre mains et c’est avec celles de Pierre qu’elle interagit en utilisant des instruments réels – elle connait depuis le collège la notion d’interface tangible introduite dans les cours d’informatique que tout le monde a suivi – pour travailler sur la tête étudiée. Leurs gestes parfois maladroits conduisent à des « dégâts » anatomiques qu’il est facile de corriger en revenant en arrière.

Cette photo montre un cerveau sur lequel sont visaulisées des zones colorées représentant l'(activité électrique mesurés pendant la réalisation de tâches cognitives
Zones cérébrales activées lors de tâches cognitives. Equipe Parietal © Inria / Photo H. Raguet

Au bout de plusieurs tentatives, ils finissent par faire apparaitre le cerveau et commencent la seconde partie du TP où ils doivent observer quelles structures internes sont mises en oeuvre pendant un exercice de mémorisation à court terme. Pierre se moque gentiment de Marie quand elle place autour de son oreille l’écouteur muni d’électrodes miniaturisées destinées à recueillir sa propre activité électrique cérébrale ; ils sont pourtant beaucoup moins ridicules que les premiers casques EEG que les pionniers des BCI utilisaient une vingtaine d’années plus tôt. Après plusieurs essais infructueux, Marie arrive à visualiser son activité sur le cerveau projeté sur la table et en pénétrant à l’intérieur, voit quelles structures cérébrales internes sont activées. L’enseignante les félicite pour ce résultat et les libère.

Cette photo montre une personne qui porte un casque ICO en face d'un écran sur lequel est affiché un feedback visuel
Feedback visuel classique d’une Interface cerveau-ordinateur. Equipe Potioc © Inria / Photo C. Morel

Marie se dirige vers le service des sports et décide de « réviser » un geste très technique de tennis où elle doit faire quelques progrès selon son entraineur. En effet, son service n’est pas des plus performants et un entraînement est nécessaire avant son prochain match. La technique d’entraînement préconisée par son coach consiste en une stimulation galvanique passive. Cette technique permet, grâce à un ensemble d’électrodes judicieusement réparties sur l’ensemble du corps, de stimuler la chaîne de commande des muscles sans pour autant les solliciter. Dans la pratique, les données relatives au services du numéro un mondial de tennis ont été acquises et traitées au préalable ; elles vont ensuite servir de modèle à la sollicitation de la chaîne de commande musculaire de Marie. Elle s’installe sur le banc d’entraînement en ayant au préalable revêtu la combinaison contenant les électrodes. Son calculateur personnel dialogue avec celui de la combinaison afin de faire l’adaptation morphologique nécessaire et la séance peut alors commencer. Le principe de cet entraînement où le corps ne « bouge pas » est de reproduire des gestes afin que la chaîne de commande mémorise la synchronisation et l’enchaînement technique. En 2023, des chercheurs ont démontré que l’apprentissage des gestes est ainsi accéléré d’un facteur 4. Marie effectue une vingtaine de services avec ce système, ses lentilles de contact lui affichant les images de son service, de la trajectoire de la balle, des éventuelles collisions avec le filet, ce qui lui permet d’être totalement immergée dans la situation d’entrainement. Une fois cet entraînement passif réalisé, il est temps de passer à la mise en oeuvre active avec une vraie raquette et une vraie balle où elle constate avec plaisir ses progrès.

Cette photo montre un posrtif réagissant à des signaux visuels affichés sur un grand écran. Il est équippé de cibles réfléchissantes qui permettent de suivre avec précision ses déplacements et sa posteur de façon à pouvoir les améliorer.
Entrainement au geste sportif avec capture du mouvement. Equipe Mimetic © Inria / Photo C. Morel

Il est temps pour Marie de rentrer chez elle. Après avoir diné, elle s’immerge dans sa série préférée ; on ne parle plus de série TV depuis que le spectateur est devenu actif. En effet, les scénaristes ont imaginé non plus une histoire mais une série d’histoires que chacun choisit, mélange à sa guise. Par ailleurs, il n’existe plus un point de vue unique qui était autrefois celui de la caméra qui avait filmé les acteurs mais chaque spectateur peut choisir celui qu’il souhaite. Marie a entendu parler d’une innovation récente, encore hors de prix, qui permet de devenir réellement acteur en insérant son avatar virtuel dans certaines séquences de la série. Elle se dit que même si elle en disposait, elle serait trop fatiguée ce soir pour se battre contre les méchants.

Elle s’endort en pensant à Pierre.

Bruno Arnaldi (Professeur INSA Rennes), Pascal Guitton (Professeur Université de Bordeaux) et Guillaume Moreau (Professeur Centrale Nantes)

[1] Réalité virtuelle et réalité augmentée, mythes et réalités, ISTE Editions, août 2018.

L’automatique, de la machine à vapeur à l’A380

L’automatique est une science qui traite de la commande de systèmes dynamiques tels qu’un barrage, une machine outil, un robot… Grâce à l’informatique, les commandes se sont énormément sophistiquées et permettent aujourd’hui de piloter des systèmes d’une très grande complexité. Pour en parler, nous reprenons cet article de qui dialogue avec Dragan Nesic. Thierry Viéville.

Cet article a d’abord été publié sur le site The Conversation.

Dragan Nesic est professeur d’automatique à l’université de Melbourne en Australie. Ses recherches portent sur la commande des systèmes dynamiques et ses applications dans divers domaines de l’ingénierie et des sciences en général.

Romain Postoyan : Le grand public l’ignore souvent, mais l’automatique est au cœur de nombre d’avancées technologiques majeures au cours des derniers siècles.

Dragan Nesic : En effet, l’automatique a joué un rôle clef dans la plupart des grandes innovations technologiques et ce dès la révolution industrielle de la fin du XVIIIe siècle. Il est de notoriété publique que la machine à vapeur ouvrit la voie à la production de masse dans les usines tout en révolutionnant les transports terrestre et maritime.

Locomotive à vapeur. hpgruesen/pixnio.com, CC BY

On ignore souvent en revanche qu’un dispositif de commande, qui régulait la vitesse de rotation des machines (le régulateur à boules de Watt), fut essentiel pour leur mise en œuvre.

Le premier vol habité effectué par les frères Wright un siècle plus tard aurait été impossible sans un système de commande approprié. Des centaines de réussites similaires de l’automatique jalonnent l’histoire de nos avancées technologiques. De nos jours, nous vivons dans un monde où les organes de régulation sont omniprésents, ce qui est rendu possible par des millions de contrôleurs conçus à l’aide des techniques de l’automatique.

Le tout automatique. Rémy Malingrëy,

R.P. : Qu’est-ce que l’automatique ?

D.N. : L’automatique est une branche de l’ingénierie qui développe des techniques de commande pour des systèmes conçus par l’homme ou naturels, afin que ceux-ci se comportent de la manière souhaitée sans intervention humaine.

Prenons l’exemple d’un pilote automatique dans un Airbus A380. Celui-ci peut maintenir la vitesse, l’altitude et le cap désirés sans intervention du pilote. Un autre exemple est un drone qui peut identifier une fuite de gaz dans une usine et envoyer son emplacement exact à un centre d’expédition. Dans les deux cas, ce qui permet à l’avion et au drone de voler de la façon désirée est un algorithme appelé contrôleur ou régulateur, généralement implémenté sur un microprocesseur.

La couverture de Time réalisée avec des drones.

Cet algorithme connaît le comportement souhaité du système. Il collecte ensuite des mesures provenant des divers capteurs, puis traite ces données afin d’orchestrer les actionneurs qui agissent sur le système à piloter, à l’instar des moteurs électriques des drones et des moteurs à réaction de l’avion. Ainsi le système répond aux attentes, et ce malgré d’éventuelles perturbations imprévues.

R.P. : De nos jours, les données sont souvent transmises via des réseaux de communication numériques, comment cela impacte-t-il les contrôleurs ?

D.N. : Une grande partie de mon activité de recherche actuelle concerne les systèmes de commande dits en réseau dans lesquels le contrôleur communique avec les capteurs et les actionneurs via un réseau de télécommunication.

En raison du réseau, les signaux ne sont pas toujours transmis de manière fiable, ce qui peut fortement dégrader le fonctionnement du contrôleur.

Alors que nous nous dirigeons vers des systèmes hautement interconnectés et complexes, ce type d’architectures deviendra de plus en plus commun. Un exemple est celui des pelotons de véhicules sans conducteur, qui doivent se déplacer de manière autonome sur une route très fréquentée. Ceux-ci sont équipés de capteurs qui mesurent leur vitesse mais aussi leurs actions de contrôle. Ces signaux doivent être communiqués via un réseau de communication sans fil aux autres véhicules pour que le peloton conserve sa distance inter-véhicules dans des marges acceptables tout en roulant à la vitesse voulue.

Dans mes recherches, j’étudie l’interaction de l’algorithme de contrôle, des protocoles de communication et du calcul distribué au sein du système. C’est aussi le motif principal de ma collaboration avec le Centre de recherche en automatique de Nancy.

R.P. : Quels sont vos travaux actuels ?

D.N. : Nous travaillons sur de nouveaux modèles basés sur le réseau appelé FlexRay, qui est de plus en plus utilisé dans l’automobile. Il permet aux dizaines de contrôleurs présents dans une voiture de communiquer, à l’instar des systèmes de contrôle moteur et de direction ou d’arrêt. Cette avancée a ainsi permis de diminuer le poids des véhicules (réduisant ainsi la consommation de carburant) tout en offrant de meilleures performances.

En collaboration avec des chercheurs du CRAN, nous avons d’abord développé des modèles mathématiques fidèles aux systèmes pilotés via un réseau FlexRay.

Le modèle obtenu nous a permis d’analyser mathématiquement le comportement du système, ce qui a conduit au développement de techniques de conception de contrôleurs adaptés. Pour ce faire, nous utilisons des outils mathématiques de systèmes dits hybrides et de la théorie de la stabilité de Lyapunov afin de respecter les contraintes de communication imposées par le réseau tout en exploitant les flexibilités de conception offertes par le réseau FlexRay.

R.P. : Comment envisagez-vous le futur de l’automatique ?

D.N. : L’automatique permettra le développement d’avancées technologiques que l’on ne peut envisager que dans les films de science-fiction aujourd’hui. La recherche en automatique est tout à fait passionnante pour cela car de tels rêves nous forcent à aborder des questions de plus en plus complexes et, point important, multidisciplinaires.

Par exemple, la vie privée et la sécurité contre les attaques de logiciels malveillants et l’éthique commencent à influencer la recherche en automatique. Les voitures sans conducteur communiquant sans fil entre elles et avec leur environnement sont ainsi vulnérables aux attaques malveillantes qui peuvent corrompre les données échangées et provoquer des accidents.

La conception d’algorithmes de contrôle qui garantissent tous les objectifs fixés malgré de telles attaques attire actuellement l’attention de la communauté et requiert une collaboration étroite avec les informaticiens, les ingénieurs en télécommunication et les mathématiciens. Ceci n’est qu’un exemple de la nécessité d’une recherche multidisciplinaire. Les interactions avec la biologie et la médecine, avec la physique et la chimie, la finance et l’économie fourniront des idées nouvelles et de nouvelles problématiques permettant à terme le développement de sciences et de technologies fascinantes.

, Chargé de recherche CNRS, Université de Lorraine.

The Conversation

Le prix du numérique

Tout est gratuit avec le numérique ! Ou pas.  Nous savons bien que « quand c’est gratuit, c’est nous le produit ». Mais au delà de ce constat, prenons le temps de lire ces quelques lignes pour comprendre plus profondément quel est le prix de ce numérique qui envahit notre quotidien, grâce à Serge Abiteboul. Thierry Viéville.
©wikimédia

Quand on cherche à établir le « prix du numérique », c’est vite la confusion. Les services du Web sont souvent gratuits, mais le coût d’une usine moderne de microprocesseurs peut être astronomique. Le fabricant taïwanais TSMC vient notamment de lancer la construction d’une usine de fabrication de puces de 5 nanomètres – une miniaturisation extrême des circuits – prévue pour 2020, pour près de 20 milliards de dollars ! Pour prendre un autre exemple, quel est le point commun entre la céramique d’une amie, Nathalie Domingo, et un smartphone sophistiqué ? Le prix. D’un côté, quelques heures de labeur d’une grande artiste ; de l’autre, les résultats de mois de travail d’une armée de chercheurs brillants et d’ingénieurs de talent. D’un côté, le luxe d’une pièce unique ; de l’autre, des fonctionnalités extraordinaires. La conception d’un smartphone revient très cher mais, comme il est fabriqué massivement dans des usines hyper-automatisées, son coût marginal de production très bas fait qu’il y en a plus de 30 millions en France aujourd’hui.

©casden.fr

Nous nous sommes également habitués à des services gratuits sur Internet, que ce soient des moteurs de recherche, comme Google ou Qwant, des réseaux sociaux, par exemple Facebook, ou des services de musique, tel Deezer. Accessibles quel que soit le niveau de revenu de l’utilisateur, ces services géniaux sont principalement financés par la publicité ou éventuellement par des abonnements. Leurs coûts d’exploitation sont modestes, du fait de la baisse des prix des ordinateurs et du relativement faible nombre d’employés. En avril 2013, l’application de messagerie instantanée WhatsApp comptabilisait 200 millions d’utilisateurs dans le monde, avec seulement 50 employés. Le logiciel d’un service du Web peut, lui, être reproduit à l’infini à un coût nul. C’est un bien non rival – que j’utilise WhatsApp n’empêche personne de faire de même. Reste à construire des fermes de serveurs pour accueillir les données, mais elles sont mutualisées entre tous les utilisateurs. Pour Facebook, en 2011, le coût d’exploitation n’était que d’environ 1 dollar par utilisateur mensuel actif. Chaque utilisateur supplémentaire apporte plus de profit et, effet réseau oblige, accroît l’attractivité du service. Avec la publicité, les géants d’Internet sont assis sur des mines d’or.

cette image sur le logiciel libre est libre de droit 🙂

Dans ce contexte, il faut citer le cas des logiciels libres ou ouverts. Mis à disposition de tous, ils deviennent en quelque sorte des « biens communs ». Ce modèle se développe réellement : les serveurs du Web sont souvent des logiciels ouverts, comme nombre d’outils de programmation utilisés en apprentissage automatique.

Malgré tout, n’allez surtout pas expliquer aux cadres d’une grande banque que l’informatique ne coûte rien (j’ai essayé). Vous les verrez grimper au rideau : « On voit bien que ce n’est pas vous qui payez les machines et les salaires des informaticiens. » Mesdames et messieurs qui dirigez de grandes entreprises, relativisez ! Si des ordinateurs font une part importante du travail, – disons 80 %, pour 20 % des coûts -, ce n’est pas cher, même si cela représente une grosse somme d’argent.

Vous pouvez néanmoins poser la question de savoir pourquoi ce coût. Une première explication tient aux exigences de qualité. Quand un service de votre téléphone dysfonctionne, c’est souvent embêtant, mais acceptable. Quand, dans une transaction bancaire, le bénéficiaire est crédité, mais que le logiciel oublie de débiter le payeur, ça l’est moins. Les entreprises exigent, à juste titre, un haut niveau de sûreté et de sécurité de fonctionnement. La résilience aux pannes (sûreté) et aux attaques (sécurité) se paie. Une autre explication vient de la complexité des grandes entreprises. De fait, chacune est unique. Ainsi, une grande banque exige la conception, le développement, le déploiement, la maintenance de logiciels complexes « sur mesure » de grande qualité. Comme tout cela est unique, pas question de mutualiser les coûts. La combinaison « qualité et sur-mesure », cela ne vous rappelle pas la haute couture ? Quand le directeur des systèmes d’information vous présentera une note un peu salée, pensez que vous vous offrez du Dior ou du Chanel…

Serge Abiteboul, Inria et ENS, Paris

Cet article est paru dans Le magazine La Recherche, N°534 • Avril 2018

Sécurité dans les labos, l’équation impossible ?

Jean-Marc Jézéquel est directeur de l’IRISA, l’un des plus grands laboratoires publics de recherche en informatique de France, depuis 6 ans. Il a récemment publié une lettre ouverte critiquant les dispositifs actuels de protection des recherches des laboratoires publics, dont les travaux, qu’ils soient financés par l’État ou par des entreprises, peuvent avoir un intérêt économique ou stratégique. A cette occasion, il confie à Binaire ses inquiétudes sur le sujet. Charlotte Truchet

Binaire : Vous êtes directeur d’un grand laboratoire d’informatique. Dans quels domaines vos équipes développent-elles des travaux que vous considérez comme sensibles ?

Jean-Marc Jézéquel, directeur de l’IRISA à Rennes. Crédits : UR1/Dircom/Cyril Gabbero

Il est difficile de le dire : à la fois aucun, et tous ! Le principe général, quand on fait de la recherche, est qu’on ne sait pas à l’avance ce qui va déboucher et ce qui n’aboutira pas. On peut très bien travailler sur un sujet pas spécialement secret, et obtenir des résultats sensibles que l’on n’avait pas prévus au départ. Dans le cas de l’IRISA, un très gros laboratoire dont les thématiques couvrent tous les champs de l’informatique jusqu’à l’image ou la robotique, identifier les risques est une mission impossible.

Il y a un exemple célèbre : la technologie des processeurs ARM, qui équipent la vaste majorité des téléphones mobiles dans le monde. Autant dire, un succès industriel d’une ampleur peu commune, une technologie (européenne d’ailleurs) qui vaut des milliards. Le point fort de ces processeurs est d’être très peu consommateurs en énergie. Et pourtant, ce n’est pas du tout dans ce but qu’ils ont été initialement conçus ! Le futur inventeur des ARMs travaillait sur tout autre chose, il avait simplement besoin de processeurs pour ses travaux. Intel ayant refusé de lui en fournir, il a conçu un processeur qu’il voulait le plus simple possible. Ce n’est qu’au moment de tester ces nouveaux processeurs qu’on a constaté qu’ils consommaient très peu d’énergie. Voilà un exemple, entre mille, de technologie ultra sensible, pas du tout imaginée comme telle. Bref, dans un laboratoire, il faut être prêt à tout.

B : Quels sont les risques qui vous inquiètent le plus ?

On pense facilement au piratage informatique, mais en réalité, ce qui me semble le plus délicat est le pillage des cerveaux. C’est particulièrement vrai pour un laboratoire d’informatique. Dans notre cas, ce qui compte, ce sont les idées. Les artefacts que sont les logiciels, articles ou brevets n’ont pas une si grande importance. Les logiciels conçus par nos chercheuses et chercheurs sont souvent open source, c’est-à-dire que leur code est accessible en clair sur internet. Rien de plus facile que de les récupérer : il suffit de copier coller ! Le concept de vol pour un logiciel open source est donc tout-à-fait singulier.

S’en servir intelligemment est en revanche une toute autre affaire, qui peut requérir un très fort investissement. La difficulté est de modifier le code pour lui faire faire ce que l’ont veut. Pour cela, il faut en pratique avoir sous la main les gens qui ont conçu le logiciel.

B : Ce pillage des cerveaux, vous l’estimez de quelle ampleur dans le cas de l’IRISA ?

By Jens MausOwn work, Public Domain

Nous avons environ 850 membres du laboratoire, dont 350 doctorants et post-doctorants. Chaque année, les départs représentent 1 à 3 fonctionnaires et environ 200 contractuels (ingénieurs, post-doctorants et doctorants). Certains sont embauchés dans des multinationales de l’informatique comme Google ou Facebook ; c’est à la fois une reconnaissance de la qualité de nos personnels, et une frustration.

Il y a là une vraie difficulté. Naturellement, parce que c’est bien une des voies privilégiées du transfert de la recherche vers la société, nos anciens doctorants et post-docs vont irriguer d’autres labos en France ou à l’étranger, ou le monde économique. Tout à fait légalement, une entreprise ou une agence non européenne peut donc recruter ces experts de haut niveau, et achètent en réalité leurs compétences.

B : Peut-on aussi voler les idées, sans même embaucher le cerveau qui les a eues ou développées ?

Oui, c’est possible. La recherche se fait de nos jours sous une forme contractuelle et compétitive. Les chercheurs doivent soumettre leurs meilleurs projets de recherche, donc des idées pas encore développées, à des jurys souvent internationaux. Cela représente un problème potentiel : on peut imaginer que sur des sujets de recherche appliqués à la défense par exemple, certains membres de ces jurys internationaux ne soient pas totalement neutres.

Et sans même aller jusque là, le principe reste de donner ses meilleures idées à des équipes concurrentes. Il y a bien sûr des règles de déontologie. Malgré tout, les membres du jury ont accès au projet. S’ils sont malhonnêtes, ils peuvent assez facilement démolir le projet et s’en approprier les idées. Même s’ils sont honnêtes, dans la mesure où ils sont du même domaine, ils repartent forcément influencés par les projets auxquels ils ont eu accès : on ne peut pas oublier des idées ! Parfois, on peut identifier des cas litigieux, mais souvent on ne le voit même pas.

B : Alors finalement, le piratage informatique n’est pas le souci d’un laboratoire d’informatique ?

Fortifications est, Belfort.
CC BY-SA 2.0 fr

Pas tant que ça. Il y a parfois des tentatives d’intrusions sur nos systèmes, mais peu réussissent – d’ailleurs, même quand elles réussissent, elles ne touchent que des choses périphériques, un site web défiguré par exemple : les dégâts sont franchement anecdotiques. Nous avons quelques cas chaque année. En quelques dizaines d’années, nous n’avons jamais eu d’intrusion directe de notre réseau, jamais. Nous avons des équipes compétentes, très vigilantes sur ce sujet.

Dans une autre catégorie, nous avons aussi chaque année une dizaine de cas de vols d’ordinateurs, souvent dans une gare ou un train, ce qui fait penser que ces vols ne sont pas forcément ciblés. Malgré tout, quand ces ordinateurs contiennent des données sensibles du laboratoire, il est important que celles-ci aient été chiffrées !

B : Vous hébergez des données particulièrement sensibles ? Comment les protégez-vous ?

Nous avons quelques bases de données sensibles, oui : par exemple, une base de données de virus informatiques particulièrement virulents. Nous les protégeons avec des procédures spéciales, mais je ne vais pas vous les décrire ! Nos partenaires comprennent qu’ils peuvent nous faire confiance.

B : Dans votre lettre, vous protestez contre les dispositifs de protection des recherches dans les laboratoires publics. Pourquoi les estimez-vous inadaptés ?

Plan des fortifications du Château de Dijon.
By Arnaud 25 – Own work, CC BY-SA 3.0

D’abord, elles reposent sur une échelle de dangers, déclinée en fonction des risques économiques, en matière de défense ou de terrorisme. Mais comme je vous disais, il est extrêmement difficile de caractériser objectivement le niveau de risque d’une recherche donnée à un moment donné.

En outre, les protections mises en place sont complètement inadaptées au fonctionnement d’un laboratoire moderne. Si je m’en tenais aux dispositifs de protection recommandés, nous pourrions quasiment laisser notre base de virus en clair sur le réseau, à condition de mettre une étiquette sur la porte de la salle du serveur ! C’est totalement inadapté.

Par ailleurs, ces dispositifs induisent des contraintes qui grèvent notre fonctionnement. Un exemple très concret : lorsque nous recrutons quelqu’un, son dossier doit être approuvé par un fonctionnaire extérieur au laboratoire. Cela ajoute un délai pouvant aller jusqu’à deux mois à toute embauche. Or, le marché de l’emploi scientifique est très tendu, en particulier dans le domaine de l’informatique. Les candidats attendent une réponse ferme et rapide, faute de quoi ils vont voir ailleurs. A cause de ces délais imprévisibles, nous ne pouvons jamais nous engager directement auprès des candidats et nous perdons d’excellentes candidatures.

Dans un labo d’informatique, le besoin de protection est très spécifique, car notre objet de recherche est numérique, donc immatériel. On comprend bien que des mesures de protection calibrées sur l’idée d’une usine d’explosifs ne s’appliquent pas directement.

B : Mais est-ce que vous n’auriez pas protesté, quel que soit le dispositif de protection mis en place ?

Il y a une contradiction intrinsèque à vouloir protéger des travaux de recherche, c’est certain. La recherche fonctionne par échanges. Les idées émergent toujours entre les personnes, si possible venant d’horizons différents. Les cerveaux géniaux ne sont d’ailleurs ni nécessaires ni suffisants – l’échange des idées l’est. La liberté de mouvement est donc constitutive de la recherche. Mais nous ne vivons pas dans un monde de bisounours ! Nous sommes bien conscients d’avoir besoin de protection, d’ailleurs, nous avons de nous-mêmes pris des mesures en ce sens. Simplement, les dispositifs qui nous sont imposés par l’État ne sont pas adaptés dans leur forme actuelle. Non seulement ils ne nous protègent pas réellement comme il le faudrait, mais ils nous empêchent de fonctionner efficacement dans le monde extrêmement compétitif de la recherche internationale. Ce serait pour les laboratoires français comme d’essayer de courir le 100m avec un boulet face à des concurrents internationaux sans entrave.

L’informatique rentre en scène

Après avoir évoqué les bénéfices croisés entre Art et Science dans un texte précédent, nous vous proposons de nous focaliser sur l’apport de l’informatique au théâtre. Pour cela, nous nous sommes adressés à Rémi Ronfard, informaticien, et Julie Valéro, dramaturge et chercheuse en arts de la scène, qui ont suivi ensemble les répétitions du spectacle « La fabrique des monstres » de J.-F. Peyret (Théâtre Vidy-Lausanne, Janvier 2018) pour les documenter en direct. Ecoutons les 3 coups et laissons leur la parole ! Pascal Guitton

 

Chercher à étudier la représentation théâtrale, c’est tenter de saisir l’éphémère : tous les pédagogues et chercheur.e.s en arts de la scène en ont fait l’expérience, analyser une représentation qui a déjà eu lieu s’apparente nécessairement à un processus de reconstruction subjectif et fragmentaire. Le recours à la captation vidéo ne permet pas de résoudre l’ensemble des difficultés posées par l’étude d’un objet qui n’existe plus : selon l’angle choisi, une partie du spectacle peut échapper à l’oeil de la caméra, le son est souvent médiocre et l’expérience face à l’écran rend peu compte de celle du spectateur en salle.

Cette difficulté est d’autant plus grande lorsqu’on choisit de s’intéresser aux processus de création, c’est-à-dire à la façon dont émerge l’acte théâtral en répétitions, dans la lignée des rehearsal studies (1). Si de très nombreuses compagnies théâtrales utilisent depuis longtemps la vidéo pour filmer leurs répétitions, le plus souvent dans le but de créer une « mémoire » de la compagnie, d’enregistrer ces moments fugaces et souvent décrits comme « magiques » que sont les répétitions, force est de constater que ces heures de captations sont rarement « traitées » et s’entassaient hier dans des cartons (en format dv) ou s’accumulent aujourd’hui sur des disques durs externes.

C’est à partir de ce constat que nous avons proposé à Jean-François Peyret, metteur en scène, de tester en direct, dans le temps même de ces répétitions, un procédé de traitement informatique des images enregistrées, Kino Ai (2), qui permet de profiter d’un dispositif de prises de vues en caméra fixe, peu invasif et peu coûteux (pas de technicien supplémentaire), souvent déjà présent dans les salles de répétitions, comme base à la réalisation de documentaires décrivant les différentes étapes des répétitions.

Cette photo montre 2 acteurs en train de répéter sous le regard du metteur en scène.
Crédit : Kino AI

Une question de point de vue

Reprenant un dispositif qui avait déjà été expérimenté au cours d’un projet précédent, Spectacle en ligne (3), nous avons placé une unique caméra au milieu de l’orchestre, une position qui est également privilégiée par le metteur en scène pour observer les répétitions. Nous avons suivi en cela une proposition ingénieuse de Jean-Luc Godard (4) : « Pourquoi les gens de théâtre n’ont-ils jamais envie de filmer leurs spectacles pour les garder comme archives ? (…) Ce serait très simple : la caméra au milieu de l’orchestre avec un objectif moyen – mais pas le zoom, qui donnerait déjà lieu à une interprétation ».

Ce « point de vue du metteur en scène » présente plusieurs avantages théoriques et pratiques. D’une part, c’est le point de vue le plus adapté à la projection des films des spectacles dans la même salle. D’autre part, c’est le point de vue le plus proche des acteurs, et le seul qui permette de saisir le jeu des regards entre les acteurs et la salle. Enfin, c’est également le point de vue pour lequel les éclairages sont mis au point, ce qui nous permet de filmer sans modifier ces éclairages. Ce dernier point reste difficile à réaliser en pratique, surtout lorsque les éclairages varient brusquement, mais cela nous paraît important de respecter les choix de mise en scène, ce qui n’est possible que de ce seul point de vue.

Théâtre et cinématographie

Comme le souligne justement Pascal Bouchez (5), une problématique particulière à la captation vidéo, c’est l’opposition entre le traitement parallèle de l’information au théâtre (le spectateur voit l’ensemble des acteurs et perçoit globalement la scène), et le traitement séquentiel de cette même information au cinéma ou à la télévision (le spectateur ne voit que les acteurs choisis par le réalisateur et perçoit donc de façon séquentielle la scène à travers une suite d’images). Ainsi, le suivi séquentiel des dialogues peut être problématique lorsque ceux-ci font intervenir trois acteurs éloignés. Un plan fixe des trois acteurs ne permet pas facilement au spectateur de se repérer à l’écran comme il le ferait face à la scène. Une série de gros plans peut être utilisée pour diriger l’attention du spectateur. Il faut donc bien comprendre le système cognitif de l’attention et son fonctionnement dans les deux situations différentes de la scène et de l’écran.

Les techniques classiques du cinéma permettent en principe de résoudre ces différents problèmes, par une transposition entre les langages dramatique et cinématographique. Mais dans les conditions du direct, le réalisateur est de plus en plus démuni au fur et à mesure que croît le volume spatial de la scène. Comme l’écrit Pascal Bouchez, “tout se joue en direct, si vite que les plans dont la création nécessiteraient de nombreuses répétitions et une longue préparation au cinéma – sont impossibles au théâtre”.

Théâtre et informatique

Le projet de recherche Kino Ai aborde précisément cette question grâce à des techniques d’intelligence artificielle qui proposent automatiquement des solutions de cadrage et de montage montrant les actions scéniques et leur enchainement : les données extraites des heures filmées peuvent ainsi s’adapter aux besoins exprimés soit par les professionnels du spectacle, soit par les enseignants et les chercheurs (archivage pour la compagnie, communication auprès des diffuseurs, documentation pour la pédagogie et/ou la recherche).

On peut remarquer que cette méthode de recadrage en post-production est une option technique et artistique nouvelle, décrite par Walter Murch sous le nom de montage vertical (6), et qui permet de contrôler le « zoom de l’interprétation » dont parlait Jean-Luc Godard en post-production. Cette technique est particulière fastidieuse pour les monteurs, mais se prête en revanche très bien au traitement informatique.

A partir d’une captation unique, nous proposons ainsi des solutions de montage multiples, destinés à visualiser la captation selon plusieurs lectures possibles. Notre approche tire parti du fait que tous les rushes peuvent être virtuellement disponibles. Dans un autre contexte, Francis Ford Coppola a utilisé cette possibilité pour intervenir en direct sur le montage de son film Twixt lors de projections en festivals (7).

En suivant ce principe, nous calculons plusieurs cadres mettant en avant les différents aspects de la représentation théâtrale : décors et mouvements d’acteurs en plan large ; codes de proximités entre les acteurs en plan moyen ; langage verbal et non verbal en plan rapproché. Chaque série de plans ainsi recadrés peut être organisée en temps réel en un montage dédié au point de vue choisi. Cette technique permet l’exploration de la représentation sous ses différents aspects.

Kino AI

Ces techniques ont été développées au cours d’une thèse menée dans l’équipe IMAGINE d’Inria (8) et expérimentées en vraie grandeur pendant trois semaines de répétitions du spectacle de Jean-François Peyret, La fabrique des monstres. Les prises de vues ont été réalisée par le logiciel Kino Ai de façon entièrement automatique, et ont fourni le matériau de base de trois courts métrages documentaires montrant trois étapes du travail de création de la pièce (9). La lecture suivie de ces trois courts documentaires traduit la progressivité de la création et de ses étapes successives. Le choix de confier, à ce stade de l’expérience, le montage des court-métrages à trois monteur et monteuses professionnel.le.s était dicté par l’envie d’affirmer le récit de répétitions comme une narration nécessairement subjective : la confrontation des pratiques professionnelles des vidéastes avec les potentialités et les contraintes du logiciel fut aussi riche d’enseignements.

Notre procédé de captation se prête bien aussi aux techniques d’affichage en “split-screen” qui décomposent l’écran dynamiquement et permettent par exemple de zoomer sur plusieurs acteurs simultanément (10). Ce type de présentation est particulièrement bien adapté à la consultation sur le web. Par rapport au montage classique, le montage en split-screen demande des efforts importants, et il est d’autant plus important d’automatiser autant que possible le choix des cadres. Nous avons développé pour cela des algorithmes spécifiques qui permettent de pré-calculer toutes les combinaisons possibles des acteurs et de choisir à chaque instant la composition spatiale la plus pertinente pour montrer simultanément l’ensemble des actions scéniques. Ainsi l’informatique permet dans une certaine mesure de préserver le traitement parallèle de l’information au théâtre en la traduisant directement à l’écran. Ceci pose de nouveaux problèmes de recherche intéressants, par exemple la généralisation de cette approche à des dispositifs à plusieurs écrans, ou à des dispositifs interactifs permettant aux chercheurs de zoomer à leur guise sur les actions scéniques de leur choix.

Exemple de split-screen. Image extraite de (10)

Conclusion

Dans ce billet, nous avons souligné le rôle que peut jouer l’informatique pour faciliter la prise en main des outils audiovisuels par les chercheurs en arts de la scène. Qu’il s’agisse d’explorer une représentation enregistrée en vidéo ultra haute définition, ou de naviguer dans une collection d’enregistrements des différentes étapes des répétitions, la recherche théâtrale a besoin d’outils d’analyse d’images, d’indexation et d’annotation spécifiques et innovants. Au-delà de la seule recherche en arts de la scène, il en va aussi de la survie d’une mémoire des compagnies : toutes n’ont pas les moyens de réaliser des captations attractives et commercialisables, ce qui crée une inégalité forte dans la constitution d’une mémoire du théâtre aux XXe et XXIe siècles : ne reste que les travaux des artistes les mieux dotés financièrement et les plus visibles institutionnellement. Mettre des outils informatiques simples d’utilisation et peu coûteux au service des professionnels c’est aussi assurer non seulement la production des traces mais leur plus grande accessibilité et visibilité. Nous entrons dans l’ère de l’informatique théâtrale.

Rémi Ronfard (Directeur de recherches Inria, Responsable de l’équipe-projet Imagine) et Julie Valéro (Maître de conférences Arts de la scène, Université Grenoble Alpes).

Ils animent un groupe de recherche sur les  « dramaturgies numériques » dans le cadre du projet Performance Lab de l’Université Grenoble Alpes : https://performance.univ-grenoble-alpes.fr

Références

1 MacAuley Gay : Not magic but work, An ethnographic account of a rehearsal process. Manchester University Press, 2012

2 Ronfard, Rémi et Valéro, Julie. Kino Ai: La fabrique de la fabrique des monstres, Colloque Attention Machines, Univ. Grenoble Alpes, février 2018.

3 Ronfard, Rémi et al. Capturing and Indexing Rehearsals: The Design and Usage of a Digital Archive of Performing Arts. International Conference on Digital Heritage, Grenade, Sep 2015.

4 Godard, Jean-Luc. Conversation avec R. Allio et A. Bourseiller. Cahiers du cinéma n°177. Avril 1966.

5 Bouchez, Pascal: Filmer l’éphémère. Presses Universitaires du Septentrion, 2007.

6 Murch, Walter. En un clin d’oeil. Capricci Editions, 2011.

7 Murch, Walter. Sur le montage digital. Cahiers du Cinéma, novembre 2011.

8 Gandhi, Vineet, Automatic Rush Generation with Application to Theatre Performances, Thèse de Dotorat, Univ. Grenoble Alpes, Décembre 2014.

9 Répétitions en cours, Episode 1, Episode 2, Episode 3

10 Moneish Kumar, Vineet Gandhi, Rémi Ronfard, Michael Gleicher Zooming On All Actors: Automatic Focus+Context Split Screen Video Generation, Proceedings of Eurographics, Computer Graphics Forum, Wiley, 2017, 36 (2), pp.455-465.