Alvearium : vers un Cloud souverain partagé, respectueux des données de ses utilisateurs

Hive et Inria se sont engagés pour quatre ans dans un partenariat visant à développer un Cloud souverain, capable de fournir à la fois le calcul et le stockage des données via un réseau « peer-to-peer », plutôt que depuis un ensemble centralisé de centres de données. Zoom sur le partenariat, avec Claudia-Lavinia Ignat, responsable du Défi pour Inria.
Cet article est paru le 16/01/2023 sur le site d’Inria.
Site Inria

Photos, vidéos, documents importants… le stockage dans le Cloud fait partie intégrante de notre quotidien, depuis plus d’une décennie. La plupart des données des utilisateurs sont stockées par des grands fournisseurs de services, qui ont la capacité de construire des centres de données capables de traiter une grande quantité d’informations.

Les utilisateurs doivent ainsi faire confiance aux fournisseurs Cloud pour préserver la confidentialité de leurs données, tout en ayant peu de contrôle sur leur utilisation. En effet, les conditions de service des principaux acteurs peuvent donner la permission d’accé d’exploiter les données des utilisateurs à leurs systèmes automatisés, à leurs employés ou à des tiers de confiance.

Un « AirBNB du stockage de données »

C’est à cette problématique que s’attaque la startup Hive pour développer un Cloud pair-à-pair, alternatif aux solutions existantes, qui fournit à la fois le calcul et le stockage de données via un réseau pair-à-pair plutôt qu’un ensemble centralisé.

« Hive propose d’exploiter la capacité inutilisée des ordinateurs, et incite les utilisateurs à apporter leurs ressources informatiques au réseau, en échange d’une capacité similaire du réseau ou d’une compensation monétaire », explique Claudia-Lavinia Ignat, responsable de l’équipe-projet COAST (équipe commune à Inria Nancy – Grand Est et Loria) et du Défi Alvearium pour Inria.

En pratique : l’utilisateur va se connecter au réseau, s’identifier sur la plate-forme de Hive, et décider de partager une partie de ses ressources (100 Go d’espace de stockage, par exemple). Le service est gratuit et n’est payant que si l’utilisateur consomme davantage que ce qu’il partage.

En échangeant leurs ressources informatiques, les utilisateurs peuvent alors bénéficier de tous les services d’un cloud, tout en assurant la confidentialité de leurs données puisque celles-ci sont fragmentées, chiffrées et dispersées à travers le réseau pair-à-pair. Les utilisateurs peuvent contrôler l’accès à leurs données en partageant directement et uniquement avec les utilisateurs en qui ils ont confiance la localisation des fragments et leurs clés de déchiffrement, et ce, sans avoir à les stocker auprès d’une autorité centrale. « Le risque de violation de la vie privée est réduit car en cas d’attaque sur un nœud du réseau pair-à-pair, seulement une petite partie des données protégées est exposée. Il n’y a plus un endroit unique où un pirate peut attaquer pour récupérer toutes les données. Cela devient donc beaucoup plus compliqué pour un attaquant », précise Claudia-Lavinia Ignat.

Autre avantage du système proposé par Hive : les nœuds participants sont détenus et exploités par des personnes indépendantes et les coûts d’administration du système sont donc partagés. Cette solution devrait rendre le stockage et le partage des données plus abordables pour tous. Elle réduit également le gaspillage d’énergie en fournissant des ressources de calcul et de stockage plus proches des utilisateurs et en évitant les frais généraux d’énergie des centres de données, tels que le refroidissement dont le coût représente environ 40 % de la consommation totale d’énergie d’un centre de données.

Plus on a d’utilisateurs, plus on passe à l’échelle, plus la résilience est grande. Claudia-Lavinia Ignat

Un Défi pour un Cloud souverain capable de faire face aux géants américains

Pour, justement, passer à l’échelle, Hive et Inria ont ainsi décidé de travailler main dans la main pour voir émerger un Cloud souverain, au travers d’un Défi commun.

Hive offre en effet, actuellement, une solution de stockage de données pour des documents de tout type, qu’ils soient textuels ou multimédia. Ces documents peuvent être d’une taille importante de plusieurs dizaines de mégaoctets. Cependant, ces documents sont immuables, c’est-à-dire qu’ils sont en lecture seule et ne peuvent pas être modifiés. Dans ce Défi, Inria et Hive vont ainsi travailler à étendre la solution actuelle aux données mutables, c’est-à-dire aux données dont l’état peut être modifié après leur création. « Nous ciblons, en plus, les données mutables qui peuvent être modifiées de manière collaborative par différents utilisateurs », précise Claudia-Lavinia Ignat, avant d’ajouter «le principal défi est de savoir comment assurer la convergence des données en présence de modifications concurrentes ».

En plus d’assurer la haute disponibilité des données, c’est-à-dire que celles-ci soient disponibles à tout moment et que toute requête les concernant doit donner lieu à une réponse, mais aussi leur cohérence, Alvearium veut garantir que les données soient stockées de manière sécurisée. « Nous cherchons à garantir à la fois la confidentialité, l’intégrité et l’accessibilité des données, c’est-à-dire que qu’elles soient protégées contre toute lecture non autorisée, et qu’elles ne puissent pas être modifiées par un accès non autorisé », indique Claudia-Lavinia Ignat.

Les grands fournisseurs de services collaboratifs tels que Dropbox, iCloud et GoogleDrive ont en effet adopté des solutions de chiffrement afin de ne stocker que la version chiffrée des données des documents partagés. Cependant, pour faciliter l’utilisation de leurs services, les fournisseurs de services stockent également les clés de chiffrement, ce qui leur donne la possibilité de décrypter les données et donc d’être soumis à différentes attaques. Ce projet vise ainsi à proposer des techniques de chiffrement dites « de bout en bout », pour que seuls les pairs autorisés puissent déchiffrer les données.

Quatre axes de travail pour quatre années de Défi

Pour répondre à ces problématiques, le Défi, baptisé Alvearium, va ainsi mettre les compétences de quatre équipes-projets Inria (COAST, qui travaille sur les systèmes collaboratifs distribués ; MYRIADS, qui travaille sur le Cloud et la gestion des ressources dans le Cloud ; WIDE, qui travaille sur la théorie et les outils pour les systèmes distribués à large échelle et dynamiques ; COATI, qui travaille sur les algorithmes d’optimisation des réseaux) au service de la résolution des problématiques rencontrées par Hive.

Le Défi est structuré en quatre axes :

  • Le placement et la réparation viables des données. Le stockage pair-à-pair doit avoir une stratégie de placement des données pour sélectionner les nœuds de stockage les plus appropriés pour placer les données, en respectant certaines contraintes : la conformité avec les politiques de régulation des autorités, et la préférence des utilisateurs en termes de sécurité et de confidentialité. L’objectif est également de fournir des mécanismes de réparation des données, pour répondre aux éventuelles pannes ;
  • La gestion des données mutables, c’est-à-dire qui peuvent être modifiées après leur création, sur le stockage pair-à-pair. Le partage des données doit être chiffré de bout en bout et seuls les pairs autorisés doivent pouvoir déchiffrer les données. La fusion des modifications concurrentes peut être effectuée une fois que ces modifications ont été reçues et déchiffrées par les pairs autorisés ;
  • L’étude de nouvelles techniques pour gérer les « attaques Sybil » et « pannes byzantines », c’est-à-dire des nœuds malveillants, dans le contexte du stockage distribué non fiable. L’objectif est ici d’offrir des garanties plus fortes, en termes de tolérance aux pannes, d’intégrité des données et de sécurité ;
  • Le développement d’un mécanisme de sécurité de données, pour permettre de stocker les données de manière sécurisée. L’objectif sera, enfin, de proposer un mécanisme de sécurité adapté aux systèmes distribués sans autorité centrale qui gère les droits d’accès des utilisateurs aux documents partagés, de bout en bout, c’est-à-dire que seul l’utilisateur final pourra déchiffrer, ce qui n’est aujourd’hui pas le cas chez les grands fournisseurs Cloud.

Ces quatre axes ont pour objectif global de proposer, en s’appuyant sur les compétences des équipes-projets Inria, un Cloud souverain, performant, capable de répondre aussi efficacement que les fournisseurs existants aux besoins des utilisateurs en termes de stockage, tout en respectant la confidentialité et la sécurité de leurs données.

Le contrat particulier entre Inria et Hive vient d’être signé fin décembre 2022. Les travaux de recherche de ce Défi débutent cette année avec le recrutement début février de trois stagiaires chez Inria et Hive et de quatre doctorants un peu plus tard dans l’année.

Iris Maignan, Direction de la Communication, Inria

Apprendre à un ordinateur à apprendre à voir

Le Prix de thèse Gilles Kahn récompense chaque année, depuis 1988, une thèse en Informatique. Cette année l’un des accessit revient à Mathilde Caron. pour ses travaux sur l’apprentissage auto-supervisé en vision algorithmique : entre devoir fournir des millions d’exemples pour qu’une machine puisse faire une tâche de reconnaissance visuelle, et imaginer que celà puisse se faire de manière autonome, il existe une voie de recherche très innovante, Mathilde nous l’explique de manière très claire ici. Pierre Paradinas et Thierry Viéville.

(photo personnelle)

Regardez cette image. En tant qu’humain, il est évident pour vous de décrire ce qu’il s’y passe. Par exemple, vous pourriez facilement dire que l’on y voit une statue au premier plan, représentant deux dragons enchevêtrés, puis un temple de style japonais en arrière plan. En effet, les humains et de nombreux animaux peuvent percevoir le monde et le comprendre sans effort.

Ici, nous parlons bien de la vision ou perception visuelle et non de la vue qui elle réfère à la capacité physique de voir, c’est-à-dire de réagir à notre environnement au moyen de rayonnements lumineux perçus par l’œil. De façon schématique, on peut dire que notre cerveau (en particulier, le cortex visuel) reçoit en entrée les signaux nerveux en provenance de nos yeux et produit en sortie une perception visuelle, c’est-à-dire du sens, de la compréhension ou de la reconnaissance de ce qu’il y a en face de nous. Cette capacité de perception visuelle de notre cerveau fait partie de notre intelligence, et le but de “la reconnaissance d’image”, une branche de la “vision par ordinateur” en informatique, est de simuler  la perception visuelle par des algorithmes dits d’intelligence artificielle, par exemple avec un ordinateur. Ce n’est pas une tâche facile, car l’on ne comprend pas encore très bien notre propre intelligence.

Du point de vue d’un ordinateur, une image, peu importe comment elle a été acquise (par un appareil photo, trouvée sur le web ou créée de toutes pièces avec un logiciel) est simplement un tableau de nombres. En effet, une image numérique est composée de pixels: de minuscules carrés de couleur qui organisés sous forme de grille constituent l’image. Par exemple, l’image du dessus est composée de pas moins de 12 millions de pixels (3000 dans le sens de la largeur et 4000 dans le sens de la longueur). Chaque pixel est un code de trois nombres décrivant précisément les trois composantes (rouge, verte et bleue) dont le mélange donne une couleur. Bref, une image numérique n’est ni plus ni moins qu’un tableau de nombres, un peu de la même manière que, pour nous, une image est un ensemble de faisceaux lumineux qui pénètrent notre œil, puis un ensemble de décharges nerveuses. Faire du sens à partir de ce tableau de nombres n’est pas une tâche aisée, et c’est le défi du domaine de la reconnaissance d’image.

(figure personnelle)

Plus précisément, la reconnaissance d’image découpe le problème de la perception visuelle en plusieurs tâches distinctes à résoudre par des algorithmes. Par exemple, la tâche peut être de classifier une image parmi un ensemble de propositions (cette image représente-t-elle un chien, une voiture, une sculpture ou un arbre ?) ou de générer un texte décrivant l’image ou encore de détecter les différents objets composant l’image.

Dans ce travail de thèse, nous ne nous concentrons pas sur une tâche de reconnaissance d’image en particulier. Nous cherchons plutôt à développer une perception visuelle artificielle générale, qui pourra ensuite être utilisée comme pièce de base commune pour résoudre des tâches spécifiques.

L’apprentissage profond: apprendre à partir d’exemples

De nos jours, l’approche la plus prometteuse et la plus adoptée pour la reconnaissance d’image est de loin le “deep learning”, ou “apprentissage profond” en français (voir un article introductif ici,  ou une vidéo très pédagogique, en lien avec une formation citoyenne à l’intteligence artificielle, qui aborde aussi le sujet). Le deep learning est une puissante branche d’algorithmes issue du “machine learning” (ou “apprentissage automatique”) qui consiste à laisser le système découvrir (ou “apprendre”) par lui même comment résoudre un problème étant donnée une grande quantité d’exemples au lieu de lui dicter en amont une série de règles. Un exemple classique est la détection de spam (ou “pourriel” en français): les approches classiques vont dire à l’ordinateur de classifier un mail en tant que spam si son contenu ou l’adresse de son émetteur contient certains mots ou caractères tandis que les approches basées sur le machine learning vont laisser l’algorithme découvrir les paramètres de ses calculs par l’observation d’exemples de mails catégorisés comme spam ou valide.

En reconnaissance d’images, on peut imaginer un exemple où un système doit reconnaître la présence de chien dans une image et catégoriser leurs races. Une approche classique sera typiquement basée sur une série de règles: étant donné la forme du museau et des oreilles, la couleur du pelage ou le rapport longueur-largeur de l’animal, on va avoir une réponse pré-établie par un ensemble d’experts canins. Cependant, dans ce cas là, même les sous-tâches du problèmes sont difficiles à résoudre par une approche classique. Comment décrire avec des règles la forme d’un museau à un ordinateur afin qu’il puisse en détecter ?

C’est là la force des approches de deep learning qui donnent la possibilité à l’algorithme d’établir ses propres règles suite à l’observation d’une très grande quantité d’images de chiens.

Vers l’apprentissage autonome

Le paradigme dominant en deep learning est celui de l’apprentissage supervisé. C’est-à-dire que dans notre exemple au-dessus, l’algorithme ingère à la fois l’image et une information supplémentaire, par exemple le nom de la race du chien, pour chaque image de la base de donnée. Les approches supervisées sont les plus adoptées en reconnaissance d’images aujourd’hui mais elles sont problématiques pour plusieurs raisons.

D’abord, elles ne sont pas alignées avec la manière dont on a l’impression que les humains ou les animaux acquièrent la perception visuelle. En effet, les bébés sont capables de percevoir les éléments de leur environnement souvent bien avant de les nommer. Ils ont donc appris à percevoir le monde sans qu’un superviseur extérieur leur explique ce qu’il y avait à voir dans chaque situation mais plutôt par l’expérience et l’observation répétée.

Une autre limitation de l’apprentissage supervisée est le biais ou même les erreurs dans les annotations. En effet, l’acte d’annotation de données est ambiguë dans le sens ou il y a souvent plusieurs manières d’annoter, sujette à interprétation. Cela peut introduire des biais dans les systèmes qui utilisent ces annotations.

Finalement, la raison peut-être la plus pragmatique pour vouloir se débarrasser des données supervisées est le fait qu’elles sont plus compliquées et plus chères à acquérir. En effet, annoter des données requiert une expertise humaine et du temps qui empêchent le passage à l’échelle des algorithmes.

Mon travail de thèse

Pendant ma thèse, mon travail a consisté à développer des algorithmes d’apprentissage profond pour la reconnaissance d’image qui se basent uniquement sur les images et n’utilisent aucune annotation manuelle. En d’autres termes, il s’agit de permettre à l’ordinateur d’acquérir une perception visuelle de manière autonome à partir des images seules (au contraire des images + leurs annotations dans le cadre de l’apprentissage supervisée). Ce type d’algorithme est appelé “self-supervised learning” (ou auto-supervisé en français).

Nous sommes partis de l’observation que dans une base de données, plusieurs images “se ressemblent” même si on ne sait pas identifier ce qu’elles représentent. Nous avons utilisé ce critère de ressemblance pour créer des pseudo-annotations (donnés par l’algorithme lui-même et non par un expert humain), que nous affinons au fur et à mesure de l’entraînement et que la perception visuelle de l’algorithme s’améliore. 

Mon manuscrit de thèse, intitulé Apprentissage Auto-Supervisé de Représentations Visuelles avec des Réseaux de Neurones Profonds, est accessible gratuitement en ligne sur ce lien.

Nous avons aussi rédigé quelques articles de semi-vulgarisation plus spécialisés à propos de certains travaux spécifiques de ma thèse que vous pouvez lire en suivant les liens suivants: [lien 1] [lien 2].

Mathilde Caron, thèse au LJK, Université Grenoble Alpes, Inria Grenoble Rhône Alpes, en partenariat avec Facebook AI Research (FAIR). Ses publications.

 

L’echostétoscopie en commun

Dans le cadre de la rubrique sur les Communs numériques, binaire a rencontré Mehdi Benchoufi, médecin de santé publique à l’hôpital Hôtel-Dieu, ancien chef de clinique en épidémiologie clinique et agrégé et docteur en mathématiques. Il s’est principalement investi aux interfaces entre médecine connectée et technologies ouvertes : imagerie par ultra-sons, méthodologie de développement des solutions d’intelligence artificielle. Il a été pionnier dans les applications de la blockchain pour la qualité des essais cliniques. Il a été membre du Conseil Scientifique de la Fondation pour la Recherche Médicale de l’AP-HP (l’Assistance publique – Hôpitaux de Paris). Il est l’un des cofondateurs et le président de echOpen Factory, une startup de la santé qui développe et commercialise un échographe ultra portable, à bas coût.
Mehdi Benchoufi

Binaire : Qu’est-ce que le mot commun évoque pour toi ? 

Mehdi Benchoufi : Une des grandes passions de ma vie est les mathématiques. La première chose que m’évoque les communs c’est le commun des mathématiques. Les mathématiques appartiennent à tous et sont développées par tous. Que serait le monde aujourd’hui si le théorème de Pythagore était propriétaire ? Ce commun a un impact invraisemblable sur le monde. C’est mon goût personnel pour les mathématiques qui m’a donné le goût de la culture du partage telle qu’on la voit dans l’ouverture des données ou du logiciel. On s’inscrit dans une tradition historique de mise en commun, on croise les apports des uns et des autres, et on consolide une connaissance commune.

Peux-tu nous parler du commun sur lequel tu travailles aujourd’hui ?

Je travaille depuis longtemps sur un outil pour mettre l’échographie à la portée de tout le monde. Quand j’étais interne, j’ai réalisé l’intérêt de pouvoir faire des échographies sur le lieu de prise en charge des malades. Notamment, j’ai été marqué par le cas de patients victimes de ruptures d’anévrismes de l’aorte et dont on aurait augmenté les chances de survie si les équipes mobiles de prise en charge avaient disposé d’un matériel échographique de tri, pas cher, miniaturisé et connecté.

C’est ce qui m’a donné l’idée du projet ouvert et collaboratif echOpen au côté de mes collègues Olivier de Fresnoye, Pierre Bourrier et Luc Jonveaux, le premier avec une longue expérience humanitaire, le second radiologue expert de l’échographie, le troisième ingénieur et maker versé dans les technologies acoustiques. L’objectif est de produire une sonde ultrason ouverte, connectée à un smartphone afin de transformer de manière radicale le processus de diagnostic dans les hôpitaux, les cabinets de médecine générale et les déserts médicaux. On tient à ce qu’elle soit abordable, bien moins chère que les produits actuellement sur le marché.

Nous avons créé une association en 2015 pour organiser les développements de la communauté. Dans une première phase qui a duré 3-4 ans, nous avons mis en place tous les outils utilisés dans la fabrication d’un échographe ; c’est en accès libre sur github et des équipes l’utilisent dans le monde entier. Dans un second temps, pour passer du démonstrateur au produit, nous nous sommes structurés en entreprise, tout en tâchant de continuer à associer la communauté.

Commençons par la première phase, peux-tu nous parler de votre communauté ?

Il y avait un noyau d’une trentaine de contributeurs. Et puis d’autres personnes ont soutenu le projet de diverses manières, par exemple, en participant à son financement ou en nous encourageant. Je dirais peut-être un millier de personnes réparties sur 5 continents, des informaticiens, des physiciens, des médecins,  des spécialistes en acoustique en électronique, etc.

Pour prendre un exemple, parmi tous ces soutiens, nous avions ce Canadien, un super développeur qui avait fait la une de Hacker News. Il est passé à Paris et a demandé à nous rencontrer. Il est resté 10 jours chez nous et nous a fait gagner un facteur 10 dans les performances de l’application. C’est le genre d’agilité et de créativité que nous apportait la communauté au sens large.

Un autre exemple. Les membres de notre communauté du Pérou nous ont fait connaître une pathologie atypique, un cancer du foie que même nos collègues médecins français ignoraient. Ce sont des formes très rares dans le monde mais fréquentes dans ce pays qui touchent des gens entre 15 et 25 ans en milieu rural. Le malade arrive pour le diagnostic avec une espèce de pastèque dans le ventre et c’est déjà trop tard. Il faudrait dépister cette maladie à temps. Nous nous disions que notre petit échographe serait capable de faire cette détection à distance.

Pour revenir à la contribution d’echOpen aux communs de façon plus générale, dans le logiciel Open Source, la difficulté majeure à laquelle nous avons été confrontées est le caractère inapplicable, dans le domaine de la santé, du principe « give to get » qui peu ou prou régit le développement libre ou open source, c’est-à-dire je donne quand je sais que je vais recevoir. Si je contribue au logiciel libre d’édition de texte emacs,  j’apporte une brique qui complète un ensemble dont je vais être l’utilisateur. Mais cette règle-là n’est pas évidente dans notre cas. Dans le domaine de la santé, les membres de la communauté ne sont pas nécessairement les consommateurs de la technologie.

Est-ce que la communauté a défini ses propres règles de fonctionnement ?

Il y a des règles, mais honnêtement ces règles n’ont jamais été vraiment formalisées. On travaille sur Github. Mais c’est aussi important pour la communauté de se retrouver physiquement pour travailler ensemble dans les mêmes locaux. C’est ce que nous avons pu faire dans les locaux de l’hôpital Hôtel Dieu à Paris.

Donc en 2018, vous basculez vers une organisation différente : une entreprise privée. Qu’est-ce qui motive ce choix ?

Au bout de trois ans de développement, s’est reposée notre motivation initiale : avoir de l’impact sur le travail des praticiens et servir les patients. Nous avons compris que notre prototype n’était pas industrialisable. Il fallait un travail d’une tout autre nature, d’une tout autre ampleur, pour satisfaire notamment les exigences en termes de certification et de sécurité. Nous avions réalisé notre mission en tant que Fablab et nous nous sommes lancés dans l’aventure entrepreneuriale, et sommes repartis “from scratch » pour viser la qualité d’un dispositif médical. Pour cela, il fallait des financements et des efforts conséquents. Il s’agissait de financements importants,et les fonds comme ceux que nous avions obtenus auprès des fondations qui nous avaient soutenus depuis le début, la fondation Pierre Fabre, la fondation Sanofi Espoir et la Fondation Altran pour l’Innovation, ne pouvaient suffire. Nous nous sommes transformés en startup.

Le monde est ce qu’il est ; nous sommes dans une économie capitalistique dont le modèle est assis sur la propriété. Personne n’investit un euro dans une société qui n’est pas propriétaire de sa technologie. Je trouve cette logique contestable mais c’est la réalité.

La mise en place de notre première recherche de fonds a été difficile. Les capitaux-risqueurs que nous avons rencontrés ne trouvaient pas leur intérêt dans une solution bas coût, lorsque les compétiteurs vendent substantiellement plus chers. Mais nous avons tenu bon et avons pu trouver les moyens de nous financer jusqu’à aujourd’hui !

Comment s’est passée le passage du commun à l’entreprise ?

Très bien. Toute la communauté contributrice a participé aux discussions quant à l’évolution de notre organisation, à la répartition des titres de l’entreprise à due concurrence des contributions effectuées. L ‘association est toujours en place et elle a une part substantielle de l’entreprise privée, elle a ainsi co-fondé le véhicule industriel echOpen factory. Elle a concentré et intensifié ses activités pour adresser un enjeu de santé publique majeure au niveau mondiale, la santé maternelle dans les pays à faible revenu. Aujourd’hui l’aventure continue. Nous continuons à travailler main dans la main avec nos communautés technique et médicale en les impliquant dans l’expérimentation de nouveaux usages du dispositif. Avec toujours le même objectif en ligne de mire : rendre l’imagerie médicale accessible partout dans le monde.

Les membres de votre communauté, les 30 et les 1000, ont tous accepté ?

Nous avons mobilisé l’ensemble des contributeurs actifs d’echOpen, soit une trentaine de personnes. Tous ceux auxquels nous avons proposé des parts ont accepté, sauf le développeur  Canadien dont je vous ai parlé.

On a bien eu deux départs mais c’était avant la transformation en entreprise. Deux personnes ont quitté le projet  pour des différences de points de vue techniques et opérationnels. L’une d’entre elles, Luc Jonveaux, a proposé un fork sur Github et a continué à développer son projet de matériel de recherche, ce qui montre là une façon intéressante de gérer le dissensus au sein d’une communauté. Nous sommes toujours en très bons termes avec ces deux personnes.

Vous construisez un appareil. Qu’est ce qui est ouvert ? Le design général ? Le matériel ? Le logiciel ?

Dans la première phase Fablab, tout ce qui était réalisé l’était en open source ! Si on est parvenu à diminuer le coût du dispositif, c’est parce qu’on a pris cette approche. On n’est pas parti de l’existant comme l’aurait fait un industriel, ni d’un processus de transfert technologique comme dans un laboratoire. On est parti de la page blanche en nous appuyant sur des briques logicielles en open source. C’était un chemin possible pour arriver à un design raisonnable en termes de qualité, et industrialisable dans des conditions de coût qui étaient les nôtres.

Notre modèle était assez original avec notamment à la fin une phase FabLab qui était constitutive de la communauté et relativement productive puisqu’on a aujourd’hui des universités qui utilisent les cartes électroniques ou des petits logiciels qu’on a développés. En revanche, à l’issue de cette phase, on ne pouvait pas viser une sonde de qualité médicale. Nous sommes repartis de zéro.

Je pense que toute start-up qui reprendrait le travail de la communauté serait capable de refaire ce que nous avons réalisé. En tout cas, nous lui avons donné les bases pour le faire.

Plusieurs brevets d’invention ont été déposés. Notre volonté est d’ouvrir la technologie dès lors qu’une nouvelle version s’y substitue. Donc, à chaque fois que nous remplaçons une version, nous ouvrons le code de la précédente. Nous nous protégeons. Nous voulons éviter qu’un concurrent modifie le produit à la marge, brevette, et ensuite nous empêche d’exploiter le fruit de nos travaux. Enfin, c’est ce qui est prévu parce que, pour l’instant, nous n’avons pas encore sorti la deuxième version qui nous permettra d’ouvrir la première.

Deuxième élément en gestation et en discussion : la possibilité de permettre à des tiers de développer les algorithmes, par exemple des algorithmes d’intelligence artificielle sur la base de notre sonde. Nous sommes contactés par différentes entreprises et d’autres structures qui veulent s’appuyer sur un appareil qui n’est pas cher.

Et ce à quoi nous réfléchissons, c’est à open-sourcer des outils d’interfaçage à notre solution pour des tiers développant des services complémentaires aux nôtres. C’est en discussion et je ne sais pas quand ça va atterrir, mais ça fait partie de nos réflexions.

Où en êtes-vous aujourd’hui ?

Notre startup fonctionne bien. Nous sommes même la première startup à avoir l’AP-HP dans notre capital. Nous avons aujourd’hui un produit opérationnel qui a déjà passé l’essai clinique. Il est en cours de finalisation.

Serge Abiteboul, Inria et ENS, François Bancilhon, serial entrepreneur

Les communs numériques

Penser, calculer, délibérer

Penser et délibérer à l’heure où l’intelligence humaine utilise l’intelligence artificielle pour démultiplier ses capacités d’études des données ? Dans un ouvrage pluri-disciplinaire dont deux collègues partagent ici les versions préliminaires des chapitres en lien avec l’informatique, chercheurs en sciences humaines et formelles se répondent pour relever le défi d’approfondir la réflexion sur ce sujet. Lonni Besançon et Ikram Chraibi Kaadoud.

La numérisation de la société, le traitement automatique de l’information et les techniques d’intelligence artificielle induisent des ruptures dans notre façon de penser, de calculer, de délibérer.

©mare & martin

Comprendre comment fonctionnent les capacités cognitives et comment elles sont affectées par la révolution numérique est essentiel pour le devenir de nos sociétés. Un dialogue interdisciplinaires entre juristes, philosophes et spécialistes des neurosciences et de l’intelligence artificielle, permet de mieux connaître les nouveaux enjeux et de répondre aux défis technologiques du XXIe siècle. 

Comme l’explique Jean-Sylvestre Bergé dans sa préface,  ce livre tente une approche pluri-disciplinaire sur les triples terres de la pensée, du calcul et de la délibération, en questionnant comment la pensée humaine elle même évolue à l’heure d’une révolution numérique qui va jusqu’à bouleverser notre vision du droit comme on en parle souvent sur binaire: en insistant sur l’aspect des données avec “Numérique est mon droit” de Célia Zolynski, ou les liens entre le “Code et le Droit” avec Lêmy Godefroy, ou les “Communs numériques dans la justice” avec Benjamin Jean, …

 

© Learning Lab Inria

Un point clé est d’approfondir le lien entre calcul algorithmique et responsabilité humaine. Si la complexité de ces systèmes ne permet plus  de réduire la responsabilité de leur fonctionnement  à une ou des responsabilité individuelles et qu’il y a besoin de reconstruire le droit autour de ces objets, cela n’a pas de sens de parler de responsabilité de la machine, la responsabilité doit demeurer humaine. Cela est vrai y compris pour des tâches qui relevaient auparavant de capacités cognitives humaines, voire des décisions sans arbitrage humain (par exemple dans des situations d’urgence où retarder la décision serait pire que la déléguer à un algorithme, malgré les risques inévitables), mais mis en place par des humains. Cette réflexion est proposée par Raja Chatila, spécialiste des systèmes cognitifs robotiques.

© Nicolas Rougier

Dans l’ouvrage on prend aussi le temps d’expliquer ce que nous comprenons aujourd’hui de notre intelligence biologique qui pense, ce qui offrira un éclairage crucial sur ce qui se passe quand on utilise des machines qui calculent, avant de conclure en quoi cela aide à réfléchir sur comment délibérer. Car oser comprendre les aspects scientifiques et techniques de la pensée  et du calcul est essentiel pour se donner les moyens de délibérer en toute conscience avec les outils intellectuels et numériques qui nous sont donnés. On discute ainsi comment délibérer avec l’intelligence artificielle pour la mettre au service de l’intelligence naturelle avec Frédéric Alexandre et ses collègues, que l’on peut lire directement ici.

Au-delà, le cheminement intellectuel proposé s’est formé pendant plus de dix ans au sein du groupe informel de recherche « Limites et frontières », animé par les professeurs Philippe Pédrot et Alain Papaux, co-éditeurs de l’ouvrage.

Frédéric Alexandre, Raja Chatila, Marie-Hélène Comte, Philippe Pédrot et Thierry Viéville.