Tu maîtriseras l’informatique, ma fille, mon fils.

Oui nos enfants apprennent l’informatique pour maîtriser le monde numérique, et c’est surtout l’histoire d’une formidable dynamique des enseignantes et enseignants qui ont su en quelques toutes petites années, se former, s’entraider et s’organiser. Laissons-nous raconter cette histoire, redonnons ici quelques éléments clés. Ikram Chraibi-Kaadoud, Thierry Viéville.

Bonjour Charles Poulmaire et Sherazade Djeballah, qui êtes vous ?

Photo fournie par l’auteur

Je suis, Charles,  professeur d’informatique au lycée, formateur académique en mathématiques et informatique, et avec quelques collègues à l’initiative de l’AEIF (association des enseignantes et enseignants d’informatique de France).

 

Photo fournie par l’autrice

Je suis, Sherazade, étudiante en Master 2 MEEF parcours cadre éducatif et apprentie ingénieure pédagogique au sein de l’équipe d’Inria Learning Lab. Dans le cadre de mon alternance, je suis chargée de la gestion du MOOC “NSI : les fondamentaux” publié sur la plateforme France Université Numérique

 

 

Redites-nous ce que nos enfants apprennent à l’école, collège et au lycée.

Dès le primaire, on découvre en lien avec les autres apprentissages, des notions d’informatique comme ce que concrètement peut-être un algorithme ou comment on code des images avec des pixels. Puis au collège, on apprend la programmation en cours de mathématiques et de technologie en manipulant souvent des objets numériques. Et c’est au lycée général et technologique, en seconde, avec le cours de Sciences Numériques et Technologie qu’on apprend des notions de bases divisées en 7 thèmes comme Internet et le Web, la géolocalisation, les objets connectés, etc… Ensuite en Première, les élèves peuvent choisir la spécialité Numérique et Sciences Informatiques (NSI) qui initie vraiment à l’informatique.

Nos enfants ne consomment plus passivement les contenus numériques mais apprennent à comprendre, choisir, programmer ce qu’eils souhaitent, ici dans un club extra-scolaire qui aide à l’égalité des chances sur ces sujets
© https://www.magicmakers.fr

Et comment en quelques années les profs ont eils pu se former ?

De nombreux professeur·e·s souvent de matières scientifiques, mais pas uniquement, avec une culture informatique ou pas, se sont formés en ligne et en présentiel, à la fois individuellement et en se regroupant. 

Les professeurs ont également créé l’ Association des enseignantes et enseignants d’Informatique de France (AEIF) pour se regrouper et développer des échanges entre eux. Un forum est né, permettant de communiquer sur leur enseignement. Leur devise est “faire communauté”.

Leurs collègues de l’enseignement supérieur et de la recherche les ont aidés en proposant des formations accélérées à travers le territoire et en ligne, tandis que des sites de ressources se sont multipliés. 

Notons aussi que plusieurs personnes travaillant dans l’informatique se tournent vers l’enseignement. Voir l’interview de  Jean-Marc Vincent qui donne quelques conseils à ces profils de professionnels pour se préparer au mieux à une reconversion.

Peut-on donner quelques exemples de ressources  ?

Au delà d’une formation aux fondamentaux et d’une galaxie de sites pour les collègues présentées en annexe, on peut citer la forge (https://forge.aeif.fr/ ) des Communs Numériques Éducatifs qui est un dépôt permettant le développement collaboratif de codes et contenus pédagogiques sous licence libre, par et pour les enseignants et leur élèves. Un autre lieu de partage de projets.  

Notons aussi l’initiative NSI-cookies que présente Stéphane Renouf sur ce lien, qui offre un accompagnement sur le long terme au fil des besoins de la communauté.

 

Le mot de la fin ?

Continuons à faire communauté pour partager, interagir, échanger des idées et des pratiques pédagogiques , créer des ressources, des logiciels pour l’enseignement de l’informatique pour toutes et tous.

Charles Poulmaire, professeur d’informatique dans le secondaire, formateur de professeurs et président fondateur de l’AEIF et Sherazade Djeballah, étudiante en master 2 MEEF, parcours cadre éducatif et en alternance au sein du service d’Inria Learning Lab, avec Aurélie Lagarrigue  ingénieure pédagogique multimédia au Learning Lab Inria.

Annexe: une galaxie de sites pour les collègues qui enseignent l’informatique.

Se former pour SNT et NSI :

  https://classcode.fr/snt avec le Mooc S’initier à l’enseignement en Sciences Numériques et Technologie permet de s’initier à l’informatique comme toutes et tous les élèves de seconde, il sert de point de départ pour les collègues qui vont enseigner, mais aussi pour les adultes qui n’ont pas pu bénéficier de SNT ou veulent accompagner les jeunes qui s’y forment.
  https://mooc-nsi-snt.gitlab.io/portail est la plateforme qui offre une formation initiale (voir annexe suivante pour les Moocs associés), ces formations permettent de commencer à se former à devenir enseignant·e et au CAPES.

F
ormations citoyennes complémentaires:
https://classcode.fr/iai et son Mooc L’Intelligence Artificielle… avec intelligence ! pour se questionner sur les enjeux et le fonctionnement de l’intelligence artificielle.Le Mooc Impacts environnementaux du numérique pour se questionner sur les enjeux du numérique en apprenant à mesurer, décrypter et agir dans un monde numérique.
Partager ses pratiques et s’entraider :

  https://mooc-forums.inria.fr/moocnsi facilite la recherche d’information sur ces sujets, et permet de discuter entre pairs sur tous les sujets, au-delà des listes de discussion pour NSI et SNT.

  Il y a aussi plusieurs sites de ressources partagées comme  https://pixees.fr/informatiquelycee  grâce à David Roche et d’autres répertoriés ici https://www.pedagogie.ac-nice.fr/nsi/489-2/, en plus bien entendu des ressources de l’éducation nationale https://eduscol.education.fr/2068/programmes-et-ressources-en-numerique-et-sciences-informatiques-voie-g 

C’est aussi une galaxie de partenaires que l’on retrouve sur ce lien.

 

Annexe: les 4 raisons de suivre les MOOCS “Numérique et Sciences Informatiques, NSI” sur la plateforme FUN et les ressources associées.

Le cours “NSI : les fondamentaux”, permet d’acquérir les bases théoriques dans tous les champs de l’informatique, nécessaires à l’enseignement de la matière NSI : Numérique et Sciences Informatiques. Il est complété par un cours sur “NSI: apprendre à enseigner” qui est basé sur l’échange de pratiques professionnelles pour se questionner sur la didactique de l’informatique.

  • Raison n°1 : Se préparer à l’enseignement de la spécialité Numérique et Sciences Informatiques (NSI)

S’appuyant sur le programme officiel d’NSI, ces formations offrent un parcours complet (plus de 200 heures de formation), permettant de découvrir l’ensemble des domaines de l’informatique, tels que : représentation et traitement des données, programmation, algorithmique, architecture matérielle, réseau et système d’exploitation.
En suivant ce parcours gratuit et disponible en ligne, vous pourrez monter en compétences sur le programme de NSI, ce qui vous aidera à préparer le CAPES informatique puis à enseigner l’informatique au niveau du secondaire supérieur.

  • Raison n°2 : Se former auprès d’enseignants experts

Ces formations sont des œuvres collectives avec plus de 10 auteurs, dont certains font partie du jury du CAPES informatique. Parmi les intervenants, on trouve des  enseignant.e.s de NSI et des enseignant.e.s-chercheur.e.s de différentes disciplines : informatique, linguistique, épistémologie, didactique.

  • Raison n°3 : Des cours articulant théorie et pratique.

Chaque module du Mooc “NSI : les fondamentaux” est composé d’un cours en ligne complet disponible en vidéo ou au format textuel, de quiz et d’activités complémentaires tel que l’outil UpyLaB pour se former au langage de programmation Python.

Le Mooc “NSI: apprendre à enseigner” est basé sur une pédagogie par l’action grâce à des activités de mise en situation professionnelle, d’échanges au sein d’une communauté de pratique et à l’évaluation par les pairs permettant de prendre du recul sur ses propres méthodes d’enseignement.

  • Raison n°4 : Construisez-vous un réseau d’enseignants NSI.

Ce cours propose un forum où se côtoie une communauté de pratique via la Communauté d’Apprentissage de l’Informatique (CAI), l’Association des enseignantes et enseignants d’informatique de France (AEIF) et la communauté d’apprenants du MOOC. Sur ce forum, vous pourrez échanger sur les contenus des MOOCs NSI, mais aussi sur d’autres thématiques plus larges en lien avec les bonnes pratiques à adopter ou les dernières actualités liées à l’enseignement de NSI.

Hommage à Christophe Chaillou

Nous venons d’apprendre avec tristesse le décès brutal de Christophe Chaillou, professeur à l’Université de Lille et chercheur en informatique. Plusieurs d’entre nous avons travaillé avec Christophe et nous avons souhaité lui rendre hommage en publiant cet article rédigé par ses collègues et amis.
Marie-Agnès Enard et Pascal Guitton.
Crédit photo Université de Lille

A l’origine professeur de mathématiques, Christophe fait une thèse en informatique graphique au Laboratoire d’Informatique Fondamentale de Lille (maintenant intégré au Centre de Recherche en Informatique, Signal et Automatique de Lille). Recruté maître de conférences à l’ENIC (devenu Mines-telecom Nord de France) en 1991, il rejoint l’Eudit (devenu Polytech Lille depuis) en tant que Professeur en 1996. Il prend la direction de l’équipe de recherche Graphix de 1995 à 2010. Il est mis à disposition à l’Inria de septembre 1999 à août 2001 en tant que directeur de recherche pour mettre en place l’équipe-projet Alcove, une des premières équipes du centre Inria Futurs qui allait préfigurer le nouveau centre Inria à Lille. Alcove est à l’origine d’une longue lignée d’équipes, encore actives aujourd’hui au sein de CRIStAL et/ou du Centre Inria de l’Université de Lille (MINT, DEFROST et LOKI), mais aussi à Strasbourg (MIMESIS). En 2006, Christophe et sa famille s’installent en Chine où il va travailler à l’institut d’automatique de l’Académie Chinoise des Sciences à Beijing pendant un an.
En 2010, tout en continuant ses activités d’enseignement, il va intégrer à temps partiel Pictanovo, une association française dont l’objet est la promotion et l’appui à la production audiovisuelle et cinématographique dans la région des Hauts-de-France. Durant près de 10 ans, il va fonder et suivre le déploiement d’un appel à projet destiné à rapprocher recherche universitaire, monde artistique et entreprises.
A partir de 2020, il est nommé chargé de missions Art & Sciences au sein du service culture de l’Université de Lille où il continue d’initier des projets pour rapprocher le monde de la recherche et de l’art sous toutes ses formes.

Durant toutes ces années, Christophe a mis toute son énergie à initier et développer des activités de recherche autour de la réalité virtuelle, des simulateurs chirurgicaux, des dispositifs haptiques. Il a aussi très tôt souhaité créer des liens entre arts et sciences en motivant les chercheurs d’autres disciplines que la sienne à côtoyer des étudiants dans le domaine artistique comme ceux du Fresnoy par exemple.
Très dynamique, il a formé plusieurs générations d’étudiants et les a motivés à rejoindre la recherche, encouragé et soutenu des chercheurs et enseignant-chercheurs confirmés pour s’installer à Lille et incité ses collègues à transférer leurs activités.
Générateur d’idées, il a apporté un soutien considérable au développement des recherches sur l’haptique et le retour tactile, et plus généralement sur la Réalité Virtuelle et l’Interaction Humain-Machine, à l’Université de Lille et chez Inria. Par sa volonté de construire, il a permis l’essor de ces activités et a contribué à leur rayonnement international.
Engagé, fervent militant du “travailler ensemble”, il a été souvent moteur pour faire interagir le monde académique et universitaire avec les entreprises (avec la création de la société SimEdge), les arts (avec Pictanovo et le Fresnoy) ou par le biais de son engagement sur les sujets autour du développement durable.
Christophe a sans conteste été un booster d’activités, mettant son énergie, ses qualités au service de la communauté dès lors qu’il trouvait une idée intéressante, pour l’université, pour la science et ses applications.
Nous garderons en mémoire un collègue et ami généreux et passionné, très apprécié, toujours bienveillant, et dont l’enthousiasme était contagieux.

Des amis et collègues de Christophe

Vous pouvez apporter un témoignage en hommage à Christophe sur le site du laboratoire Cristal

Policer les internets : « Vos papiers ! »

 

Lead Certification Expert at European Union Agency for Cybersecurity (ENISA)

Un ancien collègue de mes collègues, Éric Vétillard, nous a proposé un article sur les contrôles d’identité. À l’heure du numérique, cette vérification peut cacher d’autres utilisation de votre identité pas les entités qui veulent la vérifier ou connaitre votre âge sans parler de la difficulté de prouver la parenté… Pierre Paradinas.

Dans le monde physique, nous avons de longues traditions de contrôles d’identité, de vérifications d’âge, par exemple pour acheter de l’alcool. Le contrôle des certificats COVID a poussé cette tradition dans ses limites. En Grèce, je montrais le certificat de vaccination et une pièce d’identité pour manger au restaurant, mais en France, uniquement le certificat de vaccination.

Nous acceptions ces contrôles parce que le monde physique a la mémoire courte. La personne qui vérifie chaque jour l’âge ou le statut vaccinal de centaines de clients ne mémorise pas ces informations.

Le monde virtuel est très différent. Il a une mémoire infinie. C’est parfois avantageux, puisqu’il suffit enligne de démontrer son âge une fois pour toutes. Mais quelle information sera mémorisée, et comment sera-t-elle exploitée ? De nombreux services en ligne, dont les réseaux sociaux, vivent de l’exploitation des données que nous mettons à leur disposition de manière plus ou moins consciente.

Et pourtant, des contrôles vont devoir être mis en place. Après le filtrage d’âge pour les sites pornographiques, un filtrage similaire a été voté pour les réseaux sociaux. L’impact est significatif, car si il est difficile de connaître l’audience des sites pornographiques avec précision, nous savons que la grande majorité d’entre nous utilise des réseaux sociaux, et autour de 100% des adolescents, y compris de nombreux utilisateurs de moins de 15 ans. L’impact de ces vérifications sera donc très significatif, car il s’appliquera à nous tous.

Le bon sens de ces mesures est évident, si vous ne comprenez pas que le monde virtuel est différent du monde physique. Au-delà des problèmes de confiance, il y a un fort sentiment d’impunité sur les réseaux, ainsi qu’une culture beaucoup plus libre, avec beaucoup de fausses identités, de pseudonymes, de personnages fictifs,etc. Bref, il est plus facile de tricher en ligne, même moralement.

Alors, comment démontrer son âge sans confiance avec une méthode sûre et accessible à tous ? Ce nést pas évident. La carte de paiement semblait un bon moyen, mais elle de répond à aucun des critères : il faut faire confiance au fournisseur, on peut facilement tricher, et tout le monde n’en a pas. Un scan de pièce d’identité n’est pas non plus idéal, pour des raisons très similaires. Pour ceux qui pensent au code QR authentifié des nouvelles cartes d’identité françaises pour résoudre au moins un problème, pas de chance : il ne contient pas la date de naissance.

Les problèmes de confiance peuvent être réglés en utilisant un service dédié, dit « tiers de confiance », dont le rôle est de collecter des données sensibles et de ne communiquer que l’information nécessaire à d’autres entités, par exemple des réseaux sociaux. C’est plus simple que ça en a l’air : nous pourrions aller chez un buraliste, montrer une pièce d’identité, et le buraliste attesterait auprès du réseau socialque nous avons plus de 15 ans.

En même temps, au niveau Européen, la réglementation sur l’identité numérique avance lentement, et définit un portefeuille numérique qui devrait simplifier l’authentification en ligne. En particulier, ce portefeuille serait associé à une personne de manière forte, et pourrait contenir des attestations de type « Le porteur de ce document a plus de 18 ans ». Une telle attestation serait très pratique pour les contrôles d’âge requis, car elle permet de limiter l’information divulguée. De plus, une des exigences de la loi est que le fournisseur de l’attestation, par exemple l’état, ne doit pas être informé des utilisations de l’attestation, ce qui devrait rendre la constitution d’un fichier national d’utilisateurs des sites pornographiques impossible, ou du moins illégale.

Ces portefeuilles électroniques devraient être déployés d’ici à la fin de la décennie. Si les citoyens les adoptent, ils pourraient apporter une solution technique au problème de vérification d’âge. En attendant, je pense très fort aux experts de l’ARCOM qui seront en charge de définir un référentiel de vérification d’âge à la fois efficace et suffisamment protecteur de notre vie privée pour être approuvé par la CNIL.

Pour finir, une petite colle. La dernière loi sur les réseaux sociaux inclut une notion d’autorisation parentale entre 13 et 15 ans. Cette autorisation doit être donnée par un parent, qui doit donc prouver sa qualité de parent. Nos documents d’identité français, même électroniques, ne contiennent pas d’informations de filiation. Quel mécanisme pourrons-nous donc utiliser pour autoriser nos chers ados ?

Éric Vétillard

Communs numériques : explorer l’hypothèse des organisations frontières

Louise Frion est doctorante en droit du numérique. Ses travaux portent sur les communs et la blockchain. Elle a récemment publié un papier de recherche sous la direction de Florence G’Sell intitulé Les communs numériques comme systèmes alternatifs de valeur. Ce papier a fait l’objet d’une discussion publique le à Sciences Po. Elle revient ici sur quelques points saillants de sa recherche.
Ce texte est co-publié par le Conseil National du Numérique et par binaire, dans le cadre de notre rubrique sur les communs numériques.
Louise Frion

Dans votre papier de recherche, vous vous inscrivez dans la poursuite du travail réalisé par le groupe de travail sur les communs numériques conduit à l’initiative de la France au cours de la présidence française (rapport), notamment pour considérer les communs numériques comme un vecteur de renforcement stratégique pour l’Europe. Quels sont les arguments qui sous-tendent cette idée selon vous ?  

Les communs numériques sont des outils utiles pour renforcer l’indépendance industrielle de l’Europe dans les secteurs les plus stratégiques.

D’abord parce qu’ils renforcent la résilience de nos infrastructures numériques vitales grâce à des effets de réseau lié à leur nature même, en tant que biens non-rivaux. Dans le cadre de projets comme Python SciPy[1] ou Govstack[2], l’ouverture du code des briques logiciel incite les utilisateurs à corriger les bugs au fil de l’eau, voire à contribuer à l’écriture du code source pour le rendre plus efficace. Cela permet également de garantir la sécurité des infrastructures à moindre coût et de développer et de maintenir des composantes numériques réutilisables et interopérables entre elles. Cela renforce aussi l’indépendance des administrations publiques qui peuvent ainsi choisir les logiciels dont elles ont besoin pour un service public sans être dépendantes du logiciel d’une entreprise privée pour une application donnée.

Ensuite, les communs numériques sont vecteurs d’innovation et de créativité car ils sont ouverts à tous et structurés de telle sorte que toute contribution malveillante ou inutile n’est pas valorisée. Il est de fait inintéressant pour un individu ou un groupe d’individu de dégrader un commun ou de tenter de l’orienter vers d’autres objectifs car sa valeur dépend de critères socio-économiques et non financiers. Leur contribution positive à l’économie européenne pourrait atteindre 65-95Mds€ de création de valeur pour 1Md€ d’investissement[3].

Enfin, la transparence et l’auditabilité des communs numériques renforce la légitimité de nos institutions et a fortiori leur caractère démocratique, car ils offrent des outils permettant de construire des services publics et des algorithmes plus représentatifs de la diversité de nos sociétés. Ces outils réduisent les barrières artificielles qui existent entre producteurs et consommateurs de contenu, ce qui augmente mécaniquement l’offre de contenus numérique et a fortiori sa représentativité de la diversité de la société. À l’échelle locale, la plateforme open source Decidim réunit des municipalités, des organisations de quartier, des associations, des universités ou des syndicats pour configurer des espaces numériques dédiés à la participation citoyenne et les enrichir de fonctionnalités plus accessibles de type sondage, propositions de vote, suivi de résultats, etc.

Pour autant, la diffusion de la culture et de la pratique des communs n’est pas évidente. À quels grands défis sont-ils confrontés aujourd’hui ?

Les communs numériques sont confrontés aujourd’hui à trois grands défis.

D’abord, ils souffrent d’une absence de cadre juridique dédié permettant de favoriser l’engagement durable et réciproque des commoners dans un commun numérique. Les politiques publiques sont davantage dans une logique d’exploitation de la production des commoners que de support actif et financier à la construction d’infrastructures qui pourraient décharger les commoners de certaines tâches et leur permettre de se concentrer sur les évolutions du code source et les algorithmes sous-jacents.

Ensuite, les communs numériques font face à un risque de capture par des entreprises privées.  Les incitations économiques et sociales à préserver l’indépendance des commoners, dans un contexte où 96% de nos entreprises utilisent des composantes open source, sont insuffisantes à l’heure actuelle. Dans les nombreux « arrangements » entre commoners et entreprises pour développer et maintenir des projets open source, le pouvoir de négociation des commoners est trop souvent réduit. Cela se traduit par une augmentation du nombre de semi-communs, soient des espaces où commoners et salariés développent des solutions ensemble. Mais, par exemple avec le semi-commun Chromium qui coexiste avec Chrome, les contributeurs sont toutefois essentiellement des salariés de Google et ce sont des membres du management de Google qui choisissent in fine de mettre en place les modules développés dans Chromium dans Chrome, ce qui limite de facto le pouvoir de négociation des commoners.

L’enjeu pour les communs numériques ici semble être de développer des incitations pour les commoners et pour les entreprises à réconcilier les deux visions qui s’opposent entre l’open source (Linus Torvalds) qui utilise les communs pour produire des solutions plus efficaces à moindre coût et le libre (Richard Stallman) où les utilisateurs ont le droit d’exécuter, de copier, de distribuer, d’étudier, de modifier ou d’améliorer tout logiciel.

Enfin, dans un contexte de fracture numérique grandissante au niveau national (1 personne sur 6 en difficulté face au numérique en France d’après l’INSEE), les communs numériques sont encore trop éloignés de la plupart des citoyens sur le territoire national. Pour déployer leur plein potentiel, le principe digital commons first[4] n’est pas suffisant, il faut aussi que les communs numériques soient considérés comme des infrastructures essentielles par les pouvoirs publics. Cela permettrait d’impliquer davantage les citoyens dans leur construction, leur développement et leur entretien. Compter uniquement sur l’engagement bénévole des commoners pour atteindre des ambitions aussi fortes n’est pas viable à long-terme.

Pour répondre aux défis auxquels font face les communs, vous défendez aussi l’hypothèse de créer des organisations frontières ? En quoi consistent de telles organisations ?

Les « organisations frontières » sont des fondations à but non lucratifs qui ont pour objectif de régir les relations entre les communs numériques et les organisations avec lesquelles ces communs interagissent, comme par exemple les fondations Linux, Wikimedia, Apache.

Elles permettent aux commoners de maintenir leur pouvoir de négociation pour éviter de se transformer indirectement en main d’œuvre des entreprises qui s’appuient sur leur travail. Ce faisant, elles maintiennent des frontières avec les grandes entreprises pour préserver l’indépendance des communs tout en attirant les meilleurs développeurs pour contribuer. Ces organisations ont trois fonctions : préserver des modalités de contrôle plurielles sur l’évolution du code, donner une voix aux entreprises sur l’évolution du projet et représenter les communautés qui gèrent les projets.

Dans cette logique, les organisations frontières permettent de dissocier les intérêts convergents entre commoners et entreprises et de mettre en place des systèmes de collaboration qui ne menacent pas leurs intérêts divergents.

La collaboration entre commoners et entreprise est mutuellement bénéfique car :

  • – L’intérêt des commoners est d’étendre le champ d’application des logiciels libres en s’appuyant sur les ressources des entreprises ; les problématiques commerciales entrainent des problèmes techniques intéressants à résoudre.
  • – Les entreprises ont intérêt à exploiter ce marché émergent à mesure qu’il gagne en popularité auprès des utilisateurs car cela leur donne accès à de l’expertise technique pour ensuite recruter, résoudre des problèmes complexes avec des experts, et augmenter leurs marges avec des frais de licences moins élevés.

 

Mais leurs intérêts peuvent aussi diverger : les commoners veulent maintenir leur autonomie, une manière de collaborer informelle et non hiérarchique, et la transparence du code-source alors que les entreprises ont intérêt à influencer le projet dans le sens de leur stratégie, à ne pas divulguer trop d’information à leurs concurrents, en particulier sur leurs stratégies de lancement sur le marché et à mettre en place des processus de gouvernance plus formels pour garder la main sur l’évolution des projets dans le temps et mitiger les risques associés.

Dans ce contexte, les organisations frontières fournissent des cadres de gouvernance qui atténuent les divergences entre commoners et entreprises et permettent de préserver les aspects les plus critiques des deux parties[5].

Elles permettent aussi d’inciter les commoners à investir davantage de leur temps dans la maintenance du commun pour détecter plus rapidement des vulnérabilités cyber dans des infrastructures à grande échelle.

O’Mahony et Bechky, deux chercheurs de l’Université de Californie, ont identifié quelques bonnes pratiques pour qu’une « organisation frontière » soit pleinement efficaces :

  • – Ses prérogatives doivent être cantonnées aux aspects légaux et administratifs et laisser les aspects plus techniques aux commoners et aux entreprises.
  • – Elles ne doivent avoir aucun rôle sur les décisions prises au niveau du code, le droit d’accepter ou de refuser une modification étant purement individuel (en fonction du mérite technique du code) en préservant l’autonomie des
  • – Leur capacité décisionnelle doit être limitée sur la temporalité de la sortie des nouvelles versions du logiciel, cette décision devant plutôt revenir à des développeurs sponsorisés par les entreprises, qui en retour leur donnent la visibilité nécessaire sur le développement du projet en cours[6].

 

Louise Frion, doctorante en droit du numérique

Propos recueillis par Serge Abiteboul et Jean Cattan

[1] Bibliothèque open source dédiée aux calculs de mathématique complexes et à la résolution de problèmes scientifiques.

[2] Partenariat public-privé-communs pour généraliser l’utilisation de communs numériques accessibles, fiables et durables pour les administrations publiques ; commun numérique pour développer et maintenir des composantes numériques réutilisables et interopérables pour les administrations.

[3] Source : groupe de travail sur les communs numériques réunissant 19 États membres à l’initiative de la France pendant la présidence française.

[4] Le fait de considérer d’abord des solutions open source avant d’implémenter tout nouveau service public.

[5] Les auteurs utilisent les exemples de projets tels que Webserver, GUI Desktop pour rendre Linux plus accessible à des utilisateurs non techniciens, Compatibilité project et Linux distribution project pour illustrer ce point sur les organisations frontières.

[6] Dans les projets décrits par O’Mahony et Bechky, les entreprises ne pouvaient pas contribuer en tant qu’utilisateurs mais ne pouvaient pas non plus intégrer des codes-sources sans garder la main sur leur développement. Pour résoudre ce conflit, elles ont embauché des commoners sur des projets spécifiques en ligne avec leurs intérêts qu’elles ont sponsorisés financièrement. L’adhésion des commoners devait toutefois être individuelle pour préserver l’indépendance du commun. Les fondations leur ont donc donné des droits spécifiques sur la propriété intellectuelle qu’ils ont contribué à créer.

Améliorer les images pour mieux observer le monde à toutes les échelles

Notre collègue Laure Blanc-Féraud a reçu la médaille d’argent du CNRS pour des travaux de recherche qui permettent de tirer le meilleur des images afin d’en exploiter toute leur richesse. Mais comment ça marche ? Et à quoi cela peut-il servir ? Lançons nous avec elle dans une promenade du capteur visuel à son application. Serge Abiteboul et Thierry Viéville.

Bonjour Laure qui es-tu ?

J’ai d’abord choisi d’étudier les mathématiques par goût des sciences exactes. Il m’était bien plus facile de comprendre pourquoi un exercice était juste ou faux, mais plus difficile de comprendre comment améliorer une rédaction laborieuse. Puis j’ai choisi de continuer en thèse sur le traitement numérique d’image, alors à sa naissance, comparé au traitement du signal qui avait déjà quelques lettres de noblesse depuis la seconde guerre mondiale. Tout était à construire, en même temps que la puissance des ordinateurs décuplait.  Voir les résultats en image des modèles mathématiques mis en application sur ordinateur donne une dimension très réaliste à la construction mathématique abstraite et cela m’a convaincue de continuer !

D’où proviennent les images que tu vas utiliser ?

Les images proviennent de caméras associées aux télescopes embarqués sur des satellites pour l’observation de la Terre, ou aux microscopes à fluorescence pour l’étude de la cellule vivante et son environnement. Mais souvent, avant d’utiliser les images, il faut les construire, à partir de données physiques enregistrées, par exemple à partir des rayons X atténués par le corps humain et enregistrés tout autour de celui-ci par un scanner. Calculer une image d’intérêt à partir de données physiques enregistrées en surface, que ce soit des rayons X, électromagnétiques, acoustiques ou autres est une vraie difficulté rencontrée dans presque tous les systèmes d’imagerie actuels.

«Étudiante, j’ai choisi de travailler sur le traitement des images numériques car l’impact des modèles mathématiques utilisés est directement visible.»

Quel est le fondement du travail avec ces images ?

« Je m’intéresse à la capture de phénomènes qui ne sont pas directement observables, et qu’il faut reconstruire le plus fidèlement possible »

« Par exemple, l’imagerie optique est confrontée à la limite de diffraction de la lumière, ce qui fait par exemple qu’un microscope de fluorescence ne peut pas descendre en l’état à une résolution inférieure à 200 nm dans le plan latéral (orthognal à l’axe du microscope) et 500nm dans l’axe du microscope. Avec Sébastien Schaub, biophysicien spécialiste des appareils de microscopie, nous optimisons conjointement les protocoles d’acquisition et les algorithmes de reconstruction associés afin de repousser ces limites. Afin de prendre en compte les différentes composantes d’une image dans ces reconstructions, telles que les textures, contours et singularités (points, courbes), je me suis inspirée, avec Gilles Aubert, de modèles issus de la physique, que nous transférons aux images. »

On introduit donc à la fois des connaissances a priori sur le capteur lui-même et sur la nature des images observées, pour que ces connaissances fournissent des éléments permettant de reconstruire des informations qui ne sont pas directement ou que partiellement ou approximativement visibles.

Mathématicienne de formation, saurais-tu facilement expliquer comment ça marche ?

Oh oui c’est très simple : lorsqu’on capture une image à une certaine résolution, les détails plus fins que la résolution de l’appareil optique ne sont pas visibles, mais existent et sont contenus dans une certaine mesure dans l’image enregistrée mais sont flous. Ce “brouillard” peut correspondre à un grand nombre de détails différents. Pour reconstruire l’image la plus fidèle possible à la réalité, on utilise des informations sur la nature de l’image et sur la façon dont le capteur a déformé l’image.

Par exemple le phénomène de diffraction de la lumière implique qu’un spot lumineux (par exemple une molécule fluorescente) infiniment petit sera vu au travers de l’appareil optique comme une tâche lumineuse, la tâche de diffraction, représentée sur la figure suivante :

© L’autrice de l’article

Connaissant la physique d’acquisition et supposant qu’on sache que l’on image un spot lumineux (image d’intérêt cherchée), on est capable grâce à un modèle mathématiques de calculer ces données observées, soit la tâche de diffraction, à quelques faibles erreurs aléatoires près. Ainsi nous connaissons le modèle mathématique de formation des données observés :

Données enregistrées = modèle physique d’acquisition x image d’intérêt + petites erreurs aléatoires.

Il suffit alors d’inverser ce système pour trouver l’image d’intérêt, soit sur l’exemple précédent, le point lumineux.

Mais c’est là que les difficultés commencent ! Même si le système est inversible mathématiquement, du fait des petites erreurs aléatoires inévitables lors de l’enregistrement des données, l’image calculée n’est pas la bonne, les petites erreurs invisibles à l’acquisition sont amplifiées !

© L’autrice de l’article

 

 

 

Image observée, image après inversion, image vraie cherchée

Pour contrer ce phénomène, on introduit dans l’inversion des contraintes sur l’image que l’on cherche, par exemple des points lumineux, ou une image constante par morceaux comme sur l’exemple. Du fait de la variétés des images possibles, le problème devient vite compliqué. La résolution se fait alors par
Meilleure image =
Image proche des données recueillies + Vérifie les contraintes que l’on sait.

Et on cherche l’image optimale, à la fois la plus proche de ces données, mais qui minimise aussi les contraintes données qui permettent de “régulariser” cette image. Évidemment on travaille dans des espaces mathématiques complexes (les images sont des objets multi-dimensionnels avec des propriétés fonctionnelles très sophistiquées) donc trouver la meilleure image dans ces espaces est un joli défi.

Actuellement avec le développement de l’intelligence artificielle et la possibilité de développer facilement des méthodes d’apprentissage sur des réseaux profonds, les modèles d’images ne sont plus donnés par des modèles mathématiques mais sont appris sur de très nombreux exemples. Les recherches en reconstruction d’image allient les modèles mathématiques de la physique des capteurs pour définir le terme reliant les données observées à l’image cherchée, et les méthodes d’apprentissage sur de très nombreux exemples pour apprendre le modèle d’image.

Résoudre ces problèmes inverses semble bien précieux … et bien utile.

Oui « Il s’agit par exemple d’étudier l’intérieur du corps humain, d’une cellule ou d’un matériau à partir de signaux mesurés en surface. »

Un exemple très illustratif est celui de l’imagerie médicale scanner bien connue de tous. A partir d’enregistrements en surface, on est capable de reconstruire une image de l’intérieur du corps humain sans le découper en tranche. Pour cela on envoie des rayons X à travers le corps, selon toutes les orientations autour du patient (voir Fig  ci-dessous gauche). On recueille les rayons atténués par les différents éléments composant le corps à l’endroit étudié (Fig. ci-dessous milieu).

© L’autrice de l’article

 

En inversant l’équation mathématique de formation des données et en ajoutant des contraintes sur l’image cherchée, on arrive à reconstruire l’image d’intérêt (Figure c-dessus, droite).

Depuis une quinzaine d’années je travaille sur l’imagerie de microscopie par fluorescence, qui permet de voir les structures de la cellule et de son environnement, noyaux, tubulines, protéines… sur des cellules de culture vivantes, donc d’étudier leur fonctionnement, au-delà de leur forme. Mais de nombreuses structures sont plus petites que la limite de résolution, comme certains virus, filaments, ou autres. Nous avons développé un système de microscopie permettant de voir finement en profondeur, à une résolution d’une 30ène de nanomètres sur une profondeur de 400nm. Cela permet d’étudier les échanges de la cellule au niveau de sa membrane avec son environnement, lui-même fabriqué par la cellule. Il est ainsi possible de mettre en évidence l’intégrine, récepteur transmembranaire, reliant l’actine situé à l’intérieur de la cellule sous forme de filaments jouant un rôle dans le mouvement et l’adhésion cellulaire, et la fibronectine, tapis filamenteux sur laquelle la cellule adhère et se déplace [ref : E. Soubies, A. Radwanska, D.Grall, L. Blanc-Féraud, E. Van Obberghen-Schilling and S. Schaub « Nanometric axial resolution of  bronectin assembly units achieved with an efficient reconstruction approach for multi-angle-TIRF microscopy » Scientific Reports, Nature Publishing Group, Vol. 9, n 1, 2019.]

© Figure issue de l’article cité dans le texte.

Image de fluorescence de cellules endothéliales avec 4 marqueurs (a) : sous-unité α5 en vert dans le tissu intracellulaire, l’hétérodimère α5β1 en rouge en dehors de la cellule, l’actine est en magenta et les noyaux des cellules en cyan. Voir le schéma à droite pour la localisation spatiale de ces éléments, la bande bleue symbolisant la membrane de la cellule. Image (b) est la reconstruction de la hauteur, localisation des éléments α5 (intracellulaire) et α5β1 (extracellulaire).

Actuellement nous cherchons à imager finement les microtubules d’une algue toxique Ostreopsis, qui sont des filaments de son cytosquelette impliqués dans les fonctions majeures telles que la division cellulaire ou le transport intracellulaire. La visualisation précise des microtubules, élément clé dans la division cellulaire, apportera aux biologistes de nouveaux éléments dans l’étude de la prolifération de cette algue toxique.

Image confocale 3D d’Ostreopsis Ovata avec les microtubules (en blanc) et l’ADN (en magenta) (© LBDV).

Les nouveaux systèmes de microscopie de fluorescence permettent d’imager en différentes couleurs jusqu’à neuf éléments différents dans une lame histologique. Ces données sont utiles par exemple dans l’étude des récidives de cancer tête et cous. A partir de ces données nous étudions les formes et interactions entre les structures, en particulier le développement de la fibronectine, élément de la matrice extra-cellulaire qui se développe en environnement cancéreux, ses différentes formes (filaments alignés, en filet, en agrégat), sa colocalisation avec les cellules cancéreuses, et les macrophages, sorte de globules blancs. Nous cherchons des biomarqueurs, autrement dit des caractéristiques à partir de ces images, qui vont permettre de prédire la réponse d’un patient à une immunothérapie. Ces traitements ne répondent positivement que dans 20% des cas. Pouvoir prédire la réponse du traitement permettrait d’améliorer grandement le traitement personnalisé des patients.

Ces études doivent se faire en collaborations très proches entre chercheurs en traitement d’image, bio-physiciens spécialistes de l’acquisition des données images, biologistes et pathologistes pour l’interprétation et l’accès aux données patients. Chacun doit faire un pas dans la discipline de l’autre pour comprendre les enjeux, les contraintes, et construire ensemble des systèmes performants.