Impacts environnementaux du numérique : de quoi parle-t-on ?

Les activités humaines sont pour une très grande part responsables du dérèglement climatique auquel nous faisons déjà face. L’émergence du numérique, ce choc culturel auquel nous nous intéressons dans Binaire, peut également être interprétée comme un choc environnemental pour la planète : en quelques décennies, nos smartphones, nos ordinateurs ou encore le web ont déjà consommé beaucoup d’énergie et de ressources. Beaucoup certes, mais combien ? Et surtout, quelles sont nos alternatives ? Françoise Berthoud, ingénieure de recherche en informatique à Grenoble, dirige le Groupement De Service EcoInfo : « Pour une informatique éco-responsable ». Elle nous donne ici un aperçu des travaux réalisés par ce collectif de scientifiques. Antoine Rousseau

Pour un secteur dont l’impact à la fois social et environnemental est de plus en plus grand, l’informatique utilise un vocabulaire très éthéré : virtualisation, dématérialisation, cloud, intelligence artificielle, avatar… Dès lors, rien d’étonnant à ce que le numérique ne figure pas parmi les secteurs à fort impact sur les émissions de Gaz à Effet de Serre (GES). En France, on y trouve le transport, le résidentiel/tertiaire (essentiellement le chauffage), l’industrie manufacturière, l’industrie de l’énergie, l’agriculture et enfin le traitement des déchets. Point de numérique !


Voilà qui paraît confirmer les idées reçues. En outre, même si on s’accorde sur une part de 10% de la consommation électrique mondiale  consacrée au numérique (rapport du Shift Project 2018), cela ne représente pas plus de 3 % de l’énergie totale. Sans être négligeable, ce chiffre ne paraît pas être de nature à inquiéter. Par ailleurs, il existe aujourd’hui de  nombreux travaux de recherche qui proposent des pistes sérieuses pour augmenter l’efficacité énergétique des réseaux, des  centres de données, des systèmes d’alimentation autonome, des serveurs, etc. Enfin, les apports du numérique par rapport à l’environnement sont incontestables sur les aspects mesure, consolidation d’informations, modélisation ou simulation du changement climatique, de la montée des eaux, de l’effondrement de la biodiversité et du gaspillage des ressources non renouvelables. Il est même tentant de considérer que l’utilisation du numérique pourrait permettre de réduire des émissions de GES dans d’autres secteurs, comme le promet le rapport GeSI Smarter2020 (et son actualisation Smarter2030).

Impacts environnementaux du numérique : de quoi parle-t-on ?

Les principaux types d’impacts écologiques générés par les technologies numériques au cours de leur cycle de vie sont :

  • Les pollutions et dérèglements engendrés par les émissions de Gaz à Effet de Serre (GES), dûs principalement à la production de l’énergie (très carbonée en Asie, aux États-Unis et sur les sites d’extraction des métaux). Ces émissions de GES participent au réchauffement climatique et à l’acidification des océans.
  • Les pollutions des eaux, des sols et de l’air à proximité des sites d’extraction, de raffinage des métaux mais aussi des usines de fabrication dans une certaine mesure et des sites « informels » de traitement des déchets d’équipements électriques et électroniques (DEEE). Ces pollutions sont responsables d’une perte de biodiversité et de toxicité humaine.
  • L’épuisement de ressources non renouvelables comme les métaux.

À ces impacts environnementaux, s’ajoutent des impacts sociaux et sociétaux liés notamment aux conflits armés dans certaines zones d’extraction de certains métaux (République Démocratique du Congo pour le Tantale par exemple) ou aux conflits d’usage de l’eau (Amérique du Sud pour les mines de Cobalt par exemple).

Une grande partie de ces impacts ne nous touche pas directement du fait de notre éloignement géographique des zones concernées et ceci explique en grande partie les idées reçues de « propreté » de ces technologies. Il semblerait même que nous soyons collectivement et volontairement aveugles face à ces impacts.

Alors, le numérique pose-t-il problème pour l’environnement ? Pour le savoir, il faut considérer plusieurs angles du problème.

Pour commencer, reprenons les gains potentiels du numérique sur d’autres secteurs. Les techniques d’optimisation, de substitution de processus par des approches numériques ont a priori de nombreux atouts : le remplacement de la facture papier par la facture électronique, le livre par le e-book, l’optimisation des transports grâce au GPS, l’optimisation énergétique des bâtiments, la prise en compte de multiples sources dans le transport d’énergie, les applications qui permettent le co-voiturage, le télétravail etc. Ces outils devaient non seulement apporter des gains directs sur le confort ou la santé, ouvrir de nouvelles possibilités jusque-là inexistantes, mais aussi permettre des réductions significatives de GES dans les secteurs concernés, limiter la consommation de ressources non renouvelables ou réduire la destruction de la nature. Malheureusement, les quelques études complètes qui existent sur ces sujets démontrent que cet a priori tient plus de la croyance que du fait scientifique ! Le cas du télétravail est intéressant parce qu’il implique le secteur des transports qui est l’un des plus émissifs aujourd’hui dans nos pays occidentaux. De nombreux auteurs ont tenté un chiffrage précis, en essayant de prendre en compte toutes les dimensions du télétravail : transports professionnels mais aussi surface nécessaire au domicile versus locaux professionnels, transports personnels, distance au travail, équipements numériques, etc.

Figure 1 : Télétravail et émissions de GES

Il en ressort que la réduction des émissions de GES liés à une réduction du nombre de trajets pendulaires est partiellement compensée par des augmentations de GES directes ou indirectes (par exemple besoin d’une surface supplémentaire et de chauffage à la maison, éloignement du domicile, etc.). Les gains annuels du télétravail en termes d’émissions de GES, à l’échelle d’un pays comme la France – restent positifs mais faibles, loin du potentiel espéré.   Il en est de même dans le cas de la dématérialisation qui jusqu’à présent n’a pas permis de réduction de la production de papier à l’échelle mondiale. Finalement, à notre connaissance, il n’y a pas d’études sur les smartbuiding et autres technologies « smart » qui prennent en compte la fabrication de tous les objets connectés et infrastructures nécessaires à leur fonctionnement, leur recyclage, et l’énergie nécessaire à leur fonctionnement. Il n’est donc pas possible de conclure sur des  gains environnementaux significatifs !

Figure 2 : Effet rebond (illustration Eric Drezet)

Un autre phénomène très connu en économie, appelé effet rebond,  se produit lorsqu’un processus, une technique gagne en efficience (moins de moyens nécessaires pour un résultat identique). Ce gain d’efficience peut porter sur n’importe quelle ressource : monétaire, énergétique, temporelle, spatiale, etc. Alors qu’on pourrait s’attendre à une moindre utilisation des ressources ainsi libérées (énergie, temps, place, ..), ces « vides » sont très rapidement « remplis » soit de la même ressource, soit par une autre ressource. L’effet rebond peut ainsi aboutir à un dépassement des consommations initiales. Ainsi, l’omniprésence des écrans numériques n’aurait pas été possible sans leur faible épaisseur et les progrès en termes de consommation électrique, l’explosion du nombre d’objets connectés est rendue possible par la miniaturisation de l’électronique et l’efficacité des connections au réseau. Dans les deux cas, le volume occupé ou la consommation énergétique totale (en incluant la fabrication) ont de loin dépassé les économies imaginées initialement.

Ces effets indirects et rebond expliquent sans doute pour une bonne part la non réalisation des bénéfices environnementaux potentiels du numérique et appellent à une approche plus systémique dans les réflexions conduites en vue de mieux maîtriser ces effets contre-productifs.

En quoi le numérique représente-t-il une menace pour l’environnement ?

On observe une explosion de la demande de services numériques, dans les pays industrialisés mais aussi dans les pays en voie de développement. Explosion des services numériques, en diversité et par rapport au nombre d’usagers, explosion du volume des données transportées et stockées. Avec un taux de croissance de 9% par an de la consommation électrique, il faudrait une révolution technologique pour continuer à satisfaire la demande au même rythme ! Aujourd’hui 80% de nos réseaux sont occupés par des vidéos, le service proposé par Netflix occupant à lui seul plus de 10% de la bande passante. Rien qu’en France la demande double tous les ans ! (plus vite que la fameuse Loi de Moore concernant le doublement de la puissance des ordinateurs tous les deux ans !)

Figure 3 : cycle de vie (illustration Eric Drezet)

Or toute cette circulation d’information nécessite des équipements « terminaux » (nos smartphones et autres tablettes ou ordinateurs), des serveurs, des espaces de stockage, des câbles, des routeurs etc. Pour l’essentiel et compte tenu de la faible durée de vie de ces équipements (moins de 2 années en moyenne pour un smartphone), l’essentiel de leurs impacts environnementaux se concentrent pendant les phases d’extraction des ressources (en particulier les métaux) et de fabrication : 45% des émissions de GES, l’essentiel de l’épuisement des ressources et une grosse proportion de la pollution chimique. Le transport alourdit la facture écologique surtout lorsqu’il est effectué en avion. Quant aux impacts relatifs au traitement des déchets électroniques, ils sont difficiles à estimer tant le devenir des e-déchets est mal  documenté à l’échelle mondiale. Même en France, seuls 50% de nos équipements électroniques en fin de vie suivent une filière adaptée. Ce qui, à cause des pertes pendant le recyclage et des impossibilités technologiques à recycler certaines matériaux aboutit à un recyclage matière finalement très faible (de l’ordre de 3% du poids des smartphones-déchets par exemple).

Et si nous ouvrions enfin les yeux ?

Chaussons de nouvelles paires de lunettes ! Regardons de côté ! Il ne s’agit pas de condamner le numérique mais d’en voir les dessous pour réaliser que des populations, des villes voire des pays entiers souffrent et supportent nos excès et que des zones naturelles sont désormais polluées durablement.

En dépit de la valeur intrinsèque de ces objets et du progrès technologique, la pérennité des objets électroniques ne résiste pas à l’obsolescence  systémique générant un gaspillage colossal d’énergie, de matériaux, en particulier à cause de la dynamique du secteur, des effets de mode et des effets de dépendance entre les couches logicielles et matérielles.

Dans le même temps, les technologies de l’information et de la communication réduisent notre autonomie (notre capacité à nous nourrir, à communiquer, à nous déplacer en toute liberté) en nous rendant de plus en plus dépendants aux objets électroniques de notre quotidien. Et donc de plus en plus dépendants, pour se déplacer, se soigner et se nourrir à des ressources, des savoir-faire qui viennent de l’autre coté de la planète. Ces technologies participent très largement à la progression de l’interdépendance de tous les secteurs : la production d’énergie, la production de nos aliments et leur distribution, la médecine, la finance, l’éducation, la santé, les services publics etc. Dans cet environnement ubiquitaire, pas un secteur, pas un domaine de notre vie n’échappe à ce phénomène « tech».

À l’heure où la sobriété semble être la seule voie à envisager dans le contexte d’une planète à ressources finies, à l’heure où les risques de ruptures d’approvisionnement dues aux conséquences du réchauffement climatique sont pris très au sérieux, est-il raisonnable de nous rendre aussi dépendants de technologies d’une intensité énergétique énorme et qui nécessitent des déplacements de matériaux, de matières, de composants, d’équipements sur toute la surface de la terre et dans tous les sens ?  Est-il raisonnable de construire tout notre avenir sur un numérique hautement non résilient ?

Et si, à côté des instituts d’ «intelligence artificielle», à côté de nos mails, réseaux sociaux et autres bibliothèques numériques, nous redonnions une place d’honneur ce qui fait notre humanité, à nos capacités relationnelles, nos émotions, notre joie, notre capacité de coopération, nos capacités d’empathie et notre intelligence naturelle pour construire un monde désirable, où le temps ne se compterait plus en nanoseconde, en seconde mais en heure, en jours, en mois. Un temps où on ne serait pas pris en otage par la cadence de nos processeurs et la vitesse de nos réseaux, un temps où il deviendrait possible de penser le futur ! C’est mon rêve, et j’aimerais le partager avec vous.

Françoise Berthoud, ingénieure de recherche en informatique au CNRS au sein du Laboratoire de Physique et Modélisation des Milieux Condensés

Conférence (vidéo) de F. Berthoud sur ce thème dans le cadre du cycle Comprendre et agir (Grenoble, Novembre  2018).

Où va l’informatique ?

Gérard Berry a de nombreuses casquettes : scientifique, membre de l’académie des sciences, entrepreneur (Esterel Technologies), Régent » de « Déformatique » au Collège de Pataphysique, écrivain, défenseur de l’enseignement des sciences… Il a été le premier informaticien a devenir Professeur du Collège de France en 2007-2008. (Voir la page Binaire sur ce collège.) Gérard Berry quitte le Collège de France pour de nouvelles aventures. Il nous parle de son dernier cours. Serge Abiteboul

Gérard Berry, Journal du CNRS

Cette année 2018-2019 sera la dernière de mon enseignement au Collège de France. Mon cours, intitulé « Où va l’informatique ? », me permettra de fermer la parenthèse ouverte en 2007-2008, année où j’avais tenu la chaire annuelle d’innovation technologique Liliane Bettencourt avec le cours « Pourquoi et comment le monde devient numérique ». Comme c’était alors la toute première fois que l’informatique était présentée au Collège de France, j’avais délibérément choisi un enseignement destiné au grand public. J’ai ensuite traité de sujets nettement plus techniques : la modélisation du calcul, le temps en informatique, la vérification de programmes, et le langage Esterel. Fermer la parenthèse ouverte par mon premier cours veut dire pour moi revenir 11 ans après vers un cours destiné à un public large mais curieux et attentif, comme celui qu’on trouve physiquement ou par Internet au Collège de France, de faire un point sur les transformations de ce domaine en plein essor, et de tracer les lignes de force probables de son évolution.

Le paysage informatique a beaucoup changé depuis 2007, et il va encore probablement changer encore plus à l’avenir : le « numérique » révolutionne le monde. Un point symboliquement important est que, même s’il est souvent caché derrière « numérique », le mot « informatique » est enfin accepté comme désignant une discipline scientifique et technique affectant en profondeur quasiment tous les pans des techniques, des sciences, de la médecine et de plus en plus de la société toute entière. Pour mémoire, en 2007, ce mot désignait plutôt pour le public un rayon de supermarché ou les ennuis provoqués par des systèmes mal fichus, et on parlait encore de façon quelque peu condescendante de « l’outil informatique ». Mais, si le mot est mieux connu maintenant, il n’est pas pour autant mieux compris : le grand public reste largement ignorant des grandes évolutions du domaine et surtout de leurs causes scientifiques et techniques. Ces aspects sont d’ailleurs peu et souvent mal décrits dans les médias, au contraire de ce qui se passe pour d’autres sciences comme la physique ou l’astronomie où les scientifiques se sont depuis bien plus longtemps engagés dans la vulgarisation. Pour l’informatique, les principaux médias tendent à se concentrer tous ensemble sur un seul sujet à la fois. Ce furent les imprimantes 3D, qui devaient révolutionner l’industrie manufacturière mais dont on ne parle plus alors qu’elles existent toujours ; c’est maintenant l’intelligence artificielle, à laquelle on prête indifféremment des miracles ou des peurs qui n’ont pas beaucoup à voir avec la réalité. Sa composante d’apprentissage automatique obtient des succès impressionnants dans des domaines comme l’analyse d’images, la traduction des langues, et l’analyse de grandes données en général, mais ce n’est pas vraiment d’elle que parlent les journaux (la radio publique le fait bien mieux). Bien d’autres sujets tout aussi importants mais moins propices aux fantasmes sont trop rarement discutés.

Or, la société informatisée qui nous attend dépendra directement de nos choix conscients ou inconscients. La persistance d’une mauvaise compréhension des raisons de la puissance des mouvements actuels nous conduirait à subir les choix faits par les autres plutôt que d’organiser nous-mêmes notre évolution. Cela se voit déjà clairement en observant que notre pays, qui a longtemps considéré l’informatique comme une activité secondaire, est loin de faire partie des leaders du domaine (sauf pour sa recherche, qui est de niveau mondial). Mais, pour faire des choix sensés, il faut d’abord comprendre. Mon objectif sera donc d’expliquer les ressorts de l’informatique moderne au grand public, afin de lui permettre de mieux saisir ses évolutions actuelles et apprécier leurs effets positifs ou négatifs. J’insisterai sur deux sujets particulièrement essentiels pour l’avenir : la sûreté des logiciels, trop souvent atteints par des bugs allant du pénible au dangereux, et la sécurité informatique, qui devient partout un problème majeur à cause de la multiplication et de l’industrialisation des vols de données et des attaques contre les systèmes informatisés, y compris ceux qui sont reliés directement à la vie courante comme les transports, les hôpitaux et l’industrie. Enfin, j’insisterai sur l’importance de l’éducation à l’informatique, qui se met enfin en place au lycée. Les séminaires approfondiront certains de ces points.

Dans cet effort descriptif et prospectif, je m’appuierai largement sur mon livre « L’Hyperpuissance de l’informatique », écrit lors d’une année sabbatique en 2016-2017, et publié par les Éditions Odile Jacob en octobre 2017. Une autre référence importante en ce qui concerne les impacts sociaux est le livre « le temps des algorithmes », de Serge Abiteboul (titulaire de la chaire Informatique et sciences numériques en 2011-2012) et Gilles Dowek, paru en janvier 2017 aux Éditions Le Pommier.

Gérard Berry, Professeur au Collège de France

Les robots à l’hôpital

Jocelyne Troccaz est Directrice de recherche CNRS au Laboratoire « Techniques de l’ingénierie médicale et de la complexité – informatique, mathématiques et applications » de l’Université de Grenoble. Ses travaux concernent principalement la robotique et l’imagerie médicale et sont appliqués à des domaines cliniques variés. Ainsi, ses recherches sur l’aide à la biopsie de la prostate permettent le guidage plus précis de la ponction, améliorant la prise en charge du cancer de la prostate, de loin le plus fréquent chez l’homme. Ses travaux sont au cœur des activités de plusieurs start-up valorisant les travaux du laboratoire. Cet article est publié en collaboration avec The Conversation.
Le robot médical par Saint-Oma
Jocelyne Troccaz, site du CNRS

B : Jocelyne, pourrais-tu nous parler de ton domaine de recherche ?

JT : je travaille en informatique et en robotique, au service des gestes médico-chirurgicaux assistés par ordinateur. Il s’agit de concevoir, développer des systèmes, inventer des dispositifs pour aider les cliniciens lors de leurs interventions, pour le diagnostic, ou la thérapie. C’est prioritairement guidé par les besoins cliniques. On a les pieds dans la clinique et on espère aider les cliniciens à résoudre de vrais problèmes qu’ils rencontrent. Les domaines de l’informatique qui sont les plus pertinents dans mon travail sont le traitement d’images, du signal la robotique vue du côté de la programmation et de la modélisation et l’IHM.  L’IA aussi.

B : comment en es-tu arrivée là ?

JT : j’ai suivi une licence, une maîtrise et un DEA d’informatique. J’ai étudié l’intelligence artificielle avec Jean-Claude Latombe et Christian Laugier en particulier, le raisonnement géométrique pour comprendre et reproduire le mécanisme de la préhension d’objets par des robots. Il n’y avait là rien de médical. Après avoir soutenu ma thèse en 1986, je suis entrée au CNRS en 1988.  En 1990, je me suis réorientée en rejoignant un laboratoire CNRS de Technologies pour la Santé à l’Université de Grenoble, TIMC, physiquement implanté à l’intérieur du CHU. C’est là que j’ai rencontré le domaine médical et j’ai découvert que c’était à cela que je désirais consacrer mon énergie et ma créativité. Je me suis même posé la question d’entreprendre des études de médecine. Je ne l’ai pas fait, mais j’en ai appris suffisamment pour comprendre les problèmes cliniques et essayer de trouver des solutions.

B : qu’est ce qui est spécifique à la robotique médicale ?

JT : les êtres humains. Pendant ma thèse, quand on mettait des robots en marche, tout le monde se tenait à distance car c’était potentiellement dangereux. À TIMC, l’une des premières interventions que j’ai vues, c’était un bras robotisé qui passait à dix centimètres de la tête d’un patient, j’étais effarée. Le robot est à côté, voire à l’intérieur du patient. Les cliniciens sont tout proches. De plus, les tâches qu’on va faire faire au robot ne sont pas stéréotypées comme dans une ligne d’assemblage. Chaque patient est un cas particulier ; parfois aussi, les organes bougent ou se déforment, et le robot doit s’adapter en permanence. Et puis, un bloc opératoire est un environnement très contraint en termes d’espace, avec des contraintes de propreté, des contraintes électromagnétiques, etc., et toute une batterie de règlements auxquels il faut obéir.

crédits: KOELIS) : Utilisation de la fusion d’images en urologie pour les biopsies de prostate : visualisation per-opératoire d’une zone cible (en rouge) et de la forme de la prostate (maillage) issues de l’IRM préopératoire ainsi que des biopsies déjà réalisées (cylindres verts, jaunes et rouges).
crédits: KOELIS : Utilisation de la fusion d’images en urologie pour les biopsies de prostate : visualisation per-opératoire d’une zone cible (en rouge) et de la forme de la prostate (maillage) issues de l’IRM préopératoire ainsi que des biopsies déjà réalisées (cylindres verts, jaunes et rouges)

 

B : ce sont toutes ces contraintes qui guident les comportements des robots ?

JT : les images du patient sont à la base des décisions. Il faut être capable d’y lier la planification des gestes. Il faut fusionner des informations provenant de plusieurs sources, modéliser des processus de déformation des organes sur lesquels on agit. On utilise des capteurs, mais on utilise aussi des modèles statistiques, biomécaniques, ou mixtes. Il faut également gérer les interactions entre l’utilisateur et le robot.

Et d’autres problématiques peuvent intervenir. Par exemple, pour des minirobots qui vont dans le corps du patient et peuvent y demeurer, on a la question des sources d’énergie. On travaille sur un tel robot et on se propose de lui fournir de l’énergie en utilisant les ressources du corps humain (sucre, ions, etc.). On fait coexister biologie et robotique.

C’est par exemple, le M2A, un objet autonome à peu près de la taille d’un gros antibiotique. Le patient l’avale ; dedans il y a une caméra, de la lumière, des batteries ; ce dispositif prend des images de l’intérieur du tractus digestif, et périodiquement les envoie à un boîtier qui se trouve à la ceinture du patient. C’est utile pour des examens endoscopiques, en particulier pour la zone médiane de l’intestin qu’il est difficile à atteindre par moyen classique. Ce type de système est passif et de nombreuses équipes cherchent à pouvoir en contrôler la trajectoire.

B : quels sont les grands défis de ta discipline ?

JT : un défi est la question de l’autonomie décisionnelle des robots. Par exemple, en radiothérapie, on délivre des rayons X sur une tumeur, et plus il y a des incidences nombreuses avec des petits faisceaux, plus vous pouvez être précis. C’est comme faire de la peinture avec un rouleau ou avec un pinceau fin.  Un robot nommé Cyberknife  existe actuellement en radiothérapie, et il porte un système d’irradiation. À ce robot, les chercheurs ont ajouté la capacité de suivre la respiration du patient. Quand on respire, la tumeur bouge. Ils ont développé un modèle qui corrèle le mouvement  facilement détectable de la cage thoracique avec celui de la tumeur, et le robot utilise cela pendant le traitement pour mieux diriger les radiations vers celle-ci.  Avec une telle autonomie de prise de décision, il faut garantir la sécurité ; le partage des prises de décision avec un opérateur humain devient un défi important. Aujourd’hui, l’homme décide, le robot réalise. Mais on assiste à un début de glissement : le robot décide certaines choses. Plus on aura des robots qui agissent de manière un peu autonome sur des tissus mous où tout n’est pas modélisable a priori, plus ces questions se poseront.

Un autre défi, qui n’est pas spécifiquement lié à la robotique, c’est de pouvoir démontrer une valeur ajoutée clinique. Qu’on développe un dispositif, un robot, ou une méthode de traitement d’images médicales, il faut en faire une évaluation technique : cela doit être correct, répétable, et conforme à ce qu’on devrait avoir. Mais il faut aussi démontrer un bénéfice clinique : par exemple, il y a moins d’effets secondaires, ou le patient passe moins de temps à l’hôpital, ou ça coûte moins cher, etc. Ce n’est pas toujours simple. Par exemple on parle beaucoup du robot médical Da Vinci, mais il coûte très cher et en ce qui concerne son bénéfice clinique pour les patients, les études sont contradictoires. Par contre, il est certain que la formation des cliniciens à la technique de laparoscopie est beaucoup plus simple et rapide avec ce robot.

Il y a des difficultés spécifiques au travail avec des cliniciens. Quand on travaille avec des gens d’un domaine différent du sien, il peut être difficile de se comprendre. Déjà, il y a le problème du vocabulaire : la première année, je ne comprenais rien au jargon médical.  On finit par apprendre et on découvre alors le plaisir d’interagir avec des personnes d’une culture très différente. C’est une chance et une richesse d’avoir un labo si proche des cliniciens du CHU.

B : n’y a-t-il pas un risque, pour l’humain, d’être dessaisi du pouvoir décisionnel, de se retrouver juste là à admirer ce que fait le robot ?

JT : de mon point de vue, l’idée n’est pas de remplacer le clinicien. Pour les choses que nous faisons bien, ce n’est pas la peine de remplacer l’humain par une machine ; il y a beaucoup de choses que l’humain fait mieux que le robot. Pour la dextérité, les gestes fins de l’humain peuvent être excellents grâce à sa perception haptique. Pour l’intelligence, l’humain est très bon en ses capacités d’analyse et de prise de décision surtout dans des conditions critiques.  Il faut voir ces dispositifs comme le moyen de faire faire aux robots des choses que nous ne faisons pas bien nous-mêmes ou avec des moyens non robotisés. Aujourd’hui, si on confie des tâches à un robot qui travaille de manière autonome, ce sont des tâches encore limitées ; par exemple, quand le robot se synchronise sur la respiration du patient pour la radiothérapie.

Évidemment, je parle de la situation actuelle, mais avec le deep learning et les évolutions futures, il y aura sans doute de plus en plus de tâches et des tâches de plus en plus complexes qui seront déléguées à des machines. En tout cas, ce qui me semble fondamental, c’est que si un robot prend des décisions, il puisse les expliquer aux humains qui l’accompagne et que ces méthodes permettent l’interaction et la prise de décision conjointe.

Crédits: CHU Grenoble Alpes : Utilisation d’un robot porte-endoscope contrôlé par commande vocale. Le dispositif développé au laboratoire TIMC a été industrialisé par la société Endocontrol Medical

B : de ta formation initiale, qu’est ce qui t’a été utile pour ta recherche ?

JT : à l’époque, en informatique, on apprenait surtout à programmer, à faire de l’algorithmique. Ça apprend à réfléchir de manière méthodique, et structurée c’est extrêmement important. On enseignait aussi les algorithmes numériques, qui ne me passionnaient pas, mais je le regrette un peu, car ça m’est utile tous les jours. Mes cours d’électronique, je ne suis pas sûre que ça m’ait servi à grand-chose. Globalement, je crois que ma formation m’a assez bien préparée. Et puis, on apprend beaucoup « sur le tas » : la robotique, je l’ai apprise en faisant ma recherche parce qu’elle n’était pas encore enseignée. Par contre, les mathématiques de base, les manipulations de matrices par exemple, c’est évidemment indispensable et ça, il vaut mieux l’avoir appris dans ses études. Peut-être une chose qui m’a manquée, c’est  d’apprendre une méthodologie expérimentale, pour concevoir une expérience, analyser ses résultats, comprendre ce qui ne marche pas. J’ai surtout appris cela « sur le tas ».

B :  apprendre « la robotique », qu’est-ce que ça veut dire ?

JT : dans mon premier laboratoire, on travaillait sur les aspects algorithmiques de la robotique, la modélisation géométrique, la prise de décision. En arrivant à TIMC, je m’imaginais connaitre la robotique, mais j’y ai découvert d’autres aspects indispensables : la calibration de robot, la préparation de manips, le contrôle de plus bas niveau du robot et bien évidemment l’imagerie qui nourrit la planification du robot. Ce que j’aime dans la robotique, c’est la diversité des tâches et des disciplines concernées. Nous écrivons beaucoup de programmes informatiques. Mais, il nous arrive aussi de concevoir des robots, c’est à dire d’inventer des dispositifs nouveaux d’un point de vue architectural, d’un point de vue physique, introduisant de nouvelles formes d’interactions avec les humains. On va jusqu’à la réalisation de ces dispositifs, y compris leur mise en œuvre clinique.

B :  quelles sont des choses que tu as faites et dont tu es particulièrement fière ?

JT : je suis fière de travaux sur la « co-manipulation » réalisés dans les années 90 que j’appelais « robotique synergique » et qui étaient très innovants. L’outil est porté par le robot mais tenu également par l’opérateur humain. Ainsi le robot peut « filtrer » les mouvements proposés par l’opérateur. Cela permet de faire cohabiter planification globale et ajustement local, assistance robotisée et sécurité car le clinicien est « dans la boucle ». Cette approche intéresse beaucoup les cliniciens.

Les autres choses dont je suis le plus fière sont les systèmes qu’on est arrivé à amener jusqu’à une utilisation clinique.  Il n’y a rien de plus gratifiant que de voir son propre système utilisé sur des patients en routine clinique. Par exemple, je travaille avec le CHU de Grenoble et la Pitié-Salpêtrière sur le cancer de la prostate depuis longtemps, du point de vue à la fois du diagnostic et du traitement.

Côté diagnostic, pour faire une biopsie de la prostate, il y a des carottes de tissu qui sont prélevées puis examinées au microscope. Ces biopsies sont faites sous contrôle échographique, avec une sonde mise dans le rectum du patient. Or la prostate est un peu comme une châtaigne, et quand on bouge la sonde ça bouge la prostate ; du coup ce n’est pas très facile de savoir où est faite la biopsie. En cas de cancer, la recommandation en France, c’est de faire 12 biopsies, les « mieux réparties possibles » dans la prostate.  Comment vous faites pour bien les répartir ? L’idée qui a germé a été de développer des méthodes de fusion de données ultrasonores, échographie et IRM. On travaille en 3D. On a développé des méthodes de recalage d’image pour s’orienter dans l’espace. J’ai eu la chance d’avoir deux étudiants en thèse brillants, l’un urologue et l’autre d’une école d’ingénieur sur ce thème. Les méthodes de recalage en trois dimensions se sont avérées robustes et complètement automatiques. Cela a débouché sur un dispositif industriel de la société KOELIS. Plus de 250 000 patients ont maintenant eu des biopsies avec ce dispositif, dans 20 pays, sur 4 continents.

Au début, certains urologues disaient que ça ne servait à rien, qu’ils se débrouillaient bien sans, mais leur point de vue a évolué. La chirurgie peut avoir des effets secondaires graves d’incontinence ou d’impuissance, et les gens se posent donc beaucoup de questions sur la décision de traitement et son type, alors si on sait mieux faire les biopsies, on peut faire un traitement plus adapté. Les gens ont commencé à dire qu’au lieu d’enlever la prostate toute entière, si on localise mieux le cancer, on peut n’enlever qu’une partie de la prostate. On était dans une phase d’évolution de la pratique clinique et l’outil développé allait dans le sens de cette évolution. Il est maintenant très bien accueilli.

L’informatique s’est rendue indispensable à la médecine. On a construit les premiers scanners il y a cinquante ans. Le scanner n’existerait pas sans l’informatique. Les dispositifs d’imagerie qui sont capables de reconstruire une image en trois dimensions à partir de radios n’auraient pas d’existence s’il n’y avait pas de tomographie.

B :  comment vois-tu une bonne formation d’étudiants ?

JT : pour ce qui est de l’informatique, ce serait bien si les élèves avec un master d’informatique avaient une formation un peu plus homogène. C’est génial de picorer des choses à droite à gauche, mais ça rend leur intégration plus difficile pour nous, car les étudiants peuvent avoir le diplôme et avoir des lacunes importantes sur des aspects basiques de l’informatique.

Pour ce qui est de la formation en médecine, on voit se développer des simulateurs informatisés pour la médecine et la chirurgie. Les étudiants ne pratiquent plus une opération la première fois directement sur un corps vivant ou sur un cadavre, ils s’entrainent sur des simulateurs. L’informatique est utile pour cela aussi.

On a développé un simulateur de biopsie, pour enseigner aux étudiants à faire des biopsies sur simulateurs avant de les leur faire réaliser sur des patients. Pour la biopsie de la prostate, il y a eu une expérimentation avec deux groupes d’étudiants en médecine, un groupe avec une formation traditionnelle sur cadavre, et un groupe formé sur le simulateur. Le groupe formé avec simulateur était vraiment meilleur.

La recherche à l’interface entre santé et informatique est passionnante. La plupart de nos étudiants attrapent très vite la fibre. Même si parfois, les challenges posés à l’informatique sont hyper intéressants et que cela peut conduire à des résultats fondamentaux, nous sommes également très motivés par la résolution de questions posées par la santé.

Serge Abiteboul, Inria & ENS, Paris, Claire Mathieu, CNRS & Univ. Paris VII

Wikipédia : 270 profils de femmes scientifiques contemporaines

Jess Wade, chercheuse spécialisée dans les appareils électroniques en plastique, a décidé de s’attaquer au problème de la sous-représentation des femmes dans les branches scientifiques. Afin de mettre en avant les grandes femmes scientifiques, elle rédige des fiches Wikipédia sur certaines d’entre elles.

Des portraits qu’elle a partagés sur Twitter avec le hashtag #womeninSTEM (STEM désignant Science, Technology, Engineering, et Mathematics).

En six mois, Jess Wade a écrit 270 pages Wikipédia sur des femmes ayant eu une influence dans la recherche scientifique. De quoi susciter des vocations chez les jeunes filles.

Pour aller plus loin :

L’article dans son intégralité (Science digital)

En France, 21 % des ingénieurs sont des femmes. 13 % aux États-Unis. Lire l’article de Forbes : « 21% des ingénieurs sont des femmes en France. Ce n’est pas une fatalité»

La brochure : « 40 femmes scientifiques remarquables du XVIII siècle à nos jours« .

 

 

Le livret d’activités « Science au féminin »

 

 

Ce billet est repris du site de ressources de médiation scientifique pixees.fr.

Tezos : une cryptomonnaie à 232 millions de dollars

En juillet 2017, Tezos fait une entrée fracassante dans le monde des crypto-monnaies : elle attire 232 millions de dollars dès son lancement. Effet de mode ou réelle nouveauté monétaire ? L’histoire le dira… Il est clair cependant que la blockchain Tezos renouvelle assez largement le genre, et fait appel à des techniques informatiques particulièrement pointues, s’appuyant sur des liens forts avec le monde de la recherche. Vincent Botbol, récemment docteur de Sorbonne Université, participe au développement de Tezos au sein de l’entreprise Nomadic Labs. Il nous fait visiter le monde de cette monnaie qui a pour objectif d’être formellement prouvée, équitable et sans dépenses énergétiques inutiles.

Vincent Botbol. Crédits : Ghiles Ziat

Binaire : pourquoi une nouvelle monnaie ?

VB : En 2014, un white paper (livre blanc) est publié, identifiant les défauts des crypto-monnaies comme Bitcoin et Ethereum, et posant les principes d’une nouvelle monnaie qui serait plus juste et plus fiable. Un prototype est développé par OCamlPro, entreprise spécialisée dans le développement logiciel à l’aide dOCaml. OCaml est un langage de programmation né en France, et conçu pour être particulièrement propre et rigoureux*. Finalement, en 2017, le projet Tezos est vraiment lancé.

Binaire : pourquoi le projet Tezos a-t-il séduit tant de monde ?

VB : Tezos résout un certain nombre de problèmes posés par le Bitcoin. En particulier, il est pensé pour être équitable entre les détenteurs de monnaie, et pour ne pas pousser à la débauche de temps de calcul. On parle de proof of stake, ou preuve d’enjeu, pour décrire le procédé du Tezos : il s’agit d’obtenir un consensus de manière distribuée entre les utilisateurs, possesseurs de Tezos, qui valident les transactions. Par ailleurs, le Bitcoin est très gourmand en énergie, incitant les gens à acheter des serveurs dédiés. Tezos évite cette débauche de temps de calcul. Je pense que ce qui a principalement séduit, c’est la solution alternative que propose Tezos au mécanisme énergivore de Bitcoin et d’Ethereum. Avec le succès de Bitcoin et d’Ethereum, la situation est devenue énergétiquement hors de contrôle. On a calculé que la dépense énergétique de cette méthode équivalait à celle d’un pays comme l’Irlande, selon le site digiconomist. De plus, elle favorise ceux qui ont accès à de l’électricité et à du matériel à des prix réduits.  

Binaire : comment évite-t-il la débauche énergétique ?

VB : avec une crypto-monnaie comme le Bitcoin, on demande aux gens d’effectuer des calculs pour gagner de l’argent. Or, la plus grosse part de ces calculs sont inutiles : ils consistent à tirer des nombres au hasard jusqu’à trouver un résultat qui fonctionne !

Les calculs utiles sont ceux qui permettent de vérifier la validité des transactions : quand Alice veut envoyer de l’argent à Bob, cette transaction est ajoutée dans un bloc. Le bloc doit être envoyé par un autre utilisateur de la blockchain avec un certificat de validité, garantissant que la transaction est correcte (qu’on n’oublie pas, par exemple, d’enlever de l’argent à Alice, ou bien qu’on n’en ajoute pas trop à Bob, etc). Cette opération coûte un certain temps de calcul. Les émetteurs de blocs gagnent donc des Bitcoins, en échange de leurs calculs.

Mineurs de charbon. Crédits : National Institute for Occupational Safety and Health (NIOSH) from USA via Wikimedia Commons

Mais comment faire pour décider qui peut envoyer un bloc ? Pour Bitcoin, ce problème est résolu par une course au calcul : on ajoute un mécanisme qui rend artificiellement les calculs difficiles. Le premier qui termine tout le calcul peut envoyer le bloc, et donc gagner de l’argent. Or, la partie difficile du calcul est artificielle, et donc complètement inutile ! Elle ne sert qu’à départager les mineurs. Plus il y a d’utilisateurs de la blockchain, plus il faut accroître la difficulté du calcul, plus on a des calculs inutiles. Par ailleurs, plus Bitcoin devient profitable, plus les gens sont prêts à investir du temps de calcul, c’est-à-dire de l’énergie. Ce phénomène, qui pousse les gens à organiser un minage intensif et très coûteux en énergie, est un défaut bien connu du Bitcoin. L’idée dans Tezos est de conserver la partie utile du calcul, celle qui réalise les transactions et coûte très peu cher, et de supprimer la partie coûteuse et inutile. 

Binaire : et donc, la blockchain Tezos n’est pas la même que celle du Bitcoin ?

VB : non, pas tout-à-fait. On a toujours le principe d’une blockchain, c’est-à-dire d’un registre décentralisé des transactions effectuées qui permet de savoir qui possède quoi. Les blocs sont calculés par les utilisateurs, ou mineurs : ça aussi, c’est pareil. Mais pour éviter les calculs superflus, Tezos utilise un mécanisme différent de Bitcoin. Au lieu de faire une course au calcul, la blockchain de Tezos choisit un seul utilisateur pour envoyer un bloc. Chaque utilisateur peut se voir attribuer des blocs, donc la récompense, avec une certaine probabilité. Ainsi, on ne calcule que ce qui est nécessaire.

Binaire : l’attribution se fait aléatoirement ?

VB : oui, aléatoirement mais avec une probabilité qui dépend du nombre de Tezos détenus. En clair, plus on possède de Tezos, plus on a de chance de se voir attribuer des blocs, dont le calcul rapporte de nouveaux Tezos.

Binaire : alors, les riches s’enrichissent ? Pourquoi ce choix ?

VB : en fait, il s’agit de rétribuer les détenteurs de Tezos et de les impliquer dans le développement de la monnaie, à hauteur de leur investissement. Plus quelqu’un possède de Tezos, moins il a intérêt à ce que le processus déraille ou se bloque ! On favorise donc, en moyenne, les détenteurs de la monnaie plutôt que ceux disposant de fermes de serveurs dédiées uniquement à des calculs superflus. Cela dit, tout le monde a une chance de se voir attribuer des blocs. Finalement, c’est une sorte d’épargne : on gagne de l’argent en proportion de ce qu’on a investi. 

Binaire : vous êtes docteur en informatique, et développeur Tezos. Comment passe-t-on du monde de la recherche au monde des blockchains ?

VB : en fait, ce ne sont pas des mondes si éloignés que ça ! Une partie des travaux en cours sur Tezos relèvent de la recherche. D’ailleurs, Nomadic Labs, une entreprise qui développe Tezos, emploie en majorité des docteurs, dont quelques maîtres de conférences. La Fondation Tezos, qui gère les fonds, finance aussi assez largement des projets de recherche en lien avec les problématiques du projet Tezos. C’est encore une originalité de cette monnaie : ses créateurs ont l’ambition de produire un code absolument fiable. Plus que fiable, en fait : certifié sans erreurs, sans bugs. Quand on achète d’une monnaie, on veut, légitimement, pouvoir faire confiance aux programmes qui en vérifient les transactions. Or, ce type de travaux fait appel à des méthodes formelles de vérification de programme, qui relèvent encore largement de la recherche.

Binaire : pouvez-vous nous expliquer comment c’est réalisé ?

Voting on a conference location. Crédits : Sebastiaan ter Burg via Wikimedia Commons

VB : d’abord, au niveau du développement, le code de Tezos est open-source (disponible sur gitlab). Comme dans la blockchain, les bugs identifiés sont patchés au fur et à mesure, mais, contrairement au Bitcoin, on laisse aussi au public la possibilité de proposer et de voter pour de nouvelles fonctionnalités. Par exemple, si des utilisateurs proposent un patch permettant d’ajouter des actes notariés, l’entièreté de la communauté peut voter (ou déléguer son vote) pour ou contre cette nouvelle fonctionnalité. Si cette proposition obtient suffisamment d’approbation, elle sera mise en place sans pour autant sortir de la monnaie. De la même façon que pour l’attribution des nouveaux blocs, ces fonctionnalités, qui peuvent concerner par exemple le protocole économique du Tezos, sont soumises à l’approbation des détenteurs de Tezos.

Binaire : mais vous parliez d’un code garanti sans bugs ?

VB : oui ! Nous souhaitons prouver formellement le code. C’est un aspect qui m’enthousiasme dans ce projet. En thèse, j’ai travaillé dans le domaine de l’interprétation abstraite, un ensemble de méthodes permettant de prouver formellement qu’un programme est exempt de certains types de bugs – et cela sans même faire tourner le programme ! Ce qui est difficile, en vérification de programme, c’est d’analyser toutes les traces possibles du programme, c’est-à-dire, les valeurs prises par les variables pendant que le programme tourne. On peut observer une trace, c’est assez facile puisqu’il suffit de faire tourner le programme sur une entrée qu’on choisit. Mais les observer toutes ? On sait, théoriquement, que c’est un problème indécidable. Aïe ! Au lieu d’essayer de regarder toutes les traces, l’interprétation abstraite les regroupe dans un ensemble plus grand, une sorte de gros paquet qui, en général, contient des fausses traces en plus des vraies – mais qui contient au moins toutes les vraies traces. Si on sait calculer automatiquement ce gros paquet, et si ce gros paquet évite des zones dangereuses bien identifiées (par exemple celles où des variables prennent des valeurs trop grandes, non autorisées), alors on a prouvé que le programme n’avait pas de bug, au moins au sens de ces zones dangereuses !

Par exemple, on peut plus facilement savoir que la valeur d’une variable du programme sera toujours positive que de connaître toutes les valeurs possibles que peut prendre cette variable (indécidable dans le cas général). Ce type d’information peut être suffisant lorsque la variable représente un compte en banque et que l’on souhaite s’assurer qu’il n’est pas possible de dépenser de l’argent inexistant. 

Binaire : alors, si on sait ce qu’est un bug, on peut l’éviter ?

Difficile de repérer toutes les traces dans le sable. Mais on voit aisément qu’elles évitent les obstacles ! Crédits : Sharon Mollerus via Wikimedia Commons

V.B. attention, ce n’est pas si simple. D’abord, savoir ce qu’est un bug est une question compliquée : il faut pouvoir l’exprimer dans un langage logique, de façon à pouvoir appliquer les méthodes formelles dont nous parlions. Or, de nombreux bugs se produisent justement parce qu’ils n’ont pas été prévus !

Binaire : et s’ils sont prévusça devient facile ?

VB : toujours pas ! D’abord, calculer les paquets de traces automatiquement à partir du programme, c’est loin d’être aisé. En plus, parfois le gros paquet de traces traverse une zone dangereuse, mais c’est en fait une fausse trace qui cause le problème. Avec les vraies traces, on n’avait pas de bug ! Il faut donc calculer des approximations suffisamment précises – or, calculer des approximations parfaitement précises, comme on l’a dit, est indécidable. Voilà pourquoi vérifier automatiquement des codes grands et complexes, comme celui du Tezos, relève encore de la recherche. Cependant, une grosse difficulté de la vérification de programme provient de la manière dont les programmes sont écrits. Tezos a justement été conçu de manière à pouvoir appliquer facilement ce type de vérification. Et là, je ne vous ai parlé que de mon domaine de recherche, nous utilisons aussi d’autres méthodes, qui sont complémentaires. 

Binaire : finalement, que fait-on avec 232 millions de dollars ?

VB : cela a été un peu compliqué à organiser, et le monde de Tezos a connu des tensions qui n’en ont pas facilité le développement. Aujourd’hui, la situation est stabilisée. L’argent est géré par la Fondation Tezos, basée en Suisse, qui gère l’écosystème Tezos, finance le développement du code et les travaux périphériques, par exemple pour produire les preuves dont je parlais plus haut. Le code de Tezos étant open-source, tout le monde peut participer au développement. Nomadic Labs, l’entreprise qui m’emploie, est un des organismes subventionnées par la fondation pour développer des outils.

Interview réalisée par Charlotte Truchet, Maître de conférence en informatique, Université de Nantes

(*) voir notre article A la recherche du logiciel parfait avec Xavier Leroy, un des concepteurs de ce langage

Continuer la lecture de « Tezos : une cryptomonnaie à 232 millions de dollars »

Le codage est un langage, mais pourquoi et comment ?

L’informatique est sujet bien trop sérieux pour n’être réservé qu’aux informaticien·ne·s. Et si en France, l’apprentissage du code est une activité qui invite au collège les enseignant.e.s de mathématique et de technologie à se rencontrer, la pluridisciplinarité va bien au delà. Le codage est un langage disait Jean-Michel Blanquer en tant que ministre français de l’éducation nationale. Pour mieux comprendre ce lien donnons la parole à, Rupert Meurice de Dormale, qui propose de Belgique un éclairage et des solutions pour mettre en œuvre cette idée.Thierry Viéville.

Profs de français, dans l’intérêt de vos élèves, apprenez-leur à coder !

– Mais le codage, c’est pour les matheux…
– Pas vraiment, en codage, on parle de langage, de syntaxe et même de grammaire, mais jamais de dérivée ni d’intégrale…
– Le codage, c’est compliqué et c’est long à apprendre…
– Pas toujours, tout dépend de la méthode utilisée. Nous y reviendrons ci-dessous.
– Et qu’est-ce que le codage peut apporter à mes élèves ?
– Aux excellents élèves, juste de comprendre ce qu’est l’informatique. À tous les autres, beaucoup plus.

Le codage est un langage

Le codage est omniprésent. Prenons le code de la route. Si le sens donné aux panneaux routiers varie d’un usager à l’autre, c’est l’incompréhension et l’accident.
Il en est de même dans la communication. Certains mots structurent le message. Si le sens donné à ces mots varie entre vous et certains de vos élèves, c’est l’incompréhension et l’accident. Illustrons cela.

Dans l’exemple utilisé, les parties de la phrase ont trois statuts différents :

  1. « la boulangère tranche le pain » est une action simple ;
  2. « le client le demande » est une condition ;
  3. « Quand » est une structure de contrôle qui subordonne l’action à la condition. C’est une variante du « Si… alors… sinon… » comme le sont les mots « lorsque, dans le cas où… ».

Si cet exemple peut paraître simpliste, il n’est pas certain que tous les élèves en comprennent réellement le sens. Chaque « mot-plan » fait appel à l’un ou l’autre schéma mental, une « tournure d’esprit » établissant un rapport entre certaines parties du message perçu. Chacune des erreurs d’interprétation d’un « mot-plan » est un nouveau handicap pour l’élève et, ces mots particuliers, il y en a vraiment beaucoup dans nos messages, qu’ils soient oraux ou écrits.

Le codage est un levier pédagogique

Comme avec Classcode.fr on apprend à coder pour développer sa pensée. ©vsp.fr

En Belgique, lorsque qu’un élève en difficulté est repéré,  il est généralement orienté vers un cours de soutien à l’attention d’un·e enseignant·e qui va redoubler d’efforts, d’exemples, d’exercices… en restant au niveau d’une communication abstraite. Mais le problème de l’élève est le décodage de cette abstraction, du sens attribué aux mots. Doubler ou tripler les messages abstraits risque de s’apparenter à un « pédalage dans le vide ».

Est-il possible de réaliser des jonctions « Abstrait ↔ Concret » ? Des situations dans lesquelles la pensée de l’élève se concrétiserait, lui montrant de façon patente si son raisonnement est correct ou non et pourquoi ? La réponse est OUI. C’est le cas notamment en robotique. L’élève imagine un programme, lance le robot et celui-ci, imperturbablement, va effectuer le code reçu de la même façon, effectuant sa tâche avec succès ou reproduisant opiniâtrement la même erreur jusqu’à ce que celle-ci soit corrigée de façon adéquate. L’élève est alors amené à remanier ses schémas mentaux jusqu’à ce que ceux-ci permettent la réalisation correcte de la tâche par le robot.

Vous me direz que tout cela est bien sympathique de réaliser des carrés, des ronds, voire des rosaces, mais que c’est un peu faible et peu en rapport avec la maîtrise du langage naturel. Exact ! C’est ici qu’intervient la « robotique virtuelle » créant des « univers » variés adaptés à la maîtrise de trois types de « mots-plans » :

  1. Les structures conditionnelles telles que celle rencontrée dans l’exemple ;
  2. Les opérateurs logiques « et, ou » et leurs contraires ;
  3. Les structures répétitives et leurs conditions d’arrêt.

Cela permettra déjà à l’élève de vérifier ses schémas mentaux pour une quantité importante de « mots-plans ». Suffisamment en tout cas pour que les cours de soutien, s’ils sont toujours nécessaires, retrouvent de leur efficacité.

Un outil au service d’une seconde chance scolaire

Proposer une seconde chance,à travers la découverte de la pensée informatique, est une réalité dans nos classes. ©vsp.fr

On l’aura compris, la prévention est préférable à la remédiation, la pratique du codage est souhaitable pour la totalité des élèves à partir de 10-11 ans. Tout le monde semble convaincu du fait que le codage représente l’avenir de la Nation, même si les raisons invoquées ne sont pas toujours nécessairement les mêmes. Mais qu’à cela ne tienne si c’est « bon pour plein de choses », il n’y a plus qu’à mettre cela en œuvre.

Et, concrètement, comment faire ? Passons sur la pléthore des nouvelles méthodes, leurs qualités et leurs défauts étant à découvrir derrière leurs brillants emballages. La méthode proposée est l’aboutissement de plus de 50 années d’expérience cumulée de deux pédagogues ayant enseigné à plusieurs centaines d’élèves, d’étudiants et d’adultes. La méthode est interactive, à utiliser seul.e ou en groupe, accessible en ligne de façon anonyme, libre et gratuite.

La première étape, essentielle et la plus intéressante, est l’acquisition de l’algorithmique, c’est-à-dire l’art d’organiser « les choses » pour arriver au résultat escompté. Cette étape sera capitale pour la restauration des structures organisationnelles des messages chez les élèves en difficulté, mais pas seulement. Pour l’ensemble des élèves, l’algorithmique développera la rigueur de la pensée, la logique, l’abstraction, l’analyse et l’anticipation. Tout pratiquant de l’algorithmique améliorera sensiblement sa façon de penser, de s’exprimer, sa compréhension à la lecture et son apprentissage dans toutes les matières faisant appel à l’application de règles (grammaire, mathématiques, sciences,…), règles qui sont elles-mêmes… des algorithmes. Des progrès importants ont été constatés, notamment chez des enfants malentendants.

Il est essentiel pour l’élève de savoir quelles parties du message doivent être escamotées ou prises en compte (structures conditionnelles), quelles sont celles qu’il faut répéter (structures répétitives), le sens d’un « et » et d’un « ou » et de leurs contraires (opérateurs logiques). Quand la méthode utilisée est bonne, le codage permet cela de manière pédagogique pour les élèves ayant un faible sens de l’abstraction.

Une méthode est une ressource librement utilisable

La méthode préconisée va permettre d’aborder les trois structures définies ci-dessus au moyen de 25 exercices progressifs présentés comme des défis. Ces 25 défis sont regroupés en trois chapitres, chacun organisé de la façon suivante :

  1. Quelques notions de théorie ;
  2. Des questions sur ces notions de théorie avec correction immédiate ;
  3. Les défis correspondant au chapitre.
fadagogo est un site dédié à l’enseignement à distance de diverses matières, dont l’infor­ma­tique, avec des ressources librement réutilisables.

Chaque défi consiste en un robot virtuel à piloter. Les capacités du robot et sa tâche sont décrites de façon précise afin de fixer son « univers de fonctionnement ». Cette précision permet de tirer parti aussi bien des réussites que des erreurs, celles-ci pouvant servir de contre-exemples. Les messages d’erreur sont soignés afin de permettre à l’élève de fonctionner au maximum en autonomie. L’enseignant.e est ainsi libéré.e des tâches de transmission et peut jouer son rôle d’expert en focalisant son attention sur les difficultés et la progression de chaque élève. Vous pourrez trouver plus de détails sur les avantages de cette méthode en explorant « Le coin pédagogique » du site. Un « Manuel d’accompagnement pédagogique » vous facilitera la tâche en vous prodiguant tous les conseils nécessaires au suivi de vos élèves… et les solutions détaillées de chaque défi.

Il ne vous reste plus qu’à essayer et surtout à évaluer la pertinence de cette approche. Il est essentiel pour nous de pouvoir profiter d’un retour sur « votre aventure de codeuse ou codeur ». Rendez-vous sur le site :

http://fadagogo.com et cliquez sur le bouton « Introductions au codage »

Comptez 4 à 5 heures de travail pour maîtriser les fondements de l’algorithmique, matière essentielle pour vos élèves.

Cet apprentissage peut se prolonger de manière facultative pour les élèves motivé.e.s par la gestion des variables, la programmation en pseudo-code et l’initiation à un langage. Cet apprentissage supplémentaire est conçu pour être abordé en autonomie, vous ne devez donc pas entamer ces matières si vous les jugez superflues.

N’hésitez pas à nous contacter sur info@fadagogo.com en cas de souci ou pour nous tenir au courant de votre expérience tant personnelle qu’avec vos élèves, cela nous intéresse au plus haut point.

Nous vous souhaitons beaucoup de plaisir à tester cette méthode et une heureuse découverte du domaine du codage qui vous semblait peut-être, jusqu’ici, inaccessible.

Rupert Meurice de Dormale, info@fadagogo.com

Cet article a été initialement publié sur notre site ami epi.asso.fr/revue,  sous licence Creative Commons-BY-ND.

Bonne année 11111100011

Toute l’équipe de binaire vous souhaite une belle année  [11111100011]

L'(I)Allié par Saint-Oma

 

L’artiste Saint-Oma (@saintoma_thomas sur Instagram) dessine les humanités numériques. Réalisées dans le cadre de l’initiative Digit_Hum, ses illustrations dressent le contour de métiers en profonde mutation. Portée par le CAPHÉS et le labex TransferS, Digit_Hum vise à créer un espace d’échange sur les différents usages qui sont faits des humanités numériques et à structurer ces nouvelles pratiques à l’échelle de l’ENS et de l’Université PSL. Cette initiative se décline en ateliers annuels, portraits et enquête sur les acteurs et activités en humanités numériques, à retrouver sur le site Digit_Hum : https://transfers.huma-num.fr/digithum/