Antoine Petit, Président Directeur Général d’Inria

Antoine Petit vient d’être nommé Président Directeur Général d’Inria, établissement public de recherche dédié aux sciences du numérique (le 28/9/2014). Comme il était au bon vieux temps professeur à l’Ecole Normale Supérieure de Cachan, Binaire a demandé à Alain Finkel, professeur à l’ENS Cachan, qui l’a côtoyé quand il était encore professeur, de nous parler de cette personnalité du monde de la recherche en informatique. Il nous raconte un chercheur, un enseignant, la genèse d’un dirigeant.

antoineAntoine Petit

Je connais Antoine Petit depuis 30 ans. Je l’ai rencontré au début des années 1980 dans un groupe de recherche qui utilisait la théorie des langages pour étudier le calcul parallèle et la vérification de programme. Les séminaires avaient lieu dans le sous-marin au LITP*. Antoine faisait sa thèse avec Luc Boasson. Je me souviens de discussions passionnées : Luc soutenait que la recherche devait être motivée par le plaisir quand Antoine défendait qu’il fallait aussi s’intéresser aux applications. Antoine aura par la suite à cœur de faire, personnellement, de la recherche fondamentale en prise avec les applications et, comme responsable, d’éviter qu’un laboratoire ne s’enferme dans une recherche uniquement  fondamentale.

J’ai retrouvé Antoine à l’Université Paris Orsay où nous étions tous les deux maitres de conférences. J’ai été impressionné par sa grande liberté de penser, son absence d’à priori et de préjugés, qui lui permettent de trouver des solutions originales pour atteindre ses objectifs. J’ai découvert ses capacités exceptionnelles : il est à la fois un chercheur brillant (beaux résultats, très belles présentations pédagogiques, papiers dans les très bonnes conférences) et un stratège hors-norme. S’il y avait dans notre domaine d’autres chercheurs brillants, je n’en connaissais pas avec ses talents de stratège.

picture-015Antoine Petit, à la Conférence annuelle sur « Computer Science Logic », 2001, @ LSV

En 1995, il est devenu professeur à l’ENS Cachan. C’est aussi un enseignant brillant. C’est un spécialiste de ces méthodes formelles qui permettent de vérifier des systèmes informatiques calculant en le temps réel, et avec plusieurs processus en parallèle��. Il a notamment dirigé la thèse d’une de nos stars, Patricia Bouyer, sur les automates temporisés (des automates finis auxquels on adjoint des horloges ce qui permet d’exprimer et vérifier des propriétés temporelles). Patricia est aujourd’hui DR CNRS, médaille de bronze et prix EATCS Presburger. Malgré ses responsabilités, Antoine a tenu à continuer à faire de la recherche jusqu’assez récemment .

Les débuts de l’informatique à l’ENS Cachan ne furent pas toujours faciles. Certains  collègues d’autres disciplines souhaitaient une informatique à leur service. Comme Directeur du département Informatique (1995 a 2001), Antoine a eu à négocier pied à pied. Il ne quittait pas ses objectifs de vue et savait déployer une grande créativité pour les atteindre ou résister aux contraintes. Les arguments d’autorité n’avaient aucune prise sur lui. Ni la colère ou les menaces de son interlocuteur. Antoine n’est pourtant pas infaillible. Il a échoué à faire évoluer la cantine de l’ENS Cachan sur un point important. En 1995, il était possible de prendre deux plats définis à l’avance, écrits sur un tableau, par exemple un « steak haricot verts » ou un « poulet frites » mais pas une combinaison comme un « steak frites », et cela bien que les différents composants soient dans des bacs séparés. Antoine s’est battu mais il a perdu.  L’ensemble {steak, poulet, haricots verts, frites¬¬} muni de la combinaison cantinière officielle n’était pas un monoïde (**) et n’était certainement pas libre.

Son goût de la compétition et de la performance ne s’exprime pas seulement dans le domaine scientifique. Il est passionné par le sport, surtout le rugby. (A son époque cachanaise, il lisait L’équipe tous les jours.) Il adore utiliser des métaphores sportives. S’il veut convaincre de viser l’excellence, il parle de : « jouer en première division ». Dans ces métaphores, on retrouve tout le plaisir qu’Antoine trouve dans la recherche, tout ce plaisir qu’il aimerait que les chercheurs des structures qu’il dirige partagent. Oui. Antoine sait se placer où il faut quand il faut ; il est là où arrive le ballon. Et, je ne parle pas d’opportunisme mais d’intuition, d’analyse, de raisonnement.

Je me souviens encore de l’entretien que j’ai eu en 1995 avec Antoine pour sa candidature à l’ENS Cachan. Je lui ai prédit une carrière de ministre mais pour l’instant, il n’a été que :
•    Directeur scientifique du département STIC du CNRS (2001-2003)
•    Directeur interrégional Sud-Ouest au CNRS (2004-2006)
•    Directeur d’INRIA Paris-Rocquencourt (2006-2010)
•    Directeur général-adjoint d’INRIA (2010-2014) et enfin
•    Président Directeur Général d’INRIA aujourd’hui.

Antoine n’est pas encore ministre, mais sa carrière n’est pas terminée loin s’en faut. 🙂

Alain Finkel, Professeur ENS Cachan

(*) Laboratoire d’informatique théorique et programmation de Paris 7, maintenant LIAFA  de Université Paris Diderot
(**) Blague de geek. Un monoïde est une structure algébrique. L’ensemble des mots d’un alphabet muni de l’opération de concaténation forme un monoïde libre.

Les tablettes de la pédagogie ?

Binaire reprend un article signé Colin de la Higuerra, paru aujourd’hui dans Slate: Les élèves français n’ont pas besoin d’une tablette à l’école, mais de véritables cours d’informatique.

Il y a de meilleurs moyens de dépenser les fonds alloués au «grand plan numérique» promis par François Hollande.

Le 2 septembre dernier, le président de la République lançait un «grand plan numérique» pour l’Éducation nationale. On peut imaginer qu’un «grand plan», sur un enjeu aussi crucial que celui de préparer l’entrée de la jeunesse dans le monde de demain, sera accompagné d’un budget conséquent, sans doute plusieurs milliards d’euros.

Se pose alors la question de la meilleure manière d’employer cet argent pour préparer les élèves à devenir demain des citoyens éclairés et à trouver un travail. Or, lors du Petit Journal du 25 septembre, la ministre de l’Éducation nationale, Najat Vallaud-Belkacem, a notamment promis que les collégiens bénéficieraient d’une tablette afin d’alléger un cartable trop lourd:

«À partir de la rentrée 2016, tous les collégiens [3,2 millions d’élèves environ, ndlr] –en l’occurrence, on commencera par les classes de 5e– auront et travailleront sur des tablettes numériques.»

Pourtant, les élèves n’ont pas besoin d’une tablette supplémentaire mais d’un véritable enseignement de l’informatique, qui leur donne les clés pour comprendre le monde dans lequel ils vivent et vivront, comme celui que suivent, depuis plusieurs années déjà, leurs camarades bavarois, estoniens, israéliens, suisses, lituaniens, néerlandais, etc. C’est également ce que vont suivre leurs camarades anglais, finlandais ou coréens. C’est ce que recommande l’Académie des sciences, c’est ce que recommande la Société informatique de France, c’est ce que recommande le Conseil supérieur des programmes, c’est ce que recommande le Conseil national du numérique.

S’il faut choisir entre dépenser l’argent pour l’équipement de tablettes ludiques ou pour former les enseignants et développer les outils logiciels nécessaires, une comparaison s’impose. La première proposition n’a été proposée par aucun analyste sérieux: dans les différents endroits où pareille mesure a été expérimentée, aucune évaluation documentée n’a jamais montré que son impact était positif autrement que pour l’économie des pays producteurs de ces équipements (groupe dans lequel il est difficile d’inclure la France, même si la ministre a affirmé sur Canal+ que le gouvernement aimerait «faire travailler des Français»).

Pour offrir aux élèves un enseignement de qualité, la décision-clé est bien plutôt celle de former les enseignants dans le primaire et de recruter des enseignants dans le secondaire. 1 milliard d’euros par an, par exemple, c’est 25.000 professeurs d’informatique. C’est aussi dix millions d’heures de cours de formation continue et donc la possibilité de former à la fois les professeurs de primaire, ceux de collège, de lycée et même des classes préparatoires! C’est beaucoup plus qu’il n’en faut pour offrir un enseignement de qualité dans toutes les écoles, tous les collèges et tous les lycées français.

Colin de la Higuera, Président de la Société Informatique de France

 

Gérard Berry, traqueur de bugs

Un informaticien médaille d’or du CNRS 2014 (communiqué du 24 septembre)

college2Gérard Berry en cours au Collège de France

C’est un chercheur en informatique qui vient de recevoir la médaille d’or du CNRS, la plus haute distinction scientifique française toutes disciplines confondues. Les informaticiens sont rares à avoir été ainsi honorés : ce n’est que la seconde fois, après Jacques Stern en 2006.

Gérard Berry est un pionnier dans un nombre considérable de domaines informatiques : le lambda-calcul, la programmation temps réel, la conception de circuits intégrés synchrones, la vérification de programmes et circuits, l’orchestration de services Web. Il a été l’un des premiers informaticiens académiciens des sciences, le premier professeur d’informatique au Collège de France.

Parmi ses grandes inventions, essayons d’en expliquer une, le langage Esterel.

Sad_macEcran indiquant un code erreur sur
les premières versions de Macintosh. @Wikipédia

Nous sommes entourés de systèmes d’une incroyable complexité : téléphones, moteurs de recherche, avions, centrales nucléaires. Ils fonctionnent tous avec du matériel informatique (des circuits) et du logiciel informatique (des programmes). Mais alors que le plantage d’un téléphone ou même d’un moteur de recherche est anodin, il en est tout différemment des avions, des centrales nucléaires ou encore des pacemakers. Pour ces derniers, le bug peut provoquer un désastre. Pour ne donner qu’un exemple, c’est un bug qui est à l’origine de la destruction d’Ariane 5, de l’Agence spatiale européenne, quarante secondes seulement après son décollage, le 4 juin 1996. Or un bug, c’est souvent une seule ligne de code erronée sur des millions qui composent un programme. Ça vient vite ! Et ça peut faire mal.

Comment éviter les bugs ? On peut bien sûr tester davantage les programmes. Cela permet de trouver beaucoup d’erreurs, mais combien d’autres passeront à travers les mailles du filet ? Une autre solution, c’est d’intervenir en amont dans le processus de création de programme, par exemple en fournissant aux informaticiens de meilleurs outils de conception, de meilleurs langages de programmation. C’est l’approche que prône Gérard Berry.

Les langages de programmation standards sont mal adaptés aux situations rencontrées dans des systèmes aussi complexes que des avions. Il faut tenir compte à la fois du matériel et du logiciel, du fait que nombreuses tâches s’exécutent en parallèle, que parfois la même tâche est exécutée plusieurs fois pour se protéger d’une panne d’un composant. Surtout, il faut utiliser des modèles qui tiennent compte du temps, des délais de réponse, des mécanismes de synchronisation. Le nouveau concept de langage synchrone a permis de répondre à cette situation. Ce concept a été découvert et promu par Gérard Berry et ses collègues au travers notamment du langage Esterel. Ce langage ainsi que d’autres langages synchrones développés en France, comme Lustre et Signal, ont eu un impact majeur dans le monde entier.

Mais comment un langage peut-il aider à résoudre des problèmes aussi complexes ? D’abord, parce qu’il permet de décrire les algorithmes que l’on veut implémenter sous une forme compacte et proche de l’intention du programmeur. Ensuite, parce que ce langage est accompagné de toute une chaîne d’outils de compilation et de vérification automatique, qui garantit que le produit final est correct.

Les langages synchrones ont constitué une avancée scientifique majeure. Gérard Berry est allé plus loin encore, et les a emmenés dans l’aventure industrielle en cofondant la société Esterel Technologies. Ces langages sont aujourd’hui incontournables dans des domaines comme l’aérospatial ou l’énergie.

 

Sa notoriété, Gérard l’a aussi mise au service du partage de la culture scientifique pour permettre à chacune et chacun de comprendre « pourquoi et comment le monde devient numérique ». Il passe un temps considérable, souvent avec des jeunes, à expliquer les fondements et les principes de la science informatique. Un défi !

L’enseignement de l’informatique est l’un de ses grands combats. Il a dirigé avec Gilles Dowek l’écriture d’un rapport important sur la question. Un autre défi ! Alors qu’il  s’agit d’éducation, de science et de technique, l’Etat se focalise souvent sur le haut débit et l’achat de matériel. Un pas en avant et au moins un en arrière. Mais il en faut bien plus pour entamer l’enthousiasme de Gérard Berry.

Gérard Berry est un inventeur. Au-delà d’Esterel, c’est un découvreur des modèles stables du lambda-calcul, un inventeur de machine abstraite chimique, un concepteur de langages d’orchestration d’objets communicants, comme HipHop. Gérard Berry s’investit avec enthousiasme dans ses nombreuses fonctions des plus académiques, comme professeur au Collège de France, aux plus mystérieuses, comme régent de déformatique du Collège de Pataphysique.

 

Les Mardis de la science

Et quand vous passerez devant une centrale nucléaire, admirez le fait que même s’il utilise des logiciels et matériels bien plus compliqués que votre téléphone, son système informatique ne « plante » pas, contrairement à celui de votre téléphone. Quand vous volerez, peut-être au-dessus de l’Atlantique, réjouissez-vous que le fonctionnement de votre avion soit plus fiable que celui de votre tablette. Et puis, de loin en loin, pensez que tout cela est possible parce que des chercheurs en informatique comme Gérard Berry ont mis toute leur créativité, toute leur intelligence pour développer cette science et cette technique qui garantissent la fiabilité des systèmes informatiques.

Serge Abiteboul (Inria), Laurent Fribourg (CNRS) et Jean Goubault-Larrecq (École normale supérieure de Cachan)

Pour aller plus loin

  1. « Science et conscience chez les Shadoks ! », vidéo
  2. « L’enseignement de l’informatique en France. Il est urgent de ne plus attendre », rapport de l’Académie des sciences, 2013
  3. « L’informatique du temps et des événements », cours au Collège de France 2012-2013)
  4. « Penser, modéliser et maîtriser le calcul », cours au Collège de France 2009-2010)
  5. « Pourquoi et comment le monde devient numérique », cours au Collège de France 2007-2008)
  6. Entretien avec Gérard Berry, Valérie Schafer, technique et science de l’informatique

PS. : une citation de Gérard Berry, pataphysicien, « L’informatique, c’est la science de l’information, la déformatique, c’est le contraire. »

PPS de Binaire : Une amie non informaticienne nous a écrit pour nous dire que le sujet était passionnant mais qu’elle n’avait pas tout compris, en particulier comment un langage comme Esterel pouvait aider. Binaire reviendra sur ce sujet avec Gérard Berry. Mais en attendant, nous conseillons une lecture qui tente d’aller plus loin dans les explications.

 

Un informaticien Médaille d’or du CNRS 2014 : Gérard Berry

college2

Annonce par Alain Fuchs, président du CNRS.

Voir un article récent dans Binaire : l’informatique s’installe au college de france

Et sa page dans Wikipédia.

La médaille d’or du CNRS est la plus haute distinction scientifique française. Elle est décernée par le Centre national de la recherche scientifique (CNRS) tous les ans depuis sa création en 1954. Elle récompense « une personnalité scientifique qui a contribué de manière exceptionnelle au dynamisme et au rayonnement de la recherche ».

Gérard a apporté des contributions majeures en sciences informatiques. Grâce à ses collègues et lui, nous comprenons mieux, par exemple, comment fonctionne un système numérique (logiciel et/ou matériel) qui interagit en temps-réel avec son environnement et comment on peut garantir la logique de son fonctionnement.
Et depuis que Gérard est devenu un scientifique académicien célèbre, il fait cette chose exemplaire de mettre sa notoriété au service du partage de la culture scientifique pour permettre à chacune et chacun de comprendre « pourquoi et comment le monde devient numérique ».

Françoise en Bavière

Le sujet de la formation à l’informatique a été beaucoup débattu en France récemment. Mais en dehors de l’hexagone ? Se pose-t-on les mêmes questions ? D’autres pays auraient-ils eut l’audace de prendre de l’avance sur nous ? Binaire a proposé à Françoise Tort, chercheuse à l’ENS Cachan et co-responsable en France du concours CASTOR informatique, d’interroger des collègues à l’étranger. Leurs réponses apportent beaucoup à nos débats parfois trop franchouillards. 

 

Tour d’horizon de l’enseignement de l’informatique… Aujourd’hui Françoise nous emmène en Bavière.

photo 1Note sur le système scolaire bavarois : à la fin du primaire, à l’âge de 10-11 ans, les élèves bavarois s’orientent entre trois voies différentes : la Mittelschule ou la Hauptschule (école de formation professionnelle, surtout artisanale), la Realschule (équivalent du collège qui propose un diplôme de fin d’étude moyen) et le Gymnasium (équivalent du cursus collège + lycée général ou technologique en France). Environ un tiers des élèves d’une tranche d’âge vont au Gymnasium, sélectionnés sur leurs bons résultats à l’école primaire. Pour faciliter la lecture, nous utiliserons dans le texte les niveaux français.

 

Peter HubwieserEntretien avec Peter Hubwieser professeur à la Technische Universität München (TUM), chercheur en didactique de l’Informatique, acteur majeur dans l’introduction de l’enseignement de l’informatique en Bavière.

 

Plus de 1/3 des jeunes bavarois apprennent l’informatique dès l’âge de 11 ans.

Depuis 2004, l’informatique est enseignée dans tous les collèges-lycées bavarois (que nous appelons Gymnasium). Tous les élèves de 6ème, 5ème ont des cours d’informatique obligatoires deux fois par semaine. Ensuite, les élèves qui poursuivent dans la filière « science et technologique », ont aussi un cours obligatoire, 2 fois par semaine, en  3ème et en 2nde. Enfin, un cours optionnel (3 séances par semaine) est proposé en 1ère puis en terminale, et ce dans toutes les filières. Depuis 2008, des cours d’informatique sont également proposés dans les écoles professionnelles. On peut donc dire que plus d’un tiers des élèves bavarois scolarisés dans le secondaire apprennent l’informatique dès l’âge de 11 ans.

L’objectif général de cet enseignement n’est pas de former de futurs spécialistes de l’informatique ou de convaincre les jeunes de poursuivre des études supérieures dans ce domaine. Il s’agit d’aider les élèves à devenir des citoyens responsables et autonomes dans une société dominée par les nouvelles technologies de l’information et de la communication.

Le programme combine des méthodes pour penser et des outils pour appliquer

J’ai contribué à l’écriture du programme d’enseignement. Ce programme vise à développer les compétences de traitement de l’information des élèves et à les aider à comprendre les structures de bases des systèmes informatiques qu’ils utilisent. L’originalité de notre approche est la place donnée à la modélisation : les élèves apprennent des technique de modélisation des objets et systèmes qu’ils utilisent, tout en mettant en œuvre leurs modèles à l’aide de logiciels et d’environnements de programmation. Par exemple, les premières années, les élèves apprennent à représenter les documents (textes, images, hypertextes, etc) qu’ils produisent avec des logiciels à l’aide des notions abstraites d’objets, attributs, méthodes et classes empruntées à la modélisation orientée objet développée dans les années 80-90 en génie logiciel. A la fin de la classe de 5ème, ils travaillent sur leurs premiers programmes, en utilisant un robot virtuel (le Robot Karel). En classe de 3ème, ils modélisent des problèmes réels, et implémentent leurs solutions avec des logiciels tableurs et des systèmes de gestion de bases de données. A partir de la 2nde, ils programment avec des langages objets (le plus souvent avec le langage Java). Enfin, en 1ère et terminale, ils abordent des concepts de domaines plus spécifiques comme le développement logiciel ou l’informatique théorique.

Le projet, conçu dès 1994, a profité d’une importante réforme scolaire en 2004

J’ai commencé à travailler à ce projet d’enseignement en 1994 à la faculté d’informatique de la TUM. Nous avons publié un premier projet de programme en 1997. A cette époque, le gouvernement fédéral lançait un programme expérimental de 3 ans visant à tester un projet de réforme des collèges-lycées bavarois. Un enseignement d’informatique mettant en œuvre notre proposition a été introduit dans cette expérimentation, dans une quarantaine d’établissements. Devant le succès rencontré auprès des élèves, des parents et des enseignants, le gouvernement a décidé, dès 2000, d’introduire cet enseignement dans la réforme. Ce fut effectif à la rentrée 2004 pour la classe de 6ème, puis chaque année suivante pour les autres niveaux.

La formation a été anticipée pour avoir des enseignants diplômés dès le début

Les enseignants bavarois ont tous deux disciplines (mathématique et physique par exemple). Ils ont une formation et un diplôme universitaire dans ces disciplines. Pour enseigner, ils passent deux certificats, l’un  disciplinaire, l’autre en pédagogie et psychologie.

Ce qui a été exceptionnel, c’est que la formation des enseignants a été initiée bien avant que la création de l’enseignement ne soit décidée. Deux universités ont ouvert un programme de formation continue en deux ans, en 1995, suivi avec succès par une petite centaine d’étudiants. En 1997, l’enseignement universitaire a été officialisé, et a été suivi, de 2001 à 2006, d’un programme de formation, que j’ai initié et coordonné. Nous avons formé environ 300 enseignants dans 5 universités bavaroises. Depuis, un programme d’auto-formation est proposé, suivi par 80 enseignants. En parallèle, l’administration bavaroise a mis en place des actions de promotion pour inciter les détenteurs d’un Master en informatique à embrasser la profession d’enseignant. On peut estimer qu’il y a aujourd’hui, près de 1 300 enseignants d’informatique dans les collèges-lycées, et que parmi eux 800 sont diplômés en informatique.

Les enseignant et les élèves sont plutôt satisfaits

Nous avons réalisé une enquête auprès des enseignants en 2009. Ils se disaient plutôt motivés et satisfaits des cours et du programme. Nous leur avons demandé s’il y avait des écarts de réussite entre garçons et filles. Globalement, ils n’ont pas relevé de différence, sauf une baisse de performance des filles au niveau de la classe de 2nde. Toutefois, d’autres indicateurs sont plus faibles pour ce niveau, qui est l’année de l’introduction de la programmation objet. Il nous semble intéressant d’étudier cela d’un peu plus près.

Une nouvelle réforme du système scolaire en perspective

Le programme est en cours de révision.  Pour autant que je sache, il y aura des éléments supplémentaires sur la protection des données et la sécurité des données. Mais le plus important est qu’il y a, à l’heure actuelle, un débat sur le retour aux collèges-lycées en 9 ans (la réforme de 2003 avait réduit ce cursus à 8 années). Personne ne sait ce qu’il en résultera.


Pour en savoir plus …

1- Peter Hubwieser. 2012. Computer Science Education in Secondary Schools – The Introduction of a New Compulsory Subject. Trans. Comput. Educ. 12, 4, Article 16 (November 2012), 41 pages.

2 – Peter Hubwieser. 2001. Didaktik der Informatik (en Allemand, Didactique de l’Informatique). Springer-Verlag, Berlin.

Cod cod coding à Nancy

codcodcoding-logoCod Cod Coding ? C’est le nom de la toute nouvelle activité de programmation créative récemment qui vient d’éclore au sein de la MJC centre social Nomade à Vandoeuvre-lès-Nancy.

Avec Cod cod coding, les poussins à partir de 8 ans peuvent inventer des jeux, des histoires animées, ou simuler des robots avec l’ordinateur.  Le partage d’une culture scientifique en informatique est-il un problème de poule et d’œuf ?  Comment ceux qui ne sont pas du tout initiés aux sciences du numérique peuvent-ils comprendre la pertinence et la nécessité de partager des sciences du numérique ? Voire même une source de querelles de poulaillers ? Est-ce que nos mômes seront initiés à ces sciences du XXième siècle quand les poules auront des dents ? Plus maintenant !

codcodcoding-vueatelierBien loin de ces prises de bec et sans jamais casser d’œufs, un jeune chercheur en sciences informatiques consacre une partie de son activité à permettre aux enfants de découvrir, en jouant, comment faire éclore des bout de logiciels pour co-créer le monde numérique de demain.  Avec le logiciel Scratch, ils apprennent : la logique, l’algorithmique, le codage numérique de l’information. Ils auront même le droit de se tromper pour trouver des solutions (seul ou avec ses voisin(e)s), personne n’est là pour leur voler dans les plumes !! Oui, apprendre le code, c’est aussi une seconde chance de picorer quelques grains de science, y compris pour ceux qui sont plus ou moins à l’écart du nid scolaire.

Et pour en savoir plus, rendez-vous sur le blog associé à cette activité,  une poule aux œufs d’or pour partager les réalisations des participants ! Voir aussi comment faire de l’informatique en primaire, comme nous l’explique Martin Quinson. Et si vous cherchez un lieu de ce type près de chez vous : rendez-vous sur jecode.org qui offre une carte de France de ces initiatives.

Florent Masseglia et Véronique Poirel, propos recueillis par Thierry Viéville  et Marie-Agnès Enard.

codcodcoding-tweets

Informatique en primaire, comment faire ?

Les ministres de l’éducation nationale changent, mais l’idée de commencer à initier à la programmation informatique en primaire, fait son bonhomme de chemin comme les questionnements qu’elle soulève. Martin Quinson, enseignant-chercheur en informatique, a proposé une analyse sur son blog : «Informatique en primaire, comment faire ?». Avec d’autres, nous avons trouvé son texte passionnant. Nous avons demandé une fiche de lecture à une enseignante, amie de Binaire.

On parle donc de mettre en place des activités, destinées à enseigner l’informatique au plus grand nombre et au plus vite. Comment alors apporter des éléments de réponses aux nombreuses questions pratiques qui se posent, notamment sur ce qu’il convient d’enseigner, et sur la démarche à adopter ?

Les objectifs pédagogiques

©letourabois.free.fr

Il y a un terme fédérateur : celui de littératie numérique des enfants. En adaptant la définition de littératie donnée par l’OCDE, on peut parler de « l’aptitude à comprendre et à utiliser les technologies de l’information et de la communication dans la vie courante, à la maison, au travail et dans la collectivité en vue d’atteindre des buts personnels et d’étendre ses connaissances et ses capacités ».

Comment faire alors en sorte que les enfants soient capables de faire un usage raisonné de l’informatique et des ordinateurs ? Si quelques idées sont disponibles dans ces propositions d’orientations générales pour un programme d’informatique à l’école primaire, d’autres éléments de réponse complètent cette vision :

©scratch.mit.edu

Que les enfants soient capables de créer des petites choses sur ordinateur, comme ils sont capables d’écrire de petits textes ou faire des dessins à l’heure actuelle. Mais aussi qu’ils puissent créer leur propre carte de vœux animée pour la fête des mères, sans avoir à choisir parmi des cartes toutes faites sur http://www.dromadaire.com ou ailleurs, ou encore qu’ils soient capables de faire de petits dessins animés pour raconter des petites histoires, de complexité comparable aux rédactions qu’ils font déjà. Enfin, qu’ils puissent réaliser leurs propres petits jeux informatiques, qui auront le mérite d’être leurs propres créations même s’il ne s’agit pas de futurs blockbusters.

Voilà qui est clair et proche du quotidien.

Faut-il faire des « Coding Goûters » ?

©jecode.org

Un « Coding Goûter » est une animation qui se déroule une demi-journée, où les enfants et leurs parents apprennent ensemble la programmation créative, avec des accompagnateurs, mais sans professeur. Ce format est particulièrement bien trouvé et des micro-formations pour aider les collègues qui voudraient se lancer sont proposées côté Inria. Cependant, la réponse est à nuancer, car ce format n’est pas généralisable, en l’état actuel, pour des activités récurrentes en milieu scolaire sans formation des enseignants. Voyons donc les autres possibilités d’animation.

. . ou de la programmation créative ?

Comme dit Claude Terosier de chez Magic Makers, il s’agit d’apprendre à coder pour apprendre à créer . Dans la même lignée, s’organise une activité pilote à la rentrée à la MJC Nomade de Vandœuvre-les-Nancy sur ce modèle. Leur club s’appelle Cod Cod Coding .

©codcodcoding

L’un des points forts de l’outil le plus répandu Scratch, c’est sa communauté d’utilisateurs. De très bons pédagogues diffusent beaucoup de bonnes ressources, ce qui est pratique quand on débute. Cette communauté se réuni tous les deux ans, lors d’événements très enrichissants. On peut s’appuyer sur ce guide présentant dix séances clé en main, ou sur celui-ci, également bien fait. Et on trouve de bonnes ressources sur le wiki de http://jecode.org.

 

Oser l’informatique débranchée

©csunplugged.org

Comprendre comment est représentée l’information une fois numérique ou découvrir un algorithme ou ce que sont les algorithmes, c’est possible sans machine, sous forme de jeux, de devinette ou d’activité avec un crayon et un papier. Et c’est précieux : cela montre que c’est une façon de penser, pas que d’utiliser les machines. Cela permet aussi à ce qui ne raffolent pas de technologie de comprendre aussi. Faire à chaque séance un peu de débranché au début, un temps d’activités sur machine, avant un petit retour tous ensemble à la fin semble une excellente idée.

Sans aller jusqu’à introduire la notion d’algorithme avant le premier passage sur machine, il est possible d’utiliser des activités débranchées pour expliquer ce que programmer veut dire. Cette activité semble particulièrement pertinente pour cela. Ensuite, si les enfants ont encore un peu de patience, vous pouvez enchaîner avec les activités débranchées mises au point avec Jean-Christophe Bach, ou d’autres activités débranchées existantes.(…)

Mise en œuvre pédagogique.

©images.math.cnrs.fr

Prenons l’exemple de l’enseignement de Scratch. On peut opter pour une approche traditionnelle avec un chapitre sur les variables, un chapitre sur les boucles, un autre sur les conditionnelles. Mais on peut aussi retourner le modèle, et commencer par faire un petit Angry Birds (en utilisant des conditionnelles sans s’en rendre compte, du moins jusqu’à la fin du chapitre où l’on verbalise la notion après usage), continuer par un casse brique (et utiliser des variables sans apprendre explicitement ce que c’est), puis un Pong (mettant du parallélisme en œuvre sans réaliser avoir besoin de le dire), etc. Voilà ce qui marche pour de vrai, avec les enfants du primaire. Et ensuite de montrer ce qu’on a découvert : les ingrédients de tous les algorithmes du monde.

Comme support, on recommande ce livre. Il s’agit d’une bande dessinée racontant les aventures d’un chat et d’un étudiant en informatique. Au fil des 10 chapitres, on est amené à programmer des petits jeux pour « débloquer » l’aventure jusqu’au chapitre suivant. On apprend les bases de la programmation créative.

Sinon, l’un des dix principes de « La main à la pâte » est de faire tenir un cahier de laboratoire aux enfants, où ils consignent leurs expériences et conclusions avec leurs mots à eux.

Utilisation du matériel.

Un ordinateur pour deux enfants suffit. La programmation en binôme est très efficace. Le plus important est de s’assurer que les rôles s’inversent régulièrement, et qu’aucun enfant ne monopolise la souris. Être deux par machine force les enfants à planifier leurs activités au lieu de se laisser porter par la souris, sans but précis.

Et après ?

Voilà donc l’état des réflexions. Mais on est  pas seuls: l’équipe invite à discuter tous ensemble au fur et à mesure des avancées sur ce qui fonctionne et les problèmes rencontrés. C’est aussi pour cela qu’elle a fondé http://jecode.org  : faire se rencontrer les volontaires souhaitant enseigner, informer à propos des lieux qui veulent organiser des ateliers, mettre en lien les acteurs qui désirent apprendre l’informatique. Inscrivez-vous sur la liste de diffusion pour échanger sur ces sujets.

Alice Viéville.

 

Permis de vivre la ville

logoPetite balade dans le 14e arrondissement parisien pour prendre un bain d’éducation populaire ; nous rendons visite à « Permis de Vivre la Ville ». L’association a été créée en 1987 sous le patronage de l’Abbé Pierre. Elle travaille depuis au cœur des quartiers en difficulté. Pourquoi cette association nous intéresse-t-elle tout particulièrement ? Ses projets conjuguent culture et informatique.

L’ambiance est à la fois studieuse et détendue. Des jeunes s’activent sur leurs projets informatiques. D’habitude, c’est plus calme nous explique-t-on : les jeunes de l’autre lieu installé à Montreuil sont aussi par hasard présents. Ici, on ne se contente pas de répéter qu’il est des quartiers en grande difficulté. On retrousse ses manches et on change les choses.

marcela Anne
Marcela Perez, Permis de Vivre la Ville Anne Dhoquois, Banlieues créatives

Un malstrom d’information tout en sourires est déversé par Anne Dhoquois et Marcela Perez. Banlieues créatives, Tremplin numérique… nous sommes vite perdus dans des structures, des projets, des sites Web. Cette association de terrain a longtemps été présente à Evry (Bois Sauvage) et Paris 17ème (Porte Pouchet) ; elle l’est toujours à Clichy-sous-Bois (Chêne pointu) et Antony (Noyer Doré), et vient d’ouvrir un second local à Montreuil. Ça bouge !

tremplinDes jeunes du 92 et 93 dans les locaux parisiens © Tremplin numérique

Au delà de la grande gentillesse qui se dégage de nos deux hôtesses, une impression forte de compétences. Ici on ne bricole pas. L’expérience, la connaissance des dossiers, un mélange détonnant avec une passion évidente pour l’ambition de participer à construire une ville plus humaine.

lexik© Lexik des cités / collectif Permis de Vivre la Ville

Nous pourrions raconter le Lexik des cités et le langage des jeunes du quartier (comme exercice, traduire : « Ma came a un bail et ses darons le savent pas ») mais nous allons plutôt parler d’un projet plus récent « Banlieues créatives ». Ce média web est l’occasion pour les jeunes de faire l’apprentissage du reportage, de l’interview, de la publication, de la parole publique, aux côtés d’une journaliste professionnelle. Le résultat se traduit dans un site Web. Celui-ci, truffé d’informations, d’interviews, de témoignages, est passionnant. Il décrit des expériences concrètes qui amènent à changer de regard sur les quartiers, sur le sens de la société, sur la dimension sociétale que peuvent prendre des  actions de terrain.
Petite balade dans le 14e arrondissement parisien pour rendre visite à Permis de vivre la ville. On en ressort avec l’envie de ne plus subir le numérique, mais de le mettre au service de la société. Merci Marcela et Anne de nous avoir fait oublier quelques instants la morosité ambiante.

Serge Abiteboul et Valérie Peugeot

La carte de vœux numérique 2014 du 1er Ministre Jean-Marc Ayrault réalisé par les encadrants des jeunes de l’association

Le « grand plan numérique » du président : pour quoi faire ?

Le numérique est déjà omniprésent dans nos maisons et au travail. On peut naturellement penser qu’il est temps que l’école en profite aussi. Mais en pratique, quels problèmes concrets pourraient être résolus par le « grand plan numérique » annoncé par François Hollande ? Claire Mathieu, Directrice de recherche CNRS, spécialiste en algorithmique, aborde le sujet. 

D’une part, il y a les problèmes de communication dont voici quelques exemples.

  1. L’enfant n’a pas écrit quels devoirs il a à faire pour le lendemain. Les parents doivent téléphoner aux autres parents pour essayer de récupérer les informations. Solution : l’enseignant pourrait mettre la liste des devoirs à faire sur le site internet de l’école.
  2. L’enfant n’a pas rapporté son livre ou sa feuille d’exercices à la maison. Les parents doivent trouver une autre famille qui a le document nécessaire, et aller en catastrophe le leur emprunter. Solution : l’éditeur pourrait avoir une version numérique de son livre, accessible sur le site internet de l’école. L’enseignant pourrait télécharger sur le site web de l’école les documents supplémentaires.
  3. L’enfant ne fait pas signer le cahier de classe à ses parents. Solution : les résultats de l’enfant pourraient être accessibles à ses parents sur le site internet de l’école, et ceux-ci pourraient « signer » par internet.
  4. Les enseignants perdent du temps à rassembler autorisations pour les sorties, attestations d’assurance, et autres paperasses. Solution : ces attestations pourraient être téléchargées directement par les parents sur le site internet de l’école.
  5. On découvre en arrivant à l’école qu’il y a une grève ou qu’un enseignant est absent. Solution : afficher ces informations sur le site internet de l’école.
  6. Un enfant est malade. Solution : Les parents envoient la lettre prévenant qu’il est malade, directement sur le site internet de l’école. Ils se tiennent au courant de ce qui est enseigné grâce à ce site, afin que l’enfant rattrape son retard.

D’autre part, il y a les problèmes dus à la diversité et aux limitations des uns et des autres.

  1. Certains n’apprennent pas à la même vitesse que les autres. Solution : s’il y avait au fond de la classe, dans le coin bibliothèque, quelques tablettes sécurisées avec des logiciels éducatifs associés aux manuels scolaires, l’enseignant pourrait demander aux enfants plus lents ou plus rapides de passer du temps à apprendre avec l’aide du logiciel.
  2. L’enseignant est censé apprendre aux enfants un large programme de sciences, d’histoire, d’art, etc., mais il y a des domaines auxquels il ne connaît pas grand-chose. Solution : il peut préparer son cours plus facilement avec des logiciels de cours sur internet préparés par les éditeurs de manuels scolaires.
  3. Il y a des moments dans la journée où l’attention baisse et où les enfants ont du mal à se concentrer. Solution : une activité supplémentaire pour laquelle les possibilités sont multipliées grâce à internet pourrait être de projeter un film documentaire. On n’est plus limité par la bibliothèque de films de l’école.
  4. Des enfants n’aiment pas l’école, s’ennuient, font des bêtises, dérangent la classe. Solution : les occuper à bon escient par des jeux éducatifs sur les tablettes.

Il ne s’agit pas là de faire des changements fondamentaux, mais d’utiliser l’outil numérique pour faciliter le quotidien de manière très concrète.

Que faut-il pour réaliser ces modestes objectifs ?

  • Du point de vue des ressources matérielles et logicielles, il faut qu’internet soit disponible, que les éditeurs aient une version numérique de leurs manuels scolaires avec logiciels associés, qu’un cadre existe pour créer des sites web scolaires faciles à consulter et à modifier, mais également sécurisés et protégeant les informations privées des élèves ; il faut aussi que les classes aient des tablettes ou portables qui soient protégés contre le vol et que leur maintenance soit assurée. Pour les familles qui n’ont pas internet chez elles, il faut absolument (c’est une question d’équité) que les parents puissent, à la mairie, à la bibliothèque municipale, ou dans un autre lieu, avoir accès au site internet de l’école.
  • Du point de vue des compétences, il faut que les enseignants sachent utiliser le site web de l’école, consulter les versions numériques des manuels, produire des contenus numériques. Il faut que les parents sachent communiquer avec l’école par l’intermédiaire du site web. Des formations sont pour cela nécessaires, pas très longues mais récurrentes puisque la question se repose chaque année.
  • Enfin, pour les réfractaires irréductibles, il faut un « pont » qui permette de continuer à recevoir les messages des parents comme avant tout en mettant à jour le dossier numérique de l’élève (grâce à un scanner par exemple), et qui permette aux parents de savoir quand même ce qui se passe à l’école par des moyens traditionnels (panneau d’affichage par exemple). Il faut donc prévoir de recruter le personnel adéquat pour ce travail supplémentaire, au moins pendant une période de transition de quelques années.

Bien sûr, tout cela a un coût. Globalement il n’est pas clair que ce plan ferait gagner du temps aux enseignants, mais il permettrait d’améliorer la communication entre parents et enseignants, et d’améliorer l’apprentissage grâce à un enseignement plus personnalisé. Il est donc raisonnable de penser que la population est prête à ce qu’une fraction de ses impôts soit utilisée pour cela.

Pour aller plus loin.

L’introduction du numérique dans le quotidien de l’école ne serait qu’un premier pas. Une fois l’outil présent, on peut s’en servir avec plus d’ambition. Par exemple, les enfants pourraient écrire un journal de leur école, qui (avec une équipe motivée) pourrait être de qualité quasiment professionnelle. Pour les écoles jumelées, il y aurait des perspectives de collaborations nouvelles. Il pourrait être envisageable que les enfants malades, s’ils sont suffisamment en forme, suivent quand même la classe en même temps que les autres avec une « webcam ». Des exercices de style QCM, conçus par les éditeurs, pourraient être corrigés par ordinateur au lieu de faire intervenir l’enseignant. Pour les enfants souffrant d’un handicap, des possibilités nouvelles existeraient. Pour les enfants curieux de comprendre comment ça marche, il serait possible d’avoir un enseignement de l’informatique. Les MOOCs, FLOTs et autres cours en-ligne auraient une chance d’être intégrés à l’enseignement. Plus généralement, une fois les automatismes acquis pour exploiter l’outil informatique, il serait beaucoup plus facile ultérieurement de profiter des futures avancées, et cela permettrait à la France de participer plus pleinement à la révolution du numérique dans la société.

Claire Mathieu, École Normale Supérieure  Paris, CNRS

Comment l’informatique a révolutionné l’astronomie

Françoise Combes, astronome à l’Observatoire de Paris et membre de l’Académie des Sciences (lien Wikipédia), a un petit bureau avec un tout petit tableau blanc, des étagères pleines de livres, un sol en moquette, et deux grandes colonnes de tiroirs étiquetées de sigles mystérieux. Au mur, des photos de ciels étoilés. Elle parle avec passion de son domaine de recherche, et met en exergue le rôle fondamental qu’y joue l’informatique.
Entretien réalisé par Serge Abiteboul et Claire Mathieu

fc-aug02

La naissance des galaxies…

B : Peux-tu nous parler de tes sujets de recherche ? Vu de l’extérieur, c’est extrêmement poétique : « Naissance des galaxies », « Dynamique de la matière noire » …
FC : La question de base, c’est la composition de l’univers. On sait maintenant que 95% est fait de matière noire, d’énergie noire, et très peu de matière ordinaire, qui ne forme que les 5% qui restent. Mais on ignore presque tout de cette matière et de cette énergie noire. Les grands accélérateurs, contrairement à ce qu’on espérait, n’ont pas encore trouvé les particules qui forment la matière noire. On a appris vers l’an 2000 grâce aux supernovae que l’expansion de l’univers était accélérée. Mais la composition de l’univers que l’on connaissait alors ne permettait pas cette accélération ! Il fallait un composant pouvant fournir une force répulsive, et c’est l’énergie noire qui n’a pas de masse, mais une pression négative qui explique l’accélération de l’expansion de l’univers. On cherche également maintenant de plus en plus en direction d’autres modèles cosmologiques qui n’auraient pas besoin de matière noire, des modèles de « gravité modifiée ».

B : Cette partie de ton travail est surtout théorique ?
FC : Non, pas seulement, il y a une grande part d’observation, indirecte évidemment, observation des traces des composants invisibles sur la matière ordinaire. On observe les trous noirs grâce à la matière qu’il y a autour. Les quasars, qui sont des trous noirs, sont les objets les plus brillants de l’univers. Ils sont au centre de chaque galaxie, mais la lumière piégée par le trou noir n’en sort pas ; c’est la matière dans le voisinage immédiat, qui tourne autour, et progressivement tombe vers le trou noir en spiralant, qui rayonne énormément. Ce qui est noir et invisible peut quand même être détecté et étudié par sa « signature » sur la matière ordinaire associée.
Pour mieux étudier la matière noire et l’énergie noire, plusieurs télescopes en construction observeront pratiquement tout le ciel à partir des années 2018-2020, comme le satellite européen Euclid, ou le LSST (Large Synoptic Survey Telescope) et le SKA (Square Kilometer Array). Le LSST par exemple permettra d’observer l’univers sur un très grand champ (10 degrés carrés), avec des poses courtes de 15 secondes pendant 10 ans. Chaque portion du ciel sera vue environ 1000 fois. Même dans une nuit, les poses reviendront au même endroit toutes les 30 minutes, pour détecter les objets variables : c’est une révolution, car avec cet outil, on va avoir une vue non pas statique mais dynamique des astres. Cet instrument fantastique va détecter des milliers d’objets variables par jour, comme les supernovae, sursauts gamma, astéroides, etc. Il va regarder tout le ciel en 3 jours, puis recommencer, on pourra sommer tous les temps de pose pour avoir beaucoup plus de sensibilité.
Chaque nuit il y aura 2 millions d’alertes d’objets variables, c’est énorme ! Ce n’est plus à taille humaine. Il faudra trier ces alertes, et le faire très rapidement, pour que d’autres télescopes dans le monde soient alertés dans la minute pour vérifier s’il s’agit d’une supernova ou d’autre chose. Il y aura environ 30 « téraoctets » de données par nuit !  Des supernovae, il y en aura environ 300 par nuit sur les 2 millions d’alertes. Pour traiter ces alertes, on utilisera des techniques d’apprentissage (« machine learning »).

B : Qui subventionne ce matériel ?
FC : Un consortium international dont la France fait partie et où les USA sont moteur, mais il y a aussi des sponsors privés. Le consortium est en train de construire des pipelines de traitement de données, toute une infrastructure matérielle et logicielle.

A273

La place de l’informatique

B : La part du « matériel informatique » dans ce télescope est très importante ?
FC : Le télescope lui-même, de 8m de diamètre, est assez ordinaire. L’innovation est dans l’optique et les instruments pour avoir un grand champ, qui sont une partie importante du coût ; les images seront prises simultanément avec six filtres de couleur. Le traitement des données nécessite des super ordinateurs qui forment une grande partie du coût.

B : Alors, aujourd’hui, une équipe d’astronomes, c’est pluridisciplinaire ?
FC : Oui, mais c’est aussi très mutualisé. Il y a des grands centres (Térapix à l’Institut d’Astrophysique de Paris par exemple) pour gérer les pipelines de données et les analyser avec des algorithmes. Ainsi, on se prépare actuellement à dépouiller les données d’Euclid, le satellite européen qui sera lancé en 2020, dont le but est de tracer la matière noire et l’énergie noire, notamment avec des lentilles gravitationnelles. Les images des millions de galaxies observées seront légèrement déformées, car leur lumière est déviée par les composants invisibles sur la ligne de visée; il faudra reconstituer la matière noire grâce cette déformation statistique.

B : Quels sont les outils scientifiques de base ? Des mathématiques appliquées ?
FC : Oui. La physique est simple. Les simulations numériques de formation des galaxies dans un contexte cosmologique sont gigantesques : il s’agit de problèmes à  N-corps avec 300 milliards de corps qui interagissent entre eux ! Le problème est résolu par des algorithmes basés soit sur les transformées de Fourier soit sur un code en arbre, et à chaque fois le CPU croît en N log N. On fait des approximations, des développements en multi-pôles. En physique classique, ou gravité de Newton, cela va vite. Mais pour des simulations en gravité modifiée, là, c’est plus compliqué, il y a des équations qui font plusieurs pages. Il y a aussi beaucoup de variantes de ces modèles, et il faut éviter de perdre son temps dans un modèle qui va se révéler irréaliste, ou qui va être éliminé par des observations nouvelles. Il y a donc des paris à faire.

B : Tu avais dit que vous n’étiez pas uniquement utilisateurs d’informatique, qu’il y a des sujets de recherche, spécifiquement en informatique, qui découlent de vos besoins ?
FC : Je pensais surtout à des algorithmes spécifiques pour résoudre nos problèmes particuliers. Par exemple, sur l’époque de ré-ionisation de l’univers. Au départ l’univers est homogène et très chaud, comme une soupe de particules chargées, qui se recombinent en atomes d’hydrogène neutre, dès que la température descend en dessous de 3000 degrés K par expansion, 400 000 ans après le Big Bang. Suit une période sombre et neutre, où le gaz s’effondre dans les galaxies de matière noire, puis les premières étoiles se forment et ré-ionisent l’univers. Ce qu’on va essayer de détecter, (mais ce n’est pas encore possible actuellement) c’est les signaux en émission et absorption de l’hydrogène neutre, pendant cette période où l’univers est constitué de poches neutres et ionisées, comme une vinaigrette avec des bulles de vinaigre entourées d’huile. C’est pour cela que les astronomes sont en train de construire le « square kilometer array » (SKA). Avec ce télescope en ondes radio, on va détecter l’hydrogène atomique qui vient du début de l’univers, tout près du Big bang ! Moins d’un milliard d’années après le Big bang, son rayonnement est tellement décalé vers le rouge (par l’expansion) qu’au lieu de 21cm, il a 2m de longueur d’onde ! Les signaux qui nous arrivent vont tous à la vitesse de la lumière, et cela met 14 milliards d’années à nous parvenir – c’est l’âge de l’univers.
Le téléscope SKA est assez grand et sensible pour détecter ces signaux lointains en onde métrique, mais la grande difficulté vient de la confusion avec les multiples sources d’avant-plan : le signal qu’on veut détecter est environ 10000 fois inférieur aux rayonnements d’avant-plan. Il est facile d’éliminer les bruits des téléphones portables et de la ionosphère, mais il y a aussi tout le rayonnement de l’univers lui-même, celui de la Voie lactée, des galaxies et amas de galaxies. Comment pourra-t-on pêcher le signal dans tout ce bruit? Avec des algorithmes. On pense que le signal sera beaucoup plus structuré en fréquence que tous les avant-plans. On verra non pas une galaxie en formation mais un mélange qui, on l’espère, aura un comportement beaucoup plus chahuté que les avant-plans, qui eux sont relativement lisses en fréquence. Faire un filtre en fréquence pourrait a priori être une solution simple, sauf que l’observation elle-même avec l’interféromètre SKA produit des interférences qui font un mixage de mode spatial-fréquentiel qui crée de la structure sur les avant-plans. Du coup, même les avant-plans auront de la structure en fréquence. Alors, on doit concevoir des algorithmes qui n’ont jamais été développés, proches de la physique. C’est un peu comme détecter une aiguille dans une botte de foin. Il faut à la fois des informaticiens et des astronomes.

Il faut un super computer, rien que pour savoir dans quelle direction du ciel on regarde.

Arp87Le couple de galaxies en interaction Arp 87,
image du Hubble Space Telescope (HST), Credit NASA-ESA

B : Cela veut-il dire qu’il faut des astronomes qui connaissent l’informatique ?
FC : Les astronomes, de toute façon, connaissent beaucoup d’informatique. C’est indispensable aujourd’hui. Rien que pour faire les observations par télescope, on a besoin d’informatique. Par exemple le télescope SKA (et  son précurseur LOFAR déjà opérationnel aujourd’hui à Nançay) est composé de « tuiles » qui ont un grand champ et les tuiles interfèrent entre elles. Le délai d’arrivée des signaux provenant de l’astre observé sur les différentes tuiles est proportionnel à l’angle que fait l’astre avec le zénith. Ce délai, on le gère de façon numérique. Ainsi, on peut regarder dans plusieurs directions à la fois, avec plusieurs détecteurs. Il faut un super computer, rien que pour savoir dans quelle direction du ciel on regarde.
Un astronome va de moins en moins observer les étoiles et les galaxies directement sur place, là où sont les télescopes. Souvent les observations se font à distance, en temps réel. L’astronome contrôle la position du télescope à partir de son bureau, et envoie les ordres d’observation par internet. Les résultats, images ou spectres arrivent immédiatement, et permettent de modifier les ordres suivants d’observation. C’est avec les télescopes dans l’espace qu’on a démarré cette façon de fonctionner, et cela s’étend maintenant aux télescopes au sol.
Ce mode d’observation à distance en temps réel nécessite de réserver le télescope pendant une journée ou plus pour un projet donné, ce qui n’optimise pas le temps de télescope. Il vaut mieux avoir quelqu’un sur place qui décide, en fonction de la météo et d’autres facteurs, de donner priorité à tel ou tel utilisateur. Du coup on fait plutôt l’observation en différé, avec des opérateurs sur place, par « queue scheduling ». Les utilisateurs prévoient toutes les lignes du programme (direction, spectre, etc.) qui sera envoyé au robot, comme pour le temps réel, mais ce sera en fait en différé. L’opérateur envoie le fichier au moment optimum et vérifie qu’il passe bien.
Selon la complexité des données, la calibration des données brutes peut être faite dans des grands centres avec des super computers. Ensuite, l’astronome reçoit par internet les données déjà calibrées. Pour les réduire et en tirer des résultats scientifiques, il suffit alors de petits clusters d’ordinateurs locaux. Par contre, les super computers sont requis pour les simulations numériques de l’univers, qui peuvent prendre des mois de calcul.
Que ce soit pour les observations ou les simulations, il faut énormément d’algorithmes. Leur conception se fait en parallèle de la construction des instruments. Les algorithmes sont censés être prêts lorsque les instruments voient le jour. Ainsi, lorsqu’un nouveau télescope arrive, il faut qu’il y ait déjà par exemple tous les pipelines de calibrations. Cette préparation est un projet de recherche à part entière. Tant qu’on n’a pas les algorithmes, l’instrument ne sert à rien: on ne peut pas dépouiller les données. Les progrès matériels doivent être synchronisés avec les progrès des algorithmes.

B : Est-ce que ce sont les mêmes personnes qui font la simulation de l’univers et qui font l’analyse des images ?
FC : Non, en général ce sont des personnes différentes. Pour la simulation de l’univers, on est encore très loin du but. Les simulations cosmologiques utilisent quelques points par galaxie, alors qu’il y a des centaines de milliards d’étoiles dans chaque galaxie. Des « recettes » avec des paramètres réalistes sont inventées pour suppléer ce manque de physique à petite-échelle, sous la grille de résolution. Si on change quelques paramètres libres, cela change toute la simulation. Pour aller plus loin, il nous faut aussi faire des progrès dans la physique des galaxies. Même dans 50 ans, nous n’aurons pas encore la résolution optimale.

B : Comment évalue-t-on la qualité d’une simulation ?
FC : Il y a plusieurs équipes qui ont des méthodes complètement différentes (Eulérienne ou « Adaptive Mesh Refinement » sur grille, ou Lagrangienne, code en arbre avec particules par exemple), et on compare leurs méthodes. On part des mêmes conditions initiales, on utilise à peu près les mêmes recettes de la physique, on utilise plusieurs méthodes. On les compare entre elles ainsi qu’avec les observations.

Crab_xrayImage en rayons X du pulsar du Crabe, obtenue
avec le satellite CHANDRA, credit NASA

B : Y a-t-il autre chose que tu souhaiterais dire sur l’informatique en astronomie ?
FC : J’aimerais illustrer l’utilisation du machine learning pour les pulsars. Un pulsar, c’est une étoile à neutron en rotation, la fin de vie d’une étoile massive. Par exemple, le pulsar du crabe est le résidu d’une supernova qui a explosé en l’an 1000. On a déjà détecté environ 2000 pulsars dans la Voie lactée, mais SKA pourra en détecter 20000 ! Il faut un ordinateur pour détecter un tel objet, car il émet des pulses, avec une période de 1 milliseconde à 1 seconde. Un seul pulse est trop faible pour être détecté, il faut sommer de nombreux pulses, en les synchronisant. Pour trouver sa période, il faut traiter le signal sur des millions de points, et analyser la transformée de Fourier temporelle. L’utilité de ces horloges très précises que sont les pulsars pour notre compréhension de l’univers est énorme. En effet, personne n’a encore détecté d’onde gravitationnelle, mais on sait qu’elles existent. L’espace va vibrer et on le verra dans le 15e chiffre significatif de la période des pulsars. Pour cela on a besoin de détecter un grand nombre de pulsars qui puissent échantillonner toutes les directions de l’univers. On a 2 millions de sources (des étoiles) qui sont candidates. C’est un autre exemple où il nous faut des algorithmes efficaces, des algorithmes de machine learning.

sextet-seyfert-hstLe groupe compact de galaxies, appelé le Sextet
de Seyfert, image du Hubble Space Telescope (HST), Credit NASA-ESA

Hier et demain

B : L’astronomie a-t-elle beaucoup changé pendant ta carrière ?
FC : Énormément. Au début, nous utilisions déjà l’informatique mais c’était l’époque des cartes perforées.

B : L’informatique tenait déjà une place ?
FC : Ah oui. Quand j’ai commencé ma thèse en 1976 il y avait déjà des programmes pour réduire les données. Après les lectrices de cartes perforées, il y a eu les PC. Au début il n’y avait même pas de traitement de texte ! Dans les années qui suivirent, cela n’a plus trop changé du point de vue du contact avec les écrans, mais côté puissance de calcul, les progrès ont été énormes. L’astrophysique a énormément évolué en parallèle. Par exemple pour l’astrométrie et la précision des positions : il y a 20ans, le satellite Hipparcos donnait la position des étoiles à la milliseconde d’arc mais seulement dans la banlieue du soleil. Maintenant, avec le satellite GAIA lancé en 2013, on va avoir toute la Voie lactée. Qualitativement aussi, les progrès sont venus de la découverte des variations des astres dans le temps. Avant tout était fixé, statique, maintenant tout bouge. On remonte le temps aujourd’hui jusqu’à l’horizon de l’univers, lorsque celui-ci n’avait que 3% de son âge. Toutefois, près du Big bang on ne voit encore que les objets les plus brillants. Reste à voir tous les petits. Il y a énormément de progrès à faire.

B : Peut-on attendre des avancées majeures dans un futur proche ?
FC : C’est difficile à prévoir. Étant donné le peu que l’on sait sur la matière noire et l’énergie noire, est-ce que ces composants noirs ont la même origine ? On pourrait le savoir par l’observation ou par la simulation. La croissance des galaxies va être différente si la gravité est vraiment modifiée. C’est un grand défi. Un autre défi concerne les planètes extrasolaires. Actuellement il y en a environ 1000 détectées indirectement. On espère « imager » ces planètes. Beaucoup sont dans des zones théoriquement habitables – où l’eau est liquide, ni trop près ni trop loin de l’étoile. On peut concevoir des algorithmes d’optique (sur les longueurs d’onde) pour trouver une planète très près de l’étoile. Des instruments vont être construits, et les astronomes préparent les pipelines de traitement de données.

Le public

B : Il y a beaucoup de femmes en astrophysique?
FC : 30% en France mais ce pourcentage décroît malheureusement. Après la thèse, il faut maintenant faire 3 à 6 années de post doctorat en divers instituts à l’étranger avant d’avoir un poste, et cette mobilité forcée freine encore plus les femmes.

B : Tu as écrit récemment un livre sur la Voie lactée?
FC : Oui, c’est pour les étudiants et astronomes amateurs. Il y a énormément d’astronomes amateurs – 60000 inscrits dans des clubs d’astronomie en France. Quand je fais des conférences grand public, je suis toujours très étonnée de voir combien les auditeurs connaissent l’astrophysique. C’est de la semi-vulgarisation. Ils ont déjà beaucoup lu par exemple sur Wikipédia.

B : Peuvent-ils participer à la recherche, peut-être par des actions de type « crowd sourcing »?
FC : Tout à fait. Il y a par exemple le « Galaxy zoo ». Les astronomes ont mis à disposition du public des images de galaxies. La personne qui se connecte doit, avec l’aide d’un système expert, observer une image, reconnaître si c’est une galaxie, et définir sa forme. Quand quelqu’un trouve quelque chose d’intéressant, un chercheur se penche dessus. Cela peut même conduire à un article dans une revue scientifique. L’interaction avec le public m’intéresse beaucoup. C’est le public qui finance notre travail ; le public est cultivé, et le public doit être tenu au courant de toutes les merveilles que nous découvrons.

 stephanLe groupe compact de galaxies, appelé le Quintet
de Stepĥan, image du Hubble Space Telescope (HST), Credit NASA-ESA