Le sens des images

image-henrimaitre2.1Terkiin Tsagan Nuur, Khangaï, Mongolie Henri Maître

Suite de l’entretien d’Henri Maître, professeur émérite à ParisTech réalisé par Claire Mathieu, Directrice de Recherche CNRS à l’ENS Paris et Serge Abiteboul, Directeur de Recherche Inria à l’ENS Cachan (lire l’article précèdent)

Binaire : Dans le traitement de l’image reste encore de nombreux champs à défricher. Pour toi, c’est quoi le Graal ?

Henri Maître : Le Graal, pour moi c’est très clair : c’est dans la sémantique. Depuis le début du traitement de l’image, des gens ont été interpelés par le fait qu’il y a d’une part la forme de l’image (les pixels, c’est noir, blanc, rouge ou vert, ça a des hautes fréquences, des basses fréquences, des contours, textures) et il y a le contenu, le message que l’on veut faire passer. Entre les deux on ne sait pas comment ça se passe. Cette dialectique entre ce qui est intelligent dans l’image et ce qui est simplement l’emballage de l’intelligent est quelque chose qui n’est pas résolu mais dont les gens se sont bien rendu compte. Détecter un cancer du sein sur une radiographie, ça ne peut généralement pas se faire sur une image seule. Il faut à côté connaître les antécédents de la personne. C’est pour ça que les médecins ont tout à fait raison de ne jamais laisser les ordinateurs faire les diagnostics eux-mêmes. Les ordinateurs et le traitement de l’image ne peuvent donner que des pistes en disant : « Cette zone-là me semble susceptible de présenter des tumeurs malignes. » Et puis le médecin, lui, il va voir son dossier et compléter l’examen en mettant les radioscopies sur l’écran, car lui saura faire le mélange complexe entre l’information de radiométrie et l’information hautement sémantique portant sur l’âge et le contexte clinique de la patiente. Ce problème-là était déjà clair dans les années 70-75 quand on a pris le problème. Maintenant nous progressons, mais lentement. La sémantique reste toujours mal cernée. Tu tapes Google, tu tapes Charles de Gaulle et tu ne sais toujours pas ce que tu vas avoir. Tu risques d’avoir un porte-avions. Ou un quartier de Paris. Ou un aéroport. Ou peut-être le général que tu cherchais ! Ou alors il faut lever l’ambiguïté : ajouter de force la sémantique : « aéroport Charles de Gaulle » ou « général Charles de Gaulle », ces mots ajoutés forcent le sens que personne malheureusement ne sait aujourd’hui trouver dans l’image. C’est là un enjeu colossal pour nous aider à exploiter les immenses ressources qui se cachent dans la toile.

B : Ça progresse en utilisant évidemment des techniques de traitement de l’image mais ça progresse aussi en utilisant, d’autres technologies comme les bases de connaissances ?

HM : Oui. On tourne autour du problème : « image ou intelligence artificielle ? » depuis des années, depuis 30 ans au moins, parce qu’en parallèle de problèmes de bas niveau du traitement de l’image, d’algorithmique liée à la détection des formes et des objets présents dans l’image, les gens s’interrogent sur la façon de représenter cette connaissance. Au début, on procédait en utilisant des règles, des grammaires, sans grands succès ? Puis des systèmes à base de connaissance. Vous aviez des très bons chercheurs à l’INRIA comme Marc Berthod ou Monique Thonnat qui ont développé pendant des années des systèmes intelligents pour reconnaître des formes sur ce principe. On disait : « Un aéroport, ça a des pistes, des bâtiments et des hangars ». Ces modes de raisonnement, qui sont bien datés, ont été abandonnés, malgré des efforts considérables, et des résultats non négligeables, ils ont montré leurs limites. Après, on a basculé sur d’autres systèmes des systèmes coopératifs de type multi-agents. Les résultats n’ont pas été bien meilleurs. Actuellement, on est d’une part revenu très en arrière vers des techniques de reconnaissance statistique et très en avant en mettant en scène des ontologies de traitement de l’image. Ces ontologies sont là pour mettre des relations intelligentes entre les divers niveaux d’interprétation et vont permettre de piloter la reconnaissance. Actuellement, c’est parmi les choses qui fonctionnent le mieux lorsqu’elles s’appuient sur une classification de bas niveau de qualité comme en procurent les algorithmes purement probabilistes issus du machine learning. Néanmoins, il est clair que, dans les images, il y a une partie de compréhension beaucoup plus complexe et plus difficile à traiter que dans le langage parlé ou dans l’écrit.

B : D’où vient la difficulté ? De la géométrie ?

HM : Une grande partie de la difficulté provient de la variabilité des scènes. Prenons le simple exemple d’une chaise, terme sémantiquement simple et peu ambigu qui se décline en image par une très grande variété d’objets, chacun étant lui-même dans des contextes très variés.

image-henrimaitre2.2Photo Henri Maître Street Art Paris

B : C’est beaucoup plus compliqué que de reconnaître le mot chaise, même dans dix langues différentes.

HM : Oui, exactement.

B : La prochaine frontière ?

HM : Actuellement un problème préoccupe les traiteurs d’image, la possibilité de représenter une scène avec beaucoup moins de pixels que ce que réclame le théorème de Shannon (qui fixe une borne suffisante mais pas du tout nécessaire en termes de volume d’information utile pour la reconstruction d’un signal). C’est ce qu’on appelle le «compressed sensing». C’est à la fois un très difficile problème mathématique et un redoutable défi informatique. De lui pourrait venir un progrès très important dans notre capacité d’archivage des images et pourquoi pas de leur manipulation intelligente.

B : Merci pour cet éclairage. Tu es quand même à Télécom et donc tu ne vas pas couper à une question sur les télécommunications. Vu de l’extérieur, pour quelqu’un qui n’y connaît pas grand-chose là-dedans, on a l’impression que, à un moment donné, les télécoms aussi ont basculé dans le numérique et que, maintenant, il n’y a plus beaucoup de distinctions entre un outil de télécom et un ordinateur. En fait, c’est l’ordinateur qui est devenu le cœur de tout ce qui est traitement des télécoms. C’est vrai ou c’est simpliste ?

HM : Non, ce n’est pas simpliste. C’est une vue qui est tout à fait pertinente. Mais pendant que les télécoms sont venues à l’informatique, l’informatique a été obligée de venir aux télécoms : il est clair que si l’ordinateur est au cœur des télécoms, le réseau est au cœur de l’informatique moderne, c’est probablement plus des télécoms que de l’informatique.

B : C’est un mariage ? Un PACS ?

HM : Voilà. Cette assimilation des deux s’est faite de façon consentie aussi bien d’un côté que de l’autre. Il reste un cœur d’informatique qui n’utilise pas du tout les concepts des télécoms, et des domaines des télécoms qui n’intéressent pas les informaticiens, mais un grand domaine en commun qui s’est enrichi des compétences des uns et des autres. C’est la convergence. La convergence qui était annoncée depuis très longtemps.

B : Donc, puisque là on parle de convergence, on parle aussi d’une convergence avec la télévision…

HM : Qui est plus lente et qui est moins assumée, actuellement, dans la société. Parce que certes, probablement dans beaucoup de foyers en particulier dans ceux de nos étudiants, il y a une convergence totale où l’on capte la télé sur le web, sur un téléphone ou sur une tablette, mais il y a quand même encore beaucoup de foyers français qui réservent un seul appareil à la télévision, qu’elle soit hertzienne ou sur fil. Pour eux, il y a une convergence technique (dont d’ailleurs ils ont des occasions de se plaindre), mais elle est restée cachée.

B : C’est juste une question de temps. On est bien d’accord ?

HM : C’est une question de temps, c’est ça. C’est une question de génération.

B : OK. Pour passer au présent, maintenant tu es prof émérite. À quoi passes-tu ton temps et qu’est-ce qui te passionne encore ? Dans la recherche, si ça te passionne encore.

HM : Je reviens lentement à la recherche. J’ai eu une interruption longue : quatre ans où je me suis entièrement consacré à de l’administration de la recherche. Et c’est extrêmement long pour un chercheur. J’ai pris en charge la direction de la recherche, la direction du LTCI et la direction de l’école doctorale. Trois secteurs, dans des périodes très troublées par de multiples chantiers où il y avait beaucoup boulot. J’ai donc eu une coupure très importante et je suis en voie de réadaptation : je suis en train de réapprendre les outils du chercheur débutant. Du coup, et tant qu’à faire que se remettre à niveau, j’explore des nouveaux axes. Je me suis plongé depuis quatre mois, sur ce qu’on appelle la photographie computationnelle. C’est quoi ? Ce n’est pas une nouvelle science, mais une démarche scientifique qui cherche à tirer profit de tout ce que la technologie a fait de nouveau dans l’appareil photographique, aussi bien au niveau du capteur, des logiciels embarqués, des diverses mesures pour faire autre chose qu’une « belle image » (ce qui est la raison commerciale de ces nouveaux appareils). Quel genre de chose ? des photos 3D, des photos mises au point en tout point du champ, ou avec des dynamiques beaucoup plus fortes, des photos sans flous de bouger, … et l’idée est bien de mettre ça dans l’appareil de Monsieur Tout-le-Monde.

B : Alors, question de néophyte : J’aurai plus de réglages à faire ? Ça va faire beaucoup plus automatiquement ou ça va me demander des réglages voire de programmer ?

HM : On ne sait pas encore. C’est une piste pour permettre à chacun de faire des photos normalement réservées au professionnel. Une autre piste est de mettre ces fonctions à la disposition des bons photographes comme un « mode » supplémentaire disponible à la demande. Pour l’instant ce sont des usines à gaz qui ne peuvent quitter le labo de recherche. Il y a aussi une évolution qu’il faut prendre en compte : l’appareil photo est de plus en plus un « terminal intelligent » du web. D’ailleurs si vous achetez un appareil un peu haut de gamme, la première chose à faire est de le mettre sur le web pour télécharger les dernières versions des logiciels aussi bien du boîtier que des objectifs.

B : Le système se met à jour.

HM : Oui, ce qui est quand même assez stupéfiant. Moi j’avoue, en être resté pantois : ton appareil recharge les lois de commande sur la balance du blanc ou la correction des aberrations chromatiques, et ton objectif la stratégie de stabilisation et de mise au point. Bien sûr, sur cette lancée, on voit apparaître des officines qui te proposent aujourd’hui des logiciels pour faire le démosaïcage mieux que Canon ou Nikon, pour te proposer une application dédiée.

B : Donc on pourrait imaginer des appareils photos qui, comme notre téléphone portable, pourraient se brancher avec des applications qu’on irait télécharger, acheter à droite et à gauche.

HM : Exactement. Tu veux acheter le truc qui te donne la 3D ? On te donne la 3D. Tu es intéressé par la détection de choses particulières, avoir systématiquement dans toutes tes images une indexation des tags urbains (moi je suis passionné de street art), ça me le fait automatiquement, des choses comme ça. On pourrait faire ça. Pour l’instant, c’est encore inaccessible pour le néophyte…

B : Mais un jour, peut-être, avec des interfaces de style téléphone intelligent ?

HM : Oui. Aujourd’hui, même s’il a le lien wifi avec le réseau, l’appareil photo moderne n’en abuse pas. Mais il est déjà doté d’un calculateur très puissant et pourrait faire bien plus. Aujourd’hui, ton appareil photo fait la mise au point tout de suite ainsi que le choix d’ouverture et la balance du blanc. Il analyse la scène, décide s’il est en intérieur ou en paysage, en macrophoto ou en portrait. Il trouve les pondérations des sources. Il fait la mise au point sur les quelques indications que tu lui donnes. Si jamais tu lui dis : « c’est un visage que je veux », il te détecte le visage. Il y en a qui détectent le sourire. Ils font le suivi du personnage et corrigent la mise au point. Tout ça, en temps réel. Ce qui n’est pas encore beaucoup exploité dans les appareils photos, c’est le GPS et la wifi. Le GPS marque uniquement les images, mais il pourrait te dire que tu es place Saint-Marc et que ce que tu as pris en photo c’est le Campanile.

B : On pourrait imaginer aussi qu’il se charge de reconnaître des tags qu’il y a sur les gens. Des tags électroniques. RFID, des choses comme ça.

HM : Oui, tout à fait. Ça pourrait se faire très bien ; il faudrait bien s’entendre sur ce que l’on y met.

B : Jusqu’à quel point sera-t-on dirigé ? Est-ce que je serai forcé d’avoir un horizon horizontal ? Pourrais-je le choisir autrement ?

HM : C’est une vraie question. Mon appareil photo, ici, est en manuel presque en permanence. Il sait tout faire. Mais je choisis de garder le contrôle la plupart du temps. Mais pour ceux qui font de la montagne par exemple, avoir le nom de tous les sommets, c’est pas mal. Souvent, tu te dis : « Mince, où est-ce ça ? Je ne sais plus bien. » Moi j’aimerais bien que mon appareil photo me taggue les montagnes.

B : Comme tu aimerais bien, quand tu rencontres quelqu’un, qu’en le mettant sur ton appareil photo il te dise le nom de la personne.

HM : Ça, ça me gêne plus. Et de ce côté-là, j’avoue que je ne pousse pas trop à la roue. Je suis même assez opposé. Mais pour les paysages je n’ai pas l’impression de pénétrer à son insu dans l’intimité de quelqu’un.

image-henrimaitre2.3Photo Henri Maître Street Art Paris

B : On voit sur ta page web que tu voyages beaucoup et que tu rapportes plein de photos. Est-ce que tu penses que ta profession, ton métier ont changé ta vue sur le monde ?

HM : Oui, beaucoup, c’est sûr. Alors comment est-ce que ça l’a changée ? D’abord j’ai relativisé l’importance de l’image. Prendre des milliers d’images dans un voyage, c’est très facile. Par contre, en garder dix pour un album ou une expo pose de vraies questions … Comment en garde-t-on dix ? On se pose pour chacune la question : qu’est-ce qui la distingue des autres et ça permet de remettre l’homme dans le processus de création de l’image, car s’il ne coûte plus rien de faire la photo, l’acte créateur qui célèbre la valeur de telle ou telle image, renaît au moment de la sélection. Dans toutes les images qu’on fait la plupart, soyons clair, sont sans intérêt, et pourtant ne se distinguent guère des quelques autres que l’on garde. Je ne vais pas aller beaucoup plus loin, car cela nous entraînerait dans des développements ennuyeux. Mais je vais faire une petite digression qui semble n’avoir que peu de lien mais relève du même débat. On parlait tout à l’heure de notre travail avec les musées. Il m’a amené dans les galeries et j’en suis sorti fasciné par l’évolution de la peinture occidentale (je ne connais pas assez les autres cultures pour m’y aventurer). Je trouve que la peinture nous renvoie aujourd’hui le dialogue de l’homme dans le débat husserlien : « Qu’est-ce qui est à moi dans l’image et qu’est-ce qui est au monde dans l’image ? Je capte donc c’est à moi, mais en même temps, c’est de la lumière qui m’est envoyée donc ce n’est pas à moi »… Partons du Haut Moyen-Âge et des œuvres en grande majorité d’inspiration religieuse. Au centre et en haut, c’est l’idée de Dieu, l’idée de grandeur, l’idée de beau ; les vilains sont par terre, ils sont tout petits. Les autres sont grands, ils sont en lumière, ils ont toujours le même visage, iconique, … On représente des idées beaucoup plus que des choses ou des gens. Et puis, le Quattrocento a fait sa révolution, introduisant le monde tel qu’il est dans ce que les gens en pensent. Avant, les peintres représentaient le monde tel qu’ils le voulaient et après le Quattrocento, ils ont commencé à le représenter tel qu’il était. Ils ont introduit bien sûr la perspective, la couleur délicatement dégradée, les ombres, la personnalisation des visages, des détails, souvent banals. Comme si brutalement le monde s’était précipité sur la toile. Ca a duré jusqu’au milieu du XIXe siècle, poussant régulièrement la capacité de reproduire le réel jusqu’aux Pompiers. Mais les impressionnistes ont dit : « Non, ce n’est pas ça qu’il faut… Replaçons l’image dans ce qu’elle doit être. Représentons dans l’image ce qu’on veut représenter, ce qui est derrière l’apparence mais qui en fait la nature particulière, ce qui n’est pas porté par l’image. ». Ce n’était qu’un début qui s’est poursuivi inexorablement avec les fauves, les cubistes puis les abstraits. On a perdu alors les éléments inutiles, les détails, les contours (Cézanne, Manet). Si l’ombre tourne dans la journée supprimons la (Manet, Gauguin). Juxtaposons les instants (Braque, Bacon), juxtaposons les aspects (Picasso). Je trouve ça absolument fascinant. Et je pense que nous, traiteurs d’images, on a vraiment beaucoup à apprendre pour voir comment les peintres ont petit à petit éliminé de la scène qu’ils observent des choses qui sont, entre parenthèses, artificielles. Les ombres, qui tournent dans la journée. Pourquoi ? Parce que l’ombre n’est pas propre à l’objet qu’on veut représenter. L’ombre est propre à l’instant où on le regarde, mais ce n’est pas ça qu’on voit. Au contraire, d’autres regardent la lumière, et font disparaître la cathédrale qui n’est que le prétexte à la lumière, comme l’escalier n’est que le prétexte du mouvement. Toutes ces choses-là, je pense que ce sont des guides pour ceux qui font du traitement de l’image pour leur indiquer le plus profond de la sémantique que l’on va retrouver dans les images. Ça leur montre qu’ils ont du boulot. Pour moi, c’est absolument naturel que les impressionnistes soient apparus quand la photo s’est imposée.

B : En même temps que la photo ?

HM : J’imagine le peintre de 1835 : « Mais qu’est-ce que je fais avec ma peinture, à dessiner mes petits pois, mes petits légumes, mes petites fleurs ? À quoi je sers ? » Alors qu’avec une photo, on a exactement la scène telle qu’on la voit. Ça ouvre grand les marges de manœuvre de la peinture, pour représenter les scènes qu’on observe. Quand je parle de sémantique, la sémantique la plus complète, ça peut être effectivement très compliqué.

B : As-tu des regrets ? Si c’était à refaire ?

HM : Je ne me suis pas encore trop posé la question. Non, je n’ai pas beaucoup de regrets. Évidemment, j’ai des regrets d’avoir passé trop de temps dans des combats stériles, plus ou moins politiques, plus ou moins scientifiques, d’avoir trop consacré de temps aux démarches administratives. J’ai perdu beaucoup de temps, c’est sûr. Mais je ne regrette pas par contre d’être monté au créneau des tâches fonctionnelles car il faut que les scientifiques s’en chargent si l’on ne veut pas que se ressente très bas dans la vie des laboratoires un pilotage technocratique ou managériale qui peut faire beaucoup de dégâts sous une apparente rationalité. Oui, j’aurais pu faire autre choses. Qu’on me donne dix vies et je referai dix vies différentes, c’est sûr.

B : Est-ce que tu aurais aimé être physicien ou être autre chose ? Peintre ? Photographe ?

HM : J’aurais aimé être ingénieur agronome et m’occuper de forêts, si possible outre-mer. Rien à voir avec l’image ! Je me rends compte que je suis bien mieux dans la nature et dans la campagne que dans un laboratoire.

 image-henrimaitre2.4Photo Henri Maître Street Art Paris

B : nous vous invitons à parcourir le mini-portail du monde d’Henri Maître qui regorge d’images de tout horizon. Bon voyage !

De l’holographie à l’image numérique

 

(original)
(résultat)

Effet spécial sur une séquence vidéo : suppression automatique d’un personnage. A. Newson, A. Almansa, M. Fradet, Y. Gousseau, P. Pérez – Télécom ParisTech et Technicolor

Henri Maître est Professeur émérite à Télécom ParisTech où il était jusque récemment Directeur de la Recherche. C’est un spécialiste du traitement d’images et de reconnaissance des formes. Il nous raconte son parcours qui conduit aux fonctions si sophistiquées des appareils photos modernes et au Graal, « la sémantique des images ». Il nous fait partager sa passion pour ces aspects si dynamiques de l’informatique, le traitement numérique du signal et de l’image et sa vision sur l’évolution et les perspectives qui s’offrent à l’image.

Entretien avec Henri Maître réalisé par Claire Mathieu, Directrice de Recherche CNRS à l’ENS Paris et Serge Abiteboul, Directeur de Recherche Inria à l’ENS Cachan.

Binaire : Bonjour Henri Maître. Pour commencer, peux-tu nous raconter comment tu es devenu chercheur en traitement du signal, jusqu’à devenir directeur de la recherche à Télécom.
Henri Maître : Si je fais partir le début de ma carrière de mon expérience d’étudiant à Centrale Lyon, où j’ai étudié essentiellement les maths appli et la mécanique des fluides, on est loin de ma recherche future. Mais en parallèle, je me suis passionné pour l’holographie, l’optique et la physique des images… Le point commun entre l’holographie et la mécanique des fluides, c’est la transformée de Fourier tridimensionnelle et les traitements qui tournent autour… Dans les premières années de 70, ce n’était pas l’outil courant de l’ingénieur et je pensais pouvoir mettre à profit cette double compétence à l’ONERA pour l’étude par holographie des écoulements, mais ça n’a pas marché et comme je cherchais à me rapprocher de Paris, j’ai fait un stage en holographie numérique à l’ENST, l’actuel Télécom ParisTech qui démarrait une activité sur ce sujet.

B : Et tu t’es plu à Télécom ; tu y es resté toute ta carrière ?
HM : Oui. J’ai commencé en mars 1971 et j’ai été remercié en mars 2013 ! Et j’ai même droit à une petite rallonge avec un poste émérite sur place. Ce qu’on me proposait, c’était du traitement de l’information et c’était de l’holographie. Comme je n’étais pas un grand spécialiste de l’optique, j’ai été à l’Institut d’Optique faire un DEA d’optique cohérente dans une superbe équipe qui était pilotée par Serge Lowenthal à l’époque, c’était vraiment le haut du panier mondial en holographie. L’École des Télécoms était en train de créer ses labos. Le premier labo avait été monté par Claude Guéguen et Gérard Battail deux ans auparavant en traitement du signal et en théorie du codage. Jacques Fleuret montait un labo d’holographie et de traitement optique des images juste avant mon arrivée, montage auquel j’ai participé.
Replaçons nous dans le contexte des années 70. L’ordinateur fonctionnait bien. Il avait quand même beaucoup de mal à travailler sur des images trop grosses pour sa mémoire, les temps d’entrée/sortie étaient considérables et la piste de l’optique laissait entrevoir du temps réel sur de larges images, sans avoir besoin de les transformer par une numérisation. On espérait à l’époque pouvoir faire des traitements très compliqués. Les Américains avaient déjà fait des systèmes optiques de reconstruction d’images de radar à vision latérale embarqués dans des avions. Il y avait des systèmes de reconnaissance de routes ou de rivières en télédétection, de caractères pour le tri postal, de cellules pour l’imagerie médicale. C’était la piste concurrente du traitement de l’image par ordinateur

B : Une image ne tenait pas dedans ?
HM : Non, alors, l’image ne tenait pas dans l’ordinateur. Les temps de calcul étaient très longs mais surtout les entrées et sorties étaient très lourdes. Disposer d’une mémoire d’image était une grande fierté pour une équipe (à Télécom comme à l’Inria ou au CNRS). Pierre Boulez est venu voir chez nous ce qui pouvait être utile pour son prototype de 4X qu’il faisait développer alors à l’IRCAM. Notre mémoire, c’était un truc qui faisait 40 cm sur 40 cm sur 20 cm, et sur lequel il y avait 512 x 512 x 8 octets distribués dans des dizaines de boîtiers. Ça permettait d’afficher une image en temps réel devant des spectateurs émerveillés. Pour l’analyse, on passait par un microdensitomètre, prévu pour analyser des spectrogrammes, mais modifié pour balayer le film selon les deux dimensions. On lançait l’analyse le soir (elle durait 8 h et il fallait éviter les vibrations et les lumières parasites ; grâce au ciel il n’y a pas de métro rue Barrault !). Pour sortir les résultats on collait côte-à-côte des morceaux de listings où les teintes de gris provenaient de la superposition de caractères et l’on prenait ça en photo à 20 mètres en défocalisant un peu pour lisser les hautes fréquences.
Donc, le traitement numérique de l’image existait déjà mais de façon balbutiante : il y avait quelques équipes en France. Je pense à Albert Bijaoui à l’Observatoire de Nice, à Serge Castan à Toulouse, à Daniel Estournet à l’ENSTA ; et Jean-Claude Simon, faisait venir tous les ans dans son château de Bonas la fine-fleur internationale de la reconnaissance des formes. Mais je ne faisais pas de traitement numérique d’images alors. On calculait par ordinateur des filtres complexes par holographie numérique que l’on introduisait dans des montages optiques en double diffraction sur des tables de marbre. Une semaine de calcul du filtre puis quinze jours d’expérimentation en optique pour décider qu’il fallait changer de paramètre du filtre et recommencer le cycle. Ce n’était pas tenable. On a donc décidé de simuler le traitement optique … et on est donc arrivé au traitement numérique !

B : Les débuts du traitement numérique d’image ?
HM : Oui, On simulait le filtre optique mais le filtre optique, ce n’était jamais qu’un filtre de corrélation que l’on faisait par une double transformée de Fourier. A l’époque, une double transformée de Fourier, ça vous prenait deux heures sur la machine, même si Cooley-Tukey étaient passés par là. On s’est rendu compte que c’était infiniment plus efficace que de le faire en optique. Que c’était plus rapide, plus souple et que finalement les nouveaux systèmes d’affichage d’image (des oscillos qu’on modulait devant un polaroïd), ou les mémoires d’image devenaient opérationnels. Et effectivement, honnêtement, le bilan scientifique, c’est que les méthodes optiques de traitement des images n’étaient pas compétitives face au traitement numérique. Mon collègue Jacques Fleuret a continué à faire du traitement plutôt optique pour des applications spécialisées ; on a continué à utiliser nos tables d’holographie, en marbre, nos bains photo, nos émulsions, mais on a multiplié les terminaux, gonflé notre mémoire et renforcé notre réseau.
Je suis parti une année sabbatique en Allemagne dans un labo d’optique cohérente en pôle position dans la communauté de l’holographie, celui d’Adolf Lohmann. Mon cours expliquait le traitement numérique des images à des opticiens.

B : C’était en quelle année ?
HM : En 1980. Et je suis revenu avec une étiquette de traiteur numérique des images et à partir de là, je n’ai plus fait que ça.

fetal_modelingModélisation anatomique d’un fœtus : l’opérateur choisit le stade de croissance,
l’orientation globale dans l’utérus et la position des membres.
S. Dahdouh, J. Wiart, I. Bloch, Whist Lab, Télécom ParisTech et Orange Labs.

B : Est-ce que c’est correct de dire qu’aux alentours des années 80, le traitement de l’image a basculé ou commencé à basculer vers le numérique ?
HM : La piste du traitement numérique remonte à 1965 et ses résultats sont déjà très nombreux en 1980 mais, effectivement, dans les années 80, le traitement numérique des images est la solution au problème alors qu’avant, elle était une des solutions possibles. Il y avait eu beaucoup plus de crédits dans le traitement optique car les militaires surtout de l’autre côté de l’Atlantique, mettaient beaucoup d’argent pour avoir des traitements embarqués en temps réel. Par contre, le traitement numérique a mis plus de temps car les infrastructures (calculateurs assez puissants, composants, …) n’étaient pas là. Comment est-ce que le traitement numérique est passé devant ? Incontestablement, c’est la conquête spatiale américaine qui a fait basculer le traitement numérique au premier plan.

B : Et techniquement des choses comme la baisse du coût des mémoires ?
HM : Bien sûr, l’évolution des composants surtout …. Mais qu’est-ce qui a entraîné l’autre ? Je ne sais pas. Il y a une chose extrêmement intéressante à voir rétrospectivement. Dans les années 70 à 80, lors de la compétition féroce entre les Américains et les Russes pour l’espace, les Américains, partis en retard, ont rattrapé les Russes à coups de technologie très avancée. Les Russes, eux, ont continué à faire une politique s’appuyant sur leurs points forts de base dans laquelle ils envoyaient des hommes dans l’espace. L’essentiel de la conquête de l’espace des Américains, comme des Russes, était destinée à améliorer la surveillance de l’autre. Les Russes le faisaient avec des jumelles depuis les satellites. Ils observaient des cibles, préparées sur des plannings, après des entraînements spécifiques qui leur permettaient de détecter, suivre et identifier les bateaux qui se trouvaient dans un port pendant les quelques minutes où la cible était en visibilité. Résultat : les Russes ont acquis une compétence extraordinaire sur la biologie dans l’espace, les capacités et les évolutions du corps humain, les effets de la gravité sur les performances du système visuel, le fait que, par exemple, la rétine, en apesanteur, ne voit pas les mêmes couleurs de la même façon. Pendant ce temps les Américains envoyaient des caméras prendre des photos et développaient des machines de traitement de l’image pour les exploiter. On voit le résultat quelques années plus tard : les Américains dominent complètement ce marché de la télédétection en haute résolution, tandis que les Russes ont acquis un savoir-faire exceptionnel sur les longs séjours des cosmonautes.
Cet effort particulier des Américains lancé dans les années 70 à 75 commençait à retomber en pluie fine sur les universités et les labos de recherche. Dans les années 80, le traitement numérique des images était bien établi et, évidemment, s’appuyait sur l’informatique à fond.

B : Est-ce le progrès du matériel qui a précipité le développement du traitement numérique d’image ou l’inverse ?
HM :
Les deux ont été vrais : l’exemple de la mémoire d’image est typiquement un point sur lequel le traitement de l’image a demandé des choses qui n’existaient pas à l’industrie des composants et les progrès ont bénéficié à l’ensemble de l’informatique. C’est probablement aussi le cas des disques à très haute capacité qui servent aujourd’hui avant tout à la sauvegarde des films et des images du grand-public, mais aussi à des applications commercialement moins porteuses mais potentiellement très riches comme les grandes bases de données du web.

B : Et, à cette époque, tu es où ?
HM : À Télécom ParisTech, l’ENST d’alors. Serge, c’est peut-être là d’ailleurs qu’on s’est connus ?
Serge : J’y étais élève. Et tu étais mon prof.

B : Qu’est-ce qui a évolué dans la recherche, en ce qui concerne le traitement du signal, de l’image, entre ce qui se faisait disons, dans les années 80, et ce qu’on fait maintenant ? Est-ce que c’est juste qu’on le fait mieux ou est-ce qu’il y a eu de nouveaux sujets qui ont émergé, des nouvelles pratiques ?
HM : C’est assez clair : jusqu’aux années 85-90, le traitement de l’image était porté par des applications qui étaient très consommatrices de gros moyens informatiques. C’était l’imagerie satellitaire, j’en ai déjà parlé : pour la défense, la surveillance, la cartographie. On pouvait le mâtiner d’applications civiles, du genre surveillance des ressources terrestres, suivi des cultures, des forêts, … mais, en gros, c’était quand même essentiellement piloté par des applications militaires. Deuxièmement : l’imagerie médicale. Marché très important démarré avec l’analyse des radiographies et le comptage cellulaire. C’est à ce moment la naissance de la tomographie, de l’imagerie ultrasonore, de l’IRM. Une véritable révolution dans le domaine de la santé, qui renouvelle totalement le diagnostic médical. Matériels très chers, développés par des entreprises hautement spécialisées et très peu nombreuses. Le traitement des images dans ce domaine, c’est du travail de super pros qui s’appuient sur une très étroite relation avec le corps médical. Troisième domaine d’application très professionnel, les applications de traitement de l’image pour les contrôles dans les entreprises : surveillance des robots, lecture automatique dans les postes, dans les banques, pilotage des outils. Si c’est de plus petite taille, ça reste quand même très professionnel.
Ce tableau s’applique, jusqu’aux années 90. Et là, la bascule s’est produite avec la démocratisation de la photo numérique dans des applications liées au web, à la photo personnelle, aux individus et au grand public, Bref le marché de la société civile. Là, on a trouvé des gens qui se sont intéressés aux mosaïques d’images, à la reconstruction 3D, à la reconnaissance de visages simplement pour des applications familiales ou entre amis.

B : Les photographes amateurs et les réseaux sociaux ?
HM : Oui, les réseaux sociaux. Ça ne s’appelait pas encore comme ça, mais c’était bien ça. Cette profusion d’images numériques dans les téléphones, les ordinateurs, les tablettes a fait basculer le traitement de l’image des domaines professionnels au domaine du grand public. Aujourd’hui, c’est le grand public qui tire, c’est très clair. Les développements des matériels, les appareils photos … Tout le monde a son appareil photo à 15 mégapixels, c’est absolument incroyable quand on voit le temps qu’il a fallu pour avoir une image numérique de 100 koctets !. Tous mes cours, commençaient par : « Une image, c’est 512 x 512 pixels.». Une base d’images numériques (comme celle du GdR Isis en France), c’était 30 images. Maintenant, tout le monde a sur son disque dur, des centaines d’images de plusieurs méga-octets. Ça, c’est le nouveau contexte du traitement de l’image. Je pense que cette nouveauté-là réagit très fortement sur les métiers du traiteur d’image. Si vous vous intéressez au renseignement militaire vous aurez probablement autant de renseignements en allant naviguer sur Google Earth qu’en envoyant des mecs se balader sur le terrain ou en lançant un nouveau satellite espion.

B : Et la science là-dedans ? Est-ce qu’il reste des problèmes durs ? Des problèmes ouverts, le Graal du traitement de l’image aujourd’hui ? Ou bien, est-ce que le plus gros est fait, qu’il ne reste plus qu’à nettoyer ici ou là ?
HM : Les problèmes nouveaux, oui, on a plein, parce qu’à la fin du siècle précédent, on considérait que si on voulait faire une application, la première chose qu’on demandait, c’est qu’il y ait des professionnels qui prennent les images avec du matériel pro. On se mettait toujours dans un contexte professionnel. Typiquement, pour la radiographie médicale, on achète un appareil à 15 millions d’euros, on prend deux techniciens à temps plein toute l’année et on fait des images dans des conditions parfaitement contrôlées. Donc on se met dans les meilleures conditions d’acquisition de l’image et à partir de là, bien sûr, on tire bon an mal an de bons résultats. Bon an mal an, parce que ce n’est pas si facile que ça. Mais dans les conditions naturelles de la vie : l’éclairage, l’attitude, le mouvement, le bruit, varient sans contrôle et rendent la tâche plus complexe. On dispose cependant de beaucoup plus d’images et de capteurs bien meilleurs et il faut réinventer les algorithmes avec ces nouvelles données. Naissent ainsi des problématiques nouvelles, extrêmement intéressantes, mais difficiles. Il faut trouver les bons invariants, jouer avec les lois de distribution pour détecter les anomalies, savoir faire abstraction des problèmes de géométrie. Et tout cela doit être caché à l’utilisateur qui n’a aucun intérêt aux invariants projectifs, aux matrices fondamentales, aux hypothèses a contrario …

B : Passons à un autre sujet. Au départ, tu étais physicien. Ensuite, tu es passé au traitement de l’image. Nous, on te revendique maintenant comme informaticien, mais quel est ton point de vue à toi ? Est-ce que tu te considères comme informaticien, ou sinon, qu’est-ce que tu es ? Dans le cadre général de la classification des sciences, tu te places où ?
HM : Je me sens tout à fait bien dans le monde de l’informatique, mais je revendique d’avoir non seulement une culture mais une sensibilité et une compétence qui vont au-delà, en particulier vers la physique, mais pas seulement. Par exemple je suis extrêmement soucieux de me maintenir en physique à un niveau qui soit suffisant, car je pense qu’on ne peut pas faire, dans mon domaine, de bonnes choses si on ne sait pas ce qu’est une réflectance, une albédo, ou une source secondaire.

B : Toute l’optique ?
HM : Une bonne partie de l’optique. Savoir ce qu’est une aberration, un système centré. Donc l’optique est importante. J’ai des sensibilités dans d’autres domaines : autour de la perception, du fonctionnement du cerveau, comment on traite la sémantique…

B : Des sciences cognitives ?
HM : Oui, ça pourrait relever de la science cognitive et c’est très important pour traiter les images. On ne peut pas parler d’image sans avoir une petite compétence en psycho-physiologie de la perception.

B : Est-ce que tu pourrais nous dire comment tu as vu l’enseignement changer au cours de ta carrière à Télécom et comment tu vois le futur de cet enseignement dans un monde où on parle beaucoup de MOOC et de choses comme ça qui font couler beaucoup d’encre ?

mexicoMesure par interférométrie radar de la subsidance du bassin de Mexico
due à l’appauvrissement de la nappe phréatique : P. Lopez-Quiroz, F. Tupin, P. Briole
Télécom ParisTech et Ecole Normale Supérieure 

HM : Puisque l’on destine cet entretien à la communauté de l’informatique, parlons d’elle tout d’abord. Cet enseignement m’a longtemps semblé beaucoup trop utilitaire à l’école. Afin de se laisser le temps d’aborder les domaines les plus pointus des réseaux, des mobiles ou des services en ligne, on passait très vite sur des fondements théoriques qui me semblent cependant indispensables pour structurer une carrière orientée par exemple vers le développement de très grands systèmes ou de réseaux complexes. Je vois d’un très bon œil que, dans le cadre de notre participation à l’Idex de Paris Saclay nous puissions confronter notre expérience pédagogique à celle d’équipes qui ont dans ce domaine de l’enseignement supérieur de l’informatique de très beaux résultats. J’en attends d’une part une nouvelle pédagogie beaucoup plus en profondeur pour un petit nombre d’élèves destinés à y consacrer leur première carrière, d’autre part pour tous les autres un renforcement net de leurs compétences par une meilleure compréhension des enjeux du numérique.
Je ne crois pas beaucoup à l’effet des MOOC dans ce domaine. Je les réserverais plutôt pour des domaines où la pédagogie est moins primordiale, peut-être vers les applications.

B : Qu’est-ce qui t’a le plus intéressé dans ta carrière ?
HM : La plus passionnante des expériences a été de travailler avec les laboratoires de recherche des musées de France, et en général c’est vers les applications que j’ai trouvé les plus grandes satisfactions, en frottant mes connaissances de traiteur d’image aux compétences d’experts d’autres domaines, qu’ils soient dans la restauration des peintures, dans la cartographie urbaine ou dans la détermination de l’altimétrie de la Guyane.

poussinEtude de la géométrie d’une œuvre de Georges de la Tour
(Saint Joseph Charpentier,  Louvres)
mettant en évidence les principes de construction.
JP Crettez, Télécom ParisTech et Réunion des Musées Nationaux.

B : Tu as des exemples d’applications que tu as réalisées ?
HM : C’était avec les laboratoires de recherche des musées de France. Ça s’appelle maintenant le C2RMF. On a lancé dans les années 83-88 les bases des grands projets européens d’archivage des musées. On a essayé de mettre sur pied non pas des standards mais des critères qui permettent d’établir ces standards, sur la résolution spatiale, l’éclairage, la colorimétrie des bases de données de peintures. Nous étions les partenaires du Louvre et on a travaillé avec l’Alte Pinakothek à Munich, la National Gallery de Londres, et la Galleria degli uffizi de Florence, bien avant que Google s’intéresse au projet. Des projets européens, on en a monté cinq ou six sur les peintures mais aussi sur les objets à 3D, les statues et les vases C’était passionnant et particulièrement stimulant de discuter avec des conservateurs qui ne voulaient surtout pas voir leurs peintures ramenées à un boisseau de pixels.

HM : Un autre exemple de ce qui m’a beaucoup plu : définir la façon d’indexer les images de la nouvelle famille de satellites Pléïades qui a une résolution de 50 à 75 cm au sol, (toutes les minutes et demi, il tombe 640 méga-octets). Les gens ne peuvent plus traiter les images pour voir individuellement ce que chacune contient. On s’est posé la question de savoir comment indexer les images automatiquement quand elles arrivent, de façon à pouvoir répondre à des questions que l’on se posera dans 10 ans ou 20 ans. Il y a une grande partie de l’information qui est contrainte parce qu’on connait précisément la géographie, donc on sait que ce n’est pas la même chose si on observe du côté de Bakou ou de la Corne de l’Afrique. Mais derrière, il faut pouvoir identifier les champs, les rivières, les zones urbaines, les réseaux routiers, … Savoir s’il y a encore de la neige, ou du vent de sable, de telle façon qu’après, quand on recherchera des images, on retrouve toutes celles qui présentent une configuration identique. Pour cela, il a fallu tout construire de zéro car ça n’a bien sûr qu’un lointain rapport avec les bases de données d’images sur le web. On est obligé de faire des indexations hiérarchiques parce qu’il faut à la fois être précis lorsqu’on a trouvé la zone d’intérêt et rapide pour traiter des milliers d’images, chacune couvrant 1000 km2. Il a fallu discuter avec les utilisateurs : agronomes, géologues, urbanistes, cartographes, pour savoir comment faire les classes. Les gens qui s’occupent d’agronomie, veulent connaître le blé, l’orge, le riz, alors que, comme traiteur d’images, si j’ai reconnu des céréales, je suis très content ! Tu vas voir les urbanistes. Ils te disent : «Moi, je veux les quartiers résidentiels, les quartiers d’affaire, les banlieues, les zones commerciales, industrielles, etc. » et ainsi de suite. Il faut savoir quelles sont les classes qui sont raisonnablement utilisables et donc les questions que la société peut avoir face à l’image. Et je pense qu’à ce niveau-là, l’informatique a encore du boulot devant elle. Elle a encore du boulot parce qu’on va encore lui en poser des questions de ce type. La question n’est pas encore à l’ordre du jour sur le web « social », mais ça ne saurait tarder. Il n’y a qu’à voir comment à ce jour est indexée la musique pour comprendre où se situe le problème. Classer Brel dans la « musique du monde », pourquoi pas, mais qui en est satisfait ?

B : Dans la suite de l’entretien, Henri Maître partagera sa vision de l’évolution de l’image et des perspectives sociétales qu’elle peut avoir. Nous vous donnons rendez-vous demain pour découvrir sa vision…

maitreHenri Maitre, © Serge Abiteboul

L’informatique s’installe au Collège de France

college1Source : Collège de France

Qu’est-ce que le Collège de France ?

Le Collège de France est une institution résolument originale au plan mondial. Créé en 1530 par François 1e pour libérer la pensée de la scholastique universitaire, c’est une université entièrement libre d’accès, sans étudiants ni examens. Quarante-quatre professeurs permanents élus par leurs pairs y dispensent actuellement leurs cours sur autant de chaires, ce dans les grands domaines de la connaissance : mathématiques et sciences numériques, sciences du vivant, physique et chimie, sciences humaines, histoire et littérature. Ils ont pour seules contraintes de dispenser un cours nouveau tous les ans, représentant « le savoir en train de se constituer », tout en conduisant une recherche de pointe dans leur domaine et en s’ouvrant à ceux de leurs pairs. Leurs cours sont complétés par un nombre égal de séminaires donnés par des personnalités extérieures. Les chaires permanentes sont complétées par des chaires annuelles, cinq actuellement, qui explorent de nouveaux domaines de la connaissance et de l’action. La plupart des cours sont téléchargeables en vidéo sur le site du Collège et au travers de plusieurs réseaux internationaux de diffusions de contenus.

L’entrée de l’informatique au Collège

L’informatique est entrée pour la première fois au Collège de France en 2007-2008 lors de la deuxième édition de la Chaire d’innovation technologique Liliane Bettencourt, que j’ai eu l’honneur de tenir cette année-là, tout en gardant mon poste industriel de directeur scientifique de la société Esterel Technologies. La science informatique n’avait jamais été enseignée au Collège de France, et sa connaissance par le grand public restait fragmentaire, beaucoup confondant science, technique et usage dans un méli-mélo quelque peu confus.
Après une leçon inaugurale embrassant le sujet de façon assez large et illustrant la force de la science informatique et la nécessité de son enseignement, j’ai eu l’idée de travailler à la façon du début du 20e siècle, sous forme de « leçons de choses » dédiées à autant de pans centraux de l’informatique : algorithmes, circuits, langages de programmation, systèmes embarqués, vérification de programmes, réseaux et images, le tout accompagné de douze séminaires associés aux sujets du jour et d’un colloque final. Le lien fort entre le collège de France, France-Culture et d’autres radios m’a permis de compléter le cours par plusieurs émissions de radio, exercice que j’apprécie particulièrement car il donne vraiment le temps à l’invité de s’exprimer et laisse de l’autre côté les yeux, les mains et l’esprit libres à l’auditeur.
A la suite du succès rencontré par cette première chaire, Inria et le Collège de France ont décidé de créer en commun et pour cinq ans une chaire annuelle « Informatique et sciences numériques », qui vient d’être renouvelée pour trois ans. J’ai encore eu l’honneur (et la charge) d’inaugurer cette chaire, avec un cours plus technique intitulé « Penser, modéliser et maîtriser le calcul informatique ». J’ai centré mon discours sur le fait qu’il y a un gouffre entre écrire un programme qui marche à peu près et un programme qui marche vraiment, en insistant sur le fait que seule une approche scientifique peut permettre d’atteindre le second objectif.
Les années suivantes, la chaire s’est poursuivie par les cours de Martin Abadi (Université de Santa Cruz et Microsoft Research) sur « La sécurité informatique », Serge Abiteboul (Inria et ENS Cachan) sur « La science des données, de la logique du premier ordre à la toile », et Bernard Chazelle (Université de Princeton) sur « Les algorithmes naturels ».
Cette année 2013-2014, le cours sera donné par Nicholas Ayache (Inria Sophia-Méditerranée) sur le thème « Des images médicales au patient numérique ». Il présentera les progrès extraordinaires de l’imagerie médicale et de la chirurgie robotisée, ainsi que l’évolution vers un patient numérique personnalisé permettant de mieux comprendre les maladies et leur traitement grâce à une modélisation informatique fine de l’anatomie et de la dynamique des organes. Je ne peux que recommander au lecteur de suivre ce cours, qui montrera bien comment l’informatique change complètement les façons de penser dans un domaine qui lui était autrefois tout à fait étranger.

college2

Photo : Collège de France

La chaire permanente « Algorithmes, machines et langages »

En 2012, devant l’importance du sujet et de son évolution et devant le succès des cours des chaires annuelles d’informatique, le Collège de France a décidé de créer une chaire permanente d’informatique « Algorithmes, machines et langages » et de me la confier. J’ai choisi de consacrer mes cours à un sujet relativement peu exploré par les approches traditionnelles mais qui devient de plus en plus central dans nombre d’applications : la gestion du temps et des événements dans les systèmes informatiques.
Les algorithmes et langages classiques s’attachent surtout à la notions de calcul sur des données, et ne traitent le temps et les événements que du bout des lèvres : le temps est vu comme un impôt à payer pour le calcul, les événements comme des choses qu’il convient de traiter avec des primitives ad hoc pour les intégrer le plus simplement possible dans l’exécution séquentielle des programmes. Ceci correspond bien à la conception initiale de l’ordinateur comme super-machine à calculer. Mais, dans un autre monde, l’ordinateur est plutôt vu comme une « machine à réagir ». C’est le cas dans toutes les applications de contrôle de systèmes physiques (avions, automobiles, robots, etc.), où informatique et automatique sont étroitement associées et où le respect des temps de réaction est une contrainte primordiale. C’est aussi le cas pour les circuits électroniques les interfaces hommes-machines, désormais omniprésents, la simulation de système physiques, maintenant à la base de la création d’objets de toutes sortes, l’orchestration d’activités Web, indispensable pour les applications modernes construites par compositions de services existants et commandées par nos téléphones ou autres terminaux sensibles, et même la composition musicale, où les compositeurs contemporains mettent en interaction les merveilleux interprètes humains et les fantastiques possibilités de l’informatique pour produire de nouveaux sons. Tous ces systèmes sont maintenant rassemblés sous le nom de « systèmes cyber-physiques ». Nous allons assister à l’explosion de leur nombre et de  leurs interconnexions à travers le fameux « Web des objets » qui se développe exponentiellement. Il se trouve que la recherche française est en pointe dans ce domaine depuis plus de 30 ans, et fait ce qu’il faut pour le rester. C’est donc un excellent domaine pour le Collège de France, que je détaillerai ultérieurement

Gérard Berry, Professeur au Collège de France

college3Plaque en hommage à Claude Bernard, sous les fenêtres de son laboratoire au Collège de France à Paris.  Photo Collège de France. Jebulon

La datamasse s’invite Quai de Conti

mammothLe mammouth Wooly au Royal BC Museum
Victoria, British Columbia. Wikemedia

Vidéos de la conférence-débat de l’Académie des sciences « La Datamasse : directions et enjeux pour les données massives »

  • Introduction,  Patrick Flandrin, CNRS, ENS Lyon
  • À la découverte des connaissances massives de la Toile, Serge Abiteboul,  Inria, ENS Cachan
  • Des mathématiques pour l’analyse de données massives, Stéphane Mallat, ENS Paris
  • La découverte du cerveau grâce à l’exploration de données massives, Anastasia Ailamaki, École polytechnique fédérale de Lausanne
  • Big Data et Relation Client : quel impact sur les industries et activités de services traditionnelles ? François Bourdoncle, co-fondateur et CTO d’Exalead, filiale de Dassault Systèmes

 Serge Abiteboul

 

Les blagues sur l’informatique #10

Une blague d’informaticiens que vous ne comprenez pas?
Un T-shirt de geek incompréhensible?
Binaire vous explique (enfin) l’humour des informaticien(ne)s!

Désolé(e), les blagues IPv4 sont épuisées.

IPv4 est la version 4 (en fait la première largement déployée) du protocole de communication entre ordinateurs utilisé par Internet. Une adresse IPv4 est représentée sous la forme de quatre nombres décimaux (entre 0 et 255) séparés par des points comme par exemple 8.8.8.8. Pour simplifier, on peut considérer que les adresses IPv4 vont de 0.0.0.0 à 255.255.255.255, ce qui fait 232 soit un peu plus de 4 milliards d’adresses. Il n’y en a donc pas une pour chaque humain sur Terre! Et au vu du nombre d’équipement connectés, c’est peu ! Depuis 2011, il n’y a plus de blocs d’adresses IPv4 disponibles, ce qui explique la blague.

Voici pour illustrer l’en-tête IPv4:

En-tête IPv4Copyright Wikipedia
Plusieurs solutions à ce problème existent, notamment la récupération d’adresses attribuées généreusement autrefois, l’utilisation de sous-réseaux, ou l’utilisation du protocole IPv6
qui autorise 2128 adresses (au lieu de 232), ce qui fait plus de 1038 adresses soit plus de 100 milliards de milliards de milliards de milliards d’adresses.

Voici pour comparer l’en-tête IPv6. Notez la taille largement supérieure de l’adresse!

En-tête IPv6Copyright Wikipedia
 

Voir aussi IPv4, Épuisement des adresses IPv4, Internet, le conglomérat des réseaux.

Sylvie Boldo

L’ordinateur, un crayon pour créer

L’ordinateur, un crayon pour créer

Quand mon fils a eu 8 ans, j’ai eu l’idée de lui apprendre à programmer. Comment cette idée m’est-elle venue ? Pour les 15 ans de la promotion de mon école d’ingénieur, des camarades ont interviewé des acteurs du monde des télécoms sur les transformations passées et à venir. Ça a été un choc de revoir l’impact des technologies du numérique sur l’ensemble de la société. En quinze ans, avec internet, les smartphones et les tablettes, les objets portant en eux des programmes informatiques sont devenus omniprésent dans notre vie quotidienne au point de transformer nos modes de vie. Aujourd’hui nous achetons sur internet, nous échangeons sur les réseaux sociaux, nous télé-déclarons nos impôts, nous écoutons de la musique sur des plateformes en ligne… Et ces changements continuent à s’accélérer, nous demandant de nous adapter sans cesse.

L’un des intervenants a conseillé d’apprendre à ses enfants à programmer. Cela m’a semblé tout d’un coup une évidence. J’avais appris à programmer en école d’ingénieur, ce qui est de fait très tard. Programmer est accessible aux jeunes enfants car pour eux c’est un jeu de création et de construction, qui plus est sur un support qu’ils adorent, l’ordinateur. Plus ils se familiarisent tôt avec la programmation informatique, mieux ils appréhendent les concepts de logique associée à cette discipline ; séquençage, conditions, boucles… Apprendre à programmer permet aux enfants de devenir acteurs dans un monde de plus en plus pénétré de technologies, et pas uniquement consommateurs. Sans être une développeuse, il m’a toujours semblé que je savais naviguer dans le monde actuel parce que je comprenais ce que je manipulais lorsque j’utilisais de près ou de loin un ordinateur, et ce que l’on pouvait attendre de la technologie.

C’était il y a un peu plus d’un an. J’ai alors cherché un atelier extra-scolaire pour mon fils. J’ai été sidérée de ne rien trouver, même à Paris, pas le moindre atelier pour enfant sur ce thème. De là est née l’idée qui devait changer ma vie, celle de créer moi-même ce qui n’existait pas et qui m’apparaissait une nécessité : des ateliers où les enfants créent leurs jeux, leurs propres histoires avec l’ordinateur, tout en apprenant à programmer, et j’ai démarré les ateliers Magic Makers.

Des outils adaptés pour les enfants

J’ai commencé à rechercher quel outil adapté aux enfants je pourrais utiliser. J’ai choisi d’utiliser un des plus connus et des plus efficaces, comme en témoigne la grande communauté d’éducateurs qui l’utilise dans le monde. Scratch est un logiciel développé par le Lifelong Kindergarten au sein du Media Lab du MIT (Massachussetts Institute of Technology). Ce qui est intéressant avec Scratch, c’est d’abord qu’il est extrêmement intuitif et ludique. Les enfants adorent.

Les commandes se présentent sous forme de blocs que les enfants assemblent simplement avec la souris. On y anime les personnages que l’on a choisis, on les fait apparaitre, disparaître, interagir parler… Le résultat est tout de suite visuel et concret pour les enfants. En créant, ils sont confrontés à des problèmes de logique: ils obtiennent le résultat désiré parce qu’ils ont trouvé une façon efficace d’enchaîner les instructions, dans le bon ordre, avec les bonnes conditions d’actions. Coder, programmer, c’est simplement donner des instructions à une machine pour produire un résultat. Le faire avec Scratch permet aux enfants d’appréhender ce fonctionnement et de se l’approprier.

L’autre intérêt de Scratch, ce sont les idées sur lesquelles s’appuie sa conception, qui se retrouvent dans la façon de l’utiliser. Scratch est avant tout conçu comme un outil d’apprentissage au sens large, au-delà de l’apprentissage de la programmation. C’est avant tout un outil pour apprendre à apprendre : expérimenter, chercher des solutions, se tromper et recommencer, partager sur le site en ligne et apprendre par la collaboration auprès des autres scratchers. L’équipe du Lifelong Kindergarten s’appuie sur des travaux en sciences de l’éducation, notamment du chercheur Seymour Papert qui met en avant l’apprentissage par l’expérimentation.

Créer

L’enjeu des ateliers est la créativité. Le code est un moyen. Dans les ateliers Magic Makers, les enfants expérimentent toutes sortes de choses que l’on peut créer avec un ordinateur. J’aborde les projets dans un ordre qui permette de confronter les enfants à une complexité croissante.

Nous avons tout d’abord mis en scène des histoires. Cela permet d’apprendre les bases nécessaires pour créer un projet, et d’appréhender déjà les notions de séquencement. Ils trouvent la manière de déclencher des actions en comptant le nombre de secondes au bout desquelles un personnage doit apparaître ou dire sa réplique. Les enfants inventent leurs personnages, ils les créent en dessinant, ou même en pâte à modeler, et ils utilisent ensuite le code pour l’animer. Ils sont très fiers de ces premiers résultats.

Forts de ce succès, nous abordons ensuite la création de jeux vidéos. Cela fait appel à des concepts plus élaborés : il faut piloter un personnage, et déclencher des actions quand certaines conditions se réalisent, comme par exemple compter des points quand on touche un objet que l’on doit ramasser, et faire disparaitre cet objet, puisqu’on l’a ramassé. Il est passionnant de voir les enfants se prendre au jeu, et trouver un moyen de donner forme à ce qu’ils ont en tête. Ou tout simplement de recréer des jeux qui leur plaisent.

En fin de compte, quand je repense aux quinze années écoulées, et que je pense aux quinze années à venir, je me dis qu’il faut fournir aux enfants les outils dont ils auront besoin. Et plus que des outils, une façon de les appréhender comme outils de création.

Claude Terosier. Magic Makers.

L’informatique n’a pas besoin de grand frère

L’informatique est clairement une science qui gagne à ne pas être isolée, qui s’enrichit de ses relations avec des disciplines voisines, ou moins voisines. Les exemples abondent où un travail commun a permis l’émergence de nouvelles questions, de scientifiques travaillant, découvrant autrement : ainsi l’interface entre l’informatique et la biologie a produit la bioinformatique, les travaux d’informaticiens et de linguistes ont permis l’émergence de la linguistique computationnelle ; de nombreux scientifiques s’appellent aujourd’hui géomaticiens, membres d’une nouvelle discipline fruit du mariage de l’informatique et de la géographie. Dans chacun de ces cas, le résultat est une discipline nouvelle, avec ses conférences, ses ouvrages de référence, son vocabulaire.

Ces relations de co-production sont particulièrement enrichissantes et l’informaticien ne peut que s’estimer chanceux que sa discipline soit capable de co-fermenter autant de projets scientifiques collaboratifs nouveaux.
Les relations mathématiques-informatique d’une part, sciences de l’ingénieur-informatique d’autre part, me paraissent relever d’une autre logique.

Les conditions nécessaires à la naissance d’une nouvelle discipline n’ont pas cours, me semble-t-il. Plutôt que création de nouvelle discipline, il y a co-existence de disciplines, co-existence très positive, d’ailleurs !
La comparaison qui me vient à l’esprit est avec une personne qui a une double nationalité : cette personne ne devient pas pour autant membre d’un nouveau groupe, elle se contente d’avoir la chance de bénéficier de deux cultures.

De la même façon, tant mieux pour celles et ceux qui appartiennent à deux cultures scientifiques ! Ne réduisons pas cette richesse à vouloir les ranger dans une catégorie qui n’existera qu’administrativement.
Or, le CNESER, principal organisme consultatif de l’enseignement supérieur, vient de voter une curieuse motion  dans laquelle on lit : « En témoignent des interventions venant quasiment de toutes les disciplines. Citons notamment les Mathématiques et l’Informatique, la Physique, les Arts, la Psychologie, l’Histoire ».  Le « et » ne souffre pas de la moindre ambigüité : pour le CNESER les mathématiques et l’informatique se fondent en une discipline unique ! Voilà comment, au détour d’une motion, se créerait une nouvelle discipline ?

Le CNESER s’est sans doute inspiré d’un texte commun signé par les 3 sociétés savantes de mathématiques demandant le rétablissement d’une mention de master « mathématiques-informatique » (ou « informatique-mathématiques »), sans cependant utiliser l’argument de la discipline unique.
La question n’est pas ici celle de la position des mathématiques qui ont naturellement le droit d’avoir un avis sur la question des Mathématiques et l’Informatique. Ce qui est troublant est  qu’ il a paru évident pour les membres du CNESER que l’avis du grand frère suffisait pour en faire l’avis de la fratrie.

D’un autre côté, on trouve une discipline intitulée « sciences de l’ingénieur ». Cette discipline a une agrégation, ce qui en France est la preuve de son importance. Elle est enseignée au collège et au lycée, ainsi que dans les classes préparatoires. Elle mentionne dans ses programmes, à différents endroits, l’informatique comme étant l’un de ses outils. Elle se définit sans doute plus par ses procédés que par ses connaissances. Le paradoxe n’est pas que cette discipline est aujourd’hui enseignée au lycée alors que l’informatique ne l’est pas ; le paradoxe est que l’une des principales raisons pour laquelle l’informatique n’est pas enseignée est qu’elle apparait, tantôt implicitement, tantôt explicitement, comme étant au programme des sciences de l’ingénieur ou des matières qui sont liées (technologie, au collège). Ce qui n’est pas le cas.

Ici encore, le grand frère sert régulièrement d’interlocuteur valide, ou du moins validé, et il n’est jamais jugé utile de demander ce que pense la petite sœur…

L’informatique est une science. Son importance économique et culturelle n’est plus à démontrer. Les débats actuels en France concernant la question de son enseignement resteront faussés si l’on s’entête à vouloir en discuter avec l’un de ses grands frères, voire les deux et ne pas demander son avis à l’intéressée.

Les informaticiens ont le plus grand respect pour les mathématiques et l’ingénierie qui ont toutes deux eu un rôle fondamental dans la création et le développement de la discipline. Traiter l’informatique comme une science adulte et choisir d’en discuter avec elle et non un grand frère, aussi respectable soit-il, est aujourd’hui une nécessité.

Colin de la Higuera

 

Jospin et Rocard aussi…

La lettre ouverte à François Hollande, Président de la République, concernant l’enseignement de l’informatique a déjà été signée par des professeurs au Collège de France, des académiciens des sciences, des présidents et directeurs d’universités, d’instituts, de laboratoires, de centres INRIA, d’Ecoles, des industriels, des responsables d’associations, des enseignants, chercheurs, enseignants-chercheurs, techniciens, ingénieurs, et… deux anciens Premiers Ministres (Lionel Jospin et Michel Rocard).

Jean-Pierre Archambault, Président de l’EPI
(Association Enseignement Public et Informatique)

 

Les blagues sur l’informatique #1

Une blague d’informaticiens que vous ne comprenez pas?
Un T-shirt de geek incompréhensible?
Binaire vous explique (enfin) l’humour des informaticien(ne)s!

Dans le monde, il y a 10 catégories de personnes : celles qui connaissent le binaire et celles qui ne le connaissent pas.

Pour commencer cette série d’explications sur les blagues liées à l’informatique, voici évidemment la blague la plus connue sur le binaire. Pour le commun des mortels, 10 représente la valeur dix, c’est-à-dire 9+1. En effet, depuis notre enfance, nous utilisons pour représenter les nombres et pour compter la base 10. Ainsi


2014 = 2 × 103 + 0 × 102 + 1 × 101 + 4 × 100.
Les ordinateurs (et donc souvent les informaticiens) préfèrent la base 2 (pour les nombres entiers). L’idée est la même. On appelle cela la numérotation de position ou notation positionnelle.

11111011110=
1 × 210 + 1 × 29+
1 × 28 + 1 × 27+
1 × 26 + 0 × 25+
1 × 24 + 1 × 23+
1 × 22 + 1 × 21+
0 × 20 =
1024+512+256+128+64+16+8+4+2 =2014
Maintenant, revenons à la blague et considérons non pas 10 écrit en base 10, mais en base 2, cela donne donc 21+0=2 catégories de personnes, celles qui connaissent le binaire et celles qui ne le connaissent pas.
Et maintenant, vous êtes dans la première catégorie!

Voir aussi Nom de code: binaire.

Sylvie Boldo

La preuve par 42

J’ai été visiter l’école 42 avec François B. (anonymat respecté, je connais deux François B.). J’arrivais avec mes aprioris de partisan convaincu de l’école publique, prêt à lui préférer l’ecole 41, un des plus anciens vignobles de la Walla Walla vallée d’Oregon, prêt à partager l’avis assez critique de la SIF sur 42. J’arrivais surtout avec la conviction que 42 posait de vraies questions. Je confirme. Je vais être parfois critique dans cet article, mais c’est parce que j’ai aimé ce que j’ai vu, parce que je crois qu’il devrait nous conduire à nous interroger sur nos manières traditionnelles d’enseigner, et parce que je crois qu’il serait possible d’améliorer l’école 42. Mais ce dernier point est dit avec une bonne dose d’humilité : la bande du 42 connait mieux le sujet que moi.

Nous avons été reçus par le DG adjoint, Kwame Yamgnane, sympa, détendu, passionné par son travail.

kwamePhoto : Kwame – @Kwame42

Le lieu

L’école, Porte de Clichy, n’est pas située dans les beaux quartiers, pas non plus dans « les banlieues ». L’architecture d’intérieur est moderne, assez réussie. La vie de l’école se concentre dans trois grands plateaux. Un millier de postes de travail, pour environ autant d’élèves. Quelques sacs de couchage dans une pièce, des restes de « take out » dans un coin cafétéria, bientôt un BBQ et un jacuzzi, on pourrait être dans une startup du Sentier. Sauf la démesure.

D’où viennent les élèves ?

Au look, ils ne sont pas très différents de mes élèves de l’ENS Cachan. Ils ont 18-30 ans pour la plupart. 40% n’ont pas le bac. A l’exception de 10% qui suivent des études supérieures en parallèle, ce sont plutôt des jeunes qui ne se sont pas sentis à l’aise dans le système de l’éducation nationale, qui cultivent pour beaucoup le désamour général pour les sciences, et en particulier les maths. Il y a un peu de pertes en lignes, mais elles sont plutôt dues à des problèmes sociaux ou personnels qu’à l’enseignement.

On peut regretter l’absence d’ « affirmative action » pour intégrer plus de femmes ou plus de jeunes de milieux défavorisés. Pas de langue de bois : 42 attaque le problème de l’absence d’informaticiens et pas d’autres problèmes de notre société. Pour ça, il me faudra attendre ma visite à Simplon.co (la fabrique de codeurs entrepreneurs de Montreuil) dans quinze jours. Pourtant, Kwame reconnaît bien volontiers qu’il faudrait plus de femmes pour former plus d’informaticiens, et que plus de femmes apporteraient de la diversité dans les projets qui sont au cœur de la pédagogie de 42. Pour la prochaine promo ?

La pédagogie

Finalement, rien de si neuf. Les références classiques à Piaget. Mais l’approche ici est radicale. Les élèves ont des projets à réaliser, définis par les profs de manière volontairement peu précise. Ils travaillent toujours en groupe. Le groupe obtient une note, jamais l’individu. Chacun va à son rythme et les trois ans prévus pour l’école sont à titre purement indicatifs. Ils ont des grades comme à l’armée ? Une armée de padawans mais qui se passeraient de chevaliers Jedi ? A ce que j’ai compris, le prof est plus le surveillant ou le pompier que celui qui transmet.

Le travail individuel ou collaboratif marche. On le sait depuis longtemps. Il marche particulièrement bien en informatique, car la programmation se prête bien à l’exercice solitaire de la production de lignes de codes, comme à l’écriture collaborative. A 42, les élèves sont challengés ; ils bossent beaucoup. Les écoles d’ingénieurs, avec forte sélection avant et exigence de travail modeste pendant, pourraient s’en inspirer. J’ai plus de mal à comprendre (à m’habituer ?) à la faiblesse de la transmission. On ferait gagner du temps aux élèves en travaillant avec eux, en répondant à leurs questions quand ils sont bloqués, en leur suggérant des lectures quand ils veulent aller plus loin. Cela ne semble pas au cœur des préoccupations de 42. S’ils sont si peu de maitres, c’est pour des raisons financières ou est-ce un choix pédagogique ?

plateau2Photo : Serge Abiteboul, cc by-sa

Science ou technique

Comme moi, Kwame se réfère beaucoup à la pensée informatique (computational thinking). Mais parle-t-on de la même chose ? Pour moi, cette pensée combine science et technique intimement. L’éducation traditionnelle insiste trop sur la science. Pour 42, comme les élèves n’ont pas trop d’atomes crochus avec les sciences, ce sera seulement la technique. Tout tourne autour de « coder ». On code comme on parle, comme on compte. Ça me rappelle le slogan : « Apprendre à lire, écrire, compter et programmer ». A part, qu’ils disent « coder » au lieu de programmer, on parle de la même chose ? Faire que la programmation rentre dans la peau des élèves, leur devienne aussi naturelle que la parole. C’est exactement ça ! Finalement cela rentre bien dans la pensée informatique, dans un aspect essentiel de cette pensée.

C’est enthousiasmant de voir que la programmation est au cœur du projet. Mais en même temps, je reste un peu déçu. Je voyais dans la programmation le moyen de raccrocher les décrocheurs, de leur faire apprécier la partie scientifique de l’informatique, de là, les maths, les autres sciences. Pour moi, coder c’est aussi raisonner, faire des maths. Pas à 42 ! On ne demande pas à l’enseignement de l’informatique de régler aussi les problèmes du décrochage en maths. On apprend l’informatique à des jeunes parfois décrocheurs pour leur apprendre un métier. Rien de plus.

On retrouve bien l’esprit de l’Epitech, avec l’accent sur la technique et un programme scientifique minimum. (Pas surprenant, la direction vient d’Epitech.) Prenons un exemple, l’analyse syntaxique. Un enseignement trop classique, on vous donne les bases de théories des langages et on vous fait vaguement faire quelques exercices à la fin. Vous avez raté une chance de vraiment comprendre, d’inventer, de créer. Avec 42, on vous demande d’écrire un analyseur lexical. Vous ramez, vous bidouillez, pour finalement arriver à hacker quelque chose. Si vous ne savez rien de la théorie des langages, vous avez ses concepts essentiels au bout des doigts. Mais vous n’avez pas saisi leur essence ; vous aurez plus de mal à les appliquer dans des contextes totalement différents comme la linguistique ou la biologie.

Micro trottoir (sans aucune prétention scientifique) auprès d’amis dans les entreprises : Les ingénieurs qui sortent de l’Epitech sont parfois exceptionnels, souvent ils sont limités par des manques de bases scientifiques. C’est une formation qui convient bien à certains jeunes (selon ces mêmes amis). Juste une inquiétude. Ce n’est pas risqué de trop dépendre de la technologie de l’instant quand tout s’agite autour de vous ? Que deviennent-ils dix ans après ? Pas les bons. Ceux-là s’en tireraient de toute façon. Mais les plus hésitants.

Quid de la littératie numérique ?

Avec mon travail au CNNum, j’étais obligé de poser la question. La réponse est simple : « On leur apprend à coder ». Oups. Je sens certains collègues du CNNum se crisper. On est dans la religion de 42 : « Born to code ». Quand on sait coder, on comprend mieux le monde numérique. Ce n’est pas faux. C’est nécessaire mais ce n’est sûrement pas suffisant. 42 ignore les autres aspects de la littératie numérique dans son curriculum. Mais, est-ce que les facs ou les grandes écoles font mieux ? A peine. A la marge. On retombe sur le même argument : Le but de 42 n’est pas de résoudre tous les problèmes mais de former des informaticiens.

plateauPhoto : Serge Abiteboul, cc by-sa

En guise de conclusion

Quand Xavier Niel dit « Le système éducatif ne marche pas » dans un édito, on n’est pas obligé de le suivre. Le système est certainement perfectible mais des tas d’enseignements fonctionnent quoi qu’il dise. Par contre, quand Kwame m’explique qu’avec leurs élèves la méthode 42 semble marcher, je veux bien le croire. Les élèves n’ont ni tous les mêmes capacités, ni les mêmes histoires, ni tous les mêmes modes d’apprentissages. Du coup, cela mérite de regarder pourquoi 42 marche et si on pourrait adapter certaines idées de leur approche à d’autres contextes.

J’imagine déjà une « piscine » à l’Ecole normale supérieure de Cachan, un plateau d’ordinateurs, où on plongerait pour plusieurs semaines les élèves normaliens, les matheux, les sociologues, les autres… On les ferait coder tout et n’importe quoi. Surtout n’importe quoi. Ce serait pour eux une expérience extraordinaire. Cela ferait je crois de meilleurs matheux, sociologues, etc. C’est tentant ?
Mais les élèves de l’ENS sont des élèves qui étaient bien adaptés au système scolaire. Et les autres ? Il faut être bon en maths pour réussir en informatique ? Non ! La preuve par 42 que c’est faux. Vous pouvez être faible en maths et devenir un as de la programmation Cela démystifie violemment l’informatique. Tout le monde peut apprendre à programmer. C’est ce que je veux retenir de ma visite à 42.

Serge Abiteboul

La place de l’informatique dans la classification des sciences

Le questionnement sur la classification des sciences provient en partie du besoin d’organiser les institutions scientifiques : écoles, universités, laboratoires, etc. Ainsi, l’enseignement des sciences dans les écoles du Moyen Âge était-il organisé selon le quatrivium de Boèce : arithmétique, musique, géométrie et astronomie. Et avant sa récente réorganisation le Centre National de la Recherche Scientifique était-il organisé en suivant précisément la classification des sciences d’Auguste Comte : mathématiques (section 1), physique (sections 2 à 10), chimie (sections 11 à 16), astronomie (sections 17 à 19), biologie (sections 20 à 31), sciences humaines (sections 32 à 40), le seul écart étant la place de l’astronomie.


boethius
Boece enseignant, dans manuscript de La Consolation de la Philosophie, 1385 (Wikipédia)
Mais ce questionnement provient aussi sans doute d’une interrogation plus fondamentale sur la nature des sciences, sur ce qui les unit et les sépare. Il y a ici une manière originale, car extensionnelle, de s’interroger sur la nature de la science, en s’interrogeant sur la nature des sciences.

Ces raisons, institutionnelle et épistémologique, expliquent que ce questionnement ressurgisse particulièrement quand une nouvelle science apparaît, la physique sociale à l’époque de Comte, l’informatique aujourd’hui.

Objets et méthodes

Selon une tradition qui remonte au moins à Kant, s’interroger sur la nature d’une science consiste à s’interroger d’une part sur les objets qu’elle étudie et d’autre par sur sa méthode, c’est-à-dire sur la manière dont nous jugeons, dans cette science là, de la vérité d’une proposition. Cela nous mène concevoir la classification des sciences comme un tableau à deux dimensions.

La première dimension concerne les objets étudiés. Ici, nous pouvons opposer les mathématiques, qui étudient des objets abstraits, ou du Logos, ou cognitifs, aux sciences de la nature, qui étudient des objets concrets, ou du Cosmos, ou objectifs. De manière équivalente, les connaissances peuvent être qualifiées de synthétiques dans les sciences de la nature et d’analytiques en mathématiques. Bien entendu, cette conception des connaissances mathématiques ne date que du programme de Frege et de la conception moderne, due à Hilbert et à Poincaré, des axiomes comme définitions, implicites ou déguisées, des objets étudiés par les mathématiques. Avant cela, les objets mathématiques étaient perçus comme réels bien qu’idéaux, le rôle des axiomes n’était que celui de décrire cette réalité idéale, et les connaissances mathématiques étaient perçues comme synthétiques. Cette transformation de la perception des mathématiques a mené à une évolution de la signification des mots « analytique » et « synthétique », qui, peu à peu, ont pris la même signification que les mots « nécessaire » et « contingent ».

Il est ensuite possible de distinguer le vivant au sein de la nature et l’humain au sein du vivant, ce qui mène à la distinction entre les sciences physiques, les sciences de la vie et les sciences humaines, même si la spécificité de ces dernières mène parfois à les distinguer, ce qui conduit, par exemple,Michel Serres à séparer les sciences du collectif des sciences de l’objectif. Cette progression du général au particulier, qui distingue le vivant au sein de la nature et l’humain au sein du vivant est le principe dominant dans la classification de Comte. Ce principe explique aussi que les mathématiques se trouvent avant les sciences physiques, dans cette classification, si l’on veut bien considérer qu’une proposition est nécessaire quand elle est vraie dans tous les mondes possibles et que la nature n’est qu’un monde possible parmi d’autres.

La seconde dimension concerne la méthode que chaque science utilise pour étudier ces objets. Ici encore, la distinction principale oppose les mathématiques, où juger qu’une proposition est vraie demande de la démontrer, aux sciences de la nature où juger qu’une proposition est vraie demande ou bien une observation, ou bien la construction d’une hypothèse qui n’est pas en contradiction avec les observations. Par exemple, nous savons que Jupiter a des satellites car nous les avons observés et nous tenons pour vrai que Mercure n’a pas de satellite, car nous n’en avons jamais observé. Dans les deux cas juger la proposition vraie demande une interaction avec la nature. Les jugements en mathématiques peuvent être qualifiés de a priori, et dans les sciences de la nature, d’a posteriori.

Nous aboutissons finalement à une classification relativement simple, avec les mathématiques analytiques a priori, les sciences de la nature synthétiques à posteriori et deux cases du tableau vides, ou presque, pour d’hypothétiques connaissances analytiques a posteriori et synthétiques a priori, ces dernières se limitant, après Frege, à la connaissance de sa propre existence et quelques connaissances de la même nature.

Quelle est la place de l’informatique dans une telle classification ?

Les objets de l’informatique

Commençons par nous demander de quels objets parle l’informatique.

L’informatique parle d’objets de différente nature : informations, langages, machines et algorithmes. Ces quatre classes d’objets sont très vastes : les langages comprennent les langages de programmation, mais aussi les langages de requête, les langages de spécification, etc., les machines comprennent les ordinateurs, mais aussi les robots, les réseaux, etc.

Il y a sans doute ici une originalité de l’informatique, que nous ne pouvons réduire à l’étude d’un seul type d’objets : nous amputons l’informatique en la définissant comme la science des algorithmes, ou comme celle des machines.

Chacun de ces quatre concepts est antérieur à l’informatique, mais ce qui ce que l’informatique apporte sans doute de nouveaux est leur organisation en une science cohérente. Le concept d’algorithme, par exemple, existe depuis plus de quatre mille ans, mais cela ne suffit pas pour considérer les scribes de l’Antiquité comme des informaticiens. L’informatique n’a débuté qu’au milieu du XXe siècle, quand nous avons commencé à utiliser des machines pour exécuter des algorithmes, ce qui a demandé de concevoir des langages de programmation et de représenter des données sur lesquelles ces algorithmes opèrent sous une forme accessible aux machines, c’est là l’origine de la théorie de l’information.

Ces quatre concepts sont d’égale dignité, mais ils ne jouent pas tous le même rôle dans la constitution de l’informatique. Illustrons cela par un exemple. Un programme de tri est un algorithme, exprimé dans un langage de programmation et exécuté sur une machine, qui transforme des informations. Par exemple, il transforme la liste 5,1,3 en la liste 1,3,5. Toute l’entreprise que constitue la conception d’un algorithme de tri, la définition d’un langage de programmation dans lequel l’exprimer, la construction d’une machine pour l’exécuter, etc. a comme but de savoir que le résultat du tri de la liste 5,1,3 est la liste 1,3,5. Il semble donc que le but ultime de l’informatique soit de transformer des informations et que les algorithmes, les langages et les machines soient des éléments de méthode pour atteindre ce but.

Nous pouvons ici faire un parallèle avec la physique. Le but de la mécanique 3 céleste est de faire des prédictions sur la position des astres à une date donnée. Et les concepts de force, de moment ou d’énergie sont des éléments de méthode pour parvenir à ce but.

Nous pourrions, à juste titre, objecter que l’informatique s’intéresse peu au résultat du tri de la liste 5,1,3 et davantage, par exemple, à l’algorithme de tri par fusion. Nous pourrions, de même, objecter que la physique s’intéressent davantage aux équations de Newton, qu’à la position de Jupiter lundi prochain. Il n’en reste pas moins que le but ultime de la physique est de produire des propositions sur la nature, et non sur les équations différentielles. Et que c’est ce ce but ultime qui définit la nature de la physique. De même, le but ultime de l’informatique est de transformer des informations, non de produire des résultats sur les algorithmes, les langages ou les machines. Et c’est ce but ultime qui définit la nature de l’informatique.

Ainsi, s’interroger sur la nature de l’objet d’étude de l’informatique, c’est s’interroger sur la nature des informations, et non sur celle des langages, des machines ou des algorithmes. Les informations sont des objets abstraits et le jugement que le résultat du tri de la liste 5,1,3 est la liste 1,3,5 est analytique.

Du point de vue des objets qu’elle étudie, l’informatique se place donc parmi les sciences analytiques, à coté des mathématiques.

La méthode de l’informatique

Il est possible de juger que le résultat du tri de la liste 5,1,3 est la liste 1,3,5 par une simple opération mentale. Ce jugement peut être alors qualifié de jugement a priori. Toutefois, le calcul mental n’appartient pas à l’informatique, car ce qui définit l’informatique n’est pas la simple application d’un algorithme à des informations, mais l’utilisation d’une machine, c’est-à-dire d’un système physique, pour cela.

Juger que le résultat du tri, par une machine, de la liste 5,1,3 est la liste 1,3,5 ne demande pas une simple opération mentale, mais tout d’abord une observation : le résultat du calcul est une configuration d’un système physique, que nous devons observer. Ce lien à la nature est essentiel en informatique : la possibilité ou non d’effectuer certains calculs avec une machine est conditionnée par les lois de la physique : que la vitesse de transmission de l’information cesse d’être bornée, et certaines fonctions impossibles à calculer avec une machine dans notre monde, pourraient alors être calculées.

Le jugement que le résultat du tri, par une machine, de la liste 5,1,3 est la liste 1,3,5 est donc un jugement a posteriori. Et du point de vue méthodologique, l’informatique appartient donc aux sciences a posteriori, à coté des sciences de la nature.

Nous pourrions, bien entendu, objecter que, si le jugement que le résultat du tri, par une machine, de la liste 5,1,3 est la liste 1,3,5 est a posteriori, d’autres jugements, en informatique, sont a priori. Par exemple le jugement que l’algorithme de tri par insertion est quadratique. De même, en physique, le jugement que les trajectoires solutions de l’équation de Newton sont des coniques est un jugement a priori. Toutefois cela ne fait pas de la physique une science a priori, car, comme nous l’avons dit, le but ultime de la physique n’est pas de produire des propositions sur les solutions des équations différentielles, mais sur la nature. De même l’existence de jugements a priori en informatique ne fait pas de l’informatique une science a priori, car le but ultime de l’informatique n’est pas de produire des propositions sur la complexité des algorithmes de tri, mais d’utiliser des machines, des systèmes physiques, pour exécuter ces algorithmes.


tympan
Cathédrale de Chartres. Sont figurées les disciplines enseignées à l’Ecole de Chartres, celles du trivium (la grammaire, la rhétorique, la logique) et celles du quadrivium (l’arithmétique, la géométrie, la musique, l’astronomie) (Wikipédia)

L’informatique

Nous arrivons donc à la conclusion que l’informatique est une science à la fois analytique, ce qui la rapproche des mathématiques, et à posteriori, ce qui la rapproche des sciences de la nature.

Aux deux catégories, sciences analytiques à priori et synthétiques à posteriori, il convient donc d’en ajouter une troisième pour les sciences analytiques à posteriori, catégorie à laquelle l’informatique appartient.

Les classifications traditionnelles de l’informatique

De nombreuses Universités regroupent les mathématiques et l’informatique dans une Unité de Formation et de Recherche de mathématiques et informatique. À l’inverse, l’organisation du Centre National de la Recherche Scientifique faisait de l’informatique une partie de la physique, puisque la section 7, Sciences et technologies de l’information (informatique, automatique, signal et communication), était classée entre la section Matière condensée : structures et propriétés électroniques et la section Micro et nano-technologies, électronique, photonique, électromagnétisme, énergie électrique.

Apparaissent ici deux visions partielles de l’informatique, comme science analytique, à l’instar des mathématiques, et science a posteriori, à l’instar des sciences de la nature, qui, l’une et l’autre, occultent la spécificité de l’informatique, à la fois analytique et a posteriori, et donc différente à la fois des mathématiques et des sciences de la nature. Ces deux visions amputent, l’une et l’autre, l’informatique pour la faire entrer dans une classification qui lui est antérieure.

L’informatique est-elle la seule science analytique à posteriori ?

Avant de nous demander si l’informatique est la seule science de sa catégorie ou s’il y a de nombreuses sciences analytiques à posteriori, nous pouvons nous poser la même question pour les deux autres catégories évoquées ci-avant. Les mathématiques nous semblent bien être la seule science analytique a priori, alors que les sciences synthétiques a posteriori sont nombreuses : physique, biologie, etc.

Toutefois, cette différence semble purement conventionnelle. Nous aurions pu, comme Boèce, distinguer l’arithmétique de la géométrie, ou alors regrouper les sciences de la nature en une seule science : la philosophie naturelle.

Nous pouvons, de même, diviser l’informatique en diverses branches qui étudient les langages de programmation, les réseaux, la complexité des algorithmes, l’architecture de machines, la sûreté, la sécurité, etc. Et considérer ces branches comme des sciences distinctes ou comme les rameaux d’une même science est purement conventionnel.

De même, quand nous utilisons une machine analogique, ou même une soufflerie, pour résoudre une équation différentielle, nous produisons des connaissances analytique a posteriori. Et qu’un tel résultat soit considéré comme faisant partie de l’informatique ou non est purement conventionnel.

Une relativisation de la distinction entre à priori et à posteriori

L’informatique demande donc d’étendre la classification des sciences pour faire une place aux sciences analytiques à posteriori. Mais elle déstabilise également les classifications traditionnelles des sciences de deux manières.

D’abord elle mène à relativiser la distinction entre connaissances à priori et connaissance à posteriori. L’externalisation de la pensée et de la mémoire qui a commencé avec l’écriture et qui s’est accélérée avec l’informatique, l’utopie du transhumanisme, l’exploration et la simulation des mécanismes neuronaux, la perception de soi-même comme autre, et plus généralement tout ce qui nous mène à nous penser, non comme extérieurs à la nature, mais comme partie de la nature, nous mène à relativiser la différence entre à priori et a posteriori.

Nous considérons comme a priori un jugement établi par le seul recours du calcul mental, et comme a posteriori un jugement établi avec un objet matériel comme une calculatrice. Mais si nous parvenions à greffer à notre cerveau un circuit électronique permettant de faire des opérations arithmétiques, devrions nous considérer comme a priori ou a posteriori un jugement établi en ayant recours à ce dispositif ?

Cette distinction entre jugement a priori établi par un calcul mental et a posteriori établi par recours à une calculatrice est-elle due au fait que nos neurones sont à l’intérieur de notre boîte crânienne, alors que la calculatrice en est à l’extérieur ? qu’ils sont formé de carbone, d’oxygène et d’hydrogène, et non de silicium? ou que pour lire le résultat du calcul nous avons besoin d’utiliser un organe sensoriel dans un cas mais non dans l’autre ?

Donc, parce qu’elle renouvelle les méthodes permettant de juger une proposition vraie, l’informatique déstabilise la distinction entre connaissance a priori et connaissance a posteriori. Nous devons sans doute inventer des distinctions plus fines que la simple distinction entre a priori et a posteriori, qui prennent en compte la variété des outils qui permettent de juger la vérité d’une proposition : neurones, organes sensoriels, instruments de mesure, instruments de calculs, etc. en insistant à la fois sur le caractère faillible de chacun d’eux et sur leur complémentarité.

La place de la technique en informatique

Comme le mot « chimie », et contrairement au mot « physique », le mot « informatique » désigne à la fois une science et une technique, c’est-à-dire une activité qui vise à savoir et une autre qui vise à construire. Cependant, les liens entre ces deux activités semblent beaucoup plus forts en informatique que dans d’autres domaines du savoir. Par exemple, des branches entières de l’algorithmique, sont apparues pour répondre à des problèmes posés par le déploiement des réseaux.

Cependant, il est vraisemblable que les sciences et les techniques aient des liens forts dans tous les domaines et que notre perception de cette séparation soit une illusion. Par exemple au XIXe siècle encore, le texte fondateur de la thermodynamique s’intitulait Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance. Sadi Carnot n’opposait donc pas la thermodynamique à la construction de machines à vapeur. L’informatique nous rappelle la force de ce lien entre science et technique et nous mène à nous demander si nous devrions chercher à classer les sciences uniquement ou les sciences et les techniques ensemble.

Ainsi, l’informatique nous demande-t-elle non seulement d’étendre la classification des sciences pour faire une place aux sciences analytiques a posteriori, mais elle déstabilise aussi la distinction habituelle entre a priori et a posteriori, et les classifications habituelles qui ne classent que les sciences et non, ensemble, les sciences et les techniques.

Gilles Dowek