L’amie Calculette

Avec sa NumWorks, la calculette revisit��e par l’entreprise éponyme a fait son apparition en septembre. En attendant de demander aux utilisateurs lycéens leurs impressions sur cet objet au joli look blanc original, nous avons demandé aux professeurs de maths de nous donner leur avis. Pour cela Vincent Pantaloni et Pascal Padilla de la C2iT (Commission Inter-IREM TICE) nous font part de leurs premières impressions. Pierre Paradinas

Crédit Photo : Numworks

Les tablettes, smartphones et autres objets connectés sont entrés dans les classes. Ces outils, bien plus puissants et pratiques que les calculatrices actuelles, ne sont pas autorisés au baccalauréat. C’est pourquoi il était urgent d’avoir une calculatrice moderne, et c’est une entreprise française qui vient de la réaliser : la NumWorks. Nous l’avons testée et nous nous sommes entretenus avec Romain Goyet, le fondateur de NumWorks. Avec des composants électroniques signés STMicroelectronics produits en France, NumWorks est une petite révolution dans le secteur des calculatrices pour lycéens. En quelques mots, elle est pour un prix similaire à ses concurrentes : simple d’utilisation, adaptée aux programmes et aux modalités d’examen du lycée,  programmable en langage Python, ouverte (licence Creative Commons), évolutive, rechargeable, et pour ne rien gâcher, fine et légère.

Les programmes de mathématiques exigent que nos lycéens soient capables d’utiliser une calculatrice pour résoudre des tâches complexes dépassant les quatre opérations. Par exemple tracer une courbe représentative de fonction, écrire un petit programme, déterminer des probabilités avec des lois discrètes ou continues, analyser une série statistique, etc.

Simple et utilisable par les lycéens. Pour que l’enseignant et l’élève se l’approprient, la calculatrice se doit d’être utile. Mais la recherche en ergonomie montre qu’en plus, un instrument doit être utilisable. Et sur le plan de l’utilisabilité, les modèles actuellement vendus pour le lycée sont largement à revoir. Il est nécessaire de consulter un manuel de taille conséquente pour trouver une fonctionnalité précise tant la navigation dans les menus est peu intuitive. Ces outils n’ont finalement que peu évolué depuis les années 90. NumWorks bouscule le secteur sur le plan de l’ergonomie.

Leur calculatrice parvient à apparaître simple alors qu’elle comprend l’essentiel des fonctionnalités nécessaires au lycée. Simple au point d’être distribuée sans manuel d’instruction ! Cela est le résultat d’une recherche menée par l’entreprise : les concepteurs ont étudié l’ergonomie des objets technologiques utilisés par les jeunes et s’en sont inspirés. On accède aux différentes fonctionnalités par un menu de huit applications indépendantes : calculs, fonctions, probabilités, Python, etc. Comme sur les consoles de jeux, les touches directionnelles pour naviguer dans les menus sont à gauche, une touche OK pour valider et une touche retour pour remonter. L’écran couleur évoque tellement un smartphone qu’on a envie de valider en touchant cet écran… malheureusement non tactile. Vous pouvez l’essayer virtuellement en ligne grâce à un émulateur qui sera aussi utile au professeur pour une projection au tableau.

Crédit Photo : Numworks

La première calculatrice ouverte. Cette simplification entraîne malgré tout quelques manques. On peut par exemple regretter que la NumWorks ne fasse pas encore de calcul exact avec les fractions ou radicaux (1/3 affiche 0.33333… et non la fraction) ou bien qu’il n’y ait pas encore de solveur d’équation, ni de solveur graphique. Mais vous avez bien lu « pas encore » , car nous avons affaire à une calculatrice ouverte ! Chacun peut aller voir sur GitHub comment est codée chaque application de la calculatrice et proposer une amélioration.

Romain Goyet nous a dit qu’un américain avait en moins de 24h proposé une modification de code pour pallier un bug repéré par un lycéen français. Concernant l’aspect matériel, tout est aussi ouvert. Les plans du boîtier (au format STL pour imprimante 3D) comme ceux du hardware sont aussi en ligne. Si une pièce se casse il suffit d’utiliser une imprimante 3D pour la refaire!

Python. La NumWorks offre la possibilité de programmer en Python. Depuis cette rentrée, ce langage est au programme de seconde. Cela remplacera à terme la programmation dans les langages aux structures parfois bizarres de Casio ou T.I. L’application Python est encore en bêta (préliminaire) : on ne peut enregistrer qu’un seul script, sans réel éditeur et sans console. Il s’agit de micropython et quelques caractères utiles en Python manquent au clavier, comme % et #.

En l’état la NumWorks est déjà une belle calculatrice qui simplifiera grandement la vie des lycéens et de leurs enseignants. Gageons que pour la rentrée 2018 les mises à jour gratuites en feront la calculatrice préconisée par la plupart des enseignants de mathématiques.

Vincent Pantaloni et Pascal Padilla  C2iT (Commission Inter-IREM TICE) @Irem_Tice

Pour aller plus loin:

  • le site de la société NumWorks
  • le point de vue d’autres enseignants de l’association sur la calculette Sesamath

Do you speak informatique ?

L’histoire de Grace Hopper, ou presque…  par Florent Masseglia 3’09

Les premiers calculateurs étaient des machines géantes de plusieurs tonnes et il fallait tout faire à la main pour leur donner des instructions, en ce milieu du XXème siècle. Mais une pionnière de la programmation, Grace Hopper, va bouleverser ce paysage et contribuer à inventer le logiciel, en proposant d’utiliser un langage que même la  machine peut comprendre …

En savoir plus :

Class´Code est une formation complète pour initier les jeunes à la pensée informatique.  Mais, vous voulez peut-être juste avoir un aperçu de cette formation ? Simplement  connaître l’histoire de cette histoire ? Installer vous confortablement. En quelques minutes, ces vidéos vont vous donner quelques grains de culture scientifique et technique sur ces sujets.

Note: les vidéos des cours d’OpenClassrooms comme toutes les ressources de Class´Code sont librement accessibles, sous licence Creative-Commons, comme on le voit ici.

Lune ma banlieue

Depuis toujours, Binaire s’intéresse aux start-up informatiques, surtout françaises. Aujourd’hui, un éditeur de binaire fantasme sur les start-up du futur. Il nous fait rencontrer en 2067 un grand-père et sa petite fille qui, tous deux, ont monté une boîte à 50 ans d’écart. Ce sujet est abordé par Inria Business Club dans le cadre de la célébration des 50 ans de l’institut. Cette nouvelle appartient au recueil Bêtise Bloguera

Le Ballon-Régional B entre Paris et Saint-Rémy-lès-Chevreuse tomba en panne aux alentours de 18 heures au-dessus de Jouy-en-Josas. Si de telles pannes étaient rares, elles arrivaient pourtant. Après quelques secousses assez inconfortables, le ballon s’immobilisa. La Seuneuceufeu leur annonça que la réparation prendrait au plus une vingtaine de minutes.

Dans la nacelle, une jeune femme essayait d’imaginer ce qu’avait pu être la startup de son grand-père au début du siècle. A côté d’elle, celui-ci tentait de comprendre celle de sa petite-fille aujourd’hui.

Finalement pas mécontent d’avoir un moment de plus à partager avec elle, Benjamin reprend la conversation interrompue par la montée dans le ballon :

  • Tu m’as demandé quel souvenir j���ai gardé de ma startup. Et bien, nous avions des bureaux à Massy-Palaiseau. J’y allais depuis Paris par le RER B, un train. Il était régulièrement bloqué.
  • Par quoi ?
  • Des pannes de moteur comme ton ballon aujourd’hui. De la neige sur les voies.Parfois aussi des « incidents graves de voyageurs », des gens qui se suicidaient en se jetant sous les roues du RER. Maintenant, tu sautes du BR-B. A quatre-vingt mètres, tu ne te rates pas. C’est un grand progrès pour l’humanité.
  • Papi… On ne peut pas ouvrir les fenêtres du ballon.

Benjamin se tait quelques instants. Drôle quand même que le premier souvenir qui lui revienne de sa startup soit l’irrégularité du RER B. Il reprend :

  • Et, toi Yvonne, ton père n’a pas vraiment su m’expliquer ce que tu faisais. Mon fils est un empoté du mulot.
  • Nous fabriquons une « compagne numérique », explique-t-elle, en mimant des mains des guillemets. Elle enregistre tout ce qui se passe autour de toi et ensuite elle te fournit toute l’information dont tu as besoin. Elle t’aide à vivre.
  • J’avais un copain qui bossait déjà là-dessus il y a un million d’années. On appelait ça un assistant personnel.
  • Oui des chercheurs regardaient déjà ça même au siècle dernier. Et ils pensaient y arriver en quelques années. Leurs premiers systèmes étaient pathétiques. On arrive maintenant à faire des trucs géniaux. Ça change complètement la vie des gens qui ont des maladies neurodégénératives.

Yvonne se mort les lèvres. Benjamin vient juste d’être diagnostiqué avec un Alzheimer. Il sourit :

  • Te bile pas poupée. J’ai encore toute ma tête… Toi aussi tu as un genre de startup ? interroge-il pour changer de sujet.
  • On dit une xīnjì maintenant. Ça veut dire new tech en chinois.
  • Et à part le nom, c’est la même différence qu’une startup ?

Yvonne réfléchit quelques instants. Elle vient de revoir les 12 saisons d’une vieille série culte, Silicon Valley ; elle pense avoir compris comment fonctionnaient les startups. Mais comment expliquer les différences avec une xīnjì à un dinosaure ? Elle se lance :

  • Je suis un peu enseignante-chercheuse comme on disait à ton époque. Je travaille pour ma xīnjì qui fait partie de Paris University. Les frontières entre l’université, les startups, les entreprises ont explosé.
  • C’est privé ou c’est public ton zinzin ?
  • C’est privé ; nous avons des parts de la xīnjì. Vous auriez dit des actions. Mais on est aussi service public. J’enseigne. J’ai des étudiants. Et notre régent est le recteur de Paris University.
  • Paris University. Tu ne peux pas dire « Université de Paris » ?
  • L’Université de Paris d’aujourd’hui ne ressemble pas davantage à l’université où tu as enseigné, que la tienne ne ressemblait à l’université du 13e siècle. Pour une grande partie, les étudiants sont plus vieux que moi. Ils ont déjà bossé et pour nombre d’entre eux, ils sont employés par des entreprises, en même temps qu’ils font leurs thèses, souvent pour des big ones. Ils habitent partout en France, même dans le monde. Dans ma xīnjì, douze étudiants, sept pays différents, quatre big ones. Et deux super robots-chercheurs qui font un travail considérable.
  • Vous voulez devenir riches, tout comme nous à mon époque ?
  • Oui mais ce n’est pas notre seul objectif. Nous avons une obligation d’apporter des transformations positives à la société. Nous faisons aussi partie du service public.

Benjamin n’est pas certain de bien comprendre. En fait, il s’en fout. Il aime juste être admiratif de sa petite fille. Il la regarde du coin de l’œil. C’est une belle plante, Yvonne, jolie, chaleureuse, souriante.

Le ballon redémarre accompagné d’une annonce Seuneuceufeu :

  • M. Binaire. Votre carte de transport n’est plus valide. Merci de régulariser votre situation en arrivant au port.

Elle sourit :

  • Tu t’appelles Binaire maintenant ?
  • Je n’aime pas qu’ils sachent tout de moi.
  • Ils savent tout de toi de toute façon.

Elle lui montre l’écran de sa montre. L’appli de la Seuneuceufeu annonce la présence d’un VIP à bord, c’est lui ! Il est déçu :

  • Mais comment ils ont fait pour savoir que c’était moi ?
  • Ta startup, papi, du début du siècle. Elle faisait quoi ?
  • De la reconnaissance de visage ! reconnaît Benjamin.

Il s’absorbe dans la vision de la banlieue qui s’étend à perte de vue. Cela lui rappelle une chanson oubliée, Lune ma banlieue, d’un chanteur oublié, Guy Béart. Il ne l’a même pas trouvée sur Deezer. Il en chantonne un couplet pour Yvonne :

La vie dans notre métropole
Aujourd’hui m’affole,
Paris s’étend maintenant
Jusqu’à Perpignan

Serge Abiteboul

Ciao Maurice

Maurice Nivat © Inria / Photo : J.M. Ramès.

 

Tu viens de nous quitter ce jeudi 21 septembre, toi le père de l’informatique française. Le monde du numérique est en deuil, et nous ne trouvons pas encore les mots pour te raconter, pour partager tout ce que tu as pu nous apporter.

Nous vous invitons à lire l’hommage de Serge Abiteboul :  Adieu Maurice

 

Qui a changé le cours d’une guerre grâce à un algorithme ?

L’histoire Alan Turing, ou presque… par Florent Masseglia 5’36

Choisir la méthode la plus efficace pour résoudre un problème peut avoir un impact immense. Cela peut aller jusqu’à changer le cours d’une guerre mondiale. Découvrons comment, en allant à la rencontre d’Alan Turing, qui a aussi fondé l’informatique nous faisant basculer dans le monde numérique, …

En savoir plus :

Class´Code est une formation complète pour initier les jeunes à la pensée informatique.  Mais, vous voulez peut-être juste avoir un aperçu de cette formation ? Simplement  connaître l’histoire de cette histoire ? Installer vous confortablement. En quelques minutes, ces vidéos vont vous donner quelques grains de culture scientifique et technique sur ces sujets.

Note: les vidéos des cours d’OpenClassrooms comme toutes les ressources de Class´Code sont librement accessibles, sous licence Creative-Commons, comme on le voit ici.

L’informaticienne et le musicien

Vous avez déjà vu une musicienne jouer avec les mains mais sans instrument ou un algorithme générer une musique selon telle ou tel compositeur ? Quelle nouvelle musique va émerger de cette interdisciplinarité avec l’informatique ? Comment font des gens aussi différents pour travailler ensemble ? C’est Marcelo M. Wanderley, professeur à l’Université McGill, guitariste amateur et scientifique qui a bien voulu répondre à nos questions sur ce mélange des genres. Thierry Vieville et Marie-Agnès Enard.

Prof. Marcelo M. Wanderley
Marcelo M. Wanderley

Binaire : étudiant en génie électronique, tu as voulu faire un doctorat en musique et l’on t’a répondu qu’il valait mieux faire une thèse sur un sujet sérieux ! Est-ce incompatible ?

McGill Digital Orchestra : Fernando Rocha playing rules.

Marcelo Wanderley : les temps changent ! À l’époque, il y a presque 30 ans, il existait très peu d’endroits où on pouvait combiner musique et génie électronique, surtout où j’habitais, au Brésil. La mentalité dans les écoles de génie électronique était assez «  disciplinaire », c’est-à-dire, ceci est du génie, cela ne l’est pas. Aujourd’hui il existe plusieurs laboratoires de recherche entièrement dédiés à la combinaison des deux disciplines. On y étudie les instruments de musique, on y analyse les performances des interprètes, et on y crée aussi de nouveaux instruments et parfois même de nouvelles formes de musique. On mène par exemple des projets académiques de durée variable (entre quelques mois et quelques années) au niveau du master ou du doctorat entre étudiant.e.s de technologie musicale (dorénavant appelés « ingénieur.e.s ») et des étudiant.e.s en interprétation  (dorénavant appelés « musicien.ne.s »). L’objectif d’un tel projet est typiquement la création, et le développement de manières de jouer, d’un instrument musical numérique, c’est-à-dire, d’un instrument  musical qui utilise un ordinateur comme générateur de sons.

B : concrètement, comment une informaticienne comme Marie par exemple ou un musicien comme Pierre vont-ils pouvoir collaborer ?

MW : et bien au début ce n’est jamais facile, il faut que chacun comprenne les buts et les enjeux de l’autre. Alors initialement Marie va avoir l’impression que le musicien lui demande la lune et que ce n’est pas faisable. Pierre lui, lorsque l’informaticienne lui proposera une solution, trouvera que ce n’est pas jouable ou que cela ne correspond pas à sa volonté créatrice du moment.

B : tu as d’ailleurs fait une analyse de cette interaction entre l’ingénieur et le musicien au cours d’un projet, peux-tu nous la détailler ?

MW : mon expérience dans plusieurs projets de ce type est la suivante :

  • Les ingénieur-e-s ont tendance à mettre un effort soutenu dans l’avancement du projet, de façon linéaire. Au début du projet, ils vont souvent tester des idées et développer des prototypes (en collaboration avec les musicien.ne.s). Une fois ces idées et prototypes évalués, des variations et modifications sont implémentées de façon similaire jusqu’au développement des versions finales des dispositifs.
  • Les musicien-ne-s par contre ont tendance à mettre de plus en plus d’effort avec l’avancement du projet. Au début le temps est lent c’est celui de la création. Concrètement, ce n’est pas forcément étonnant, ne serait-ce que puisque les musicien-ne-s doivent attendre la disponibilité des prototypes pour pouvoir appréhender ce qui est possible et s’en servir ! Leur effort est décuplé à l’approche du concert.

Bien entendu, les deux travaillent autant, c’est à dire que les surfaces sous les deux courbes (qui correspondent au travail accumulé par chacune et chacun) sont les mêmes.

B : que déduis-tu de ce petit modèle de comportement ?

MW : si on regarde l’intersection entre les courbes linéaire (ingénieurs) et exponentielle (musiciens) il y un temps « t » dont la position peut varier par rapport, entre autres, au type et à la complexité du projet, aux ressources disponibles, ainsi qu’à la personnalité des collaborateurs. Il se situe plutôt entre le milieu et la fin du projet.

  • Avant ce temps « t », les ingénieur-e-s ont tendance à penser que les musiciens ne travaillent pas suffisamment et/ou qu’ils ne sont pas assez impliqués dans le projet. J’appellerais cette partie « la région de frustration de l’ingénieur».
  • Après ce temps « t », les musicien-ne-s ont tendance à penser que les ingénieurs ne travaillent pas suffisamment et/ou qu’ils ne sont pas (ou plus) assez impliqués dans le projet. J’appellerais cette partie « la région de frustration du musicien».

 B : as-tu fais d’autre constats ?

McGill Digital Orchestra : Chloé Domingues with a T-stick

MW : Dans mon expérience, les musiciens et les ingénieurs, du fait de leurs études et pratiques respectives, ont deux approches de travail assez différentes. Côté ingénierie, ils sont très souvent focalisés sur la production de prototypes (pratiques) qui illustrent des idées abstraites, tandis que les musiciens sont focalisés sur la production d’un évènement (concert) bien ancré dans le temps. Ainsi le fait qu’un chercheur ou une ingénieure présente son travail de manière moyenne dans un congrès cela est toujours embêtant mais peut être pas catastrophique ; pour un interprète, louper un concert ou avoir une vidéo diffusée largement où il joue mal peut juste sonner la fin de sa carrière.

De même, dans le cas de la démonstration d’un prototype d’instrument électronique par l’ingénieure, si la démo « ne marche pas », normalement on s’excuse et on réinitialise le système. Ceci est peut-être beaucoup plus compliqué quand une démonstration (interprétation) musicale « ne marche pas » devant un public. La tolérance à l’erreur n’est pas la même

Par ailleurs, un chercheur ou une ingénieure va rechercher la généricité, faire en sorte que ce qu’il crée soit le plus général et réutilisable possible ; à l’inverse l’artiste (la musicienne par exemple) va chercher plutôt à produire quelque chose d’unique, une « œuvre ». La notion d’ « interprétation », au sens d’une action basée sur une expertise cognitivo-physique se déroulant dans le temps, n’est généralement pas une partie essentielle des travaux en informatique ou en ingénierie. Cela est évidemment le cas pour les musiciens.

De plus, le pas entre un prototype d’instrument numérique qui marche dans un laboratoire de recherche (environnement contrôlé), quitte à se faire réinitialiser quelques fois par l’ingénieur, et celui dans instrument numérique à part entière qui peut être joué à différents endroits de la planète par un musicien (idéalement sans la présence de l’ingénieur) n’est point négligeable. Il demande parfois une version complètement redessinée du prototype de laboratoire.

De même, le développement d’une pratique musicale experte avec un nouvel instrument musical demande un effort soutenue et étalé dans le temps. Un collègue musicien m’a même dit une fois (en plaisantant) que pour apprendre2 à programmer il suffit d’une semaine mais que pour apprendre à jouer d’un instrument il faut toute une vie. Comme quoi on est parfois encore loin d’une entente sur l’importance de chaque domaine…

McGill Digital Orchestra : Mark Marshall, Chloé Domingues, Fernando Rocha, Andrew Stewart in quatuor.

B : pourtant, de nombreux projets d’informatique musicale ont réussi. Comment ?

MW : la recherche interdisciplinaire en informatique musicale se pratique depuis l’origine de ce domaine dans les années 50. Comme toute collaboration, une bonne partie de l’entente (ou de la mésentente) entre deux ou plusieurs personnes vient des différentes personnalités. Une discussion ouverte et honnête entre les partenaires est dans mon expérience la meilleure et peut être la seule solution.

Il est essentiel d’insister sur le fait que les deux domaines de recherche sont à mon avis également importants pour le projet et qu’il n’a pas de notion implicite de ce qui est correct ou incorrect dans la collaboration puisque les référentiels sont très différents.

Ces façons de travailler, inhérentes à chaque domaine, peuvent mener à de vraies découvertes sur de nouvelles façons de travailler. D’ailleurs, l’interdisciplinarité est un type de recherche qui s’applique évidemment à d’autre champs, au-delà de l’informatique musicale, complémentaire aux méthodes spécialisées1 dites « disciplinaires » (c’est à dire bien définies dans des départements universitaires). En effet, dans le monde réel de nombreux problèmes ont tendance à demander des solutions qui dépassent les limites des disciplines académiques.

En informatique musicale, cela génère évidemment de nouvelles formes de créations inouïes.

B : oui mais lorsque le Sacre du printemps se jouait à Paris en 1913, par exemple, ce fut un scandale !

MW : certes, quelque chose d’inédit ne passait pas ; le travail inter-disciplinaire entre le compositeur Stravinsky et le chorégraphe Nijinski était trop novateur. De même quand on lit certains commentaires de l’entretien d’Arshia Cont, sur ces travaux en informatique musicale, on voit qu’une partie du public n’est pas encore au rendez-vous.

Et pourtant il y a de belles et précieuses choses qui se font !!!

Les gestes est une création de Van Grimde Corps Secrets en coproduction avec le CIRMMT – Centre de Recherche Interdisciplinaire en Musique, Médias et Technologie, l’IDMIL – Input Devices and Music Interaction Laboratory de l’École Schulich de l’Université McGill, l’Agora de la danse, le Concertgebouw de Bruges, le Schouwburg d’Arnhem et le Forum/scène conventionnée de Blanc-Mesnil.
Comment l’apprentissage d’un instrument de musique change-t-il le cerveau? La musique peut-elle aider les personnes à se remettre des accidents vasculaires cérébraux? Ce ne sont que deux des questions auxquelles les chercheurs de l’université de McGill et de l’Institut neurologique de Montréal cherchent à répondre avec la création d’un violoncelle qui peut être joué dans un scanner IRM pour voir comment le cerveau change en présence d’un instrument de musique.
À l’avant-garde de l’industrie, d’abord petite boutique de guitares montréalaise devenue une florissante entreprise manufacturière, l’entreprise Guitares Godin a collaboré avec le Centre interdisciplinaire de recherche en musique, médias et technologie de l’Université McGill, afin de mettre au point une nouvelle technologie pour analyser le style et le son de divers modèles de guitares, et aider les clients à trouver les caractéristiques recherchées dans un produit fini.
Haptic Field est une installation d’art immersive et multisensorielle créée au Centre d’art Chronus à Shanghai en Chine en juillet 2016. C’est une installation multi-sensorielle participative qui fusionne la mode contemporaine, la technologie portative et une exploration des sens au-delà du vécu immédiat. En utilisant des vêtements spécialement conçus, Haptic Field crée une expérience physique singulière et étrange, nous donnant l’impression que nos sens sont étirés au-delà des limites du corps.
« L’ordinateur est un instrument de musique », présentation de mes travaux de recherche « utiliser le numérique pour démocratiser les usages, et partager cet art avec toutes et tous, tout peut être musique ». Ref: usbeketrica.com.

Interview de Marcelo M. Wanderley (Inria Lille – Nord Europe / McGill University) par Thierry Viéville.

1 La spécialisation croissante des domaines est un phénomène qui se base sur un processus inéluctable et de longue haleine (cf Thomas Kuhn  « La structure des révolutions scientifiques » Flammarion 2008).
2 On peut découvrir la programmation et pensée informatique en quelques heures avec la formation Class´Code. Pour devenir un.e professionnel.le de l’informatique il faut, comme pour un instrument de musique, des années d’études et de pratique.

Qui a écrit le premier programme ?

L’histoire d’Ada Lovelace, ou presque… par Florent Masseglia 2’27

C’est au XIXème siècle qu’un certain Babbage commence à construire (avec des rouages horlogers) une machine qui a tout le potentiel d’un ordinateur. Et Ada Lovelace en comprend ã la fois la portée universelle (cette capacité d’exécuter tout ce qu’on sera capable de lui décrire) et l’impact que cela pourrait avoir sur la société.  La première personne au monde à être une codeuse …

En savoir plus :

Class´Code est une formation complète pour initier les jeunes à la pensée informatique.  Mais, vous voulez peut-être juste avoir un aperçu de cette formation ? Simplement  connaître l’histoire de cette histoire ? Installer vous confortablement. En quelques minutes, ces vidéos vont vous donner quelques grains de culture scientifique et technique sur ces sujets.

Note: les vidéos des cours d’OpenClassrooms comme toutes les ressources de Class´Code sont librement accessibles, sous licence Creative-Commons, comme on le voit ici.

La géographie ubiquitaire

Un nouvel « Entretien autour de l’informatique ». Serge Abiteboul et Claire Mathieu interviewent Denise Pumain , professeure à l’Université Paris 1 Panthéon-Sorbonne et membre de l’Institut Universitaire de France. Elle est spécialiste de l’urbanisation et de la modélisation en sciences sociales. Cet article est publié en collaboration avec TheConversation.

Denise Pumain, par Claude Truong-Ngoc, CC BY-SA 3.0

B : Denise, quel est ton métier ?
DP : Je suis enseignante-chercheure en géographie à l’université Paris I (Panthéon-Sorbonne). J’ai été un temps détachée à l’Institut d’Études Démographiques, un temps à l’Université de Paris Nord à Villetaneuse, un temps recteur de l’académie de Grenoble.

La géographie est une science sociale interdisciplinaire, avec des interactions fortes avec la sociologie et l’économie, et des liens étroits avec les sciences naturelles. Ma recherche porte sur la géographie humaine, c’est-à-dire l’étude de la manière dont les sociétés organisent leur espace, de manière différenciée selon les régions du monde. Je m’intéresse aux villes et à ce qu’elles ont de commun, notamment dans leur dynamique, la façon dont elles évoluent au cours du temps.

La principale question des géographes depuis la fin du 18e siècle, c’est de comprendre la diversité du monde. On a d’abord expliqué cette diversité par des inégalités physiques, des différences entre les sols et les cadres naturels, le rôle des dotations initiales naturelles. Jared Diamond a récemment actualisé ce fil explicatif. Mais la géographie a ensuite beaucoup insisté sur la dimension spatiale, les effets de proximité et de réseaux dans les organisations des sociétés et leurs rencontres, selon un mécanisme de type centre-périphérie qui rend compte d’une grande partie des inégalités entre les sociétés humaines, à différentes échelles.

B : Binaire s’intéresse à la transformation des sciences par l’informatique. En quoi ta discipline a-t-elle été transformée par la notre ?
DP : L’informatique a introduit des progrès décisifs dans la manière de pratiquer la géographie et a également fait beaucoup pour amplifier les usages de la science géographique dans la société. Je vois trois grandes étapes dans cette évolution.

L’informatique, automatisation de tâches
D’abord, dans les années 60-70, nous avons pu informatiser des analyses statistiques. L’ouverture de centres de calcul accessibles aux gens des sciences sociales a changé notre travail. En ce qui concerne la géographie, l’instrument décisif a été l’analyse multivariée pour rendre compte des diversités entre des territoires ruraux, des villes, ou des ��tats. A ces échelles, l’enquête individuelle n’est pas possible, il faut utiliser des recensements. Nous avons utilisé ce qu’on appelle aujourd’hui l’analyse exploratoire des données pour effectuer des comparaisons de manière systématique, plus raisonnée et répétable. Par exemple, j’ai rassemblé des données sur la croissance de plusieurs centaines de villes françaises depuis le recensement de 1831, sur l’évolution de leur démographie et de leur profil économique. Dès 1954, on avait des statistiques sur la composition par branche d’activité économique, la composition socioprofessionnelle, avec des nomenclatures comprenant des dizaines, puis des centaines de catégories, toute une richesse d’informations exploitables par le géographe. Pour nous la quantification a été la solution. Pour moi, l’informatique a donc d’abord été une libération, une possibilité d’objectiver, d’avoir un degré de scientificité plus important qu’auparavant.

Cybergeo, revue européenne de géographie, en open édition

La pensée algorithmique
Ensuite, l’informatique a véritablement transformé notre façon de penser. Elle nous a conduits d’une formalisation essentiellement liée à l’usage des statistiques, à des formalisations bien plus riches utilisant des modèles de simulation. Avec des universitaires de Stuttgart et de l’Université libre de Bruxelles, nous avons exploré des modèles dynamiques d’analyse territoriale et régionale. Avec Thérèse Saint-Julien et Lena Sanders, nous avons pu comparer les transformations socio-économiques des agglomérations de Rouen, Bordeaux, Nantes et Strasbourg au fil du temps.

Au début des années 80, s’est créée une communauté autour de la simulation pour la géographie, avec des modèles mathématiques d’auto-organisation urbaine, ou encore d’analyse des migrations interrégionales. Cela nous a conduits à des modélisations informatiques par systèmes d’agents. Un agent pouvait être un territoire, une personne, un élément de l’environnement. Les agents, représentés par des êtres informatiques, sont susceptibles d’acquérir des informations sur leur environnement et de communiquer avec d’autres agents pour avoir des interactions, des actions avec d’autres agents. Typiquement, les attributs d’une ville pouvaient être sa population, sa richesse, ses types de production, sa situation portuaire, son attractivité touristique ou le fait d’être une ville capitale. On a beaucoup de mal à connaître tous les échanges que les villes ont entre elles, surtout pour mesurer les échanges économiques ou financiers. On a donc imaginé un système théorique de marché d’échanges entre villes à partir de leurs fonctions économiques ; elles proposent des productions et des services à des villes dans un environnement proche, avec un marché régulant ce commerce, modélisé informatiquement. Les systèmes multi-agents offrent une grande souplesse de modélisation pour représenter une diversité de formes d’interactions dans l’espace selon les fonctions des villes, capitales régionales, ou villes industrielles ou touristiques par exemple.. Les modèles ainsi construits font partie d’une série que nous appelons « SimPop » pour « simulation de population », à partir de systèmes multi-agents.  Cette évolution est trop complexe pour être imaginée sans ordinateurs bien sûr.

Cette deuxième étape a eu un débouché inattendu. Les modèles SimPop étaient conçus au début par des doctorants dépendant d’informaticiens, et du coup nous n’avions qu’une capacité d’intervention limitée. Puis nous avons pu construire les modèles directement, en réunissant des informaticiens de l’institut des systèmes complexes et des géographes déjà formés à l’informatique. Cela a tout changé pour nous. On pouvait commencer avec un modèle simple pour le raffiner. On pouvait voir l’amélioration produite entre deux versions. On pouvait complexifier le modèle, introduire des effets de contexte environnementaux… Cela nous a permis une meilleure mise au point par exploration de toutes les possibilités offertes par le modèle. On pouvait procéder pas à pas, en réduisant la complexité, et aussi, faire des millions de simulations avec le même modèle. On pouvait vraiment explorer  l’espace des paramètres.

On a, par exemple, mis au point un modèle informatique d’émergence de ville post-néolithique. Un archéologue peut le nourrir de ses propres données, et vérifier si ce que raconte théoriquement le modèle a un sens sur son cas particulier en archéologie. Ça a été un progrès épistémologique car cette manière de faire des modèles permet de valider des hypothèses scientifiques. On savait par exemple que des villes produisaient des innovations qui se propageaient d’une ville à l’autre. On a pu construire un modèle qui capturait finement cette propagation. Pour la première fois, on pouvait montrer que « nos hypothèses étaient nécessaires et suffisantes ». Par exemple, on a montré que spécifier la durée de vie d’une innovation dans le modèle n’avait pas d’importance.

Cette modélisation est essentiellement algorithmique. Nous apprenons énormément des algorithmes. Cette seconde étape, c’est donc l’entrée de la pensée algorithmique dans notre discipline.

La géographie au quotidien
La troisième et dernière étape que je considèrerai tient de l’arrivée des systèmes d’information géographique (GIS en anglais) et, dans notre quotidien, de données géo-localisées de manière massive. Cela me semble être un véritable bouleversement.

La première loi de la géographie, c’est celle de la proximité : tout interagit avec tout, mais deux choses proches ont plus de chances d’interagir que deux choses lointaines. Aujourd’hui, des applications vous donnent des informations sur vos amis qui sont dans le voisinage ou sur d’autres qui sont géographiquement très loin. Le numérique permet d’élargir considérablement les interactions, et les distances jouent un moins grand rôle. Malgré cela, la géographie prend une place considérable. Il n’y a pas de chômage chez les géographes numériciens ! Ils trouvent du travail, par exemple, en géo-cartographie des prix immobiliers, ou dans le suivi des flottes de véhicules pour des entreprises de transports. Les concepts, la visualisation, les outils qu’ils utilisent, s’appuient sur des savoir-faire de la cartographie et de la géographie : la géomatique, que certains appellent gis-science !

OpenStreetMap

Les cartes géographiques prennent énormément d’importance. Les cartes ont été longtemps du ressort des états-majors, selon la formule : « la géographie, ça sert d’abord à faire la guerre ». L’IGN a d’ailleurs été créé par hasard en 1940 pour éviter que les Allemands ne mettent la main sur la cartographie de l’armée. Les citoyens utilisent aujourd’hui quotidiennement des cartes numériques sur leurs téléphones, Avec des systèmes comme OpenStreetMap, ils s’approprient la cartographie ; ils participent à la mise au point des cartes, à leurs mises-à-jour en temps réel.

Les villes industrielles en Chine sont encore souvent de très grandes villes, en position littorale Source : Elfie Swerts, http://geodivercity.parisgeo.cnrs.fr/blog/tag/china/

B : Y a-t-il eu des surprises dans l’évolution des villes ces cinquante dernières années ?
DP : Oui, clairement, celle des villes chinoises. L’urbanisation chinoise a été très forte, rapide, contrôlée, avec des résultats indéniables (il n’y a pas de bidonville), et une capacité à prendre en compte les nécessités écologiques. Tout cela se fait sous contrôle étatique mais décentralisé, car la capacité d’urbaniser a été transférée au niveau des villes et districts. Il nous faut modifier nos modèles pour tenir compte de ces contrôles. Mais cette urbanisation est une urbanisation intelligente, s’appuyant sur l’existant, donc il y a une continuité, un suivi qui correspond aux principes que des millénaires d’évolution de l’urbanisation nous ont enseignés.

La première loi de la géographie à l’épreuve du numérique

B : Peut-on envisager une transformation des villes du fait de la numérisation ? La remise en question peut-être de la première loi de la géographie ?
DP : On peut envisager un retour vers les villes petites et moyennes, qui étaient traditionnellement vues comme condamnées à une perte de substance, et qui seront peut-être sauvées par le télétravail. Il y a eu une tendance lourde à la concentration dans les grandes villes au détriment des petites, et ce processus s’est accéléré dans les années 80. Après le recensement de 1982, et surtout celui de 1990, la métropolisation, c’est-à-dire la convergence de la population vers les grandes villes, est devenue claire. Est-ce que cela va changer avec la téléprésence ? Qualitativement, l’effet est encore limité à des métiers où la coprésence et l’action collective ne sont pas absolument nécessaires tout le temps ; cela reste coûteux, car impliquant des déplacements vers de grandes villes quand les face-à-face sont nécessaires. Donc la métropolisation continue, et je ne la vois pas diminuer.

Je crois que les gens et l’économie ont besoin de proximité. Par exemple, l’essentiel des transactions financières est assuré par juste trois grandes villes, New York, Londres et Tokyo ! Les financiers qui font des produits dérivés à outrance savent que si on veut spéculer sur la petite marge quasi-instantanée, il faut être à quelques nanosecondes par câble des centres financiers. Le virtuel n’invalidera pas, selon moi, la première loi de la géographie. Rien dans l’histoire ne me conduit à le penser. Les décentralisations historiques fortes n’ont été observées qu’en périodes de guerre.

B : Comme géographe, tu es dans une situation privilégiée pour étudier les évolutions du monde. Qu’as-tu observé ?
DP : Je trouve inquiétant le creusement des inégalités de revenus, ainsi qu’une certaine passivité devant les problèmes sociaux causés par l’organisation de la finance mondiale qui entame sans vergogne des processus entraînant des catastrophes. Nous vivons aussi un grand bouleversement avec l’afflux des informations vraies ou fausses, leur amplification. Il suffit de voir par exemple l’élection de Trump et le Brexit pour comprendre les conséquences catastrophiques que peuvent avoir des processus mal compris, mal contrôlés. Mais le pire n’est pas toujours certain. La géographie apprend à croire dans les capacités de réactions des sociétés humaines. Dans les années 60, il aurait été impossible d’imaginer que l’on serait capable de nourrir sept milliards d’habitants. On sait le faire et le pourcentage de la population situé sous un seuil de pauvreté s’est même réduit. Reste qu’il faut être conscient des menaces et de la nécessité de structures intermédiaires pour contrebalancer les effets du libéralisme exacerbé et du pouvoir non contrôlé.

Serge Abiteboul, Inria, ENS, Paris, Claire Mathieu, CNRS, ENS, Paris

(*) Jared Diamond est un géographe biologiste évolutionniste, physiologiste et géonomiste américain. Nous recommandons fortement sur le sujet qu’aborde Denise Pumain son best seller « De l’inégalité parmi les sociétés », prix Pulitzer 1998 (Guns, Germs, and Steel).

Qui a inventé les premiers algorithmes ?

L’histoire d’Al-Khwârizmî, ou presque… par Florent Masseglia 3’26

Un algorithme est un ensemble d’instructions. Tout simplement ! Comme une recette de cuisine où tout serait spécifié dans les moindres détails pour qu’un cuisinier, totalement dénué de pensée, puisse tout de même cuisiner correctement. Et pour découvrir l’origine de ce mot, il faut aller faire un tour vers l’an 800, en Perse : si nous allions à la rencontre de monsieur Al…

En savoir plus :

Class´Code est une formation complète pour initier les jeunes à la pensée informatique.  Mais, vous voulez peut-être juste avoir un aperçu de cette formation ? Simplement  connaître l’histoire de cette histoire ? Installer vous confortablement. En quelques minutes, ces vidéos vont vous donner quelques grains de culture scientifique et technique sur ces sujets.

Note: les vidéos des cours d’OpenClassrooms comme toutes les ressources de Class´Code sont librement accessibles, sous licence Creative-Commons, comme on le voit ici.

Dompteuse de données

Un nouvel « Entretien autour de l’informatique ». Serge Abiteboul et Claire Mathieu interviewent Anastasia Ailamaki, professeure à École Polytechnique Fédérale de Lausanne. Elle dirige le laboratoire Data-Intensive Applications and Systems qui étudie les systèmes et les applications de gestion de masses de données. Cet article est publié en collaboration avec TheConversation.

Anastasia Ailamaki
© Christoph Kellenberger Kaminski

B : Comment t’es-tu retrouvée à Lausanne, depuis la Crète ?
NA : J’ai fait un Mastère en Crête, puis j’ai eu un premier emploi, mais cela ne me satisfaisait pas. J’avais encore envie d’apprendre. J’ai commencé une thèse à l’université de Rochester aux USA, et je l’ai finie à l’université du Wisconsin à Madison, avec David Dewitt. Puis j’ai été recrutée par Carnegie Mellon University où je suis devenue professeure. Je suis venue en sabbatique à l’Ecole Polytechnique Fédérale de Lausanne et j’ai décidé d’y rester. J’ai toujours pensé que je reviendrai en Europe. L’EPFL est un lieu formidable pour le travail et j’adore la qualité de vie en Suisse francophone.

B : Comment est-ce la vie dans un milieu très masculin comme l’informatique ?
NA : Ce n’est pas simple. On côtoie au quotidien la discrimination, de la part de personnes qui n’en sont, le plus souvent, même pas conscientes. Dans une lettre de recommandation pour une femme, par exemple, le style sera moins professionnel ; on utilisera le prénom plutôt que le nom ou le titre. Les femmes sont moins souvent nominées pour des prix. Les gens n’y pensent pas. Inconsciemment, ils les imaginent plus jeunes, moins compétentes que des hommes pourtant au même niveau. Les difficultés les plus importantes, je crois, se rencontrent surtout en début de la carrière.

B : Sur quoi porte ta recherche ?
NA : Sur les bases de données massives. J’aime construire des systèmes qui gèrent de grandes quantités de données. Je travaille principalement sur deux axes de recherche : une meilleure utilisation des matériels, et l’expérimentation de la gestion de données massives sur de grandes applications.

Base de données et matériel
Le logiciel qui gère les données doit utiliser au mieux le matériel disponible. Pour gérer des données massives, il faut s’appuyer sur des mémoires très rapides (les « caches* »), d’autres moins rapides, d’autres encore moins rapides mais massives, et il faut concevoir des logiciels qui utilisent tout cela au mieux. On observe que quand on exécute une requête sur une grande base de données, la plupart du temps, les processeurs sont inactifs, simplement en train d’attendre des données, et l’horloge du processeur tourne sans que rien ne se passe, pendant, disons, 60% du temps. Il faudrait construire des logiciels qui exploitent à 100% les ressources de calcul.

Base de données et applications
Mon deuxième axe de recherche se situe aux frontières de l’informatique. Je travaille sur des applications qui utilisent ou devraient utiliser les bases de données, mais que nos systèmes n’arrivent pas vraiment à satisfaire aujourd’hui. Ces applications se déroulent dans des domaines scientifiques traitant des masses de données considérables, qui proviennent de mesures de phénomènes naturels ou de simulations. Il faut absolument collaborer avec les scientifiques de ces domaines pour arriver à satisfaire leurs besoins. On rencontre des problèmes variés : l’organisation des données, la puissance de calcul requise, la diversité des données scientifiques, les besoins des scientifiques qui évoluent souvent rapidement, de manière très dynamique, alors que les systèmes de gestion de données traditionnels ont été conçus pour des données régulières et statiques…

B : Tu peux nous donner un exemple de domaines scientifiques.
NA : Je m’intéresse particulièrement à la recherche médicale. Nous travaillons avec les hôpitaux sur des données médicales qui doivent évidemment être très protégées.
Je participe au projet « Human brain » visant notamment à identifier une maladie du cerveau par sa « signature » qui combine des informations de divers types : des mesures cliniques et biométriques, des données biologiques, radiologiques, cliniques, etc. Les systèmes doivent faciliter les calculs de telles signatures, pour arriver à un meilleur diagnostic, personnalisé pour chaque patient et plus juste statistiquement. Il nous faut des systèmes capables d’aller chercher les données dans différents services de l’hôpital et de les rassembler. Nous n’y sommes pas encore.

Les systèmes de gestion de données de demain

B : C’est là que se rejoignent tes axes de recherche. Améliorer les systèmes de gestion de données existants ?
NA : Oui ! Il faut garder un œil à la fois sur les applications les plus exigeantes et sur le matériel, pour construire des logiciels plus performants qui répondent aux besoins des applications, les systèmes de demain.
Les systèmes de gestion de données « historiques » sont basés sur des hypothèses logiques fortes, dont certaines ne sont parfois plus valides. Par exemple, le dogme dit que la construction de la base de données doit précéder l’évaluation de toute requête. On commence par « préparer » les données. Mais ça ne colle plus avec des données trop massives, quand seulement une toute petite partie des données, quelques pourcents peut-être, sera utilisée. Pourquoi perdre son temps à tout préparer ?

Notre approche est très différente. Nous partons des données disponibles, avec toute leur diversité de formats, et des requêtes auxquelles nous voulons répondre de manière efficace. Notre système génère un programme, le code qui va faire le travail : extraire les informations dont nous avons besoin et seulement celles-là, les harmoniser quels que soient leurs formats d’origine pour lancer les calculs.

B : Cela conduit à des logiciels extrêmement complexes. Mais d’un point de vue conceptuel, quelles sont les idées véritablement nouvelles que vous apportez ?
NA : D’abord, la virtualisation des données. Il faut penser les données, qui sont très concrètes, de façon très virtuelle ; en d’autres termes, les abstraire de leur réalité physique. C’est cette abstraction qui permet de résoudre le problème de leur intégration dans des formats homogènes virtuels, sans véritable existence.
Ensuite, c’est la génération de code. Nous nous appuyons sur la théorie des catégories pour une description mathématique à la fois simple et puissante, pour que le résultat soit correct. Elle nous permet de composer facilement les calculs dont nous avons besoin. C’est magnifique !
Enfin, pour plus d’efficacité, nous avons dû inventer de nouvelles techniques de caching. Nous utilisons par exemple l’apprentissage automatique (machine learning) pour planifier les ressources dont nous risquons d’avoir besoin dans le futur pour répondre aux requêtes.

RAW Labs, des logiciels pour interroger toutes sortes de données

Natassa startupeuse

B : En plus de ton équipe de recherche, tu as créé une start-up.
NA : Oui, RAW Labs, basée en Suisse et fondée en 2015. Nous avons introduit une version commerciale du système de gestion de données dont je vous ai parlé.

Le monde des start-ups est un monde très différent de celui des laboratoires de recherche. Dans un laboratoire de recherche, on forme des étudiants par la recherche, on produit des publications dans des conférences pour proposer de nouvelles idées, des contributions intellectuelles intemporelles, les plus générales possibles, pour faire avancer les connaissances scientifiques universelles. Dans l’entreprise, on doit résoudre un problème spécifique, et le but est de gagner de l’argent. On peut être conduit à travailler sur le même problème, mais les objectifs sont très différents.

Dans une équipe de recherche, on cherche à trouver une solution à un problème, à obtenir une preuve convaincante que ça marche. Les logiciels doivent atteindre un point de maturité raisonnable, puis on passe à autre chose. Dans une start-up, cela ne suffit pas. Les logiciels ne doivent pas contenir de bugs et offrir de bonnes interfaces utilisateurs. Et quand ils sont au point, il ne faut pas passer à autre chose car c’est là qu’ils commencent à convaincre des clients. Il faut les maintenir, ajouter des fonctionnalités pour satisfaire les utilisateurs…

La complexité et l’abstraction

B : Qu’est-ce qui te motive ?
NA : Pour moi, l’« informatique », c’est une manière de penser pour résoudre des problèmes qui semblent a priori difficiles. On peut décomposer un problème en des problèmes plus simples. On peut choisir pour un problème, le bon niveau d’abstraction. Cela n’est pas juste théorique ; on arrive à des solutions pratiques pour des familles de problèmes.
Dans mon domaine de la gestion de données, le problème change quand la taille des données, les processeurs changent. Même si le problème reste le même formellement, mathématiquement, les solutions efficaces ne sont plus les mêmes. Le problème est différent qualitativement. La complexité en temps suivant la taille de données est une composante essentielle du problème.

Ce jeu entre complexité et abstraction dans la résolution de problèmes est passionnant. J’essaie de comprendre comment il peut m’apporter aussi des solutions dans ma vie quotidienne, peut-être dans la gestion de mes enfants ?

Serge Abiteboul, Inria, Claire Mathieu, École Normale Supérieure, Paris

[*] Une mémoire cache ou antémémoire est, en informatique, une mémoire qui enregistre temporairement des copies de données provenant d’une source, afin de diminuer le temps d’un accès ultérieur (en lecture) d’un matériel informatique (en général, un processeur) à ces données. Wikipedia 2017.