L’art numérique ou l’éternel malentendu

Dans le monde du numérique, un monde dominé par les sciences et les techniques, l’art reste souvent aux marges. Pourtant, les algorithmes étant amené à remplacer les humains dans leurs activités de simple subsistance, le monde en devenir est appelé à étendre le territoire des arts. Dans un temps où toutes les sciences deviennent numériques, où le monde lui-même devient numérique, nous pouvons nous interroger sur le sens d’un art ailleurs que numérique ? Nous avons demandé à Norbert Hillaire, théoricien de l’art et des technologies, artiste, professeur à l’université de Nice  et directeur de recherche à Paris 1 Panthéon-Sorbonne, président de l’association « Les murs ont des idées », de nous parler de ce sujet. Son texte se savoure, tout comme d’ailleurs ce texte aussi beau que surprenant de Paul Valery dont il fait son point de départ. Serge Abiteboul et Claire Mathieu.

Norbert Hillaire

Paul Valéry, dans un texte prophétique de 1928 intitulé « la conquête de l’ubiquité[1] », nous explique que ce n’est rien moins que la notion même de l’art qui est en jeu dans le changement des techniques et des sciences porté par cette conquête de l’ubiquité, à travers « la distribution de la réalité sensible à domicile » qui l’accompagne. Aujourd’hui, nous y sommes, et la prophétie de Valéry est en train de se réaliser sous nos yeux avec Internet.

Je tire de Wikipédia cette définition de l’art numérique : « L’art numérique désigne un ensemble varié de catégories de création utilisant les spécificités du langage numérique. Il s’est développé comme genre artistique depuis le début des années 1980. Portée par la puissance de calcul de l’ordinateur et le développement d’interfaces électroniques autorisant une interaction entre le sujet humain, le programme et le résultat de cette rencontre, la création numérique s’est considérablement développée en déclinant des catégories artistiques déjà bien identifiées. »

Il est certes exact de considérer que les formes de l’art doivent épouser ou coïncider avec l’évolution des techniques, et qu’au fond, il est normal qu’à l’âge numérique, les artistes utilisent des techniques numériques

Lignes de fuite 10 – Le vecteur des archives – Norbert Hillaire

Pourtant, entre l’art et la technique, entre le message et le médium, c’est, à rebours d’une telle vision idyllique, toujours d’une relation flottante, ambigüe, instable qu’il s’agit. Cette instabilité ne fait qu’augmenter avec le temps, comme en témoignent les rapports de fascination/répulsion que les artistes entretiennent avec la technique, au fur et à mesure que celle-ci impose son hégémonie dans le monde moderne avec la première révolution industrielle.

Une histoire mouvementée, donc, qui témoigne plutôt d’une dynamique de ruptures en cascades, de transferts complexes entre les arts et les techniques (voyez par exemple les « portraits de machines » de Picabia, les compressions de César), de survivances et d’anachronismes, plutôt que d’un enchaînement de figures et de styles dont le mouvement s’ajusterait sans heurt au progrès des sciences et des techniques.

La conquête de l’ubiquité est contemporaine de la conquête de l’autonomie de l’art. Et en un sens, comme le prétend Valéry, cette « conquête de l’ubiquité » ne peut laisser indemne jusqu’à « la notion même de l’art » Mais en un autre sens, l’art n’a de cesse de promouvoir et d’afficher sa liberté nouvelle, son autonomie par rapport aux divers pouvoirs qui n’ont cessé de chercher à encadrer son devenir : religion, magie, technique, et désormais science et industrie. Envers et contre tout, l’art cherche sa liberté, soit dans l’approfondissement du langage même du médium qu’il se donne, soit dans l’affranchissement de toute tutelle technique, dans la libération de toute forme de dépendance par rapport à un matériau, une technique, ou un médium. Ainsi l’artiste sera de moins en moins l’homme d’une technique une, et de plus en plus l’homme d’une panoplie infiniment diverse de matériaux et de techniques : ainsi, l’artiste contemporain est de plus en plus un polytechnicien.

Ce qui s’affiche dès lors, c’est l’accession définitive de l’artiste plasticien au monde des arts libéraux, et son affranchissement de ce statut encore trop artisanal dans lequel sa virtuosité technique le cantonnait. Si bien qu’est venu un temps, le nôtre, dans lequel cela n’a plus guère de sens d’évoquer un artiste en relation avec une technique, aussi nouvelle soit-elle. Si l’on parle encore d’un vidéaste, d’un photographe, d’un peintre, d’un sculpteur, on n’en préfère pas moins aujourd’hui évoquer la figure d’un artiste plasticien, tant il est vrai que la vogue des installations, le mélange des médias, la prolifération des supports d’inscription rendent de plus en plus difficile l’indexation de l’œuvre et plus encore de l’artiste sur un médium unique et, en somme, l’annexion de l’œuvre par un support.

Série les Oiseaux 2 – fusain, calque, graphite sur papier – Norbert Hillaire, 2007

C’est là sans doute la raison de cette résistance ancienne et tenace que l’art contemporain oppose à l’art numérique, et par conséquent, la relégation de celui-ci dans un ghetto qui l’éloigne du marché, auquel il aspire pourtant. Et c’est sans doute aussi la raison qui explique la volonté de rehausser l’appellation ringardisée « art numérique », par un label plus novateur : l’art post-digital, qui entend souligner moins la disparition du numérique, que sa banalisation, ou mieux, sa naturalisation (en particulier aux yeux des digital natives), et ainsi de faciliter, par cette transition conceptuelle, l’assimilation de l’art numérique au champ de l’art contemporain.

Pourtant, cette option n’est pas non plus satisfaisante, si l’on continue d’admettre avec Paul Valéry, que la conquête de l’ubiquité est aussi appelée à changer jusqu’à la notion même de l’art. Et il est vrai que le numérique est bien plus qu’une technologie, bien plus qu’un médium : c’est l’horizon d’attente dans lequel l’ensemble des choses, des êtres et des lieux semble prêt à basculer, comme emporté dans le vortex d’un processus de numérisation qui ne laisse rien lui échapper et jusqu’au monde lui-même[2]. Comme le souligne Patrice Maniglier, « La question n’est pas de savoir si un art, ou une époque de l’art, est aussi bon qu’un autre, mais s’il s’agit bien d’art dans le même sens. Et d’ailleurs, pour défaire cette équivoque, il faut peut-être en défaire une autre, plus profonde. L’erreur porte en effet ici non pas sur l’art numérique, mais sur le statut du numérique comme tel. Tant que l’on conçoit celui-ci comme une technologie particulière, une branche de l’industrie, un secteur particulier du monde, on ne comprend pas ce dont il est question dans l’adjonction de ce petit adjectif, « numérique », à quoi que ce soit. Le numérique n’est pas une région particulière de la réalité : c’est l’horizon dans laquelle toute la réalité peut être réinterprétée[3].

Dans cette mesure, le numérique, ajoute le philosophe, c’est le lieu d’une transition ontologique, d’un changement d’être : « Convenons d’appeler art numérique non pas un art qui fait appel à telle ou telle technologie, mais un art qui explore cette transition ontologique – ce que nous pourrions appeler, en suivant certaines propositions récentes de Bruno Latour – cette passe ontologique[4]. »

Interview Photomobiles ©N. Hillaire

Dans les relations entre l’art et la technique, le numérique vient ainsi brouiller les frontières qui séparaient le « message » et « le médium », les « intentions » de l’artiste et les « moyens techniques » qu’il se donne : et c’est pourquoi, sans doute, certaines œuvres participent d’une forme de réversibilité de la technique dans l’art et de l’art dans la technique, au croisement de la Duchamp-land, et de la Turing-land, pour reprendre la jolie formule de Lev Manovitch.

L’art numérique est éternellement de l’art même, et éternellement de l’art autre (et c’est pour cela qu’il recouvre un champ de plus en plus vaste d’œuvres, de langages, de supports, d’objets, de dispositifs très différents), ouvert à l’altérité d’un devenir imprévisible quant aux frontières qu’il ne cesse de déplacer et de replacer entre les corps et les lieux, entre les formes et le sens, entre l’œuvre et l’objet, entre le matériau et l’immatériau, entre la carte et le territoire (comme la multiplication de ces œuvres ayant par exemple pour thème Google Earth), entre l’espace et le temps, et plus fondamentalement encore, entre l’art et l’artifice. Si bien qu’il serait presque aussi légitime de conjecturer l’assimilation progressive du numérique au champ de l’art contemporain (à travers la transmutation de l’art numérique en art post-digital), que de risquer l’hypothèse selon laquelle l’art contemporain serait appelé à devenir un jour peut-être une province du numérique comme horizon d’attente de l’homme neuronal.

Norbert Hillaire, Professeur à l’Université de Nice-Sophia Antipolis

[1] http://livre-rose.hyper-media.eu/wp-content/uploads/2014/03/valery_conquete_ubiquite.pdf
[2] Je reprends ici certaines hypothèses développées dans La fin de la modernité sans fin, L’Harmattan, coll. Ouverture Philosophique, 2013
[3] Cette idée est très proche de celle développée par Warren Sack dans ses recherches en cours sur ce qu’il appelle la « réécriture du monde » à travers la culture numérique : The Software Arts, à paraître chez MIT Press dans la collection « Software Studies ».
[4] Voir Bruno Latour, Enquête sur les modes d’existence, Paris, La Découverte, 2012.

Des publications de Norbert Hillaire

  • L’art Numérique, avec Edmond Couchot, Champs Arts (2009)
  • L’art dans le Tout Numérique,  Manucius (2015)
  • La fin de la Modernité sans fin, l’Harmattan (2013)
L’Origine du Monde, 2001, tirage lambda sur diasec avec chassis aluminium, 56 x 46 cm. Reynald Drouhin @Reynald Drouhin, photo utilisée en couverture de L’art Numérique, de Edmond Couchot et Norbert Hillaire, Champs Arts (2009)

Podcast : le ventre de mon ordi

Démonter un ordinateur

Tout le monde a un ordinateur, un smartphone ou peut-être une télé connectée. Tous ces objets ont été créés sur le même modèle, la même architecture. Sans chercher pour le moment à entrer dans le détail du fonctionnement d’un ordinateur, cette vidéo propose d’en démonter un afin d’en montrer les différents éléments, véritables organes d’un ordinateur…

Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

Erwan Kerrien est chercheur en imagerie médicale dans l’équipe Inria MAGRIT. Ses recherches visent à enrichir l’environnement visuel du chirurgien pendant l’opération, par des techniques de vision par ordinateur, réalité augmentée et simulation guidée par l’image. Il est chargé de mission pour la médiation scientifique du centre Inria Nancy-Grand Est et anime de nombreuses initiatives en médiation scientifique. Il est un des concepteurs et auteurs du MOOC ICN.

Pour aller plus loin

Des architectures avancées pour plus de puissance de calcul

  • Le futur de l’ordinateur ? L’ordinateur quantique, Philippe Jorrand, Interstices, 2005
  • Architecture et performance : les super-ordinateurs, Charlotte Truchet, binaire,
  • Les machines d’aujourd’hui et de demain, Albert Cohen,  CanalU, collection Inria Science Info Lycée Profs ; 86 mn. montrant les liens entre la science informatique et l’architecture des ordinateurs
  • Microcontrôleur : Comment ça marche ?SILIS Electronique, 25 févr. 2016 : 5 mn 34
    Tout objet numérique n’a pas un processeur, une carte graphique, un disque dur…, alors pourquoi dit-on que tous ces objets fonctionnent sur le même schéma ? Parce qu’ils intègrent un microcontrôleur, et un microcontrôleur suit la même architecture matérielle. Cette video vous en donne une introduction courte et claire.

Construire une machine Turing

Nous avons reçu un article de Marc Raynaud qui nous fait partager son expérience de la création d’une machine de Turing et son utilisation dans un environnement scolaire. La machine de Turing est un objet à la fois complexe et simple, explorons un peu cet « engin », construit avec des technologies dont aurait pu se servir Turing à l’époque de la publication de son article fondateur. Pierre Paradinas, Cnam.

Crédits Photos sur tout l’article : Marc Raynaud

Construire une machine Turing

Alan Turing a publié en 1936 un article intitulé : « Sur les nombres calculables avec une application au problème de la décision » Dans cet article fondateur de la science informatique, il décrit un dispositif que son maître de thèse Alonzo Church appellera une machine de Turing.

Le principe est extrêmement simple, il suffit de disposer d’un ruban infini, constitué de cases pouvant contenir des symboles. Un mécanisme peut lire, écrire et se déplacer d’une case vers la gauche ou vers la droite. La machine peut changer d’état avec des « transitions’. Sur un exemple de transition, c’est encore plus simple :

  • si la machine est à l’état 3, si elle lit un 1,
  • on peut lui dire : écrit un 0,
  • et déplace-toi d’une case à gauche et passe à l’état 5.

Voilà vous savez tout…

Par exemple, nous pourrions déterminer dans une suite de 0 et de 1 si le nombre de 1 est pair. Pour cela on va utiliser une « bascule » qui représentera le nombre de 1…

À chaque fois que la machine lira un 1, elle passera de l’état q1 à l’état q2 et inversement. Son état (q1 ou q2) à la fin du parcours correspondra à la parité du nombre de 1 rencontrés. On lui dit alors de passer une case et de nous écrire sa réponse sous la forme d’un 1 dans le cas impair et d’un 0 dans le cas pair.

On représente l’algorithme par une table des transitions.

La partie en jaune correspond aux instructions que l’on peut donner à la machine. Elle peut écrire, se déplacer d’une case à gauche ou d’une case à droite et changer d’état. À noter l’état 12 est ici l’état final, il provoque l’arrêt de la machine. Cette table des transitions, nous donne le modèle de feuille de programmation à réaliser sous la forme d’une feuille perforée.

Comment réaliser une « vraie machine »?

Le ruban infini a été replié sur lui-même sous la forme d’un disque qui comprend 100 cases, il n’est pas infini, mais il est quand même assez grand pour notre usage. Le codage binaire correspond à la hauteur de petits cylindres en fer. Le mécanisme d’écriture a été réalisé avec des moteurs Lego qui entraînent des crémaillères (l’asservissement des moteurs a été réalisé avec des cames et des relais, sans électronique). Le mécanisme de lecture pousse une tige par l’intermédiaire d’un ressort, contre les petits cylindres, la position de butée indique au système le symbole écrit. Le comportement de la machine dépend à tout instant de l’état et du résultat de la lecture, pour cela on utilise deux types de mémoire : (i) l’état est mémorisé simplement par la position physique du commutateur des états, (ii) le résultat de la lecture est mémorisé dans un des 3 relais prévus à cet effet. En fait, le schéma électrique général est directement issu du principe donné par Alan Turing.

Principe de fonctionnement

Pour que le système fonctionne, il faut générer des impulsions ! Dans vos ordinateurs, un quartz en produit des milliards par seconde. Ici, on se contente d’une ou deux impulsions par seconde. Elles sont générées par une horloge (le même hardware (matériel)  que le premier ordinateur construit au monde, par Charles Babbage), les impulsions sont dirigées vers les différents organes de la machine. À chaque tour d’horloge on produira une impulsion vers le mécanisme de la lecture, vers les relais sous le lecteur pour renvoyer aux systèmes de déplacement, d’écriture et de changement d’état.
De nombreuses machines et de nombreux modèles de calcul ont été proposés. Il est fascinant de découvrir qu’ils calculent tous la même chose. La machine de Turing dans son extrême simplicité (avec un ruban infini) peut réaliser les mêmes programmes que la machine la plus sophistiquée.

La machine à l’école

Lors de séances dans des classes de lycée la machine permet la recherche d’algorithmes (actions sur les chaînes de caractères, calculs en binaire, division Euclidienne, PGCD, suites numériques,…) avec des tests directement qui montrent la valeur pédagogique à voir un algorithme s’exécuter directement en pas à pas . Quand l’algorithme ne fonctionne pas j’entends souvent la phrase « Ah je vois pourquoi » l’erreur peut être plus formatrice que la réussite !

Présentation de la Machine de Turing au Lycée Lesage à Vannes. © Marc Raynaud
Et utilisation programmation de la Machine de Turing. © Marc Raynaud

Marc Raynaud, Association Rennes en Sciences

Pour aller plus loin:

Podcast : philosophie et numérique

Penser le numérique

Le numérique transforme en profondeur notre monde. Repérer ces transformations, comprendre les principes profonds du monde numérique et les changements de valeurs induits, pour mieux s’interroger sur notre devenir. Une invitation à revisiter les questions traditionnelles de la philosophie sous ce nouvel éclairage …

Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

Alexandre Monnin est docteur en philosophie de l’Université Paris 1 Panthéon-Sorbonne où il a fait sa thèse sur l’architecture et la philosophie du Web*. Il est chercheur dans l’équipe Inria Wimmics et expert Open Data auprès de la mission Etalab sous la responsabilité du Premier Ministre. Il a initié plusieurs projets mobilisant les technologies du Web de données, à l’instar du DBpedia francophone et de Re-Source, le système d’information de la Fondation des Galeries Lafayette pour l’art contemporain.
* Vers une philosophie du Web : le Web comme devenir-artefact de la philosophie (entre URIs, tags, ontologie (s) et ressources). Thèse. Philosophie. Université Panthéon-Sorbonne – Paris I, 2013. Français.  <tel-00879147v3>

Pour aller plus loin

Sur la question de l’Impact écologique du numérique :

Sur le web sémantique

Programmer les yeux fermés

L’apprentissage de l’algorithmique et de la programmation a été inscrit dans les nouveaux programmes. Même si l’accessibilité numérique est une priorité, pour les jeunes qui n’ont pas la vision de la majorité, il n’existait pas encore de solution similaire à celle proposée aux élèves voyants. Sandrine Boissel, maître formatrice et enseignante spécialisée dans la déficience visuelle, a relevé ce défi avec AccessiDVScratch devenu Mall&t’Algo en Main. Donnons-lui la parole. Serge Abiteboul et Thierry Viéville.

Les élèves qui me sont confiés sont mal-voyants et aveugles, scolarisés en inclusion de la 6° à la 3° en ULIS TFV (Unité Localisée pour l’Inclusion Scolaire pour élèves ayant des Troubles de la Fonction Visuelle) au collège et au lycée. J’ai mis au point le dispositif AccessiDVScratch [devenu désormais https://manipulatelearnlooktouch.wordpress.com]qui permet une inclusion active de ces jeunes. C’est un outil qui permet aux élèves déficients visuels de travailler sur Scratch mais qui leur offre aussi la possibilité de devenir les aidants des élèves voyants.

Les origines : Qu’est-ce que la déficience visuelle ? Quel est son impact sur l’apprentissage de l’algorithmique et de la programmation ?

Ce handicap se manifeste de façon très variée, selon les paramètres de la vision atteints (acuité visuelle, champ visuel, perception des couleurs, perception et distinction fond/forme, relations complexes à la lumière…) Entre un élève présentant une acuité visuelle inférieure à 4/10 après correction (seuil légal de la déficience visuelle) et un jeune souffrant de cécité complète la palette est très étendue.

Depuis septembre, les nouveaux programmes de collège mettent l’accent sur l’algorithmique et la programmation. Le logiciel proposé dans les documents d’accompagnement Eduscol est Scratch. Celui-ci n’est pas du tout accessible pour une personne mal-voyante ou non-voyante. En effet, certaines tâches comme déplacer des images, ou emboîter des objets avec la souris (sans les voir, ou en ne voyant qu’une très petite partie de l’espace) n’est pas adaptable.

J’ai également essayé d’en faire une exploration avec un terminal braille Esys et la synthèse vocale NVDA. J’ai seulement réussi à naviguer dans les différents menus. Pour un certain nombre de cases, il est impossible de saisir des valeurs numériques ou encore de faire défiler certains petits menus déroulants. Quant aux images…

Ces quelques photos ci-dessous, simulant quelques pathologies visuelles, vous permettront de vous faire une idée des difficultés rencontrées par ces jeunes sur un écran.

La proposition: Quelles solutions pour accéder à la programmation ? Comment la mettre en œuvre au sein de l’Éducation Nationale ?

J’ai donc mis au point un outil qui se devait d’être inclusif et donc fidèle au logiciel Scratch. C’est ainsi qu’est née la mallette AccessiDVScratch. J’ai adapté toutes les instructions du logiciel en pièces de Lego, sur lesquels j’ai ajouté des gros caractères, du braille mathématique français et des formes géométriques saillantes. J’ai réalisé les nappes à l’aide de scotch d’électricien.

Photo 1 Photo 2
 
 

On ne code donc pas dans le logiciel, mais sous forme d’activité débranchée. J’ai également mis au point trois substituts d’écran en relief qui permettent aux élèves de conceptualiser en amont, de relire leur script, et de toucher le résultat obtenu à l’écran. On va donc manipuler manuellement pas à pas les éléments en suivant les instructions de la construction en légo.

La mallette a été validée par le Ministère le 14 décembre. Nous travaillons depuis à sa fabrication et sa diffusion. Nous envisageons également une application smartphone pour une interaction directe du script AccessiDVScratch et du logiciel Scratch.

Depuis septembre, j’ai cherché ce qui était expérimenté ailleurs (voir comparatif en annexe). J’ai consulté mes autres collègues ULIS TFV en créant une liste de diffusion après des jours de compilation sur les sites des différentes académies. J’ai pu échanger avec certains professeurs de l’INJA. Je fais également partie de l’équipe IREM de Grenoble et j’ai beaucoup discuté avec mes collègues sur l’algorithmique débranchée.
La proposition principale de l’INJA était l’utilisation d’Execalgo. Ce logiciel de programmation linéaire n’est pas compatible avec l’inclusion (tous les autres élèves travaillant sur Scratch). De plus, pour un brailliste débutant, le repérage est très difficile en ayant qu’une ligne sous les doigts. Et pour un élève novice en programmation le suivi de boucle est extrêmement difficile. Pour un élève travaillant en Arial 40 à l’écran les difficultés sont les mêmes…

Mes collègues de l’IREM, les professeurs du collège voudraient une mallette par élève et pas seulement pour l’élève déficient visuel. C’est d’ailleurs ce qu’avait pressenti M. Robert Cabane Inspecteur Général de l’Éducation Nationale lors de la présentation du 14 décembre.

Mes élèves utilisent la mallette AccessiDVScratch depuis 7 mois. Elle leur a permis de faire toutes les acquisitions de cycle 4 et au lycée de programmer des suites numériques et des fonctions. Elle a été acceptée pour le passage des épreuves du brevet de ces élèves cette année.

C’est surtout un outil adapté à tous : aveugles, mal-voyants, troubles dys, troubles mnésiques, élèves « dits ordinaires » permettant de :

  • concevoir des scripts concis et efficaces,
  • raisonner au lieu de procéder uniquement par essai/erreur,
  • conceptualiser et segmenter aisément la problématique d’un exercice grâce au substitut d’écran.

Avec AccessiDVScratch, les aveugles et malvoyants pourront eux aussi acquérir les bases de la programmation informatique, de manière gagnante-gagnante avec les voyants.

Sandrine Boissel, Enseignante spécialisée, Maître formatrice, Conceptrice AccessiDVScratch, Coordonnatrice ULIS déficience visuelle.

Références: AccessiDVScratch a déjà fait l’objet de plusieurs publications (INS HEA, ORNA, CARDIE…) et présentations (EdsupotFrance, APMEP, IREM, INS HEA, Edencast…). On peut avoir accès à toutes ces informations sur le dossier AccessiDVScratch .

Annexe: AccessiDVScratch et les autres solutions.

Les solutions débranchées avec les étiquettes en papier ou les aimants, après les avoir tester, montrent un certain nombre de faiblesses et de lacunes que j’ai comblées avec AccessiDVScratch :

  • Les étiquettes papiers ne sont pas stables à la lecture, le traitement des boucles n’est pas pris en charge.
  • Les aimants sont plus stables mais ne permettent pas d’insérer facilement une instruction (il faut tout décaler). Retirer un ensemble d’instructions pour créer un bloc est très complexe pour la même raison. Le fait de travailler à plat (en 2D) ne permet pas d’avoir une lecture diagonale/séquentielle, ne facilite pas le suivi de boucle, ni leur extension. Cela exclut la possibilité de conserver et de déplacer un morceau de script.

Enfin les scripts ne sont pas suffisamment compacts pour être manipulés facilement ou déplacés près des yeux. Pour terminer, dans ces deux cas, les blocs sont difficilement gérés, et  l’élève ne peut pas isoler ou donner un morceau de son script à son camarade pour lui expliquer sa procédure…. En comparaison les grandes forces d’AccessiDVScratch, sont :

  • un inventaire complet des pièces nécessaires pour répondre aux programmes officiels,
  • sa stabilité à la lecture tactile,
  • la possibilité d’une lecture linéaire sur la face principale et une lecture diagonale/séquentielle sur la tranche droite du script comme on peut le voir sur la photo,
  • la possibilité de rapprocher ou déplacer le programme et de l’avoir en main,
  • la possibilité de conserver des morceaux physiques de scripts,
  • son adaptabilité à tous les niveaux,
  • la prise en charge des facteurs variables, capteurs, de plusieurs blocs différents… La photo 1 montre l’usage des blocs. La photo 2 met en évidence l’usage des variables, l’ajout d’un opérateur, et l’utilisation d’un capteur.
  • sa fidélité à Scratch permettant une inclusion très aisée. En particulier, les couleurs sont conservées pour les voyants ; mais une forme géométrique saillante sur la tranche droite permet au non-voyants de les distinguer très rapidement.
  • l’insertion, modification, comparaison terme à terme simple et rapide. Il suffit en effet de fixer sous le début du script les deux issues possibles côte à côte.
  • des boucles extensibles très faciles à suivre par deux voies possibles (par la nappe côté gauche ou en lecture séquentielle sur la tranche droite) – photo 1
  • un substitut d’écran très performant pour réfléchir aux différents stades. On peut observer son usage dans les différentes vidéos en ligne sur le site indiqué plus bas.
  • et bientôt une application smartphone pour communiquer avec l’ordi.

 

 

Prolog est orphelin

Nous venons d’apprendre le décès d’Alain Colmerauer et il nous semble important de dire quelle était sa place dans le paysage de l’informatique mondiale. Alain est l’inventeur du langage Prolog, qui a joué un rôle clé dans le développement de l’IA, il se trouve que plusieurs binairiens ont programmé avec ce langage, pour leur recherche ou pour payer leurs études ainsi que de proposer des extensions. Un collègue ami d’Alain, Philippe Jorrand, Directeur de recherche émérite au CNRS, nous parle de son parcours. Pierre Paradinas.

Photo : Alain Colemrauer

Alain Colmerauer était un ancien de l’IMAG (Institut d’Informatique et de Mathématiques Appliquées de Grenoble), devenu une personnalité scientifique de premier plan par le rayonnement international de l’œuvre majeure de sa recherche, le langage PROLOG.

Alain Colmerauer était un élève de la première promotion de l’ENSIMAG, diplômée en 1963. Il a débuté sa recherche au Laboratoire de Calcul de l’Université de Grenoble, l’ancêtre du LIG. Dans sa thèse, soutenue en 1967, il développait les bases théoriques d’une méthode d’analyse syntaxique. Puis, pendant son séjour de deux ans à l’Université de Montréal, c’est en imaginant une utilisation originale des grammaires à deux niveaux (les « W-grammaires »), qu’il a établi les bases embryonnaires de ce qui allait devenir PROLOG.

De retour en France en 1970, il accomplit ensuite toute sa carrière à l’Université de Marseille, où il devient professeur. C’est là, au Groupe d’Intelligence Artificielle du campus de Luminy, qu’il forme avec détermination une petite équipe de jeunes doctorants, puis d’enseignants-chercheurs, pour développer la PROgrammation en LOGique. Sous sa direction, c’est ce petit groupe qui a élaboré les fondements théoriques de cette approche originale de la programmation, puis conçu et mis en œuvre les versions successives du langage qui allait connaître un succès international et être la source d’un courant de recherche fertile : PROLOG I, PROLOG II, PROLOG III où les contraintes linéaires venaient rejoindre la logique puis Prolog IV avec une théorie d’approximation plus aboutie, des contraintes sur les intervalles, et un solveur.

Prolog III, manuel de référence, Prologia, Marseille, 1996

Par ailleurs, le langage Prolog sera adopté par le projet d’ordinateur de 5ème génération développé par le MITI au Japon dont l’objectif était de créer une industrie et les technologies de l’intelligence artificielle à la fin des années 80. Une entreprise PrologIA, distribuera le langage dans ses différentes version.

Alain Colmerauer a toujours été un esprit original. Il se défiait de tout ce qui peut ressembler à une pensée unique, et n’hésitait pas à exprimer des idées parfois iconoclastes, mais souvent fécondes. Il croyait à ce qu’il faisait, et sa ténacité lui a souvent été utile face à quelques difficultés institutionnelles et à l’incrédulité de collègues plus installés que lui dans les modes scientifiques. Pour ceux qui l’ont bien connu pendant de longues années, Alain était un ami solide.

Alain Colmerauer est décédé à Marseille, le vendredi 12 mai 2017.

Philippe Jorrand, DR émérite CNRS

Pour aller plus loin :

Podcast : Bitcoin

Du bitcoin à la blockchain.

Le bitcoin est une monnaie planétaire, cryptographique , basée sur un système de transaction et de contrôle peer-to-peer, la blockchain. Comment ça marche ? Quel en sont les enjeux ? Quels liens avec la  sécurité de nos données, ici nos transactions bancaires ? C’est une véritable « révolution numérique  » …

Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

Informaticien et mathématicien, Jean-Paul Delahaye est professeur émérite à l’Université de Lille et chercheur au CRISTAL (Centre de recherche en informatique, signal et automatique de Lille, UMR CNRS 9189). Spécialiste de la théorie de la complexité, il mène aussi des travaux dans le domaine de la modélisation, et s’intéresse à l’utilisation et à la définition du hasard en informatique. Jean-Paul Delahaye a également publié de nombreux ouvrages scientifiques destinés à un large public. Il a reçu le Prix d’Alembert 1998 de la Société Mathématique de France pour Le Fascinant nombre Pi, et le Premier prix Auteur 1999 de la Culture Scientifique du Ministère de l’Éducation Nationale de la Recherche et de la Technologie.

Pour aller plus loin

Mathématiques à rebours

Photo de Ludovic Patey
Ludovic Patey (Crédit : George Bergman)

Il était une fois… la thèse de Ludovic Patey, effectuée à l’Université Paris Diderot, et récompensée par un accessit du prix « Société Informatique de France – Gilles Kahn ». Ludovic a travaillé sur les fondements de la logique : les présupposés nécessaires à un théorème. Est-ce encore de l’informatique ? Et bien oui ! Parce que la logique est (en France) un morceau de l’informatique. Parce que la logique (et ses fondements) permet de faire des assistants de preuves (comme Coq) qui permettent de faire des preuves, mais aussi des programmes corrects par construction. Et avoir un programme zéro-défaut, c’est un rêve d’informaticien… Revenons à nos présupposés de théorèmes et à notre volonté de les réduire. Comment faire en pratique ? C’est là que c’est étonnant, car on retourne le monde : on suppose le théorème et on prouve les présupposés… Sylvie Boldo

Qu’on le veuille ou non, notre quotidien est rempli d’actes de foi. Par exemple, la croyance que les lois de la physique vont continuer à s’appliquer, et que le soleil se lèvera demain. Les mathématiques n’échappent pas à cette règle : un théorème n’est pas une vérité universelle. Il est prouvé à partir d’axiomes. Un axiome est un énoncé mathématique que l’on considère comme vrai, sans autre preuve que son évidence.

Plus une preuve utilise des axiomes forts, moins le théorème aura un caractère consensuel. Certains mathématiciens, les finitistes, refusent l’usage des mathématiques infinitaires, c’est-à-dire les mathématiques qui font intervenir des objets infinis. Par exemple, un nombre réel en général est un objet infini, car il a un nombre de décimales infini après la virgule. Les ultra-finitistes, plus extrêmes encore, considèrent que les nombres trop grands n’ont pas de rapport à la réalité, notamment en raison de la finitude de l’univers. Il est donc essentiel de comprendre sur quels axiomes reposent les théorèmes du quotidien. Les mathématiciens se sont lancés dans cette grande quête, appelée les mathématiques à rebours.

Pour mener à bien ce projet, il a fallu revisiter les preuves classiques de milliers de théorèmes du cœur des mathématiques, et identifier les axiomes utilisés. Mais la tâche ne s’est pas arrêtée là : ce n’est pas parce qu’une preuve utilise des axiomes qu’ils sont nécessaires. Un théorème a souvent plusieurs preuves, certaines avec des axiomes moins forts. Il a donc fallu chercher de nouvelles preuves pour les théorèmes, jusqu’à obtenir les axiomes optimaux. Comment savoir que l’on a trouvé les axiomes minimaux? C’est simple : prenez le théorème comme axiome, et essayez de prouver les énoncés qui servaient d’axiomes. C’est le monde à l’envers …. ce sont les mathématiques à rebours.

Ce projet en est maintenant à un stade avancé, et a révélé un phénomène surprenant : les mathématiques sont très structurées. Plus précisément, l’écrasante majorité des théorèmes requiert des axiomes très faibles, et peuvent être classifiés en cinq grandes catégories, qui correspondent à des courants de pensée connus : le constructivisme de Bishop, le réductionnisme finitiste de Hilbert, le prédicativisme de Weil et Feferman, le réductionnisme prédicatif de Friedman et Simpson, et enfin l’imprédicativité de Feferman. Une grande partie des mathématiques à rebours moderne consiste à essayer d’expliquer ce phénomène, et en particulier comprendre s’il s’agit d’un biais humain, ou si ce phénomène de structure fait partie intégrante des mathématiques. Quelle que soit la réponse, les mathématiques n’auront pas fini de nous surprendre…

Ludovic Patey, @gourk

JavaScript, un langage à la croissance organique

Chez les informaticiens, JavaScript est un langage de programmation à part : enseigné et détesté,  fascinant et dégoûtant, admiré et haï… Pourquoi diable est-il si bizarre ? C’est en grande partie dû à la façon dont il est construit, comme nous explique Alan Schmitt, chercheur à Inria Rennes, qui travaille à essayer de rendre fiables les programmes de ce drôle de langage. Charlotte Truchet

Reproduction du premier site web, sur http://info.cern.ch

Est-ce que vous vous rappelez du web à ses débuts  ? Les choses ont bien changé, n’est-ce pas ? Cette évolution est bien sûr due à la mise en page et la typographie, mais ce n’est pas tout. De nos jours, les pages web sont dynamiques. Elles ne sont pas juste des pages de texte, mais elles incluent aussi des programmes informatiques. On peut même dire que ce sont des applications à part entière, comme des cartes interactives ou des jeux. Une des causes principales de ce changement est un langage de programmation. Il s’appelle JavaScript.

JavaScript est né peu de temps après la création du web, en 1995 pour être précis. Dès sa naissance, JavaScript a montré certains traits de caractère qui font de lui un langage bien à part.

Tout d’abord, les programmes JavaScript sont exécutés dans les navigateurs eux-mêmes (chez vous, sur votre ordinateur) et pas sur le serveur web (le machin en ligne où les pages web sont stockées, loin de chez vous). C’est comme un maître d’école qui donne à ses élèves une feuille avec des points numérotés, et des instructions pour finir le dessin en reliant les points. Chaque élève travaille dans son coin, et le maître peut tranquillement rêver à son bureau. Le maître, c’est le serveur web. Les feuilles, ce sont les pages web. Les instructions, c’est le programme en JavaScript. Et les élèves sont les navigateurs suivant les instructions.

Ceci nous amène à la seconde particularité de JavaScript. Si l’on veut s’assurer que le dessin est le même pour tous, il faut que les élèves interprètent et suivent les instructions de la même manière. C’est pareil pour les navigateurs : ils doivent tous interpréter les programmes JavaScript de la même manière. C’est d’autant plus important qu’il peut y avoir des enjeux de sécurité ou économiques. C’est pour cela que dès 1997 le langage a été standardisé par un document décrivant très précisément comment le langage fonctionne. Ce document est rédigé par un comité de standardisation auquel participent tous les grands acteurs du web, que ce soient les créateurs de navigateurs ou les entreprises utilisant JavaScript.

Crédit Arnaud Gaillard (amarys.com)

Enfin, JavaScript est un langage pragmatique. On dit souvent en comité de standardisation « on ne casse pas le web ». Dès lors qu’une fonctionnalité est utilisée, on ne peut pas l’enlever du standard, même si elle rend le langage compliqué. De la même manière, si tous les navigateurs ajoutent une fonctionnalité, celle-ci sera standardisée. JavaScript grossit ainsi de manière organique, en fonction de son utilisation. C’est pour cela que le standard fait plus de 500 pages et que le langage est si complexe.

Pour résumer, JavaScript est un langage compliqué utilisé pour doper les pages web à l’aide de petits programmes exécutés par notre navigateur. Or, ce même navigateur nous sert à lire notre mail, intervenir sur les réseaux sociaux, déclarer nos impôts, consulter notre compte en banque… Se pose alors la question  : est-ce que ces programmes sont vraiment inoffensifs  ? C’est sur ce problème, bien comprendre ce que font des programmes JavaScript, que porte ma recherche en informatique.

Alors la prochaine fois que vous vous promènerez sur le web, pensez à tous ces petits programmes silencieusement téléchargés et exécutés par votre navigateur. Pensez aussi à toutes les informations personnelles que vous confiez à ce même navigateur. Et demandez-vous ce que les programmes font de ces données. JavaScript étant standardisé, on devrait pouvoir répondre précisément à cette question. Mais ça, c’est une histoire pour la prochaine fois…

Alan Schmitt, Inria Rennes, @brab sur Mastodon

Podcast : le Cloud

Qu’est-ce que le cloud ?

La plupart des gens ont déjà entendu parler du « cloud » ou de « calculer dans les nuages ». Pourtant, peu de personnes savent exactement de quoi il retourne…

Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

Spécialiste des données, de l’information et des connaissances, la recherche de Serge Abiteboul porte notamment sur la gestion d’informations sur le web et la gestion de données personnelles. Ces sujets sont aujourd’hui essentiels face à l’accroissement et à la « massification » des données. Il est directeur de recherche à Inria et professeur affilié à l’Ecole Normale Supérieure de Cachan. Diplômé de Télécom Paris, Serge Abiteboul a obtenu un Ph.D. de l’University of Southern California et une Thèse d’État de l’Université Paris-Sud. Il est membre de l’Académie des Sciences et de l’Académie Europae, du Conseil scientifique de la SIF. Il a occupé la Chaire d’informatique au Collège de France (2011-2012) et la Chaire Francqui à l’Université de Namur (2012-2013). Il a été membre du Conseil National du Numérique (2013-2016). Il est également fondateur du blog invité du Monde.fr, binaire.blog.lemonde.fr, qu’il anime avec des amis : oui oui c’est notre copain !!!

Pour aller plus loin

L’intermédiation algorithmique

Entre nous et les services que nous cherchons sur le Web, entre nous et nos amis, des plateformes se sont installées. De Google, à Facebook, Booking ou Airbnb, elles sont devenues des intermédiaires difficiles à contourner. On parle d’intermédiation algorithmique, et cela conduit à une nouvelle économie des ressources. La disruption est si violente qu’elle inquiète. Stéphane Grumbach, directeur de recherche à Inria Rhones-Alpes, nous explique ce qui est en train d’arriver. Serge Abiteboul

Les conflits entre les grandes plateformes numériques et les territoires se multiplient un peu partout dans le monde. La société Uber, emblématique des disruptions sociales en cours, affiche un tel palmarès en la matière, qu’un substantif nouveau, « ubériser », est apparu dans le langage politique, pour désigner le basculement sur une plateforme globale d’activités autrefois assurées par des entreprises locales. De nombreuses activités économiques, tout comme une partie des services de l’État, pourraient être rapidement touchées par l’ubérisation.

Mais que font ces plateformes et pourquoi sont-elles si efficaces et si disruptives ? La réponse est somme toute assez simple. Les plateformes assurent la mise en relation de personnes entre elles, et tout particulièrement de celles qui recherchent un service avec celles qui le produisent. L’exemple le plus connu est celui du voyageur avec un équipage, chauffeur et voiture, une intermédiation qu’assure précisément Uber.

L’intermédiation est une activité essentielle au fonctionnement de toute société. Au niveau individuel, recourir à des soins, obtenir un prêt d’une banque, organiser un voyage et plus généralement acheter des biens sont autant d’activités courantes qui font appel à des intermédiaires. Ceux-ci disposent des connaissances nécessaires à la fois à l’identification des acteurs potentiels ainsi qu’à leur mise en relation au moment opportun.

L’intermédiation est donc une opération de traitement d’information et de gestion de réseaux, deux domaines où les nouveaux acteurs du numérique excellent. On comprend  donc pourquoi les plateformes bouleversent tant cette activité, qui dépend de manière si cruciale des données et qui est littéralement entraînée par la puissance de leur traitement algorithmique. Mais la maîtrise des données n’est pas la seule raison pour laquelle nous assistons à une révolution si importante dans et par l’intermédiation.

Ces dernières années, le prix Nobel d’économie a été décerné à plusieurs reprises pour des travaux directement en lien avec ces questions, preuve s’il en était besoin de l’importance du sujet aujourd’hui. On retiendra en particulier Jean Tirole en 2014 pour des travaux sur la régulation des marchés bifaces, ou Alvin Roth en 2012 pour des travaux sur le fonctionnement des appariements bifaces, comme les élèves dans les écoles.

Ce qu’a rendu possible le numérique, c’est l’apparition d’opérateurs hors sol, qui ne proposent pas eux-mêmes de services, mais seulement la mise en relation, et qui peuvent opérer sur tous les territoires, sans y appartenir. Cette subite indépendance entre l’intermédiaire et le fournisseur du service a permis d’élever le niveau d’abstraction des services, qui ne sont plus liés à une solution particulière, offrir ainsi le service de déplacement d’un point à un autre satisfaisant au mieux certaines contraintes, indépendamment du mode de transport.

Les plateformes permettent de surcroit de personnaliser le service sur la base de la connaissance extensive de leurs utilisateurs, ainsi que de recommander d’autres services, sur la base de la connaissance des autres utilisateurs. Enfin, elles permettent le développement d’une confiance horizontale assurée par les pairs, les autres utilisateurs, et non plus verticalement par une institution. C’est ce qui permet le covoiturage par exemple.

La table sur « l’intermédiation algorithmique » à l’exposition Terra Data

Cet ensemble de transformations dans l’intermédiation est profondément disruptif. Il redéfini les modalités de l’organisation du travail par exemple. Mais force est de constater qu’il ne se produit pas à un moment quelconque de l’Histoire, mais précisément quand la conscience des changements de la planète et de la limitation des ressources s’affirme, ce qui impose à la fois de les gérer autrement et de les partager au mieux. Or c’est justement ce que permet cette nouvelle forme d’intermédiation plus abstraite.

L’économie du partage est permise par les plateformes d’intermédiation algorithmique qui se multiplient rapidement dans de très nombreux secteurs économiques, qui toucheront petit à petit toutes les ressources. Dans le domaine de l’énergie, qui constitue une très bonne illustration des nouvelles formes d’échange, nous passerons d’un producteur/distributeur national essentiellement unique et fiable, à une multitude de producteurs instables presque aussi nombreux que les consommateurs. L’intermédiation permettra de distribuer au plus près l’énergie, en adaptant les conditions en fonction de l’offre et de la demande, en exploitant au mieux les niches, tout en satisfaisant les besoins  et les infrastructures critiques de la société.

Les dispositifs politiques, juridiques, économiques, etc. devront s’adapter à ces nouveaux modes de contrôle et de normalisation imbriqués portés par des plateformes d’intermédiation hors sol, qui imposent de revoir les notions même de territoire et de frontière, pour considérer des espaces complexes, des réseaux, traversés par des structures de dimensions variables, et sur lesquels repose la technosphère que nous maintenons et dont nous dépendons.

Stéphane Grumbach, Inria & ENS Lyon

L’exposition Terra Data, Cité des Sciences, La Villette

Pour en savoir plus:

  • Qu’est-ce que l’intermédiation algorithmique ? Stéphane Grumbach.
    1024–Bulletin de la société informatique de France 7 (2015)
  • La sphère des données et le droit : nouvel espace, nouveaux rapports aux territoires, Jean-Sylvestre Bergé, Stéphane Grumbach.
    Journal du droit international, Clunet, n° 4, Octobre 2016, var. 6
  • L’intermédiation algorithmique, pourquoi maintenant ?  Stéphane Grumbach, Olivier Hamant, Revue Multitudes 69 (2017)
  • L’intermédiation algorithmique. Film réalisé par Pascal Goblot, 6mn.
    Terra Data, Nos vies à l’ère du numérique.  Exposition de la Cité des sciences et de l’industrie. Du 4 avril 2017 au 7 janvier 2018

Terra Data, qu’allons-nous faire des données numériques ?

L’exposition «Terra Data, nos vies à l’ère du numérique» a ouvert ses portes à la Cité des sciences et de l’industrie. Que dire pour vous donner envie de visiter cette exposition ? Une amie de binaire, Christine Leininger, nous la fait visiter. Thierry Vieville. Ce billet est repris du site pixees.fr

Lors de l’inauguration, Bruno Maquart, président d’Universcience, a souligné dans son discours combien rendre le numérique tangible dans une exposition était un défi. Venez voir par vous-mêmes comment les commissaires d’exposition, Pierre Duconseille et Françoise Vallas, ont relevé ce défi !

Dans un espace délimité par de grands miroirs, vous serez accueilli par le commissaire scientifique de l’exposition, Serge Abiteboul, ou plutôt sa vidéo quasiment grandeur nature.

Vous créerez votre parcours autour d’une trentaine de grandes tables carrées regroupées selon quatre thèmes : Les données, qu’est-ce que c’est ? Comment les traite-t-on ? Qu’est-ce que ça change ? Où ça nous mène ?

Vous pourrez ainsi expérimenter plusieurs algorithmes pour faire un nœud de cravate, plonger dans l’Histoire de Venise, découvrir où les données provenant de chaque pays sont stockées…

 
Vous pourrez aussi vous initier au datajournalisme et à la datavisualisation…

Vous pourrez encore revoir votre parcours dans l’exposition à partir du traçage de votre smartphone, vérifier que votre visage photographié à l’entrée est reconnu…

 

 
Vous êtes enseignant ? Une page web spécifique vous est dédiée.

 

 

 

Nous vous souhaitons une bonne visite !

Pour en savoir +

Christine Leininger

 

Podcast : le Web social

Comment le web est devenu social ?

Le Web social, connu aussi sous le nom de Web 2.0, a transformé les usages. Aujourd’hui, plus d’une dizaine de réseaux sociaux ont dépassé les 100 millions d’utilisateurs ; Wikipédia est une gigantesque encyclopédie construite par ses propres utilisateurs. Comment le Web a évolué d’un Web documentaire à un Web social ? Comment ont émergé les réseaux sociaux qui sont au cœur du Web 2.0 ? Des chercheurs tentent de répondre à ces question et modélisent les usages sociaux du Web…

Cette vidéo est un des grains de culture scientifique et technique du MOOC sur l’Informatique et la Création Numérique. La vidéo a été réalisée par Manhattan Studio Production.

Fabien GANDON est directeur de recherche chez Inria et responsable de l’équipe Wimmics (Université Côte d’Azur, Inria, CNRS, I3S) qui étudie des modèles et algorithmes pour concilier le Web social et le Web sémantique. Il est aussi représentant d’Inria au consortium international de standardisation pour le Web (W3C).

Pour aller plus loin

Qwant, aux armes citoyens !

Qwant est une start-up française qui propose un moteur de recherche du web. Google domine tellement ce marché. Y-a-t-il de la place pour un autre concurrent ? D’autres y sont bien arrivés comme Baidu en Chine et Yandex en Russie. Mais ce sont les résultats de choix politiques, dans des pays où la liberté du commerce est hésitante. Est-ce possible en France ? En Europe ? Nous pensons que oui. Voyons comment.

Un moteur de recherche compétitif techniquement

La technique informatique pour construire un moteur de recherche est maintenant bien connue. Les moyens matériels nécessaires – des data centers – sont devenus standards. Il faut « juste » d’excellents ingénieurs et de solides moyens financiers. Les ingénieurs sont là. Quant aux capitaux, la société vient de lever 18,5 M€ auprès de la Caisse des Dépôts et du groupe de médias allemand Axel Springer – ce dernier ayant eu par le passé des différends avec Google sur l’utilisation d’extraits de ses articles sur Google News. Avec en sus 20 M€ d’un prêt de 2015 de la Banque européenne d’investissement encore disponibles, Qwant a de quoi voir venir.

Qwant est un moteur de recherche relativement classique : des robots parcourent le web pour découvrir des pages intéressantes et indexent le contenu de ces pages. Vous posez une question, et Qwant vous propose « des » pages qui contiennent ces mots.

Le classement des résultats, c’est l’art du domaine. Si les pages intéressantes ne sont pas dans les premiers résultats, l’internaute passera à un autre moteur. Qwant utilise, comme les autres, une combinaison de critères : PageRank (introduit par Google) qui classe chaque page suivant sa popularité dans le graphe du web (c’est-à-dire la galaxie de liens qui relient les pages web les unes aux autres), un classement qui s’appuie sur la manière dont la page est référencée, le contenu de la page : si le texte “près” d’un pointeur vers une page contient le mot “Romorantin”, il est raisonnable de penser que la page parle de Romorantin. Une particularité de Qwant est de tenir compte également de ce qui se dit dans les réseaux sociaux comme Twitter et Facebook. Cela permet notamment au moteur d’être réactif en tenant compte de l’actualité : vous auriez cherché “Barcelone” il y a peu, Qwant vous aurait suggéré des résultats d’actualités concernant le Mobile World Congress en journée, et à l’inverse sur le célèbre club de foot en soirée.

Un petit bout du Web autour de Wikipédia. Wikipédia.

Sans entrer dans les détails, les résultats de Qwant peuvent satisfaire un internaute, ce qui est indispensable pour ne pas finir dans les poubelles glorieuses de l’Histoire. La page de résultat est différente de celle de Google, moins épurée, plus riche, plutôt efficace avec ses trois facettes : recherche du web, actualités et réseaux sociaux.

Développer un tel moteur coûte cher en machines et en gestion de ces machines. Très grossièrement, pour indexer deux fois plus de pages, il faut deux fois plus de machines qui indexent. Si le nombre d’internautes qui utilisent Qwant double (ce que nous leurs souhaitons régulièrement), il faut doubler le nombre de machines qui travaillent à calculer les réponses aux requêtes. Les pics de requêtes constituent d’ailleurs l’une des difficultés majeures pour tout moteur de recherche, à l’image de la horde de nombreux lecteurs qui se précipiteront pour essayer Qwant après la parution de cet article, et une plus grosse affluence encore quand Qwant passera au JT de TF1 ou de France 2.

Qwant Junior, pour les enfants, évite la violence et la pornographie, recommande la science et la culture. Validé par l’Éducation nationale qui souhaite que les écoles et collèges le privilégient.

Une difficulté supplémentaire réside dans le changement d’échelle du service. Pour une analogie, considérons une entité (entreprise, administration, etc.) qui gère un millier d’employés et fonctionne parfaitement. Si cette structure se développe et passe à dix mille employés, il vous faudra sans doute revoir son organisation. Et bien, c’est pareil pour un service logiciel, quand il change d’échelle (multipliant par exemple par 10 le nombre de ses serveurs), son organisation demande le plus souvent à être reconçue.

S’il est encore loin de Google en volume de pages, le moteur de Qwant joue d’ores et déjà dans la cour des grands, avec 2,6 milliards de requêtes reçues l’année passée, simplement via le bouche à oreille. Il indexe aujourd’hui plus de 200 millions de pages par jour, ce qui le place, par exemple, dans la même ligue que Yandex. Il est bien implanté en France (déjà 2% de « parts de marché » chez nous) et en Allemagne, et s’attaque à de nouvelles langues et de nouveaux pays, avec par exemple un développement rapide en Italie, en Espagne… et même au Brésil. Chaque pays est un défi : il faut comprendre les requêtes les plus populaires du pays, et comment « cliquent » les internautes. C’est ce qui va enrichir le classement des résultats, un passage obligé pour « satisfaire » l’internaute. On comprend donc mieux pourquoi « l’installation » dans un nouveau pays nécessite 4 à 6 mois de rodage.

Incohérent ou cohérent ? Il faut soutenir Qwant. Incohérent car l’ambition est démesurée, les moyens minuscules si on les compare aux moteurs de recherche d’Alphabet ou Microsoft. Incohérent aussi car c’est l’occasion de questionner nos usages sans privilégier la facilité ou l’efficacité immédiate et donc gagner en maîtrise. Cohérent toutefois car nous avons enfin l’occasion de tester un service que nous étions nombreux à appeler de nos vœux : alternatif, performant, pensé et développé « bien de chez nous ». Stéphane Distinguin, Président du pôle de compétitivité Cap Digital

Pourquoi Qwant

Tout cela représente énormément de travail, des investissements lourds. Pourquoi l’internaute changerait-il ses habitudes quand, finalement, Google répond assez bien à ses besoins ?

Quand vous allez sur un moteur comme Google, vous êtes fliqué. Le moteur de recherche garde toutes les informations qui vous concernent. C’est un peu pour vous aider avec des réponses personnalisées. C’est beaucoup pour vous proposer des publicités ciblées. Et un peu aussi pour monétiser vos informations personnelles. C’est inquiétant car cela ouvre la porte à des manipulations dans les résultats. Le moteur peut le faire pour favoriser commercialement certains services ; Google a d’ailleurs été poursuivi pour cela par le Communauté européenne. Le moteur pourrait aussi favoriser le soutien ciblé de points de vue politiques, religieux… Et puis la personnalisation peut nous figer dans nos opinions, nos choix, nos communauté, chacun se retrouvant alors enfermé dans sa propre « bulle informationnelle ».

Depuis ses débuts, Qwant n’a jamais dévié d’un principe fondateur : ne garder aucune information sur l’internaute. C’est dans l’ADN de l’entreprise. Et c’est déjà une bonne raison pour changer de moteur de recherche.

Qwant est plus réservé sur une autre valeur éthique : la transparence. Nous avons posé la question à Eric Léandri, un spécialiste de sécurité et de moteurs de recherche, CTO de Qwant : pourquoi ne pas rendre public l’algorithme de classement ? Eric nous a répondu : « le cœur de notre classement, l’algorithme « Iceberg », est déjà public. Tout ne l’est pas pour rendre plus difficiles les tentatives de manipulation de notre classement. » Bon, c’est aussi l’« excuse » utilisée par Google. Mais Qwant ne manipule pas le classement de ses résultats et cela est vérifiable « de l’extérieur ». De plus, Eric ajoute que leur équipe travaille sur des techniques (basées sur la blockchain) pour solidifier suffisamment la technique de classement, pouvoir la rendre public et la distribuer.

Les moteurs de recherche ont pris une importance considérable dans nos vies. C’est à travers eux que la plupart du temps nous nous informons. C’est par leur entremise que nous réalisons une part de plus toujours plus conséquente de nos achats. Quand l’un d’entre eux, par exemple Google, capture la quasi-totalité de ce marché en Europe et accumule des volumes d’information considérables sur les internautes, il est des raisons de s’inquiéter de risques de réduction de nos libertés et de possibles distorsions de l’économie. C’est pour cela que certains acteurs, comme le Conseil national du numérique dans un rapport de 2014, prônent la neutralité de telles plateformes. Chacun comprend d’autant mieux ce qui pousse des acteurs européens, Etats comme entreprises, à soutenir Qwant dans son développement.

Tout cela a de quoi susciter l’enthousiasme, mais point de salut pour Qwant sans source de revenus suffisante… et en même temps compatible avec ses engagements. Quel modèle économique peut résoudre l’équation ? L’affiliation simple. Les internautes trouvent un classement neutre des réponses, la société tire ses revenus de liens sponsorisés, en toute transparence. Ces annonces sont séparées du reste des réponses et ne concernent que le shopping (30% des requêtes en moyenne).

A une époque pas si lointaine, c’est le modèle qui suffisait à faire la richesse de Google, comme nous l’explique Eric Léandri : « c’est le vieux truc, le business model du Google du début des années 2000, celui qui marchait bien. » Et puis Google peu à peu s’est transformé, en construisant un univers particulier, une alternative privée au web public. La firme de Mountain View n’est pas la seule à vouloir « privatiser » le web. Si nous insistons ici surtout sur cette société, c’est que nous parlons moteur de recherche. Pour les réseaux sociaux, nous parlerions de Facebook, pour les applications mobiles d’Apple, pour l’hôtellerie de TripAdvisor…

Il est vraiment rafraîchissant de voir un moteur de recherche alternatif décoller en Europe. Non seulement il est mauvais de dépendre d’un seul acteur en situation de monopole, mais en plus Google est financé par la publicité ciblée et il piste donc tous ses utilisateurs, contrairement à Qwant. Je souhaite donc à Qwant un immense succès ! Tristan Nitot, fondateur de l’association Mozilla Europe, désormais chez Cozy

Vous pouvez le faire !

Des intérêts commerciaux tout à fait compréhensibles poussent les grandes entreprises du  web à se construire des domaines particuliers, à y capturer les internautes. L’intérêt collectif est de promouvoir un web universel et libre. Pour ce faire, les Etats disposent de lois et des règlements, mais qui sont lents à adopter et complexes à mettre en oeuvre. L’internaute est le client et le client est roi. Non ? Les grandes entreprises aussi puissantes qu’elles puissent nous paraître dépendent de nous. Nous disposons, chacun d’entre nous, d’une arme simple et efficace : « notre bon vouloir ». Alors arrêtons de nous lamenter sur les menaces sur nos vies privées que présenterait tel ou tel service ! Arrêtons d’attendre que quelqu’un résolve les problèmes à notre place ! Choisissons !

Vous pouvez aller, dès aujourd’hui, sur votre navigateur préféré et choisir Qwant.com comme moteur de recherche par défaut ! (Faites-vous aider s’il le faut.) Qwant vous ouvrira les portes du web. Qwant ne vous fliquera pas. Qwant est européen et paie ses impôts en Europe.

Nous l’avons déjà fait. A vous !

Serge Abiteboul, Inria et ENS Paris, Tom Morisse, FABERNOVEL

PS : précisons pour prévenir des remarques de certains lecteurs que :

  • nous n’avons aucun intérêt quelconque dans Qwant, et
  • nous sommes conscients que ce ne sera pas facile pour Qwant.

Mais nous vous proposons de croire, avec nous, que c’est possible.