Un écoulement de Pokémons

Crédits : Lonni Besançon.

Il était une fois… la thèse de Lonni Besançon, effectuée à l’Université Paris Sud à l’INRIA et au laboratoire LIMSI-CNRS. Lonni s’est inspiré du système interactif du célèbre jeu Pokémon GO pour améliorer la visualisation de données, par exemple pour la mécanique des fluides. Non seulement le mécanicien manipule ses données comme on attrape un Pokémon, mais il peut même courir dedans, encore plus vite qu’un joueur ! Charlotte Truchet

Connaissez-vous Pokémon GO ? Mais si ! Ce jeu sur smartphone pour capturer des créatures virtuelles. Le jeu utilise les capteurs du téléphone pour savoir où vous êtes localisé et vous demande ensuite d’utiliser l’écran tactile pour capturer les petits monstres. Il est donc possible d’interagir de façon ludique et efficace avec du contenu virtuel dans notre monde 3D grâce à la combinaison des mouvements d’un appareil et des interactions tactiles.

Les scientifiques doivent souvent visualiser et analyser des données 3D. Pendant ma thèse, j’ai tenté d’appliquer le principe de Pokémon GO à ces visualisations de données pour en faciliter la compréhension.

Sélection de données en 3D. Crédits : Lonni Besançon

Je me suis d’abord concentré sur la mécanique des fluides, domaine dans lequel les experts manipulent leurs données en 3D et en explorent la structure grâce à des plans de coupe. Comme pour la capture de Pokémons, ils doivent interagir avec certains paramètres, ce qui est plus facile avec un écran tactile. Mon approche associe donc l’interaction tactile en plus des mouvements d’une tablette. Pour cela, il s’agit de combiner d’une part l’écran tactile et d’autre part les données recueillies par l’appareil photo et les capteurs de la tablette. Comme l’a démontré Pokémon GO, cela permet de revenir à une façon très naturelle, pour nous humains, d’interagir avec le monde : avec nos mains. Les mécaniciens ont testé mon système et l’ont trouvé plus flexible et plus intuitif que leurs actuels souris et claviers.

De la 2D à la 3D. Crédits : Lonni Besançon.

En visualisation, une tâche essentielle et difficile est la possibilit�� de sélectionner, dans un univers 3D, une partie des données afin d’en faire une analyse plus ciblée. Cela devient possible avec mon approche combinée. L’utilisateur trace d’abord une forme 2D sur l’écran tactile. Il la prolonge ensuite en 3D en utilisant les mouvements de la tablette. Cette technique permet aux scientifiques de sélectionner des volumes arbitraires de données.

Dans Pokémon GO, si une créature apparaît à 1km de votre position, il faut marcher 1km pour la capturer. Les scientifiques ont le même soucis quand ils manipulent des données extrêmement petites/grandes. Mais pourrait-on faire correspondre un pas à plusieurs centaines de mètres pour s’y rendre instantanément, avant de revenir à une vitesse normale ? Pour ce faire, j’utilise un autre type d’information donnée par l’interaction tactile : la pression, combinée à la détection de mouvement d’une tablette. J’ai placé des capteurs de pression à l’arrière de la tablette : plus on appuie fort, plus on se déplace loin. Cela permet à l’utilisateur d’affiner la rapidité et la précision des mouvements de son appareil.

Finalement, ce que j’ai montré dans ma thèse, c’est que des combinaisons d’interactions via des appareils mobiles permettent d’interagir avec des données scientifiques de façon efficace et naturelle, avec des outils qu’on a l’habitude de manipuler au quotidien.

Lonni Besançon

Twitter : @lonnibesancon

Youtube : https://www.youtube.com/channel/UCj_hPBp9iFcJhzN_j5Dpiwg?view_as=subscriber

Comment ne jamais perdre au loto ?

Connaissez-vous )i(nterstices ?

Oui ?  Alors vous avez de la chance parce que c’est une revue de  culture scientifique en sciences du numérique avec des articles écrits par les chercheuses et les chercheurs eux-mêmes,  un vrai contact direct entre la recherche et le public.

Non ? Alors, allez vite le visiter et dégustez !

Aujourd’hui, nous avions envie de partager avec vous un article d’Interstices qui aborde la notion de choix en partant du très célèbre jeu du Loto. Savez-vous ce que peut penser un scientifique du fait de jouer au loto ? Que cela permet de payer les impôts supplémentaires ?  Certes, mais c’est un tout petit peu plus drôle que ça … Laissons la parole à Gérard Berry et Jean-Paul Delahaye qui nous racontent une histoire presque vraie : jouer-ou-ne-pas-jouer-au-loto-telle-est-la-strategie

Bonne lecture !

Tamara Rezk et Thierry Viéville.

Art et Informatique : fertilisation croisée

Musique, photographie, cinéma, danse, théâtre, autant de domaines artistiques dont les pratiques ont évolué sous l’impulsion du numérique, mais qu’en est-il de la question symétrique : les arts font-ils progresser les Sciences du numérique ? Pour nous éclairer sur ces questions et les illustrer avec quelques exemples, nous avons interrogé Martin Hachet (chercheur Inria à Bordeaux) qui s’y intéresse depuis longtemps. Pascal Guitton

Le numérique au service de l’Art

Les sciences du numérique ont d’abord permis un accès rapide et efficace à des œuvres artistiques. En particulier, les méthodes de compression audio et vidéo (par exemple JPEG, MPEG), issues de travaux de recherche en informatique et en traitement du signal, ont favorisé une diffusion large de créations artistiques, qui elles même ont inspiré de nouvelles créations. Au-delà du support de l’œuvre artistique, l’outil numérique a permis aux artistes d’explorer de nouvelles dimensions qui viennent compléter les supports d’expressions traditionnels. On peut notamment citer la musique électro (qui est aujourd’hui beaucoup plus informatique qu’électronique) ou l’animation 3D. Dans sa thèse, Florent Berthaut a par exemple exploré comment la réalité virtuelle pouvait offrir à des musicien·ne·s de nouveaux outils de création, et comment ces outils pouvaient offrir au public de nouvelles expériences audio-visuelles immersives.

Drile, instrument de musique virtuel développé dans le cadre de la thèse de Florent Berthaut.

[Photo Florent RV – Music]

 

 

Le numérique permet aussi de faciliter l’accès à un processus de création artistique à des non-experts. Aujourd’hui, avec des logiciels de musique, de dessin, ou de traitement vidéo,  des utilisateurs novices arrivent à s’exprimer rapidement, alors que ces pratiques ont longtemps été réservées à des initiés. Bien-sûr, l’artiste en herbe ne rivalisera pas avec les artistes confirmés, ce n’est pas le but, mais en brisant la barrière du long apprentissage technique (par exemple solfège, puis doigté sur un manche de guitare) on lui offre un premier accès à la création artistique, plus rapide et plus large.

Art numérique vs. Art physique

Le numérique a fait évoluer les supports physiques dans de nombreux domaines artistiques. C’est notamment le cas de la photographie où les utilisatrices de l’argentique sont aujourd’hui de moins en moins nombreuses. Mais le numérique n’a bien sûr pas vocation à s’immiscer dans tous les domaines artistiques. Ressentir le son d’un souffle dans un basson, ou contempler un coup de pinceau sur une toile de maître, se fera toujours en laissant le numérique de côté. Si Art numérique et Art physique ont souvent évolué de façon séparée, ils ne doivent pas être opposés. Plusieurs expériences ont montré qu’il était intéressant de mélanger les approches numériques et les approches plus traditionnelles dans des même espaces hybrides. C’est notamment le cas des créations du Cirque Inachevé avec lequel nous avons collaboré[1], qui mélangent les Arts du cirque avec les Arts numériques (projection, contrôle de drones). Dans l’équipe Potioc, nous explorons également des approches basées sur la réalité augmentée spatiale et l’interaction tangible pour créer des environnements hybrides qui visent à favoriser la création artistique, ou à offrir de nouvelles expériences sensorielles et cognitives aux spectateur·trice·s. Par exemple, dans le cadre de notre travail1 avec la scénographe et plasticienne Cécile Léna, nous cherchons à enrichir ses maquettes physiques avec de la projection de contenus numériques interactifs. Les maquettes permettent de s’immerger dans l’univers de l’artiste au travers de spectacles miniatures. De son côté, la projection numérique vient augmenter, de façon subtile, des supports physiques (par exemple un billet de train dans La Table de Shanghaï illustrée ci-dessous)  et va permettre aux spectateur·trice·s de tenir un rôle actif dans la découverte de cet univers. Cela ouvre la voie à de nouvelles formes de narrations. On peut trouver de tels exemples dans les actes de conférences scientifiques telles que NIME – New interfaces for Musical Expression.

Projection d’une vidéo sur un ticket de train dans la Table de Shanghaï.

Photo ©Fréderic Desmesure

 

 

Mais quid de l’Art au service du numérique ?

Au travers de quelques exemples, nous avons pu voir comment le numérique pouvait servir aux pratiques artistiques. Les arts peuvent-ils rendre la politesse en servant le numérique ? Tout d’abord, de nombreux résultats de recherche en informatique ont été motivés par le domaine artistique. C’est notamment le cas de la compression audio/vidéo. A partir d’applications concrètes et directes, les chercheur·e·s sont invités à imaginer et à mettre au point des algorithmes de plus en plus performants. Ensuite, l’exploration de nouveaux espaces d’expression conduit les chercheurs à se confronter à des questions qui n’avaient jusque-là pas été posées. Pourtant, on entend parfois dire que les approches Art et sciences ne sont pas très rigoureuses, et les chercheu·r·e·s sont parfois invité·e·s à se concentrer sur des problèmes industriels « complexes et plus sérieux ». Je pense au contraire que la recherche numérique dans le domaine de l’Art est très exigeante, et non moins « utile ». Par exemple, dans le cas de la performance artistique live basée sur des technologies numériques, les scientifiques vont chercher à dépasser les limites des approches existantes malgré de fortes contraintes de temps réel. Ainsi, il n’est pas acceptable d’avoir le moindre délai entre le geste d’une musicienne et la génération du son associé, ce qui demande de concevoir des systèmes interactifs complexes (cf. l’interview d’Arshia Cont dans Binaire). A l’inverse, un léger délai dans de nombreux autres logiciels n’a en général que peu d’impact. La composante humaine est primordiale dans tout processus artistique, à la fois du point de vue de l’artiste et du point de vue du public. Or, qu’y a-t-il de plus complexe que la composante humaine dans tout processus interactif ? Les efforts de recherche dans les domaines artistiques, et les résultats obtenus sur ce sujet, peuvent servir dans d’autres contextes, et percoler largement dans la société.

La place  des émotions 

A priori, l’Art va viser la création d’émotions, alors que la science va se concentrer sur la création de connaissances. Mais cette dualité n’est pas si binaire. L’émotion qui est recherchée en Art peut aussi être un ingrédient fondamental dans des problèmes de recherche. Par exemple, dans le domaine de l’éducation, de nombreuses recherches s’intéressent à améliorer les processus d’apprentissage des élèves grâce à l’introduction du numérique. Or, nous savons que l’engagement et les émotions positives jouent un rôle important dans les mécanismes d’apprentissage.  Pour optimiser les questions d’apprentissage, le ou la scientifique a donc tout intérêt à s’intéresser de près à la question de l’esthétique qui servira de levier pour stimuler les émotions favorables aux objectifs visés. Cette dimension artistique pourra ainsi favoriser la construction de connaissances scientifiques fondamentales. Scientifiques et artistes ont donc beaucoup à gagner à travailler ensemble.

Martin Hachet (Directeur de recherche Inria, responsable de l’équipe-projet Potioc)

[1] Collaboration soutenue par le programme Art et Sciences de l’Idex – Université de Bordeaux

À la recherche du logiciel parfait

Le Collège de France accueille la nouvelle chaire « Sciences du logiciel » avec Xavier Leroy, Directeur de recherche chez Inria. Xavier Leroy est un spécialiste des nouveaux langages et outils de programmation, ainsi que de la vérification formelle de logiciels critiques afin de garantir leur sûreté et leur sécurité. Une des réalisations de Xavier Leroy et de son équipe est le compilateur CompCert qui possède une preuve mathématique de bon fonctionnement.  C’est un véritable tour de force qu’il était même difficile à imaginer avant qu’ils ne le réalisent. La leçon inaugurale aura lieu le 15 novembre à 18:00. Je ne peux que vous encourager à y assister et à podcaster les autres leçons d’informatique sur le site du collège. Serge Abiteboul
Xavier Leroy © Inria / Photo G. Scagnelli

Le logiciel, entre l’esprit et la matière

C’est une évidence, l’informatique est aujourd’hui partout : au bureau, à la maison, dans nos téléphones ; au cœur des réseaux de communication, de distribution, d’échanges financiers ; mais aussi, de manière plus discrète car enfouie dans les objets du quotidien, dans les véhicules, les cartes de paiement, les équipements médicaux, les appareils photo, les téléviseurs, l’électroménager et jusqu’aux ampoules électriques, qui elles aussi deviennent « connectées » et « intelligentes ».

Grace Hopper en contribuant à la création de compilateurs qui traduisent le logiciel en langage machine a permis l’explosion du logiciel. ©wikicommon

Cette explosion de l’informatique doit beaucoup aux immenses progrès de la micro-électronique, qui débouche sur la production en masse d’ordinateurs et de systèmes sur puce toujours plus puissants à coût constant, mais aussi à l’incroyable flexibilité du logiciel qui s’exécute sur ces systèmes. Reprogrammable à l’infini, duplicable à coût zéro, libéré de presque toute contrainte physique, le logiciel peut atteindre une complexité hallucinante. Un navigateur Web représente environ 10 millions de lignes de code ; le logiciel embarqué dans une voiture moderne, 100 millions ; l’ensemble des services Internet de Google, 2 milliards.  Qu’un assemblage de 2 milliards de choses toutes différentes, conçues par des milliers  de personnes, fonctionne à peu près, est sans précédent dans l’histoire de la technologie.

Revers de cette flexibilité, le logiciel est aussi extrêmement vulnérable aux erreurs de programmation : les bugs tant redoutés et leur cortège de comportements étranges, de plantages occasionnels, et de mises à jour incessantes. Les failles de sécurité produisent des dégâts considérables, de la demande de rançon à la fuite massive d’informations personnelles. Les libertés fondamentales sont menacées par la généralisation de la surveillance informatique et la manipulation d’élections.

Sur ces problématiques, les sciences du logiciel apportent un regard objectif, rigoureux, et fondé autant que possible sur les mathématiques. Quels algorithmes utiliser ? Comment garantir qu’ils sont corrects et efficaces ? Comment les combiner sous forme de programmes ? Dans quels langages exprimer le programme ? Comment compiler ou interpréter ces langages pour les rendre exécutables par la machine ? Se prémunir contre les erreurs de programmation ? Vérifier que le programme final est conforme aux attentes ? Qu’il n’a pas de comportements indésirables menant à une faille de sécurité ? Voilà des questions élémentaires, qui se posent à tout développement logiciel, et auxquelles les sciences du logiciel cherchent à apporter des éléments de réponse mathématiquement rigoureux, de l’analyse d’algorithmes à la sémantique des langages de programmation, des spécifications formelles à la vérification des programmes.

Concevoir des logiciels corrects

Les sciences du logiciel nous enseignent qu’un fois donnée une sémantique aux langages de programmation utilisés, tout programme correspond à une définition mathématique : on peut raisonner sur le comportement du programme en démontrant des théorèmes à partir de cette définition ; on peut aussi s’efforcer de synthétiser un programme « correct par construction » à partir des propriétés qu’il doit vérifier. Voilà qui peut surprendre tant ces approches, connues sous le nom de « méthodes formelles », diffèrent de l’approche expérimentale utilisée le plus souvent : on écrit d’abord le programme puis on le teste longuement pour le valider.

Un environnement générique de preuve de programmes permettant d’engendrer des obligations de preuves pouvant être ensuite déléguées à des démonstrateurs automatiques ou interactifs. Sur cet outil sont construits des environnements dédiés pour prouver des programmes C et Java annotés par des formules décrivant le comportement attendu. © Inria / Photo C. Lebedinsky

Bien qu’efficace pour le logiciel ordinaire, le test devient extrêmement coûteux pour des logiciels complexes avec de hauts niveaux d’exigence de qualité. Le test ne parvient plus à montrer l’absence de bugs. Les méthodes formelles ne souffrent pas de ces limitations et dessinent un chemin vers le logiciel zéro défaut. Cependant, elles sont longtemps restées à l’état de curiosités académiques, tant les objets mathématiques correspondant à un programme réaliste sont énormes (bien loin des tailles des preuves que des humains savent maîtriser) et difficiles à manier. Il a fallu développer des outils de vérification formelle qui automatisent une grande partie des raisonnements pour permettre les premières utilisations systématiques de méthodes formelles pour des logiciels critiques, dans le ferroviaire, l’avionique, et le nucléaire. C’est un des résultats les plus spectaculaires et importants de la science informatique des 20 dernières années. Ma contribution à cet édifice est d’étendre la vérification formelle du logiciel critique lui-même aux outils informatiques, tels que les compilateurs, générateurs de code, ou analyseurs statiques, qui participent à sa production et sa vérification. Il s’agit de vérifier, donc de solidifier, le socle sur lequel sont bâtis ces logiciels critiques.

Après ces premiers succès de la vérification formelle, beaucoup reste à faire pour étendre ses utilisations. Il faut mieux prendre en compte les impératifs de sécurité, le parallélisme massif des nouvelles machines, la distribution des applications. Au centre de l’intelligence artificielle d’aujourd’hui, les techniques d’apprentissage statistique produisent des logiciels qui ne sont plus complètement écrits mais en partie appris à partir d’exemples, nécessitant de nouvelles approches de vérification formelle. Beaucoup de travaux de recherche en perspective, mais nous n’avons pas le choix : il nous faut, avec la rigueur des mathématiques et la puissance des outils informatiques, apprendre à maîtriser le logiciel dans toute sa complexité.

Xavier Leroy, Professeur au Collège de France

Cours 2018-2019 : Programmer = démontrer ? La correspondance de Curry-Howard aujourd’hui

L’isomorphisme Curry-Howard permet d’établir des ponts entre le « niveau logique » et le « niveau algorithmique » du langage informatique. ©aromaths.wordpress.com

Informatique et logique mathématique sont historiquement liées : Alan Turing, John von Neumann, Alonzo Church et bien d’autres fondateurs de l’informatique étaient logiciens, professionnels ou de formation. Le cours 2018-2019 de la chaire de Sciences du logiciel étudie un autre lien, de nature mathématique celui-là (il s’agit d’un isomorphisme), entre langages de programmation et logiques mathématiques. Dans cette approche, démontrer un théorème, c’est la même chose que d’écrire un programme ; énoncer le théorème, c’est la même chose que de spécifier partiellement un programme en donnant le type qu’il doit avoir.

http://coq.inria.fr un assistant de preuve de programme.

Cette correspondance entre démonstration et programmation a d’abord été observée dans un cas très simple par deux logiciens : Haskell Curry en 1958 puis William Howard en 1969. Le résultat semblait tellement anecdotique qu’Howard ne l’a jamais soumis à une revue, se contentant de faire circuler des photocopies de ses notes manuscrites. Rarement photocopie a eu un tel impact scientifique, tant cette correspondance de Curry-Howard est entrée en résonance avec le renouveau de la logique et l’explosion de l’informatique théorique des années 1970 pour s’imposer dès 1980 comme un lien structurel profond entre langages et logiques, entre programmation et démonstration. Aujourd’hui, il est naturel de se demander quelle est la signification «logique» de tel ou tel trait de langages de programmation, ou encore quel est le «contenu calculatoire» de tel ou tel théorème mathématique (c’est-à-dire, quels algorithmes se cachent dans ses démonstrations ?). Plus important encore, la correspondance de Curry-Howard a débouché sur des outils informatiques comme Coq et Agda qui sont en même temps des langages de programmation et des logiques mathématiques, et s’utilisent aussi bien pour écrire et vérifier des programmes que pour énoncer et aider à démontrer des théories mathématiques.

Le cours retracera ce bouillonnement d’idées à la frontière entre logique et informatique, et mettra l’accent sur les résultats récents et les problèmes ouverts dans ce domaine. Le séminaire donnera la parole à 7 experts du domaine pour des approfondissements et des points de vue complémentaires.

 

 

Vers une cybersécurité européenne pour les PME ?

Il n’y a plus de jours où nous n’apprenons l’existence d’une cyberattaque touchant une entreprise (et il ne s’agit que de la partie émergée de l’iceberg). Données volées, comptes détournés sont devenues leur quotidien. Face à ce problème devenu crucial, il n’existe pas de réponse unique et de nombreuses actions sont mises en oeuvre : depuis les scientifiques qui analysent les attaques et imaginent de nouvelles parades jusqu’aux structures comme l’ANSSI chargées de lutter contre la cybercriminalité en passant par les ingénieur·e·s chargé·e·s de protéger les systèmes informatiques de leur entreprise. Moins informées, sans doute moins « équipées » que les grandes structures, les PME sont pourtant elles aussi touchées. Dans cet article, Jérôme Tarting revient sur une décision récente du Conseil européen qui les concerne directement. Pascal Guitton

L’apparition des outils informatiques (mobiles, réseaux, réseaux sociaux, Cloud…) ont fait entrer les PME dans un écosystème numérique. La convergence de toutes ces nouvelles technologies les place désormais à un carrefour névralgique où transitent les données des clients, des partenaires, des fournisseurs, des salariés et des citoyens.

Toute structure économique est donc devenue pourvoyeuse d’informations en quantité importante, d’où les réglementations qui ont pu surgir, le fameux RGPD entré en vigueur en mai 2018 étant la dernière en date. L’adage “Qui a l’information a le pouvoir” explique en grande partie les cyberattaques dont les PME sont victimes en France. Pourquoi sont-elles aussi vulnérables ? Jusqu’à très récemment, l’usage du numérique par les entreprises venait classer notre pays légèrement en-deçà de la moyenne européenne, loin derrière la Finlande ou l’Allemagne[1].

En 2013, seuls 2 salariés sur 3 utilisaient un ordinateur et dans les 5 dernières années, 62% des actifs ont suivi une formation continue en informatique pour combler leurs lacunes[2]. Dans cette marche en avant, les PME ont rattrapé leur retard, sans pour autant tenir compte du niveau de sécurité qui a évolué très vite, et qui est désormais ATAWAD : Anytime, Anywhere, Any Device.

L’entreprise ne doit plus se contenter de multiplier les outils numériques et les usages, son rôle est maintenant de savoir où sont ses données, d’être en mesure de les protéger, de se protéger elle-même tant contre les cyberattaques qu’en matière de  responsabilité si ses données venaient à être dérobées.

La France, pays le plus visé

Analyse de malware ou ransomware. © Inria / Photo C. Morel

À qui s’attaquent les hackers ? La finance, le commerce, l’énergie et l’industrie du numérique sont les secteurs les plus touchés. Dans les deux dernières années, une société sur deux a été victime d’une attaque informatique. Les violations ont augmenté de 62% en 5 ans[3]. ¼ des attaques provenait de logiciels malveillants, une autre partie du web. 12% en interne. Et 10% par phishing.
Au total, toutes ces malveillances ont coûté plus de 6 milliards aux entreprises françaises[4]. Enfin, notons que si les chiffres ne sont pas réellement connus, le secteur public connaît lui aussi de nombreuses malveillances.

Solution européenne ?

Différents aspects de l’Internet des objets.  © Wikipédia

Un récent rapport remis aux institutions européennes a démontré l’utilité d’une lutte efficace contre la malveillance numérique, représentant 400 milliards d’euros par an à l’échelle de l’économie mondiale. L’Union, consciente que “l’internet des objets” comptera, d’ici 2020, des dizaines de milliards de dispositifs numériques, a pris le dossier très au sérieux. En effet, elle a estimé que nombreuses sont les entreprises et les administrations au sein de l’UE dont les principaux services dépendent des réseaux et des infrastructures informatiques. Les incidents concernant la sécurité des réseaux et de l’information (SRI traitée notamment par l’ENISA en Europe) peuvent avoir un impact considérable, empêchant leur fonctionnement. En outre, un incident SRI dans un pays peut se répercuter dans d’autres, voire dans l’ensemble de l’UE, sapant la confiance des consommateurs dans les systèmes de paiement en ligne et les réseaux informatiques. C’est pourquoi, le 8 juin 2018, le Conseil européen a décidé de s’attaquer aux menaces en demandant aux états membres d’identifier les acteurs essentiels en matière de SRI avant décembre 2018, d’aider les petites et moyennes entreprises à être compétitives dans l’économie numérique et à investir dans le recours à l’intelligence artificielle et aux super-ordinateurs [5].

Agir au plus vite

Présentation sur la cybersécurité lors de la fête de la science à un large public. © Photographie Clotilde Verdenal / LoeilCreatif (pour Inria)

Bien entendu, si la Directive SRI est contraignante pour la France en termes de transposition et de moyens, les hackers ne vont pas s’arrêter si facilement car les données sont devenues pour eux la principale source de revenus de « l’économie malveillante ». Il est urgent d’apporter une réponse pénale plus efficace face à la cybercriminalité contre la fraude, le vol des données, la contrefaçon des moyens de paiement. Il faut donc conseiller à nos PME françaises de bâtir une cybersécurité sur des fondements solides, en misant sur le renseignement et la gestion avancée des accès, les encourager à effectuer des tests de résistance qui permettront d’identifier les champs de leur vulnérabilité, les accompagner et les encourager à investir dans les innovations de rupture (analyse et intelligence artificielle). Il en va de la pertinence du marché unique numérique mais aussi de la crédibilité de la France, qui si elle veut réellement être une start-up nation, ne peut négliger plus longtemps cette faille dangereuse pour le devenir de sa nouvelle économie.

Jérôme Tarting (fondateur du Groupe Up’n BIZ)


[1] Observatoire du numérique – janvier 2016.
[2] Baromètre du numérique 2017
[3] Enquête 2017  Accenture.
[4] France 2 – Enquête sur les cyberattaques.
[5] Conseil de l’europe – Réforme de la cybersécurité en Europe – Juillet 2018

Big Data et innovation : c’est pour aujourd’hui ou pour demain ?

Avner Bar-Hen, Crédits TheConversation
Avner Bar-Hen est professeur au Conservatoire national des arts et métiers (CNAM) à Paris. Spécialiste de statistiques dans les domaines de la fouille de données et des méthodes d’apprentissage, il est également membre du conseil scientifique du Haut Conseil des Biotechnologies.
Gilles Garel est professeur titulaire de la chaire de gestion de l’innovation du Cnam depuis 2011 et professeur à l’Ecole polytechnique depuis 2006. Il a été directeur du Lirsa 2012 à 2015 et est en charge aujourd’hui de l’équipe pédagogique « Innovation » du Cnam.

Gilles Carel, Crédits CNAM

Pour Binaire, ils évoquent le travail qu’il reste à accomplir en matière d’innovation mais aussi d’éducation, pour que les Big Data apportent de nouvelles ruptures technologiques. Antoine Rousseau. Cet article est publié en collaboration avec The Conversation.

 

Dans le maelstrom du « Big Data-numérique-digital-IA » qui mélange buzz superficiel et réelles ruptures, il est important de s’interroger sur le caractère innovant des Données Massives ? En effet, Innovation et Big Data (Données Massives) sont deux termes à la mode, souvent associés et parés de nombreuses promesses, mais il ne suffit pas de parler d’innovation pour être innovant. Quelle(s) innovation(s) se cache(nt) réellement derrière les Données Massives ?

En mobilisant des tera, peta, exa, zetta ou des yotta données, les ordres de grandeur de la capture, du stockage, de la recherche, du partage, de l’analyse ou la visualisation des données sont bouleversés. De nouveaux outils se développent avec l’avènement de dimensions inconnues jusque-là, mais ceci ne dit que peu de choses des usages, des transformations positives dans la vie des citoyens ou des acteurs économiques. Le secteur des services a été fortement transformé par l’arrivée des Données Massives. On peut penser à des services comme Uber, Deliveroo, aux recommandations d’Amazon, à l’assistance diagnostic médical, à l’identification d’images, aux messages et échanges automatiques… La valeur ajoutée, la pertinence du service ou l’utilité sociale de ces nouveaux outils n’est pas nulle, mais il y a longtemps que l’on peut prendre un taxi, acheter un livre, cibler une campagne marketing ou identifier une personne. L’arrivée d’un ordinateur champion du monde de Go ne change pas vraiment la vie ou la motivation des joueurs de go, ni même des non-joueurs. Les outils de traitement des Données Massives optimisent des paramètres connus : plus rapide, plus de variables, plus de variété, moins coûteux, plus de personnes, sans personne… Dans cette « compétition paramétrique », on accélère le connu, on remonte à la surface une abondance de données existantes, pas forcément connectées jusque-là. L’enjeu est aussi de tirer les Données Massives vers l’innovation, c’est-à-dire de passer de l’optimisation de propriétés connues à la conception de propriétés nouvelles dans une perspective de partage de la valeur et non de sa captation par quelques acteurs de la « nouvelle économie ».

Si le traitement des Données Massives peut être tiré par des start-ups très dynamiques, seuls les grands groupes peuvent aujourd’hui valider un prototype de voiture autonome ou développer des programmes de traitement contre le cancer. Les traces numériques massivement disséminées modifient la manière d’appréhender nos individualités. La course à l’appropriation des données est lancée. Les directives européennes comme le RGPD (règlement général pour la protection des données européen) poussent vers un statut privé. Le rapport de Cédric Villani revendique clairement une Intelligence Artificielle pour l’humanité. Nos modes de consommation et nos interactions sociales se transforment grâce à l’omniprésence des ordinateurs et plus largement des machines. Il est temps que les Big Data produisent un Big Bang. Il ne s’agit pas juste d’ouvrir les données, mais de s’en libérer pour leur associer des propriétés innovantes et ne pas rester fixés sur des améliorations, des accélérations et des approches strictement marchandes. Il faut que les citoyens s’approprient les Données Massives afin de donner ensemble un sens à cette avalanche d’informations mais aussi pour faciliter leur intégration au processus d’innovation et de décision au sein des organisations et des entreprises. Seule l’innovation permettra d’imaginer le citoyen de demain. Cet enjeu stratégique passe par une éducation et une formation aux outils numériques et à leurs usages.