Alliancy

Antoine Petit (Inria) « Les promesses du Machine Learning »

Le PDG de l’Institut national de recherche en informatique et en automatique (Inria) évoque les perspectives des innovations de rupture – robots assistants, systèmes personnels de diagnostic médical, interfaces cerveau-machine – et le rôle central de l’analyse de données dans la mise au point des technologies de 2030.

Antoine Petit, PDG de l’Inria

Alliancy, le mag. Une étude, publiée en 2013 par deux chercheurs de l’université d’Oxford*, laissait entendre que d’ici à une vingtaine d’années, près de la moitié des emplois d’un pays comme les Etats-Unis pourrait être confiée à des « machines intelligentes ». A quoi ressembleront ces machines, et faut-il en avoir peur ?

Antoine Petit. Il est toujours extrêmement difficile d’anticiper l’impact d’une innovation ou d’une série d’innovations, comme le montre, par exemple, la réussite de Twitter malgré ses limites techniques. Ce que je crois, c’est que les technologies de 2030 existent déjà, au moins en partie, dans les laboratoires. Et, à l’Inria, nous sommes intimement convaincus que le numérique va continuer de pénétrer tous les secteurs économiques et l’ensemble des couches de la société. Même là où l’on s’y attend le moins, comme dans l’agriculture, où des capteurs et l’Internet des objets fourniront bientôt quantité de données géolocalisées, utiles aux exploitants pour mieux gérer leurs terres.

En dépit des apparences, la révolution numérique n’en est donc qu’à ses débuts ?

Absolument. L’un des principaux leviers d’action dans les années à venir sera l’optimisation du couplage entre les données à traiter et les modèles. Dans le domaine de la défense, cette optimisation a déjà permis de remplacer les essais nucléaires par le calcul haute performance. La même logique porte également ses fruits en météorologie, science dans laquelle nous n’aurons certainement jamais fini d’affiner les modèles… D’un côté, nous avons donc ces modèles et, de l’autre, les machines capables de les mettre en oeuvre rapidement avec des jeux de données de plus en plus volumineux. L’un ne va pas sans l’autre : pour être performant, le calcul doit jouer sur les deux tableaux.

 

Quelles sont les techniques qui vont le plus bénéficier de cette montée en puissance de la modélisation ?

Elles sont très diverses : cela va de la vision par ordinateur à la conduite des réseaux électriques intelligents (smart grids), en passant par la réalité virtuelle. Il n’est plus concevable, aujourd’hui, de mettre au point une voiture sans en tester l’ergonomie au moyen d’un modèle numérique dans lequel on plonge préalablement le conducteur et les passagers. Mais on peut aller encore plus loin dans le réalisme, et faire de même dans bien d’autres secteurs industriels. Nos chercheurs en algorithmique s’intéressent de près à l’impression 3D qui devrait, comme chacun le sait, avoir un gros impact tant auprès des entreprises que du grand public. Ce type d’impression passe par une suite d’instructions qui sont elles-mêmes issues d’un modèle 3D, pouvant dans certains cas être recréé à partir de plusieurs photos 2D. Mais pour fabriquer vite et bien dans ces conditions, encore faut-il disposer des bons programmes…

Et en ce qui concerne les sciences de la vie ?

Elles sont très demandeuses, et pas seulement dans les laboratoires ! D’ici à 2030, du fait de la baisse continuelle du coût des processeurs et de la miniaturisation des capteurs, nous verrons émerger une médecine individuelle qui mettra elle aussi en oeuvre un couplage entre des modèles médicaux génériques et une masse de données personnelles (tension artérielle, pouls, composition sanguine…) obtenues en temps réel. Sans consultation ni analyse en laboratoire, un tel couplage sera en mesure d’établir la « météo » d’un organe, le coeur par exemple, en prévoyant son comportement dans les semaines et les mois à venir, jusqu’à détecter un risque d’infarctus… La santé va énormément profiter de la puissance des technologies numériques. Nous avons déjà les implants cochléaires, qui permettent aux malentendants d’entendre grâce à une stimulation électrique directe des terminaisons nerveuses de l’audition par des signaux traités numériquement. Mais des expériences sont en cours pour pallier d’autres types de déficiences, voire tenter de redonner l’usage de leurs membres à des personnes para ou tétraplégiques.

Quel en est le principe ?

Elles font appel à des interfaces cerveau-machine, ou brain-computerinterfaces. A ce stade, il faut préciser que si nous avons déjà obtenu certains résultats, des dizaines d’années de recherche seront sans doute nécessaires avant qu’un tétraplégique puisse se remettre à marcher normalement dans la rue. En tout cas, grâce à des programmes scientifiques comme Human Brain Project en Europe (humanbrainproject.eu), on peut s’attendre à des avancées notables dans la compréhension du fonctionnement du cerveau humain au cours des prochaines années. Savoir notamment quelles parties opèrer afin de déclencher tel ou tel mouvement, ou lorsqu’on pense à ce mouvement. Si l’on parvient, au moyen d’un appareillage, à détecter l’envie de lever le bras droit par exemple, il doit être possible de le faire grâce à un autre appareillage. Schématiquement, le signal émis par le cerveau sera envoyé à un ordinateur qui, après traitement, l’enverra à un dispositif physique ad hoc… Ou même, pour certaines pathologies, directement aux muscles via des électrodes, autrement dit en « court-circuitant » la moelle épinière. De la même manière, en localisant les zones concernées du cerveau et en s’appuyant pour cela sur des expériences de réalité virtuelle, il sera sans doute possible à l’avenir de combattre efficacement tout un éventail de phobies.

A terme, la compréhension et la modélisation du cerveau déboucheront-elles sur la création d’une véritable « intelligence artificielle » ?

Cette expression existe depuis plusieurs dizaines d’années sans pour autant avoir acquis un sens précis. Quoi qu’il en soit, je ne crois pas que nous voyions un jour une machine devenir subitement intelligente, du moins au sens de l’intelligence humaine, c’est-à-dire en éprouvant des sentiments, des émotions… Pour qu’un ordinateur batte un champion aux échecs, il a suffi d’attendre que la technique rende possible la fabrication de microprocesseurs et de mémoires suffisamment complexes pour envisager toutes les possibilités du jeu. Un ordinateur se contente de faire ce qu’on lui demande et de la façon qu’on lui a indiquée. Toutefois, dans certains domaines comme la reconnaissance d’images, et plus généralement lorsqu’il s’agit de faire des comparaisons par rapport à des bases de données – identifier des terroristes potentiels dans une foule par exemple, il peut le faire extraordinairement bien. Et surtout de mieux en mieux au fil du temps, grâce aux techniques d’apprentissage automatique, ou machine learning, qui enregistrent actuellement des progrès extraordinaires. Cette façon de simplifier la complexité, en modifiant et en adaptant les modèles pour tenir compte des cas déjà traités, constitue effectivement une forme d’intelligence. Mais toujours limitée aux « explications » rentrées dans la machine.

Pas de risque, par conséquent, que les ordinateurs prennent un jour le pouvoir ?

Pour l’instant en tout cas, nous n’en sommes pas là ! Bien au-delà de 2030, nous verrons peut-être apparaître d’autres types d’ordinateurs que ceux que nous connaissons aujourd’hui. Des ordinateurs biologiques en particulier, dont le fonctionnement pourrait effectivement s’inspirer de celui du cerveau humain. Ce seront des objets d’une effroyable complexité. Face à de telles innovations, notre société devra bien entendu rester vigilante. Tout le monde trouve formidable de rendre l’audition à des sourds, mais il faut indiscutablement des règles pour encadrer l’utilisation des progrès scientifiques, savoir à quel moment dire « stop » !

Par le passé, les robots, eux aussi, ont suscité une certaine méfiance. De quoi seront-ils capables en 2030 ?

 

 

Une première chose à noter est que le scepticisme qui existait jusqu’à présent dans les pays occidentaux vis-à-vis des robots humanoïdes est en train de faiblir. Si bien qu’au-delà des tâches industrielles pointues – comme la maintenance des centrales nucléaires – pour lesquelles les robots sont déjà couramment utilisés, nous devrions bientôt en rencontrer à l’accueil des musées ou en tant qu’auxiliaires de personnes âgées. Ces robots obéiront à des ordres vocaux : aller chercher une paire de lunette, appeler un correspondant au téléphone, éteindre la lumière… Ils vérifieront également la prise des médicaments et sauront juger si la personne âgée présente un problème ou pas. D’ici à 2030, c’est surtout l’ergonomie qui va évoluer, ainsi que les performances en matière de vision artificielle, de reconnaissance de la parole, de traitement automatique du langage… Car il ne suffit pas qu’un robot reconnaisse des mots : il faut qu’il comprenne le sens des phrases. Et pour que ceux-ci puissent se déplacer efficacement dans des logements qu’ils ne connaissent pas au départ, nous devrons améliorer leur capacité d’apprentissage et d’adaptation à l’environnement.

Sur ce schéma, peut-on envisager des voitures qui géreraient leurs déplacements, ou – du moins – avec très peu d’interventions humaines ?

La route et les transports intelligents constituent un thème de recherche très prometteur. L’idée est de multiplier les échanges entre les véhicules, et entre eux et l’infrastructure routière. Je pense, par exemple, à des panneaux de limitation de vitesse qui enverront l’information directement aux limiteurs de vitesse des voitures plutôt qu’à leurs conducteurs. Ou encore à des systèmes automatiques imposant le respect des distances de sécurité, l’interdiction de téléphoner, la pause aux premiers signes d’endormissement… Tout cela est parfaitement réalisable, surtout sur autoroute où l’on pourrait sans grande difficulté mettre en place des cohortes de véhicules à vitesse régulée. Mais, là encore, c’est à la société de définir ce qui est souhaitable – ou pas – en la matière !

* « The Future of Employment : how susceptible are jobs to computerization ? », Carl Benedikt Frey et Michael A. Osborne (septembre 2013). Pour en savoir plus : oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf

 

Quitter la version mobile