webleads-tracker

Interviews d'experts, professionnels et scientifiques.

Ils partagent leur vision.
Daniel Brissaud

 

Laurence Devillers

Professeur en intelligence artificielle à la Sorbonne et chercheuse au CNRS-Limsi

  • 1992 « Reconnaissance de parole continue avec un système hybride neuronal et markovien », thèse de doctorat en sciences à l’université Paris-Sud.
  • 2006 « Les émotions dans les interactions homme-machine : perception, détection et génération », thèse d’habilitation à diriger des recherches en informatique de l’université Paris-Sud.
  • 2011 Professeur d’informatique à la Sorbonne, chargée de l’équipe « dimensions affectives et sociales dans l’interaction parlée ».
  • 2017 « Des robots et des hommes. Mythes, fantasmes et réalités » (éditions Plon).

 

Interview du Laurence Devillers du 01 juillet 2017

Par Pascal Gateaud et Manuel Moragues, L’Usine Nouvelle

« Comment l’homme va-t-il co-évoluer avec le robot »

Pour Laurence Devillers, professeur en intelligence artificielle à la Sorbonne et chercheuse au CNRS-Limsi, l’arrivée des robots dans notre vie courante impose de penser un cadre éthique pour réguler leur coexistence avec l’homme.

Quand les robots vont-ils débarquer dans notre quotidien ?

Les robots sont déjà dans notre quotidien ! Sans que l’on s’en rende forcément compte. Ce sont des machines qui perçoivent des informations de leur environnement, les analysent et prennent des décisions pour agir dans notre univers physique. Mais ils existent aussi sous forme, non incarnée, de bots : des logiciels qui perçoivent et agissent. Quand vous surfez sur internet, les bots vous surveillent et peuvent ensuite vous faire tout un tas de propositions commerciales. Les robots incarnés, par exemple les robots-aspirateurs Roomba, sont dans nos maisons. Les chatbots comme Alexa, l’agent conversationnel d’Amazon installé sur les produits Echo, sont également présents dans 20 % des foyers américains. Ils arriveront bientôt en France, avec un autre chatbot, Google home. Enfin, au Japon, Pepper, ce robot de 1,20 mètre sur roulettes et plutôt humanoïde, est présent dans un millier de foyers, en tant que compagnon, assistant et, plus encore, pour le divertissement.

Que retirez-vous de ces premières incursions des robots dans la vie courante ?

Ces machines suscitent des questionnements qui peuvent aller très loin. Quand elles arrivent dans notre intimité, cela interroge. Certaines personnes, par exemple, rapportent leur robot-aspirateur lorsqu’il est cassé, pour qu’il soit réparé et non pas remplacé, car « il connaît la maison », voire parce qu’il a un nom. Une relation se noue avec cet objet. J’ai répondu aux courriers de lectrices d’un magazine féminin. Une femme a écrit : « Mon Roomba passe devant moi et s’arrête au milieu de la pièce. Que pense-t-il ? » On va prêter des intentions aux machines, c’est le propre de l’homme d’anthropomorphiser les machines.

On a l’impression que la machine possède sa propre volonté…

Il faut être clair sur ce point : la machine n’a ni volonté, ni motivation, ni conscience. Pas plus qu’elle n’a d’intuition. Il y a beaucoup de fantasmes autour d’une super intelligence artificielle qui supplanterait l’homme. La science-fiction et les transhumanistes entretiennent cette vision de machines se transformant entre elles, créant des codes intelligents. Tout ça, c’est de la futurologie, pas de la science. Ce n’est pas en interagissant entre elles que les machines vont devenir plus intelligentes, je vous rassure ! Cependant, il est vrai que les humains vont projeter beaucoup de choses sur les robots, il faut en tenir compte.

Les progrès de l’intelligence artificielle ne vont-ils pas dépasser la science-fiction ?

L’intelligence artificielle a fait des progrès fulgurants grâce à l’augmentation de la puissance de calcul. Mais le deep learning, même si on a progressé sur l’optimisation et la technique, reste proche des réseaux de neurones sur lesquels je travaillais pendant ma thèse en 1992 ! Il ne faut pas non plus surestimer les performances actuelles. Les algorithmes font des erreurs et leur intelligence n’est que de bas niveau. Un chatbot reconnaît les phonèmes, les mots, mais il a beaucoup plus de mal avec la sémantique. Un robot ne peut pas tout apprendre, car il apprend très lentement par rapport aux humains, en tâtonnant par essai-erreur dans l’immense champ des possibles que représente notre environnement. Il existe encore beaucoup de verrous technologiques et scientifiques : le robot n’a pas de sens commun, il ne sait pas encore apprendre en continu, ou difficilement, il ne peut pas s’adapter à de nouveaux domaines, faute de compréhension des contextes… Certes, il y a beaucoup de R&D, mais on a le temps d’anticiper, de réfléchir à comment fixer le cadre dans lequel on peut accueillir ces machines qui, effectivement, arrivent.

Comment se préparer à accueillir ces robots ?

La priorité, c’est d’éduquer les gens. Il faut expliquer ce qu’est un robot et ce qu’il peut faire, y compris d’indésirable. Il peut nous mentir et nous manipuler, même sans que ses concepteurs l’aient voulu, pour peu que l’on n’ait pas bien anticipé ses effets secondaires. Ce qui m’intéresse, c’est comment l’homme va co-évoluer avec le robot. On cherche à faire des machines qui vont s’adapter à nous. Comment allons-nous nous adapter à elles ? Je travaille plus précisément sur l’« affective computing », une discipline née en 1997 des travaux de Rosalind Picard, chercheuse au MIT, qui regroupe la détection des émotions humaines, la gestion des dialogues – en incluant le non-verbal – et la génération de réponses empathiques, expressives et personnalisées. Je pars de l’idée que rire avec un robot permettra de mieux vivre avec ! Mais il faut réfléchir à tous les aspects de cette coexistence, y compris ses écueils, comme le risque de dépendance. C’est ce que je fais au sein de l’association savante IEEE [Institute of electrical and electronics engineers, ndlr], qui réfléchit à des normes et des standards, avec des juristes, des sociologues, des linguistes… Il faut un cadre éthique à la coexistence entre les humains et les robots.

Ce cadre éthique est-il déjà en construction ?

Nous y travaillons au sein de l’IEEE, mais aussi en France, notamment au sein de la Cerna, un groupe de travail dédié à la réflexion sur l’éthique de la recherche sur le numérique. Nous participons à l’élaboration de règles éthiques, en particulier sur la protection des données, le consentement des utilisateurs, la traçabilité des systèmes et l’explicabilité de leurs décisions pour pouvoir déterminer des responsabilités en cas de faute. Ensuite, il faut trouver des outils permettant de vérifier la bonne application de ces règles. Le projet TransAlgo et l’institut i2-Drive, portés par l’Inria, avec les acteurs de Paris-Saclay, s’y consacrent, mais traitent essentiellement de la science des données et des algorithmes, pas de la robotique. L’Europe manque d’instituts pluridisciplinaires sur l’intelligence artificielle et la robotique, alors qu’il y en a aux États-Unis et au Royaume-Uni. Il faut que les Européens, qui ont une culture de la philosophie et ont beaucoup travaillé sur l’éthique du vivant, pèsent davantage dans le monde.

Quel est l’enjeu de cet encadrement des robots ?

Ces machines ont un vrai potentiel. Mais que veut-on en faire ? S’aliéner, comme dans cette expérience chinoise où on profile les gens pour déterminer leur accès à l’emploi ou au logement ? Laisser les Gafa en tirer des profits gigantesques, quitte à nous manipuler ? Ou au contraire mettre ces technologies au service de la société ? Par exemple, la fin de vie est très mal gérée dans la plupart de nos pays industrialisés. Nous pouvons tirer parti des robots, de leur patience et de leur disponibilité permanente, pour aider les personnes âgées. Nous sommes à la croisée des chemins et nous avons encore le choix.

 

Voir toutes les interviews

Derniers posts sur le Blog Cepheus Group

Voici les 3 derniers articles postés.

Share This