webleads-tracker

Interviews d'experts, professionnels et scientifiques.

Ils partagent leur vision.
Joël de Rosnay

Laurence Devillers

Professeure en Informatique et Intelligence Artificielle

Laurence Devillers, chercheur au LIMSI-CNRS et professeure en Informatique et Intelligence Artificielle (IA) à Sorbonne Université, est experte en traitement du langage, apprentissage machine, dialogue homme-machine, « affective computing » et éthique appliquée à l’IA. Elle mène des recherches sur la détection des émotions et les dimensions affectives et sociales dans les interactions parlées, notamment avec des robots. Elle travaille sur le projet BAD-nudge BAD-robot de l’institut DATAIA. Elle est membre de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique (CERNA) d’Allistène, et a travaillé notamment sur les biais de l’apprentissage machine. Elle est l’auteure de plus de 150 publications scientifiques ainsi que du livre « Des robots et des hommes » (Plon, 2017).

Interview de Laurence Devillers du 03 mai 2019

Par L’Usine Nouvelle

 

« A-t-on besoin uniquement de beaucoup de données pour faire des progrès en IA ? »

L’apprentissage machine est une technologie d’IA permettant aux  ordinateurs d’apprendre sans avoir été programmés explicitement pour cela. La majorité des programmes d’apprentissage sont pour l’instant dit supervisés, c’est-à-dire ont besoin d’être nourri par des données annotées. Le deep learning (apprentissage profond) est un type d’apprentissage automatique qui utilise des outils statistiques pour établir des modèles à partir de grands corpus de données (big data). Aujourd’hui, plus il a de données annotées, plus le système d’apprentissage profond peaufine ses modèles.

Pour toutes ces approches, les données annotées sont pour l’instant le pétrole. Mais jusqu’où cela est-il vrai ?

Les systèmes actuels sont très  performants pour certaines tâches demandant des calculs complexes et une grande mémoire mais les indices qu’ils extraient sont très différents des indices utilisés par les humains pour les mêmes tâches. D’une part,  lorsqu’ils font des erreurs, elles sont très différentes de ce que font les humains. Les systèmes sont donc peu transparents et peu intelligibles. D’autre part, ces systèmes apprennent des comportements statistiquement représentés, les cas rares sont toujours oubliés. Il est donc nécessaire de surveiller les biais de ces algorithmes. Un autre point peu mentionné est que les systèmes de deep learning apprennent sans raisonnement, ils construisent leurs modèles uniquement à partir de corrélations d’indices.

A quoi servent-ils ?

Par exemple à la reconnaissance de la parole, de visages, d’objets défectueux, de tumeurs malignes… mais aussi à la reconnaissance d’émotions dans le visage et dans la voix pour le recrutement, l’aide à la décision marketing, l’aide au diagnostic médical…

Qui a les données ?

Les géants du numérique américains et chinois, ceux qui gèrent le trafic des données et qui ont des applications sur internet : les sites de rencontre, mais aussi les montres ou enceintes connectées, bref l’IoT… Par exemple, Facebook, Google et Amazon enregistrent nos données, plusieurs scandales ont défrayé la chronique récemment sur ce sujet. Ces données ne sont pas annotées et sont souvent difficiles à utiliser dans les systèmes d’apprentissage machine sans un effort de nettoyage et de calibration, ce qui coûte beaucoup d’argent.

Qui annotent ?

Les technologies de reconnaissance vocale comme Alexa d’Amazon ne seraient pas en mesure d’interpréter ou de répondre à nos commandes vocales sans avoir recueilli des milliers d’heures de données de la parole de personnes avec des accents, avec des troubles d’élocution, dans différentes langues, avec des voix ou de la musique en arrière-plan, etc. Amazon paie des milliers d’employés notamment aux Etats-Unis, en Roumanie, en Inde ou encore au Costa Rica pour écouter les conversations des utilisateurs de son assistant personnel Alexa afin d’annoter les données et d’améliorer les réponses du système aux demandes des utilisateurs. Les échanges vocaux sont retranscrits, annotés et viennent enrichir l’algorithme si nécessaire. Il est urgent de faire de la recherche sur l’apprentissage en ligne ne nécessitant pas d’annotations.

Où est le respect de la vie privée ?

Dans la bataille pour la collecte des données entre les USA et la Chine, la protection des données personnelles (RGPD : règlement général de protection des données) est un atout majeur en Europe. Nous créons des conditions de confiance pour collecter des données afin de permettre aux entreprises européennes de relever les défis de l’IA et surtout pour préserver le marché européen ainsi que nos valeurs et notre liberté. L’IA a une incidence forte sur la société d’un point de vue économique mais aussi sociétal et de liberté d’opinion. Il ne s’agit pas tant de rivaliser que de monter un marché européen et de valoriser nos approches plus citoyennes. Il y a un certain nombre d’obligations du RGPD que les entreprises américaines respectent déjà. D’ailleurs, les américains alertés par tous les scandales sur les données sont aussi en train de rédiger un RGPD « à l’américaine » un peu moins contraignant donc c’était une excellente idée. En Chine, la police chinoise utilise un système de classement reposant sur le big data pour identifier les groupes d’individus suspects. Ces capacités de surveillance amplifiées, augmenteront de fait la coercition et la surveillance de ceux considérés comme des éléments instables, y compris les pétitionnaires et les dissidents !

Peut-on se passer d’expertise humaine et utiliser l’apprentissage profond pour toutes questions ?

Le système de reconnaissance vocale BAIDU utilise un ensemble énorme de données (données collectées mais aussi synthétisées) pour apprendre la robustesse au bruit et la variation de voix entre les locuteurs. L’apprentissage profond, formé sur un ensemble de données, y compris plus de 100 000 heures de données synthétisées, permet d’améliorer considérablement la reconnaissance de la parole. Pour lui, plus besoin de dictionnaire phonétique, ni même de concept de phonème pour faire de la reconnaissance de la parole par exemple. Bref, le système apprend à reconnaître des formes sans aucune connaissance experte. Ces 100 000 heures de données synthétisées sont-elles réellement différentes des données déjà présentes ?

Quel autre type d’apprentissage aujourd’hui ?

Il existe 3 principaux types d’apprentissage : l’apprentissage supervisé, non supervisé et par renforcement. L’apprentissage non supervisé est un problème d’apprentissage automatique où le logiciel doit trouver des structures sous-jacentes dans les données non annotées. L’apprentissage par renforcement marche grâce à des mesures de récompense par essai-erreur.

Peut-on éviter la nécessité d’annoter d’énormes quantités de données ?

La solution est l’apprentissage en ligne dans le monde réel. Les USA et les Européens sont toujours à la pointe sur l’innovation et les recherches en IA. Un des objectifs actuels des chercheurs est de modifier ou combiner ces algorithmes pour construire des systèmes entrainés sur peu de données annotées au départ. Ces systèmes pourront améliorer leur performance par un apprentissage en continu à partir de données capturées automatiquement sans besoin d’annotation. Ce mode d’apprentissage plus autonome nécessitera un contrôle quasi-permanent des connaissances de la machine.

Pour conclure, il est urgent que nous collections des données en Europe mais aussi que nous continuions une recherche de qualité. La santé, les transports, l’environnement et la défense sont les 4 axes prioritaires sur lesquels nous devons nous battre grâce à l’intelligence artificielle dans le respect de nos valeurs éthiques. Il faut investir massivement en recherche et sur des plateformes pour arriver à concurrencer les géants de la technologie sur notre marché.

Derniers posts sur le Blog de Serv&Sens

Voici les 3 derniers articles postés.

Share This