La recherche européenne s’organise pour l’IA

Distinctions International Informatique

Derrière la foule d’acronymes et de projets plus ou moins interconnectés, les scientifiques français et européens montent au créneau de l’intelligence artificielle. Mais les réseaux CLAIRE, HumanE-AI ou encore TAILOR ne visent pas la simple course à la performance, ils accompagnent l’émergence d’une approche portant les valeurs de l’Europe, soucieuse de la protection des données et attentive aux implications, en particulier éthiques, des interactions entre humains et machines.

Face aux efforts et aux moyens mobilisés par la Chine ou les États-Unis dans le domaine de l’intelligence artificielle, la recherche européenne s’organise. Un véritable millefeuille de réseaux et de projets où les questions éthiques sont centrales. « La Commission européenne a lancé plusieurs appels ces dernières années pour des projets ambitieux en IA, explique François Yvon, directeur de recherche CNRS au LIMSI1. Plusieurs réseaux de chercheurs se sont alors constitués et ont perduré, parmi les lauréats comme parmi ceux qui n’avaient pas été sélectionnés. »

François Yvon, spécialiste du traitement automatique des langues, participe ainsi au programme pluridisciplinaire HumanE-AI, dédié à l’approfondissement des interactions entre robots et humains. Une question qui couvre par exemple la possibilité pour une IA d’apprendre directement d’un opérateur, comme un ouvrier qui lui montrerait un geste technique à reproduire. Une tâche qui se complique en contexte industriel, où le bruit ambiant force les employés à communiquer différemment et perturbe la reconnaissance vocale des IA. HumanE-AI se concentre ainsi sur l’intégration des modèles cognitifs et sociaux humains.

  • 1. Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (CNRS)
La communication en face à face déclenche de nombreux phénomènes inconscients de microadaptation sociale, qu’il faut enseigner aux robots. 
,

S’adapter à un débit de parole, se tenir à une bonne distance, éviter les gestes brusques à proximité des gens, repérer les signes non verbaux d’acquiescement, prendre en compte des différences culturelles dans l’expression des émotions… Ces questions s’éloignent des aspects purement mathématiques liés à l’optimisation de l’apprentissage profond ou du big data, mais elles sont essentielles au développement d’une IA responsable, capable de comprendre les intentions de ses utilisateurs et d’expliquer ses actions et ses buts. HumanE-AI rassemble ainsi une cinquantaine de partenaires académiques et industriels, comme le CNRS, l’Inria, Sorbonne Université, Grenoble-Alpes Université, Thalès, Airbus, etc.

Une coopération qui s’illustre également avec CLAIRE2, soucieuse de se démarquer de la vive concurrence internationale. « L’apprentissage automatique nécessite de collecter énormément de données, souligne Nicolas Sabouret, professeur à l’université Paris-Saclay, membre de CLAIRE et du LIMSI. Les Américains ne se préoccupent ni d’où elles viennent, ni de les protéger, tandis que les Chinois accaparent celles de leurs citoyens. L’Europe doit porter sa vision propre, plus responsable. »

C’est d’ailleurs parce qu’il est membre de CLAIRE qu’Andreas Herzig, directeur de recherche à l’IRIT3, a entendu parler du projet TAILOR4, qu’il a depuis rejoint. Ce programme vise à rapprocher les deux grands types d’IA. L’IA symbolique représente l’information en un énoncé logique, puis tente de déduire ses réponses à partir des données disponibles. Les très populaires méthodes d’apprentissage profond entrent quant à elle dans la catégorie du subsymbolique : des réseaux neuronaux consomment ainsi des millions d’exemples pour apprendre à donner la meilleure solution.

« Nous n’avons pas accès à la manière dont les IA subsymboliques parviennent à leurs conclusions, déplore Andreas Herzig. Même si leurs résultats sont bons, comment leur faire confiance ? Nous voulons accompagner leur apprentissage d’une explication logique, ce qu’on ne sait pas encore faire. » TAILOR érige pour l’instant un état des lieux de la recherche, mais vise à terme à intégrer aux IA, dès leur conception, le respect de la vie privée et une théorie de l’esprit, c’est-à-dire la capacité à se mettre à la place d’un autre. Le projet rassemble en France des membres de l’IRIT, du LIRMM5 ou aussi du CRIL6.

« Les Chinois et les Américains sont en avance en matière d’IA, poursuit Andreas Herzig, mais nous misons sur cette IA hybride pour aller plus loin. L’IA de confiance n’ira pas seulement très vite, on saura également pourquoi elle fait ses choix, sans la laisser faire n’importe quoi. C’est un objectif très caractéristique de l’effort européen dans le domaine. »

  • 2. Confederation of laboratories for artificial intelligence research in Europe
  • 3. Institut de Recherche en Informatique de Toulouse (CNRS/Toulouse INP/Université Toulouse Paul Sabatier)
  • 4. Trustworthy AI - integrating reasoning, learning and optimization.
  • 5. Laboratoire d’informatique, de robotique et de microélectronique de Montpellier (CNRS/Université de Montpellier)
  • 6. Centre de recherche en informatique de Lens (CNRS/Université d’Artois)

Contact

François Yvon
Directeur de recherche CNRS au LIMSI
Nicolas Sabouret
Professeur à l'Université Paris-Saclay, membre du LIMSI
Andreas Herzig
Directeur de recherche CNRS à l'IRIT