Thierry Denoeux : résoudre des problèmes d’incertitude au cœur de modèles informatiques
Professeur à l’université de technologie de Compiègne (UTC), Thierry Denoeux mène ses recherches au laboratoire Heuristique et diagnostic des systèmes complexes (Heudiasyc - CNRS/Université de Technologie de Compiègne). En 2019, il est nommé membre senior à l’institut universitaire de France (IUF) afin de poursuivre ses travaux sur la modélisation et la quantification des incertitudes dans les systèmes informatiques.
Quels sont vos projets en lien avec les sciences informatiques qui vous ont amené à être nommé à l’IUF ?
Thierry Denoeux : Mon projet de recherche se situe à la frontière de l’intelligence artificielle et de la statistique. Il concerne la modélisation des incertitudes dans les algorithmes d’apprentissage automatique (machine learning) et dans les techniques d’inférence statistique. La problématique sur laquelle je travaille depuis plusieurs années vise à proposer des modèles de raisonnement et de décision basés sur des formalismes qui généralisent les approches probabilistes classiquement utilisées en informatique et en statistique. Mes travaux portent principalement sur la théorie des fonctions de croyances, qui est plus adaptée que la seule théorie des probabilités en situations de forte incertitude et lorsque les connaissances sont partielles et imparfaites.
En apprentissage automatique, on cherche à faire des prédictions et à prendre des décisions à partir de données. La théorie des fonctions de croyance fournit un cadre adapté pour résoudre ces problèmes, notamment dans le cas où les observations sont peu fiables. Je m’intéresse également à la quantification de la fiabilité des prédictions effectuées par des modèles numériques et des méthodes d’inférence statistique. Par exemple, les réseaux de neurones profonds (deep networks) sont généralement très performants pour reconnaître des objets dans des images ou des vidéos, mais il est difficile d’identifier les situations dans lesquelles ils sont particulièrement susceptibles de commettre des erreurs. Ceci limite encore leur application dans les systèmes critiques dont la fiabilité doit être garantie.
Parallèlement à mon activité de recherche en informatique, je suis rédacteur en chef de deux revues scientifiques chez Elsevier : International Journal of Approximate Reasoning sur la gestion des incertitudes dans les systèmes intelligents et Array, une toute nouvelle revue en accès libre qui couvre tout le champ de l’informatique. Je m’investis dans ces responsabilités car je pense que l’édition scientifique joue un rôle fondamental dans la validation et la diffusion des résultats de la recherche. Ces fonctions me permettent également de me tenir au courant des développements récents en informatique et de l’évolution de mon propre domaine de recherche.
Quelles sont les applications de vos travaux de recherche ?
T. D. : La nécessité de maîtriser les incertitudes est une contrainte fondamentale dans la plupart des problèmes de traitement de l’information et d’aide à la décision. Il existe donc potentiellement de nombreuses applications à mes travaux de recherche. Au cours des dernières années, j’ai personnellement travaillé sur des applications très diverses telles que, par exemple, la reconnaissance d’adresses postales, le diagnostic de circuits de voie ferroviaires, la localisation de tumeurs dans des images médicales, et la reconnaissances d’objets dans des scènes routières pour l’aide à conduite automobile. Ces applications ont été développées en collaboration avec des instituts de recherches, avec d’autres laboratoires, et avec des industriels.
Les modèles les plus performants actuellement pour la perception, basés sur les réseaux de neurones profonds, peuvent dans certaines situations donner des résultats faux avec une grande confiance. Or, un système de perception équipant, par exemple, un véhicule autonome, doit être capable d’évaluer sa propre fiabilité dans une situation donnée, afin de rendre la main au conducteur en cas de doute. Je travaille donc essentiellement sur certains aspects théoriques et formels devant conduire au développement de nouveaux systèmes de décision plus « prudents ». En pratique, l’une des directions que j’explore actuellement consiste à combiner des réseaux de neurones profonds classiques avec des modules basés sur la théorie des fonctions de croyance. Ces modèles seront à terme validés sur des données réelles, puis appliqués à différents problèmes tels que la reconnaissance d’objets dans des scènes routières pour la conduite autonome.
Quelles sont les avancées récentes du domaine et celle à venir selon vous ?
T. D. : Depuis quelques années, des gains de performance spectaculaires ont été réalisés dans certaines tâches complexes de classification et de prédiction grâce au développement des réseaux de neurones profonds. Ces avancées ont focalisé l’attention au point de réduire parfois l’Intelligence Artificielle aux seules techniques d’apprentissage automatique. Or, l’intelligence ne se limite pas, loin s’en faut, aux seules tâches de perception. Je pense que de nouvelles ruptures technologiques viendront, à terme, d’une meilleure intégration entre des techniques d’apprentissage et de raisonnement. Ceci fait d’ailleurs l’objet d’un groupe de travail « Apprentissage et raisonnement » du GdR IA. Une approche à laquelle je m’intéresse actuellement et qui va dans ce sens vise à exploiter des similitudes entre certains calculs réalisés dans les réseaux de neurones et des mécanismes de fusion d’informations utilisés en raisonnement incertain. Ces travaux, combinés avec d’autres approches, devraient contribuer au développement de systèmes plus intelligents, combinant des techniques d’apprentissage et de raisonnement, et utilisant à la fois de grandes masses de données et des bases de connaissances.