Permettre à l'IA de détecter la vérité malgré des sources contradictoires
La fusion de connaissances et la gestion de l'incohérence sont des concepts essentiels pour garantir la robustesse des décisions d’une intelligence artificielle. Sébastien Konieczny, directeur de recherche CNRS au Centre de recherche en informatique de Lens (CRIL - CNRS/Université d'Artois), étudie les grands principes qui permettent à des systèmes intelligents de raisonner de manière fiable en présence d’incohérences dans leurs sources d’information. Il vient d’être nommé EurAI Fellow 2024.
Jusqu’à présent, l'apprentissage automatique s’est imposé comme un emblème de l'intelligence artificielle moderne. Mais dans l'ombre de ces prouesses techniques, les scientifiques s'attellent à d'autres défis tout aussi cruciaux tels que la modélisation du raisonnement. L’objectif : permettre à une machine de prendre des décisions, résoudre des problèmes ou déduire des conclusions à partir de connaissances. Dans ce cadre, Sébastien Konieczny, directeur de recherche CNRS au CRIL, s’intéresse au raisonnement en présence de conflits. Que faire lorsque plusieurs informations se contredisent ?
Pour y répondre, le chercheur du CRIL développe des méthodes théoriques qui permettent à une IA de détecter l'incohérence, de raisonner sur celle-ci et sur son origine, puis de mettre en place des mécanismes pour s’ajuster de manière automatique. « Une façon de gérer l’incohérence est de supprimer certaines informations qui la génèrent. Nous cherchons à déterminer un classement de la plausibilité relative des informations. Celui-ci aide les méthodes de raisonnement à déterminer les informations qui doivent être privilégiées en se basant sur des critères de fiabilité ou de pertinence », explique Sébastien Konieczny.
En particulier, le chercheur se focalise sur deux grandes catégories de problèmes : la fusion et la révision de connaissances. « En fusion des connaissances, l’enjeu est de combiner les informations fournies par différentes sources sur un même objet pour en fournir une analyse plus précise et fiable. C’est une question importante pour les systèmes multi-agents ou les bases de données distribuées, par exemple », explique-t-il. Si l’objectif est d’atteindre la vérité et que les informations transmises sont contradictoires, le système intelligent doit donc pondérer les informations selon la fiabilité des sources.
En ce sens, Sébastien Konieczny a apporté de nouvelles généralisations au théorème du jury de Condorcet, un concept central de la théorie du vote et de la prise de décision collective. « Ce théorème émet l’hypothèse que tout le monde a la même fiabilité, ce qui n’est généralement pas le cas dans la vie de tous les jours. Pour se rapprocher de la réalité, nous avons proposé des méthodes qui tentent d’estimer la fiabilité de chaque source en comparant leurs réponses », décrit le chercheur. Résultat : leur approche permet de mieux identifier la vérité que les méthodes qui supposent la même fiabilité pour chaque source d’information.
En ce qui concerne la révision de connaissances, un système intelligent réalise, cette fois-ci, une observation ou reçoit une information par une source fiable qui lui démontre que ses connaissances initiales sont erronées. Il doit alors faire le tri dans ses connaissances et les remplacer par de nouvelles. Les méthodes développées par Sébastien Konieczny sont indispensables dans le cas, par exemple, du raisonnement de robots autonomes pour qu’ils puissent être capables de réagir à des situations imprévues.
En 2024, le directeur de recherche est nommé EurAI Fellow. Ce titre, décerné par l’association européenne d’intelligence artificielle, récompense l’ensemble de ses activités de recherche portant sur la fusion de croyances et la gestion de l’incohérence.