FX : Formal eXplainability toolkit
L'objectif est de développer une boîte à outils pour l'explicabilité de l'apprentissage automatique, qui regroupe les travaux récents sur les approches formelles de l'explicabilité.
Ce projet consiste à expliquer les modèles d'apprentissage automatique les plus populaires, y compris les réseaux neuronaux, les arbres de décision, les listes de décision, les ensembles de décision, les classificateurs naïfs de Bayes, les classificateurs monotones, les classificateurs représentés avec des langages de logique propositionnelle, entre autres.
Champs thématiques adressés par le projet :
-
Philosophy and Ethics of AI (PEAI)
-
Constraint Satisfaction and Optimization (CSO)
-
Knowledge Representation and Reasoning (KRR)
Plus d’information sur le projet et accès aux ressources :
L’équipe de recherche à l’origine du projet s’appuie sur le réseau d’ingénieurs du PNRIA
Equipe de recherche :
- Joao Marques-Silva IRIT (CNRS/Université Toulouse 3 Paul Sabatier/INP Toulouse)
Ingénieurs du PNRIA :
- Caroline de Pourtalès IRIT (CNRS/Université Toulouse 3 Paul Sabatier/INP Toulouse)