Présentation

L’équipe LFI mène des recherches ayant pour cadre le développement théorique et pratique d'approches interprétables d'intelligence artificielle, et ce au profit de l'aide à la décision, de la science des données et de l'apprentissage automatique. En cela, ses recherches s'inscrivent dans le contexte de l’intelligence artificielle explicable (eXplainable Artificial Intelligence, XAI).

L’équipe développe des approches d'apprentissage automatique interprétable (interprétabilité par construction), afin de construire des modèles interprétables capables de produire des décisions explicables. Dans ce cadre, elle intègre des techniques issues de l'intelligence computationnelle, telles que la théorie des sous-ensembles flous pour représenter des données numériques à l'aide d'étiquettes linguistiques.

L'équipe développe aussi des travaux en IA hybride et explicable, c'est-à-dire impliquant différents formalismes d'IA (logique, ensembles flous, graphes, apprentissage), avec un fort ancrage dans les formalismes algébriques (treillis) et dans différents formalismes mathématiques.


Auto-évaluation Archives Soutenances de thèse
Dessin Bulles HAL Annuaire 1 projet

Mots-clés

IA hybride Logique floue Intelligence computationnelle Apprentissage artificiel IA explicable (XAI)

Sélection de publications