JEYASOTHY Adulam
Direction de recherche : Marie-Jeanne LESOT, Christophe MARSALA
Co-encadrement : LAUGEL Thibault (AXA)
Interprétabilité des modèles en apprentissage automatique
La thèse se place dans le domaine de l'IA explicable (XAI, eXplainable AI). Nous nous concentrons sur les méthodes d'interprétabilité post-hoc qui visent à expliquer à un utilisateur la prédiction effectuée pour une donnée d'intérêt spécifique par un modèle de décision entraîné.
Pour augmenter l'interprétabilité des explications, cette thèse étudie l'intégration de connaissances utilisateur dans ces méthodes, et vise ainsi à améliorer la compréhensibilité de l'explication en générant des explications personnalisées adaptées à chaque utilisateur. Pour cela, nous proposons un formalisme général qui intègre explicitement la connaissance via un nouveau critère dans les objectifs d'interprétabilité. Ce formalisme est ensuite décliné pour différents types de connaissances et différents types d'explications, particulièrement les exemples contre-factuels, conduisant à la proposition de plusieurs algorithmes (KICE, Knowledge Integration in Counterfactual Explanation, rKICE pour sa variante incluant des connaissances exprimées par des règles et KISM, Knowledge Integration in Surrogate Models).
La question de l'agrégation des contraintes de qualité classique et de compatibilité avec les connaissances est également étudiée et nous proposons d'utiliser l'intégrale de Gödel comme opérateur d'agrégation.
Enfin, nous discutons de la difficulté à générer une unique explication adaptée à tous types d'utilisateurs et de la notion de diversité dans les explications.
Soutenance : 20/02/2024
Membres du jury :
Wassila OUERDANE, Maîtresse de conférences HDR, Centrale Supélec [Rapporteur]
Benjamin QUOST, Maître de conférences HDR, Université de technologie de Compiègne [Rapporteur]
Salem BENFERHAT, Professeur des universités, Université d'Artois
Grégory BOURGUIN, Maître de conférences, Université du littoral Côte d'Opale
Marc PLANTEVIT, Professeur des universités, EPITA
Thibault LAUGEL, Chargé de recherche, AXA
Marie-Jeanne LESOT, Professeure des universités, Sorbonne Université
Christophe MARSALA, Professeur des universités, Sorbonne Université
Publications 2022-2024
-
2024
- A. Jeyasothy : “Interprétabilité des modèles en apprentissage automatique”, thèse, soutenance 20/02/2024, direction de recherche Lesot, Marie-Jeanne Marsala, Christophe, co-encadrement : Laugel, Thibault (AXA) (2024)
-
2023
- A. Jeyasothy, A. Rico, M.‑J. Lesot, Ch. Marsala, Th. Laugel : “Intégration de connaissances en XAI avec les intégrales de Gödel”, LFA 2023 - RENCONTRES FRANCOPHONES SUR LA LOGIQUE FLOUE ET SES APPLICATIONS, Bourges, France, (Cépaduès) (2023)
- A. Jeyasothy, Th. Laugel, M.‑J. Lesot, Ch. Marsala, M. Detyniecki : “A General Framework for Personalising Post Hoc Explanations through User Knowledge Integration”, International Journal of Approximate Reasoning, vol. 160, pp. 108944, (Elsevier) (2023)
- A. Jeyasothy, A. Rico, M.‑J. Lesot, Ch. Marsala, Th. Laugel : “Knowledge Integration in XAI with Gödel Integrals”, International Conference on Fuzzy Systems, Incheon, Korea, Republic of (2023)
- Th. Laugel, A. Jeyasothy, M.‑J. Lesot, Ch. Marsala, M. Detyniecki : “Achieving Diversity in Counterfactual Explanations: a Review and Discussion”, FAccT ’23, vol. 23 (6), Chicago, Il, United States, (ISBN: 979-8-4007-0192-4) (2023)
-
2022
- A. Jeyasothy, Th. Laugel, M.‑J. Lesot, Ch. Marsala, M. Detyniecki : “Intégration de connaissances dans les méthodes d’explications post-hoc”, Rencontres francophones sur la logique floue et ses applications, Toulouse, France (2022)
- A. Jeyasothy, Th. Laugel, M.‑J. Lesot, Ch. Marsala, M. Detyniecki : “Integrating Prior Knowledge in Post-hoc Explanations”, Information Processing and Management of Uncertainty in Knowledge-Based Systems (IPMU'2022), vol. 1602, Communications in Computer and Information Science, Milan, Italy, pp. 707–719, (Springer) (2022)