Exploitation de modèles d'explications pour les algorithmes d'apprentissage profond
Project Leader : Christophe Marsala
01/10/2024
Histoire des agences d'images et vision par ordinateur
Project Leader : Isabelle Bloch
01/10/2024
Méthodes Avancées pour l'Assistance à la Gastro-endoscopie Interventionnelle Endoscopique
Project Leader : Isabelle Bloch
01/01/2024
IFP-in-RL - Politique de conception floue interprétable en apprentissage par renforcement
Dans le contexte général du domaine de l’eXplainable Artificial Intelligence (XAI), le projet IFP-in-RL a pour objectif la proposition d'une méthode de construction automatique d'un système de contrôle d'un système, tel qu'un drone, qui prenne en compte la contrainte d'interprétabilité dans sa conception même. Pour cela, ce projet se place dans le cadre des systèmes à base de règles floues qui, depuis leur introduction, ont pour but de faciliter l’expression de connaissances sous une forme linguistique, naturelle pour l’utilisateur, et facilement compréhensible par un humain. Une telle représentation des connaissances est un excellent moyen de favoriser l’interaction de l’humain avec le système informatique et d’améliorer sa compréhension de son fonctionnement, offrant ainsi la possibilité de rendre son comportement transparent et facilement validable. Dans la littérature, différentes approches de construction ou de mise au point d’une base de règles floues pour concevoir un système existent, mais elles souffrent généralement du travers de ne pas intégrer une optimisation spécifique de l’interprétabilité.
Dans ce projet IFP-in-RL, une méthodologie innovante est introduite pour la conception de tels systèmes. Cette méthodologie est basée sur la mise en œuvre d’une approche d’apprentissage par renforcement utilisant des métriques d’interprétabilité. L’objectif ici est d’intégrer la prise en compte et l’optimisation de l’interprétabilité souhaitée au cours de l’apprentissage même, et non a posteriori comme de nombreuses méthodes le font actuellement dans le domaine de l’XAI.
Le projet IFP-in-RL vise pour cela à réaliser, en amont, une étude complète, à la fois théorique et expérimentale, de métriques d’interprétabilité, incluant les critères numériques existants ainsi que les besoins des utilisateurs. Il s’agira de proposer une taxonomie des métriques existantes et de définir de nouvelles mesures si nécessaire, afin de compléter les précédentes et de permettre leur exploitation dans des algorithmes d’apprentissage par renforcement originaux. Une originalité de ce projet est d’intégrer une évaluation qualitative, menée auprès d’un panel humain, des métriques proposées mais aussi des bases de règles obtenues à l’issue de l’apprentissage par renforcement.
En termes applicatifs, le projet IFP-in-RL a pour objectif la mise en oeuvre de ces propositions pour le pilotage d'un drone, naviguant en toute autonomie pour assurer une mission consistant à survoler des points d'intérêt et les prendre en photo, à partir de données fournies par un simulateur.
Project Leader : Christophe MARSALA
01/01/2023
Politique de conception floue interprétable en apprentissage par renforcement
Project Leader : Christophe Marsala
01/10/2022
Apprentissage de mesure de similarité pour le transfert analogique
Project Leader : Marie-Jeanne Lesot
01/10/2022
Laboratoire Commun AXA Group - Trustworthy And Responsible AI Lab
Project Leader : Christophe Marsala
13/12/2021
Premature Human Connectome Patterns: mapping the fetal brain development using extreme field MRI
C21/1480
Project Leader : Isabelle Bloch
01/10/2021
Intelligence artificielle hybride appliqué à la sigillographie byzantine
Project Leader : Isabelle Bloch
01/09/2021
Laboratoire Commun TRIBVN - Jumeaux Numériques pour le Diagnostic
Project Leader : Isabelle Bloch
01/05/2021