BAAJ Ismail

Docteur
Équipe : SMA
Date de départ : 04/02/2022
https://lip6.fr/Ismail.Baaj

Direction de recherche : Nicolas MAUDET

Co-encadrement : POLI Jean-Philippe

Génération de justification textuelle pour un système expert flou

Aujourd'hui, les progrès de l'Intelligence Artificielle (IA) ont conduit à l'émergence de systèmes capables d'automatiser des processus complexes, en utilisant des modèles qui peuvent être difficiles à comprendre par les humains. Lorsque les humains utilisent ces systèmes d'IA, il est bien connu qu'ils veulent comprendre leurs comportements et leurs actions, car ils ont davantage confiance dans les systèmes qui peuvent expliquer leurs choix, leurs hypothèses et leurs raisonnements. La capacité d'explication des systèmes d'IA est devenue une exigence des utilisateurs, en particulier dans les environnements à risque pour l'homme, comme les véhicules autonomes ou la médecine. Cette exigence reflète le récent regain d'intérêt pour l'intelligence artificielle eXplicable (abrégée en XAI), un domaine de recherche qui vise à développer des systèmes d'IA capables d'expliquer leurs résultats d'une manière compréhensible pour les humains.
Dans ce contexte, nous introduisons des paradigmes explicatifs pour deux types de systèmes d'IA : un système à base de règles possibilistes (où les règles encodent des informations négatives) et un système à base de règles floues composé de règles à possibilité, qui encodent des informations positives. Nous développons une interface possibiliste entre l'apprentissage et le raisonnement basé sur des règles si-alors qui établit des points de rencontre entre Knowledge Representation and Reasoning (KRR) et Machine Learning (ML). Cette interface est construite en généralisant le système d'équations min-max de Henri Farreny et Henri Prade, qui a été développé pour l'explicabilité des systèmes à base de règles possibilistes. Dans le cas d'une cascade, c'est-à-dire lorsqu'un système utilise deux ensembles de règles possibilistes chaînés, nous montrons que nous pouvons représenter son système d'équations associé par un réseau de neurones min-max explicite. Cette interface peut permettre le développement de méthodes d'apprentissage possibilistes qui seraient cohérentes avec le raisonnement à base de règles.
Pour XAI, nous introduisons des méthodes pour justifier les résultats d'inférence des systèmes à base de règles possibilistes et floues. Nos méthodes conduisent à former deux types d'explications d'un résultat d'inférence de ces systèmes : sa justification et son caractère inattendu (un ensemble d'énoncés logiques qui ne sont pas impliqués dans la détermination du résultat considéré tout en étant liés à celui-ci).
Enfin, nous proposons une représentation graphique de l'explication d'un résultat d'inférence d'un système à base de règles possibilistes ou floues en termes de graphes conceptuels. Pour un résultat d'inférence, nous représentons sa justification, son caractère inattendu et une combinaison de sa justification et de son caractère inattendu.

Soutenance : 27/01/2022

Membres du jury :

José Maria Alonso Moral (Ramón y Cajal researcher, Université de Saint-Jacques-de-Compostelle) [rapporteur]
Sébastien Destercke (CR CNRS HDR, Université de Technologie de Compiègne) [rapporteur]
Madalina Croitoru (Professeure, Université de Montpellier)
Vincent Mousseau (Professeur, CentraleSupélec)
Patrice Perny (Professeur, Sorbonne Université)
Marie-Jeanne Lesot (Maîtresse de Conférences HDR, Sorbonne Université)
Nicolas Maudet (Professeur, Sorbonne Université)
Jean-Philippe Poli - (Ingénieur de recherche, CEA)
Wassila Ouerdane - (Maîtresse de Conférences, CentraleSupélec)

Date de départ : 04/02/2022

Publications 2019-2022

Mentions légales
Carte du site