Cette thèse se place dans le domaine de l'IA eXplicable (XAI) centrée sur l'humain, et plus particulièrement sur l'intelligibilité des explications pour les utilisateurs non-experts. Le contexte technique est le suivant : d'un côté, un classificateur ou un régresseur opaque fournit une prédiction, et une approche XAI post-hoc génère des informations qui agissent comme des explications ; de l'autre côté, l’utilisateur reçoit à la fois la prédiction et ces explications. Dans ce contexte, plusieurs problèmes peuvent limiter la qualité des explications. Ceux sur lesquels nous nous concentrons sont : le manque d'informations contextuelles dans les explications, le manque d'orientation pour la conception de fonctionnalités pour permettre à l'utilisateur d'explorer l'interface explicatives et la confusion potentielle qui peut être générée par la quantité d'informations.
Nous développons une procédure expérimentale pour concevoir des interfaces utilisateur explicatives (XUIs) et évaluer leur intelligibilité avec des utilisateurs non-experts. Nous proposons plusieurs principes XAI génériques et leur implémentation dans différentes XUIs pour les explications exprimées sous la forme de scores d'importance d'attributs ainsi que d'exemples contrefactuels. Nous évaluons la compréhension objective et la satisfaction de ces interfaces à travers des études utilisateurs. À un niveau fondamental, nous considérons la question théorique des incohérences éventuelles de ces explications. Nous étudions ces incohérences et proposons une typologie pour structurer les incohérences les plus courantes de la littérature.