Les travaux présentés dans cette thèse se situent à l’intersection de la théorie de la décision et de l’apprentissage automatique. L’objectif est de proposer des méthodes d’apprentissage pour des modèles de préférences issus de la théorie de la décision, dans le but d’expliquer ou de prédire les préférences d’un décideur.
Nous nous intéressons en particulier aux modèles de type fonction de valeur prenant en compte les interactions entre les différents points de vue sur les alternatives, tels que l’intégrale de Choquet, l’utilité multilinéaire et les fonctions d’utilité GAI décomposables. Ces modèles présentent un fort pouvoir descriptif, tout en assurant une forme de rationalité dans les préférences via le respect de propriétés mathématiques souhaitables, et en permettant l’interprétabilité grâce à leurs paramètres.
En raison de la nature combinatoire des interactions, l’apprentissage de ces modèles représente un défi computationnel, car il nécessite la détermination d’un nombre exponentiel de paramètres, parfois soumis à des contraintes combinatoires.
Dans cette thèse, nous proposons de contrôler la flexibilité de ces modèles via l’apprentissage de représentations parcimonieuses des interactions, notamment à l’aide de régularisations favorisant la parcimonie, et d’alléger la complexité computationnelle en exploitant des méthodes d’optimisation convexes pour l’apprentissage automatique, adaptées à l’apprentissage parcimonieux en grande dimension. Finalement, cette thèse fournit :