DULAC-ARNOLD Gabriel

Docteur
Équipe : MLIA
Date de départ : 01/05/2014
https://lip6.fr/Gabriel.Dulac-Arnold
https://lip6.fr/Gabriel.Dulac-Arnold

Direction de recherche : Patrick GALLINARI

Co-encadrement : DENOYER Ludovic

Modèles Sequentiels pour la Classification Multiclasse, Sparse et Budgetée

Cette thèse s’intéresse au développement de modèles séquentiels d’apprentissage pour la classification, qui sont des modèles permettant de traiter des tâches pour lesquelles le processus de décision ne peut être modélisé par un processus atomique. C’est par exemple le cas quand l’information à traiter n’est pas immédiatement disponible, ou quand l’objet à classifier est composé d’information dont l’accès est plus ou moins simple en terme de temps, de puissance de calcul, ou même de prix. Le but de notre travail est d’introduire une nouvelle méthode appelé ‘classification datum-wise’, qui permet le traitement de ces tâches de classification complexes en modélisant l’acquisition d’information et la décision par un processus séquentiel. Nous commençons ce manuscrit par un survol des méthodes classiques d’apprentissage supervisé et des méthodes d’apprentissage par renforcement qui sont au coeur de ces travaux. Puis, à partir des notions introduites, nous présentons les classifieurs dits ‘datum-wise’, qui sont des classifieurs modélisés par une politique dans un proces- sus séquentiel apprise à travers des algorithmes d’apprentissage par renforcement. Nous montrons la capacité de cette méthode à résoudre deux problèmes classiques : la classification textuelle et la classification d’image, et montrons les avantages de notre méthode en comparaison des approches classiques. Dans la suite de notre thèse, nous montrons que, par la modification de la fonc- tion récompense et de la structure du processus de décision, nous pouvons ajouter au système des contraintes en terme de parcimonie ou bien de prix par exemple, et proposons donc une famille de modèles plus généraux pour la classification sous con- trainte. Le modèle proposé permet ainsi de résoudre des problèmes où l’acquisition de caractéristiques a un coût, ou bien encore quand le système dispose d’un budget fixé ou limité. Cette résolution se fait au prix d’une augmentation significative de la complexité d’apprentissage. Ce dernier aspect est traité par la proposition et l’évaluation de deux nouveaux algorithmes d’apprentissage par renforcement per- mettant l’apprentissage de politique sous-optimales, mais avec une complexité très faible par rapport aux méthodes du domaine.

Soutenance : 07/02/2014

Membres du jury :

Stéphane Canu, INSA de Rouen [Rapporteur]
Balázs Kégl, Laboratoire Accélerateur Linéarie, Paris Sud [Rapporteur]
Ludovic Denoyer, LIP6-UPMC
Stéphane Doncieux, ISIR-UPMC
Damien Ernst, Université de Liège
Patrick Gallinari, LIP6-UPMC
Philippe Preux, INRIA Nord / LIFL
Bruno Scherrer, INRIA Nancy

Date de départ : 01/05/2014

Publications 2011-2014

Mentions légales
Carte du site