BLOT Michaël

Docteur
Équipe : MLIA
Date de départ : 25/12/2018
Direction de recherche : Matthieu CORD
Co-encadrement : THOME Nicolas

Problématiques de modélisation et d'apprentissage par des architectures profondes en vision par ordinateur

Étude de l'apprentissage et de la généralisation des réseaux profonds en classification d'images.
L'intelligence artificielle connaît un regain d’intérêt important ces dernières années, avec des avancées particulièrement impressionnantes en vision par ordinateur. Plus précisément, les réseaux de neurones profonds (deep learning) permettent désormais d'automatiser de nombreuses tâches en traitement de l’information visuelle. Cette famille d'algorithmes d’apprentissage statistique (machine learning) démontre une grande facilité à apprendre sur des ensembles de données de très grande taille. Malgré leurs performances remarquables, leur capacité de généralisation demeure largement incomprise. D'un point de vue recherche et application du deep learning, les demandes sont de plus en plus exigeantes en terme de performance et d'explicabilité. C'est dans cet objectif que se placent nos recherches dont les contributions sont présentées dans cette thèse.
Nous avons tout d’abord travaillé sur l’accélération de l'entraînement des réseaux via des méthodes de calcul distribué sur plusieurs GPU. Diminuer le temps d'optimisation des réseaux de neurones permet effectivement de tester plus facilement de nouvelles architectures ainsi que de nouvelles méthodes d'apprentissage. Nous avons ensuite étudié les architectures des réseaux de convolution dans le but de les améliorer, sans toutefois trop augmenter leur complexité. Nous avons proposé une nouvelle fonction d'activation, qui, filtrant moins d'information que la fonction standard ReLU, permet un meilleur traitement de l'information sémantique. Enfin, nous avons envisagé de régulariser l'entraînement des réseaux. Nous avons particulièrement étudié un critère de régularisation basé sur la théorie de l'information, que nous avons déployé de deux façons différentes. La première instanciation modélise le critère couche par couche pour plus d'efficacité. La seconde exploite une borne variationnelle pour majorer le critère et l'optimiser. Les deux méthodes ont été rigoureusement validées par comparaison avec l'état de l'art sur de nombreuses bases de données références en classification d'image, telle que ImageNet.
Soutenance : 19/11/2018 - 14h - Site Jussieu 25-26/105
Membres du jury :
M. Liva Ralaivola, Aix-Marseille Université - LIF
Mme Elisa Fromont, INRIA de Rennes - IRISA
M. Aurelien Bellet, INRIA de Lille
M. Alain Rakotomamonjy, INSA de Rouen - LITIS [Rapporteur]
M. Christian Wolf, INSA de Lyon - LIRIS [Rapporteur]
M. Matthieu Cord, Sorbonne Université - LIP6
M. Nicolas Thome, CNAM - CEDRIC

Publications 2016-2019

 Mentions légales
Carte du site |