- Laboratoire d’informatique

ENESCU Victor

Doctorant à Sorbonne Université (Moniteur, Bourse EDITE)
Équipe : SYEL
    Sorbonne Université - LIP6
    Boîte courrier 169
    Couloir 24-25, Étage 5, Bureau 513
    4 place Jussieu
    75252 PARIS CEDEX 05

01 44 27 75 07
Victor.Enescu (at) nulllip6.fr
https://lip6.fr/Victor.Enescu

Direction de recherche : Hichem SAHBI

Modèles Génératifs Profonds pour l’Apprentissage Visuel Frugal et Continu

Les avancées rapides en Intelligence Artificielle (IA), bien que fortement tributaires de vastes ensembles de données, se heurtent fréquemment à des environnements réels contraints, caractérisés par des ressources limitées et des flux de données continus, particulièrement dans les scénarios d'apprentissage continu. Dans ces contextes dynamiques, les modèles d'IA doivent constamment s'adapter à de nouvelles informations sans perdre les connaissances acquises précédemment. Les modèles génératifs offrent une solution puissante en synthétisant des données réalistes, réduisant considérablement les fardeaux d'acquisition et de stockage des données. Cependant, leur déploiement efficace en apprentissage continu fait face à un double défi : leur susceptibilité inhérente à l'oubli catastrophique et le besoin critique d'un conditionnement précis pour garantir que les sorties générées s'alignent sur les exigences spécifiques de l'utilisateur.

La première contribution introduit un cadre novateur pour le conditionnement de l'espace latent désenchevêtré dans les modèles génératifs, permettant l'apprentissage de distributions gaussiennes distinctes et séparées dans l'espace latent. Ceci est réalisé grâce à une combinaison unique d'une perte de vraisemblance pour préserver la continuité de la variété des données et d'une perte répulsive pour éviter le chevauchement des gaussiennes. Ce désenchevêtrement s'avère non seulement crucial pour une génération conditionnelle robuste, mais améliore également les performances dans les tâches d'augmentation d'images et de classification. S'appuyant sur ce paradigme, la seconde contribution se concentre sur le conditionnement incrémental des modèles génératifs, optimisant la performance soutenue tout en minimisant l'oubli. Deux solutions distinctes sont proposées : la première exploite le conditionnement susmentionné, démontrant ses avantages substantiels dans les scénarios d'apprentissage incrémental. La seconde solution explore de nouvelles architectures utilisant des sous-instances de réseaux conditionnels, conçues pour acquérir efficacement de nouvelles informations sur les classes apprises avec une empreinte mémoire minimale, contournant ainsi complètement l'oubli catastrophique. Collectivement, les méthodes proposées permettent aux modèles génératifs d'assimiler rapidement de nouvelles connaissances, sur les classes, sans compromettre l'apprentissage antérieur ni exiger des ressources mémoire excessives, marquant une avancée significative dans leur applicabilité au sein d'environnements dynamiques et contraints par les données.


Soutenance : 26/09/2025

Membres du jury :

Anissa MOKRAOUI, Professeure, Université Sorbonne Paris Nord [rapporteur]
Chaabane DJERABA, Professeur, Université de Lille [rapporteur]
Lina MROUEH, Professeure, ISEP Paris
Vincent GRIPON, Professeur, IMT Atlantique
Adrian POPESCU, Directeur de recherche, CEA
Hichem SAHBI, Chercheur CNRS (HDR), Sorbonne Université

Publications 2024-2025