Les avancées rapides en Intelligence Artificielle (IA), bien que fortement tributaires de vastes ensembles de données, se heurtent fréquemment à des environnements réels contraints, caractérisés par des ressources limitées et des flux de données continus, particulièrement dans les scénarios d'apprentissage continu. Dans ces contextes dynamiques, les modèles d'IA doivent constamment s'adapter à de nouvelles informations sans perdre les connaissances acquises précédemment. Les modèles génératifs offrent une solution puissante en synthétisant des données réalistes, réduisant considérablement les fardeaux d'acquisition et de stockage des données. Cependant, leur déploiement efficace en apprentissage continu fait face à un double défi : leur susceptibilité inhérente à l'oubli catastrophique et le besoin critique d'un conditionnement précis pour garantir que les sorties générées s'alignent sur les exigences spécifiques de l'utilisateur.
La première contribution introduit un cadre novateur pour le conditionnement de l'espace latent désenchevêtré dans les modèles génératifs, permettant l'apprentissage de distributions gaussiennes distinctes et séparées dans l'espace latent. Ceci est réalisé grâce à une combinaison unique d'une perte de vraisemblance pour préserver la continuité de la variété des données et d'une perte répulsive pour éviter le chevauchement des gaussiennes. Ce désenchevêtrement s'avère non seulement crucial pour une génération conditionnelle robuste, mais améliore également les performances dans les tâches d'augmentation d'images et de classification. S'appuyant sur ce paradigme, la seconde contribution se concentre sur le conditionnement incrémental des modèles génératifs, optimisant la performance soutenue tout en minimisant l'oubli. Deux solutions distinctes sont proposées : la première exploite le conditionnement susmentionné, démontrant ses avantages substantiels dans les scénarios d'apprentissage incrémental. La seconde solution explore de nouvelles architectures utilisant des sous-instances de réseaux conditionnels, conçues pour acquérir efficacement de nouvelles informations sur les classes apprises avec une empreinte mémoire minimale, contournant ainsi complètement l'oubli catastrophique. Collectivement, les méthodes proposées permettent aux modèles génératifs d'assimiler rapidement de nouvelles connaissances, sur les classes, sans compromettre l'apprentissage antérieur ni exiger des ressources mémoire excessives, marquant une avancée significative dans leur applicabilité au sein d'environnements dynamiques et contraints par les données.