BEGIN:VCALENDAR
CALSCALE:GREGORIAN
VERSION:2.0
X-WR-TIMEZONE:Europe/Paris
METHOD:PUBLISH
PRODID:-//LIP6//www.lip6.fr//FR
X-WR-CALNAME;VALUE=TEXT:Séminaire LIP6
X-LIC-LOCATION:Europe/Paris
BEGIN:VTIMEZONE
TZID:Europe/Paris
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
RRULE:FREQ=YEARLY;BYMONTH=3;BYDAY=-1SU
DTSTART:19810329T020000
TZNAME:GMT+02:00
TZOFFSETTO:+0200
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
RRULE:FREQ=YEARLY;BYMONTH=10;BYDAY=-1SU
DTSTART:19961027T030000
TZNAME:GMT+01:00
TZOFFSETTO:+0100
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
SUMMARY:Thèse Hassan SALMAN : Amélioration des modèles d'apprentis
 sage fédéré pour la cybersanté
ORGANIZER;CN=Hassan SALMAN:MAILTO:Hassan.Salman@lip6.fr
DESCRIPTION:L'apprentissage fédéré (FL) est devenu un paradigme pr
 ometteur pour l'apprentissage automatique collaboratif, permettant à
  plusieurs participants d'entraîner des modèles partagés tout en p
 réservant la confidentialité des données. Malgré son potentiel, l
 e FL fait face à des défis importants notamment la surcharge de com
 munication, l'hétérogénéité des données, l'hétérogénéité d
 es modèles, et la dégradation des performances dans des conditions 
 de données non-indépendantes et non-identiquement distribuées (non
 -IID). Ces défis sont particulièrement critiques dans des domaines 
 sensibles tels que la santé, la finance et l'informatique mobile, 
 où la préservation de la vie privée et la précision du modèle so
 nt essentielles. Cette thèse aborde ces défis par l'intégration de
  techniques de distillation de connaissances (KD) dans les cadres d'a
 pprentissage fédéré. La distillation de connaissances, qui transfe
 rt les connaissances de modèles enseignants complexes vers des modè
 les étudiants plus simples, offre une approche puissante pour attén
 uer les coûts de communication et gérer les environnements hétéro
 gènes tout en maintenant les performances du modèle. La première c
 ontribution introduit FedFB, un cadre d'apprentissage fédéré effic
 ace en communication conçu pour les applications d'imagerie médical
 e. FedFB utilise la distillation de connaissances d'ensemble en ligne
  avec un module d'attention-convolution auxiliaire pour permettre une
  collaboration efficace dans des conditions de distribution de donné
 es non-IID. Le cadre démontre une réduction substantielle de la sur
 charge de communication tout en maintenant une précision de classifi
 cation élevée dans l'analyse d'échographie cérébrale fœtale. La
  seconde contribution propose FedAK, un cadre d’apprentissage fé
 déré semi-supervisé en un seul tour de communication (one-shot), c
 ombinant des mécanismes d’attention au niveau des caractéristique
 s avec la distillation de connaissances. Contrairement aux approches 
 classiques d’apprentissage fédéré multi-tours, FedAK ne nécessi
 te qu’un seul tour de communication, réduisant ainsi considérable
 ment le trafic réseau. Le module d’agrégation basé sur l’atten
 tion gère efficacement l’hétérogénéité des modèles et génè
 re des caractéristiques d’ensemble informatives pour l’entraîne
 ment d’un modèle étudiant global. Dans l’ensemble, à travers u
 ne validation expérimentale approfondie sur plusieurs jeux de donné
 es de référence et des scénarios réels en imagerie médicale, cet
 te thèse démontre que les approches basées sur la distillation de 
 connaissances permettent de répondre efficacement aux défis fondame
 ntaux de l’apprentissage fédéré. Les cadres proposés offrent de
 s solutions pratiques améliorant l’efficacité de la communication
 , la robustesse face à l’hétérogénéité des données et des mo
 dèles, ainsi que les performances globales d’apprentissage dans de
 s contextes d’imagerie médicale.
DTSTAMP:20260414T150549Z
DTSTART;TZID=Europe/Paris:20260417T140000
DURATION:PT2H
URL;VALUE=URI:https://www.lip6.fr/actualite/personnes-fiche.php?ident=D2820
UID:LIP6/SEM/D2820
LOCATION:Salle Capsule RC, Bâtiment ATRIUM
END:VEVENT
END:VCALENDAR
