GAMOM NGOUNOU EWO Roland Christian

Docteur
Équipe : SYEL
Date de départ : 31/12/2015
https://lip6.fr/Christian.Gamom

Direction de recherche : Bertrand GRANADO

Co-encadrement : FOTSIN Hilaire Bertrand

Déploiement d'applications parallèles sur une architecture distribuée matériellement reconfigurable

Parmi les cibles architecturales susceptibles d'être utilisées pour réaliser un système de traitement sur puce (SoC), les architectures reconfigurables dynamiquement (ARD) offrent un potentiel de flexibilité et de dynamicité intéressant. Cependant ce potentiel est encore difficile à exploiter pour réaliser des applications massivement parallèles sur puce. Dans nos travaux nous avons recensé et analysé les solutions actuellement proposées pour utiliser les ARD et nous avons constaté leurs limites parmi lesquelles : l'utilisation d'une technologie particulière ou d'architecture propriétaire, l'absence de prise en compte des applications parallèles, le passage à l'échelle difficile, l'absence de langage adopté par la communauté pour l'utilisation de la flexibilité des ARD, ... Pour déployer une application sur une ARD il est nécessaire de considérer l'hétérogénéité et la dynamicité de l'architecture matérielle d'une part et la parallélisation des traitements d'autre part. L'hétérogénéité permet d'avoir une architecture de traitement adaptée aux besoins fonctionnels de l'application. La dynamicité permet de prendre en compte la dépendance des applications au contexte et de la nature des données. Finalement, une application est naturellement parallèle. Dans nos travaux nous proposons une solution pour le déploiement sur une ARD d'une application parallèle en utilisant les flots de conception standard des SoC. Cette solution est appelée MATIP (MPI Application Task Integreation Platform) et utilise des primitives du standard MPI version 2 pour effectuer les communications et reconfigurer l'architecture de traitement. MATIP est une solution de déploiement au niveau de la conception basée plate-forme (PBD). La plateforme MATIP est modélisée en trois couches : interconnexion, communication et application. Nous avons conçu chaque couche pour que l'ensemble satisfasse les besoins en hétérogénéité et dynamicité des applications parallèles . Pour cela MATIP utilise une architecture à mémoire distribuée et exploite le paradigme de programmation parallèle par passage de message qui favorise le passage à l'échelle de la plateforme. MATIP facilite le déploiement d'une application parallèle sur puce à travers un template en langage Vhdl d'intégration de tâches. L'utilisation des primitives de communication se fait en invoquant des procédures Vhdl. MATIP libère le concepteur de tous les détails liés à l'interconnexion, la communication entre les tâches et à la gestion de la reconfiguration dynamique de la cible matérielle. Un démonstrateur de MATIP a été réalisée sur des FPGA Xilinx à travers la mise en oe{}uvre d'une application constituée de deux tâches statiques et deux tâches dynamiques. MATIP offre une bande passante de 2,4 Gb/s et une la latence pour le transfert d'un octet de 3,43 µs ce qui comparée à d'autres plateformes MPI (TMD-MPI, SOC-MPI, MPI HAL) met MATIP à l'état de l'art.

Soutenance : 22/06/2015

Membres du jury :

Fabrice MULLER, Maître de Conférence, Université Nice Sophia Antipolis, [Rapporteur]
Samy MEFTALI, Maître de Conférences, Université des Sciences et Technologies de Lille (USTL), [Rapporteur]
Bertrand GRANADO, Professeur, UPMC
Hilaire Bertrand FOTSIN, Professeur, Université de Dschang
Sébastien PILLEMENT, Professeur, Ecole polytechnique de l'université de Nantes
Andréa PINNA, Maître de Conférence, Université Pierre et Marie Curie
Benoît MIRAMOND, Maître de Conférence, Université de Cergy Pontoise
Emmanuel CHAILLOUX, Professeur, Université Pierre et Marie Curie

Date de départ : 31/12/2015

Publications 2015-2022