Séminaire SMARSS

Une approche pour la prise de décision décentralisée par des agents autonomes en environnements complexes


07/04/2008
Intervenant(s) : Aurélie Beynier (Laboratoire GREYC, ENSICAEN)
Nous nous intéressons au problème de la prise de décision distribuée dans des systèmes multi-agents agissant sous incertitude (les colonies de robots autonomes par exemple). Les processus décisionnels de Markov Décentralisés décrivent un formalisme mathématique permettant de modéliser et de résoudre de tels problèmes. Leur utilisation pour la planification des tâches dans des applications réelles pose toutefois quelques difficultés. Le modèle usuel des DEC-MDPs ne permet par exemple pas la prise en compte de contraintes sur l'exécution des tâches. De plus, la complexité de leur résolution est telle qu'il est difficile de déterminer une solution optimale excepté pour de petits problèmes.
Le travail que nous présentons a pour premier objectif d'adapter le modèle des DEC-MDPs afin de proposer une modélisation adéquate du temps et des actions, et de permettre la représentation de problèmes réels. Nous décrivons ainsi une nouvelle classe de DEC-MDPs : les OC-DEC-MDPs (DEC-MDP avec Coût Occasionné). Dans un second temps, nous nous intéressons à leur résolution. Nous proposons différents algorithmes procédant à la planification des tâches de chaque agent en vue d'une prise de décision décentralisée et autonome, en accord avec les contraintes du problème. Afin de développer des algorithmes efficaces et de traiter des problèmes de taille importante, nous recherchons une approximation de la solution optimale. Nous procédons également à un découpage du problème initial en un ensemble de MDPs, et introduisons la notion de coût occasionné afin de tenir compte des interactions entre les agents et de calculer des politiques coopératives.
Plus d'informations ici
thomas.genin (at) nulllip6.fr
 Mentions légales
Carte du site |