BERREBY Fiona

Docteur
Équipe : ACASA
Localisation : Campus Pierre et Marie Curie
    Sorbonne Université - LIP6
    Boîte courrier 169
    Couloir 26-00, Étage 5, Bureau 507
    4 place Jussieu
    75252 PARIS CEDEX 05
Tel: 01 44 27 71 19, Fiona.Berreby (at) nulllip6.fr
Direction de recherche : Jean-Gabriel GANASCIA
Co-encadrement : BOURGNE Gauvain

Modélisation des Systèmes Ethiques

Cette thèse s'inscrit dans le cadre du projet ANR eThicAa, dont les ambitions ont été: de définir ce que sont des agents autonomes éthiques, de produire des représentations formelles des conflits éthiques et de leurs objets (au sein d’un seul agent autonome, entre un agent autonome et le système auquel il appartient, entre un agent autonome et un humain, entre plusieurs agents autonomes) et d'élaborer des algorithmes d’explication pour les utilisateurs humains. L'objet de la thèse plus particulièrement a été d'étudier la modélisation de conflits éthiques au sein d'un seul agent, ainsi que la production d'algorithmes explicatifs. Ainsi, le travail présenté ici décrit l’utilisation de langages de haut niveau dans la conception d’agents autonomes éthiques. Il propose un cadre logique nouveau et modulaire pour représenter et raisonner sur une variété de théories éthiques, sur la base d’une version modifiée du calcul des événements, implémentée en Answer Set Programming. Le processus de prise de décision éthique est conçu comme une procédure en plusieurs étapes, capturée par quatre types de modèles interdépendants qui permettent à l’agent d’évaluer son environnement, de raisonner sur sa responsabilité et de faire des choix éthiquement informés. En particulier, un modèle d’action permet à l’agent de représenter des scénarios et les changements qui s’y déroulent, un modèle causal piste les conséquences des décisions prises dans les scénarios, rendant possible un raisonnement sur la responsabilité et l’imputabilité des agents, un modèle du Bien donne une appréciation de la valeur éthique intrinsèque de finalités ou d’événements, un modèle du Juste détermine les décisions acceptables selon des circonstances données. Le modèle causal joue ici un rôle central, car il permet d'identifier des propriétés que supposent les relations causales et qui déterminent comment et dans quelle mesure il est possible d'en inférer des attributions de responsabilité. Notre ambition est double. Tout d’abord, elle est de permettre la représentation systématique d’un nombre illimité de processus de raisonnements éthiques, à travers un cadre adaptable et extensible en vertu de sa hiérarchisation et de sa syntaxe standardisée. Deuxièmement, elle est d’éviter l’écueil de certains travaux d’éthique computationnelle qui directement intègrent l’information morale dans l’engin de raisonnement général sans l’expliciter -- alimentant ainsi les agents avec des réponses atomiques qui ne représentent pas la dynamique sous-jacente. Nous visons à déplacer de manière globale le fardeau du raisonnement moral du programmeur vers le programme lui-même.
Soutenance : 06/12/2018 - 14h - Site Jussieu 14-24/207
Membres du jury :
Dr. HDR Emiliano LORINI, Université de Toulouse III [Rapporteur]
Pr. Thomas POWERS, University of Delaware [Rapporteur]
Dr. Virginia DIGNUM, TU Delft
Pr. Raja CHATILA, Sorbonne Université
Pr. Nicolas MAUDET, Sorbonne Université
Dr. Grégory BONNET, Université de Caen Normandie
Dr. Gauvain BOURGNE, Sorbonne Université
Pr. Jean-Gabriel GANASCIA, Sorbonne Université

Publications 2015-2018

 Mentions légales
Carte du site |