Présentation

Avec la métamorphose numérique de notre société, l'éthique des STIC et en particulier de l'IA est devenue une question cruciale. Il est évident que toutes ces techniques pénètrent profondément dans notre vie quotidienne, impliquant des modifications des relations humaines, du travail, des communications, de l'économie, etc. De nouvelles questions sont soulevées. Par exemple, les réflexions relatives à la protection de la vie privée doivent être repensées face à la généralisation de la collecte, de l'exploitation de masses de données individuelles s'appuyant sur des techniques issues de l'Intelligence Artificielle.

Dans le même ordre d'idée se posent tout un ensemble de questions liées à la conservation de ces données et le droit à l'oubli. Sur un autre ordre d'idée, les questions de responsabilité, de décision doivent être repensées face aux développements de l'autonomie de décision et des champs d'action d'agents logiciels, humains ou robotiques. Cette propriété fondamentale est devenue une caractéristique essentielle de nombreuses applications d'intelligence artificielle qui participent à la numérisation de notre société (commerce électronique, jeux interactifs, intelligence ambiante, assistance aux personnes, robotique sociale ou collective, robotique civile, etc.).

Dans un tel contexte, la question d'une régulation ou d'un contrôle éthique des agents logiciels ou robotiques ainsi que des systèmes constitués d’humains et d’agents autonomes se pose actuellement de manière prégnante. Ces questions sont par nature transverse à de multiples disciplines. En lien avec le projet ETHICAA, nous organisons cette Journée Éthique et Intelligence Artificielle avec pour vocation de croiser les questionnements et les approches, et de créer une communauté de réflexion sur ces sujets.

Comité d'organisation

  • Olivier Boissier (Institut Henri Fayol, Mines Saint-Etienne et Laboratoire Hubert Curien CNRS UMR 5516)
  • Grégory Bonnet (GREYC, Université de Caen Basse-Normandie)
  • Robert Voyer (ETOS, Telecom École de Management)

Documents


Programme

10:30-10:45 Introduction

10:45-11:30 Fondements : morale et éthique en intelligence artificielle, Robert Voyer (Telecom EM Sud Paris)

11:30-12:15 De l’éthique des données à l’éthique des masses de données, Jean Gabriel Ganascia (LIP6, Paris)

12:30-14:00 Repas

14:00-14:45 La régulation des données personnelles, entre oubli et mémoire, Annie Blandin (Télécom Bretagne, Chaire Jean Monnet)

14:45-15:30 Implémenter le droit à l'oubli, Sébastien Gambs (Research chair in security of information systems, Université de Rennes 1 - INRIA)

15:30-16:00 Pause

16:00-16:45 Éthique et autonomie des agents artificiels, Grégory Bonnet (GREYC, Caen)

16:45-16:55 Balance entre aspects légaux et moraux dans les Systèmes Multi-Agents de grande taille, Yves Demazeau (CNRS - LIG, Grenoble)

16:55-17:05 Vers une vision intégrative de l'éthique en Intelligence Artificielle, Nadia Abchiche-Mimouni (IBISC Lab. (ueve) & GEII Dept. (iut Evry))

17:05-17:15 Collecte et utilisation d’informations pour l’assistance aux personnes fragiles, Annabelle Mercier (Université Grenoble Alpes, IUT de Valence, Laboratoire LCIS)

17:30 Fin de l'atelier



Résumés des présentations longues


Fondements : morale et éthique en intelligence artificielle, Robert Voyer (Telecom EM Sud Paris)

Résumé : Tout au long de notre vie, dans nos relations, dans nos actions, vis-à-vis de nos proches, vis-à-vis de l’entreprise , vis-à-vis de la société ou même de l'humanité, on constate un retour de la morale. Cela ne signifie pas que les gens d'aujourd'hui soient plus moraux que nos parents ou nos grands-parents. Le retour à la morale est un retour essentiellement dans le discours. Le fait que l'on en parle davantage, cela ne signifie pas une attitude plus vertueuse, mais peut-être au contraire, cela indique que la morale fait en vérité davantage défaut, dans la réalité des comportements, par une absence de références stables. Actuellement, en intelligence artificielle, le thème de « la morale et de l'éthique » est un sujet « à la mode ». Mais ce sujet à la mode est aussi un sujet important. Il arrive que la mode s’empare de vraies questions importantes ; c’est le cas ici. Comme presque toujours, lorsque la mode s’empare ainsi d’une question importante, cela se paye d’un certain nombre de confusions. Cette mode de la morale en générale et de l’éthique en particulier n’y échappe pas. C’est contre ce risque de confusion que la présentation se veut d’abord et surtout un propos de clarification.


De l’éthique des données à l’éthique des masses de données, Jean Gabriel Ganascia (LIP6, Paris)

Résumé : Les masses de données (ce que l’on appelle couramment aujourd’hui les Big Data) ne se caractérisent pas uniquement par la grande quantité d’information qu’elles véhiculent : le mode d’acquisition à la fois continu et distribué ainsi que les techniques de traitement, qui opèrent sur la totalité des données acquises, sans échantillonnage, constituent autant de traits marquants qui les distinguent des données classiques. Or, par nature, ces caractéristiques contreviennent aux principes classiques d’éthique des données, en particulier à ceux posés par la CNIL en France — Commission Nationale de l’Informatique et des Libertés — ou à ceux que l’on range sous le sigle PAPA — Privacy, Accuracy, Property, Accessibility —. En particulier, les notions de finalité et de proportionnalité auxquelles recourt la CNIL n’ont plus de sens, puisque les masses de données reposent sur une acquisition systématique de toutes les informations, sans intention posée a priori, et sur leur partage. De même, les questions de propriété des données, de maîtrise sur ses données personnelles, d’exactitude (accuracy en anglais) des données se posent dans des termes nouveaux avec les masses de données. Par ailleurs, de nouvelles questions surgissent. En particulier, le principe du partage des données qui paraît, au premier abord, comme mû par une générosité salutaire, peut devenir inéquitable. Toute cela conduit, nécessairement à revisiter les fondements sur lesquels reposait l’éthique des données jusqu’ici.


La régulation des données personnelles, entre oubli et mémoire, Annie Blandin (Télécom Bretagne, Chaire Jean Monnet)

Résumé : Les évolutions récentes, tant jurisprudentielles que législatives, fournissent à la régulation un objet nouveau, celui des données personnelles, dont le traitement s’inscrit désormais clairement dans la dialectique entre la volonté ou la nécessité d’oublier et le devoir de mémoire. La proposition de règlement européen sur la protection des données personnelles et de la vie privée prévoit un droit à l’effacement comme expression d’un contrôle renforcé de la personne sur ses données. Dans le même ordre d’idée, l’arrêt Google Spain instaure un droit au déréférencement des liens permettant d’accéder à des informations relatives aux personnes ayant fait une recherche à partir de leur nom.
La mise en balance entre ces droits et le droit ou l’intérêt du public à accéder aux informations concernées devient dès lors un enjeu majeur, suscitant des formes de régulation qui mettent en scène des acteurs nouveaux, tels que les moteurs de recherche.  Google a pris ainsi l’initiative d’une consultation en vue d’établir des critères permettant d’accepter ou non les nombreuses demandes de déréférencement formulées depuis l’arrêt. A partir de ces éléments, on s’attachera à examiner quels sont les enjeux, les acteurs et les instruments de cette forme de régulation des données personnelles qui crée des tensions et suscite de vives critiques.


Implémenter le droit à l'oubli, Sébastien Gambs (Research chair in security of information systems, Université de Rennes 1 - INRIA)

Résumé : Le droit à l'oubli, qui permet à un individu d'effacer a posteriori ses données personnelles ou les traces numériques générées par ses actions, est actuellement un des plus grands défis de la société de l'information. En effet, bien que ce concept soit actuellement mis en avant dans le projet de règlement européen sur la protection des données personnelles, son implémentation pratique reste un problème complexe dans notre monde digital où n'importe quelle information peut être facilement copiée et diffusée aux quatre coins du web en quelques secondes. Bien qu'il soit impossible d'apporter une solution absolue et générique à ce problème, on peut néanmoins concevoir des implémentations partielles pouvant sous certaines hypothèses fournir à un individu un certain niveau de garantie sur la suppression de données dont il est à l’origine ou le concernant. Dans cette présentation, je ferais un tour d'horizon des approches possibles à l'implémentation du droit à l'oubli en passant de la publication éphémère à l'utilisation d'un matériel de confiance, ou encore les politiques adhésives ou le partage de secret.


Éthique et autonomie des agents artificiels, Grégory Bonnet (GREYC, Caen)

Résumé :  L'autonomie est une propriété désirable pour de nombreuses applications d'agents artificiels, en particulier lorsque les tâches à réaliser sont dangereuses ou que les machines ne peuvent communiquer avec des opérateurs humains. S'il parait naturel de vouloir contraindre les agents artificiels à suivre des lois morales ou sociales (comme ne pas blesser un humain ou respecter leur vie privée), le problème de leur implantation et leur mise en œuvre (que nous appellerons comportement éthique) n'est pas résolu. Nous passerons alors en revue un certain nombre de scénarios mettant en lumière ces difficultés et nous présenterons les éléments qui nous paraissent nécessaire pour implanter un agent autonome capable d'exhiber un comportement éthique.



Résumés des présentations courtes


 

Balance entre aspects légaux et moraux dans les Systèmes Multi-Agents de grande taille, Yves Demazeau (CNRS - LIG, Grenoble)

Résumé : On se pose le problème des critères et des conditions permettant de déterminer une balance entre aspects légaux et aspects moraux à définir lors la conception de systèmes impliquant plusieurs millions d’agents artificiels en interaction avec des agents humains, tant au niveau individuel des agents qu’au niveau social des systèmes composés de ces agents. On illustre le problème et les pistes de solutions dans des exemples pratiques. 

Vers une vision intégrative de l'éthique en Intelligence Artificielle, Nadia Abchiche-Mimouni (IBISC Lab. (ueve) & GEII Dept. (iut Evry))

Résumé : Si la question des normes, droits et de devoirs des agents intelligents fait l'objet de nombreux travaux, l’objectif est souvent de garantir un comportement des agents en accord avec des règles prédéfinies. Nous proposons une approche de l’éthique intégrative, basée sur une écologie de l'action. Celle-ci prend en compte deux composantes de l'éthique : 1) intention et contexte de l’acteur et 2) imprédictibilité à long terme et incertitude dans la relation intention-action.

Collecte et utilisation d’informations pour l’assistance aux personnes fragiles, Annabelle Mercier (Université Grenoble Alpes, IUT de Valence, Laboratoire LCIS)

Résumé : Dans le cadre du projet SIET (Solution Intelligente et Tactile), nous souhaitons collecter les données d’utilisation des applications de la tablette pour modéliser les habitudes de la personne fragile et  utiliser des données provenant de capteurs de l’environnement afin de détecter les situations anormales.  Vue de la personne fragile, cette démarche peut paraître intrusive car elle exploite des données personnelles sur le comportement de l’individu. Cependant, vu du côté de l’aidant naturel, cette utilisation des données peut être caractérisée comme bénéfique pour l’aidant, qui soutenu par la technologie, pourrait profiter d’un temps de repos. En conclusion, quel compromis peut-on définir pour exploiter les données collectées de manière éthique pour chaque type d’utilisateur ?