Ethique des machines - Machine ethics

L' éthique de la machine (ou morale de la machine , la morale de calcul , ou l' éthique de calcul ) est une partie de l' éthique de l' intelligence artificielle concernés par l' ajout ou d' assurer des comportements moraux de l' homme-fait des machines qui utilisent l' intelligence artificielle, autrement connu comme agents artificiels intelligents . L'éthique des machines diffère des autres domaines éthiques liés à l' ingénierie et à la technologie . L'éthique des machines ne doit pas être confondue avec l'éthique informatique , qui se concentre sur l'utilisation humaine des ordinateurs. Elle doit également être distinguée de la philosophie de la technologie, qui s'intéresse aux effets sociaux plus importants de la technologie.

Histoire

Avant le 21e siècle, l'éthique des machines avait largement fait l'objet de littérature de science-fiction, principalement en raison des limites de l'informatique et de l'intelligence artificielle (IA). Bien que la définition de « Machine Ethics » ait évolué depuis, le terme a été inventé par Mitchell Waldrop dans l'article du magazine AI de 1987 « A Question of Responsibility » :

"Cependant, une chose qui ressort de la discussion ci-dessus est que les machines intelligentes incarneront des valeurs, des hypothèses et des objectifs, que leurs programmeurs le veuillent consciemment ou non. Ainsi, à mesure que les ordinateurs et les robots deviennent de plus en plus intelligents, il devient impératif que nous réfléchissions soigneusement et explicitement à ce que sont ces valeurs intrinsèques. Peut-être que ce dont nous avons besoin, c'est, en fait, d'une théorie et d'une pratique de l'éthique des machines, dans l'esprit des trois lois de la robotique d'Asimov . »

En 2004, Towards Machine Ethics a été présenté à l'atelier de l'AAAI sur les organisations d'agents : théorie et pratique, au cours duquel les fondements théoriques de l'éthique des machines ont été posés.

C'est lors du Symposium AAAI d'automne 2005 sur l'éthique des machines que les chercheurs se sont réunis pour la première fois pour envisager la mise en œuvre d'une dimension éthique dans les systèmes autonomes. Une variété de perspectives de ce domaine naissant peuvent être trouvées dans l'édition rassemblée « Machine Ethics » qui découle du Symposium AAAI Fall 2005 on Machine Ethics.

En 2007, AI Magazine a présenté Machine Ethics : Création d'un agent intelligent éthique , un article qui traitait de l'importance de l'éthique des machines, du besoin de machines qui représentent explicitement des principes éthiques et des défis auxquels sont confrontés ceux qui travaillent sur l'éthique des machines. Il a également démontré qu'il est possible, au moins dans un domaine limité, pour une machine d'abstraire un principe éthique à partir d'exemples de jugements éthiques et d'utiliser ce principe pour guider son propre comportement.

En 2009, Oxford University Press a publié Moral Machines, Teaching Robots Right from Wrong , qu'elle a présenté comme « le premier livre à examiner le défi de la construction d'agents moraux artificiels, en explorant profondément la nature de la prise de décision humaine et de l'éthique ». Il a cité quelque 450 sources, dont une centaine abordaient des questions majeures d'éthique des machines.

En 2011, Cambridge University Press a publié une collection d'essais sur l'éthique des machines éditée par Michael et Susan Leigh Anderson, qui ont également édité un numéro spécial de IEEE Intelligent Systems sur le sujet en 2006. La collection se compose des défis de l'ajout de principes éthiques aux machines. .

En 2014, les Etats - Unis Office of Naval Research a annoncé qu'elle distribuerait 7,5 millions $ en subventions sur cinq ans à des chercheurs universitaires pour étudier les questions d'éthique de la machine telle qu'elle est appliquée aux robots autonomes et Nick Bostrom de superintelligence: Les chemins, les dangers, les stratégies qui a fait de l'éthique de la machine le "problème le plus important... auquel l'humanité ait jamais été confrontée", a atteint la 17e place sur la liste du New York Times des livres scientifiques les plus vendus.

En 2016, le Parlement européen a publié un document (PDF de 22 pages) pour encourager la Commission à aborder la question du statut juridique des robots, telle que décrite plus brièvement dans la presse. Ce document comprenait des sections concernant les responsabilités légales des robots, dans lesquelles les responsabilités étaient présentées comme étant proportionnelles au niveau d'autonomie des robots. Le document a également remis en question le nombre d'emplois qui pourraient être remplacés par des robots d'IA.

Définitions

James H. Moor , l'un des théoriciens pionniers dans le domaine de l'éthique informatique , définit quatre types de robots éthiques. En tant que chercheur approfondi sur les études de philosophie de l'intelligence artificielle , de philosophie de l'esprit , de philosophie des sciences et de logique , Moor définit les machines comme des agents d'impact éthique, des agents éthiques implicites, des agents éthiques explicites ou des agents éthiques complets. Une machine peut être plus d'un type d'agent.

  • Agents d'impact éthique : Ce sont des systèmes de machines qui ont un impact éthique, qu'il soit voulu ou non. Dans le même temps, ces agents ont le potentiel d'agir de manière contraire à l'éthique. Moor donne un exemple hypothétique appelé « l'agent Goodman », du nom du philosophe Nelson Goodman . L'agent Goodman compare les dates mais a le bug du millénaire . Ce bogue résultait des programmeurs qui représentaient des dates avec seulement les deux derniers chiffres de l'année. Ainsi, toute date postérieure à 2000 serait considérée à tort comme antérieure à celle de la fin du vingtième siècle. Ainsi, l'agent Goodman était un agent d'impact éthique avant 2000, et un agent d'impact contraire à l'éthique par la suite.
  • Agents éthiques implicites : Pour la considération de la sécurité humaine , ces agents sont programmés pour avoir une sécurité intégrée, ou une vertu intrinsèque . Ils ne sont pas entièrement de nature éthique, mais plutôt programmés pour éviter des résultats contraires à l'éthique.
  • Agents éthiques explicites : Ce sont des machines capables de traiter des scénarios et d'agir sur des décisions éthiques. Des machines qui ont des algorithmes pour agir de manière éthique.
  • Agents éthiques à part entière : Ces machines sont similaires aux agents éthiques explicites en ce qu'elles sont capables de prendre des décisions éthiques. Cependant, ils contiennent également des caractéristiques métaphysiques humaines . (c'est-à-dire avoir le libre arbitre , la conscience et l' intentionnalité )

(Voir systèmes artificiels et responsabilité morale .)

Axes de l'éthique des machines

Problème de contrôle de l'IA

Certains chercheurs, comme le philosophe Nick Bostrom et le chercheur en IA Stuart Russell , soutiennent que si l'IA surpasse l'humanité en intelligence générale et devient « superintelligente », alors cette nouvelle superintelligence pourrait devenir puissante et difficile à contrôler : tout comme le sort du gorille des montagnes dépend de la bonne volonté humaine, le sort de l'humanité pourrait dépendre des actions d'une future superintelligence de la machine. Dans leurs livres respectifs Superintelligence et Human Compatible , les deux chercheurs affirment que bien qu'il y ait beaucoup d'incertitude concernant l'avenir de l'IA, le risque pour l'humanité est suffisamment grand pour mériter une action significative dans le présent.

Cela pose le problème du contrôle de l' IA : comment construire un agent intelligent qui aidera ses créateurs, tout en évitant de construire par inadvertance une superintelligence qui nuira à ses créateurs. Le danger de ne pas concevoir le contrôle correctement « la première fois », est qu'une superintelligence peut être en mesure de prendre le pouvoir sur son environnement et d'empêcher les humains de le fermer. Les stratégies potentielles de contrôle de l'IA comprennent le « contrôle des capacités » (limitant la capacité d'une IA à influencer le monde) et le « contrôle de la motivation » (un moyen de construire une IA dont les objectifs sont alignés sur des valeurs humaines ou optimales ). Il existe un certain nombre d'organisations qui étudient le problème du contrôle de l'IA, notamment le Future of Humanity Institute , le Machine Intelligence Research Institute , le Center for Human-Compatible Artificial Intelligence et le Future of Life Institute .

Algorithmes et entraînement

Les paradigmes de l'IA ont fait l'objet de débats, notamment en ce qui concerne leur efficacité et leurs biais. Nick Bostrom et Eliezer Yudkowsky ont plaidé en faveur d' arbres de décision (comme ID3 ) sur les réseaux neuronaux et les algorithmes génétiques au motif que les arbres de décision obéissent aux normes sociales modernes de transparence et de prévisibilité (par exemple stare decisis ). En revanche, Chris Santos-Lang a plaidé en faveur des réseaux de neurones et des algorithmes génétiques au motif que les normes de tout âge doivent pouvoir changer et que l'échec naturel à satisfaire pleinement ces normes particulières a été essentiel pour rendre les humains moins vulnérables que les machines. aux « hackers » criminels .

En 2009, lors d'une expérience au Laboratoire des systèmes intelligents de l' Ecole Polytechnique Fédérale de Lausanne en Suisse , des robots IA ont été programmés pour coopérer les uns avec les autres et chargés de rechercher une ressource bénéfique tout en évitant une ressource toxique. Au cours de l'expérience, les robots ont été regroupés en clans et le code génétique numérique des membres ayant réussi a été utilisé pour la génération suivante, un type d'algorithme connu sous le nom d'algorithme génétique . Après 50 générations successives dans l'IA, les membres d'un clan ont découvert comment distinguer la ressource bénéfique de la ressource toxique. Les robots ont ensuite appris à se mentir les uns aux autres pour tenter d'accumuler la ressource bénéfique d'autres robots. Dans la même expérience, les mêmes robots d'IA ont également appris à se comporter de manière altruiste et ont signalé un danger aux autres robots, et sont également morts au prix de sauver d'autres robots. Les implications de cette expérience ont été contestées par les éthiciens des machines. Dans l'expérience de l'Ecole Polytechnique Fédérale, les objectifs des robots ont été programmés pour être "terminaux". En revanche, les motivations humaines ont généralement la qualité d'exiger un apprentissage sans fin.

Systèmes d'armes autonomes

En 2009, des universitaires et des experts techniques ont assisté à une conférence pour discuter de l'impact potentiel des robots et des ordinateurs et de l'impact de la possibilité hypothétique qu'ils puissent devenir autonomes et capables de prendre leurs propres décisions. Ils ont discuté de la possibilité et de la mesure dans laquelle les ordinateurs et les robots pourraient acquérir n'importe quel niveau d'autonomie, et dans quelle mesure ils pourraient utiliser ces capacités pour éventuellement constituer une menace ou un danger. Ils ont noté que certaines machines ont acquis diverses formes de semi-autonomie, notamment la possibilité de trouver des sources d'énergie par elles-mêmes et la possibilité de choisir de manière indépendante des cibles à attaquer avec des armes. Ils ont également noté que certains virus informatiques peuvent échapper à l'élimination et ont atteint "l'intelligence des cafards". Ils ont noté que la conscience de soi telle que décrite dans la science-fiction est probablement peu probable, mais qu'il y avait d'autres dangers et pièges potentiels.

Certains experts et universitaires ont remis en question l'utilisation de robots pour le combat militaire, en particulier lorsque ces robots sont dotés d'un certain degré de fonctions autonomes. L'US Navy a financé un rapport qui indique qu'à mesure que les robots militaires deviennent plus complexes, il devrait y avoir une plus grande attention aux implications de leur capacité à prendre des décisions autonomes. Le président de l' Association pour l'avancement de l'intelligence artificielle a commandé une étude pour examiner cette question. Ils désignent des programmes comme le Language Acquisition Device qui peuvent émuler l'interaction humaine.

Intégration des Intelligences Générales Artificielles à la société

Des travaux préliminaires ont été menés sur les méthodes d'intégration des intelligences artificielles générales (agents éthiques à part entière tels que définis ci-dessus) aux cadres juridiques et sociaux existants. Les approches se sont concentrées sur la prise en compte de leur situation juridique et de leurs droits.

Biais d'apprentissage automatique

Les algorithmes de mégadonnées et d' apprentissage automatique sont devenus populaires dans de nombreuses industries, notamment la publicité en ligne , les cotes de crédit et les condamnations pénales, avec la promesse de fournir des résultats plus objectifs et basés sur les données, mais ont été identifiés comme une source potentielle de perpétuation des inégalités sociales et de la discrimination. . Une étude 2015 a révélé que les femmes étaient moins susceptibles d'être présentées des offres d'emploi à revenu élevé par Google de AdSense . Une autre étude a révélé que le service de livraison le jour même d' Amazon avait été intentionnellement rendu indisponible dans les quartiers noirs. Google et Amazon n'ont pas été en mesure d'isoler ces résultats dans un seul problème, mais ont plutôt expliqué que les résultats étaient le résultat des algorithmes de boîte noire qu'ils utilisaient.

Le système judiciaire américain a commencé à utiliser un logiciel d'évaluation quantitative des risques lors de la prise de décisions relatives à la libération sous caution et à la détermination de la peine dans le but d'être plus juste et de réduire un taux d' emprisonnement déjà élevé . Ces outils analysent les antécédents criminels d'un accusé entre autres attributs. Dans une étude portant sur 7 000 personnes arrêtées dans le comté de Broward , en Floride , seulement 20 % des personnes prédisant un crime à l'aide du système de notation d' évaluation des risques du comté ont commis un crime. Un rapport ProPublica de 2016 a analysé les scores de risque de récidive calculés par l'un des outils les plus couramment utilisés, le système Northpointe COMPAS , et a examiné les résultats sur deux ans. Le rapport a révélé que seulement 61% des personnes jugées à haut risque ont fini par commettre des crimes supplémentaires au cours. Le rapport a également signalé que les accusés afro-américains étaient beaucoup plus susceptibles de recevoir des scores à haut risque par rapport à leurs homologues blancs.

En 2016, le Big Data Working Group de l' administration Obama, qui supervise divers cadres réglementaires relatifs aux mégadonnées, a publié des rapports faisant valoir « le potentiel de codage de la discrimination dans les décisions automatisées » et appelant à « l'égalité des chances dès la conception » pour des applications telles que le crédit notation. Les rapports encouragent le discours entre les décideurs politiques , les citoyens et les universitaires, mais reconnaissent qu'il n'y a pas de solution potentielle pour l'encodage des préjugés et de la discrimination dans les systèmes algorithmiques.

Cadres et pratiques éthiques

Les pratiques

En mars 2018, dans un effort pour répondre aux préoccupations croissantes concernant l'impact de l'apprentissage automatique sur les droits de l'homme , le Forum économique mondial et le Global Future Council on Human Rights ont publié un livre blanc contenant des recommandations détaillées sur la meilleure façon de prévenir les résultats discriminatoires dans l'apprentissage automatique. Le Forum économique mondial a élaboré quatre recommandations basées sur les Principes directeurs des Nations Unies relatifs aux droits de l'homme pour aider à traiter et à prévenir les résultats discriminatoires dans l'apprentissage automatique.

Les recommandations du Forum économique mondial sont les suivantes :

  1. Inclusion active : le développement et la conception d'applications d'apprentissage automatique doivent rechercher activement une diversité d'entrées, en particulier des normes et des valeurs de populations spécifiques affectées par la sortie des systèmes d'IA
  2. Équité : les personnes impliquées dans la conceptualisation, le développement et la mise en œuvre des systèmes d'apprentissage automatique doivent déterminer quelle définition de l'équité s'applique le mieux à leur contexte et à leur application, et la prioriser dans l'architecture du système d'apprentissage automatique et ses métriques d'évaluation.
  3. Droit à la compréhension : l' implication des systèmes d'apprentissage automatique dans la prise de décision qui affecte les droits individuels doit être divulguée, et les systèmes doivent être en mesure de fournir une explication de leur prise de décision qui soit compréhensible pour les utilisateurs finaux et révisable par une autorité humaine compétente. Lorsque cela est impossible et que des droits sont en jeu, les responsables de la conception, du déploiement et de la réglementation de la technologie d'apprentissage automatique doivent se demander si elle doit être utilisée ou non.
  4. Accès aux recours : les dirigeants, les concepteurs et les développeurs de systèmes d'apprentissage automatique sont chargés d'identifier les impacts négatifs potentiels de leurs systèmes sur les droits de l'homme. Ils doivent proposer des voies de recours visibles pour les personnes affectées par des impacts disparates et établir des processus pour la réparation rapide de tout résultat discriminatoire.

En janvier 2020, le Berkman Klein Center for Internet and Society de l'Université Harvard a publié une méta-étude de 36 ensembles de principes importants pour l'IA, identifiant huit thèmes clés : confidentialité, responsabilité, sûreté et sécurité, transparence et explicabilité, équité et non-discrimination, le contrôle humain de la technologie, la responsabilité professionnelle et la promotion des valeurs humaines. Une méta-étude similaire a été menée par des chercheurs de l' Ecole polytechnique fédérale de Zurich en 2019.

Approches

Plusieurs tentatives ont été faites pour rendre l'éthique calculable, ou du moins formelle . Alors que les trois lois de la robotique d' Isaac Asimov ne sont généralement pas considérées comme adaptées à un agent moral artificiel, il a été étudié si l' impératif catégorique de Kant peut être utilisé. Cependant, il a été souligné que la valeur humaine est, à certains égards, très complexe. Un moyen de surmonter explicitement cette difficulté est de recevoir les valeurs humaines directement des humains par le biais d'un mécanisme, par exemple en les apprenant. Une autre approche consiste à fonder les considérations éthiques actuelles sur des situations similaires antérieures. C'est ce qu'on appelle la casuistique , et elle pourrait être mise en œuvre grâce à des recherches sur Internet. Le consensus d'un million de décisions passées conduirait à une nouvelle décision dépendante de la démocratie. Cela pourrait cependant conduire à des décisions qui reflètent les préjugés et les comportements contraires à l'éthique de la société. Les effets négatifs de cette approche peuvent être vus dans Tay (bot) de Microsoft , où le chatterbot a appris à répéter les messages racistes et sexuellement chargés envoyés par les utilisateurs de Twitter.

Une expérience de pensée se concentre sur un Génie Golem avec des pouvoirs illimités se présentant au lecteur. Ce Génie déclare qu'il reviendra dans 50 ans et exige qu'il soit doté d'un ensemble défini de morale sur lequel il agira alors immédiatement. Le but de cette expérience est d'initier un discours sur la meilleure façon de gérer la définition d'un ensemble complet d'éthiques que les ordinateurs peuvent comprendre.

Dans la fiction

Dans la science-fiction , les films et les romans ont joué avec l'idée de sensibilité dans les robots et les machines.

Chappie (2015) de Neil Blomkamp a mis en scène un scénario permettant de transférer sa conscience dans un ordinateur. Le film Ex Machina (2014) d' Alex Garland suivait un androïde doté d'une intelligence artificielle subissant une variante du test de Turing , un test administré à une machine pour voir si son comportement peut être distingué de celui d'un humain. Des travaux tels que Terminator (1984) et The Matrix (1999) intègrent le concept de machines tournant sur leurs maîtres humains (Voir Intelligence Artificielle ).

Isaac Asimov s'est penché sur la question dans les années 1950 dans I, Robot . Sur l'insistance de son éditeur John W. Campbell Jr. , il proposa les Trois Lois de la Robotique pour régir les systèmes artificiellement intelligents. Une grande partie de son travail a ensuite été consacrée à tester les limites de ses trois lois pour voir où elles s'effondreraient ou où elles créeraient un comportement paradoxal ou imprévu. Son travail suggère qu'aucun ensemble de lois fixes ne peut anticiper suffisamment toutes les circonstances possibles. Dans le roman de Philip K. Dick , Les androïdes rêvent-ils de moutons électriques ? (1968), il explore ce que signifie être humain. Dans son scénario post-apocalyptique, il s'est demandé si l'empathie était une caractéristique entièrement humaine. Son histoire est à la base du film de science-fiction Blade Runner (1982).

Domaines connexes

Voir également

Remarques

Liens externes

Les références

  • Wallach, Wendell ; Allen, Colin (novembre 2008). Machines morales : Enseigner les robots du vrai du faux . États-Unis : Oxford University Press .
  • Anderson, Michael ; Anderson, Susan Leigh, éd. (juillet 2011). L'éthique des machines . Presse de l'Université de Cambridge .
  • Storrs Hall, J. (30 mai 2007). Au-delà de l'IA : créer la conscience de la machine Prometheus Books .
  • Moor, J. (2006). La nature, l'importance et la difficulté de l'éthique des machines. Systèmes intelligents IEEE , 21(4), p. 18-21.
  • Anderson, M. et Anderson, S. (2007). Création d'un agent éthique intelligent. Magazine AI , tome 28(4).

Lectures complémentaires