Conscience artificielle - Artificial consciousness
La conscience artificielle ( AC ), également connue sous le nom de conscience machine ( MC ) ou conscience synthétique ( Games 2008 ; Reggia 2013 ), est un domaine lié à l' intelligence artificielle et à la robotique cognitive . Le but de la théorie de la conscience artificielle est de « définir ce qui devrait être synthétisé si la conscience se trouvait dans un artefact fabriqué » ( Aleksander 1995 ).
Les neurosciences émettent l'hypothèse que la conscience est générée par l'interopérabilité de diverses parties du cerveau , appelées corrélats neuronaux de la conscience ou NCC, bien qu'il y ait des défis à cette perspective. Les partisans de l'AC croient qu'il est possible de construire des systèmes (par exemple, des systèmes informatiques ) qui peuvent émuler cette interopérabilité NCC.
Les concepts de conscience artificielle sont également considérés dans la philosophie de l' intelligence artificielle à travers des questions sur l'esprit, la conscience et les états mentaux .
Vues philosophiques
Comme il existe de nombreux types hypothétiques de conscience , il existe de nombreuses implémentations potentielles de la conscience artificielle. Dans la littérature philosophique, la taxonomie la plus courante de la conscience est peut-être en variantes « accès » et « phénoménale ». La conscience d'accès concerne les aspects de l' expérience qui peuvent être appréhendés, tandis que la conscience phénoménale concerne les aspects de l'expérience qui apparemment ne peuvent pas être appréhendés, au lieu d'être caractérisés qualitativement en termes de « sentiments bruts », « à quoi cela ressemble » ou qualia ( Block 1997 ) .
Débat sur la plausibilité
Les théoriciens de l'identité de type et d'autres sceptiques soutiennent que la conscience ne peut être réalisée que dans des systèmes physiques particuliers parce que la conscience a des propriétés qui dépendent nécessairement de la constitution physique ( Block 1978 ; Bickle 2003 ).
Dans son article « Conscience artificielle : utopie ou possibilité réelle », Giorgio Buttazzo dit qu'une objection courante à la conscience artificielle est que « travaillant dans un mode entièrement automatisé, ils [les ordinateurs] ne peuvent pas faire preuve de créativité, de déprogrammation reprogrammé, de repenser), les émotions ou le libre arbitre . Un ordinateur, comme une machine à laver, est un esclave actionné par ses composants.
Pour d'autres théoriciens (par exemple, les fonctionnalistes ), qui définissent les états mentaux en termes de rôles causaux, tout système qui peut instancier le même modèle de rôles causaux, quelle que soit la constitution physique, instanciera les mêmes états mentaux, y compris la conscience ( Putnam 1967 ).
Argument de base informatique
L'un des arguments les plus explicites pour la plausibilité d'AC vient de David Chalmers . Sa proposition, trouvée dans son article Chalmers 2011 , est à peu près que les bons types de calculs sont suffisants pour la possession d'un esprit conscient. Dans les grandes lignes, il défend sa demande ainsi : Les ordinateurs effectuent des calculs. Les calculs peuvent saisir l'organisation causale abstraite d'autres systèmes.
La partie la plus controversée de la proposition de Chalmers est que les propriétés mentales sont « invariantes sur le plan organisationnel ». Les propriétés mentales sont de deux sortes, psychologiques et phénoménologiques. Les propriétés psychologiques, telles que la croyance et la perception, sont celles qui sont "caractérisées par leur rôle causal". Il s'appuie sur les travaux d' Armstrong 1968 et de Lewis 1972 en affirmant que « les systèmes ayant la même topologie causale… partageront leurs propriétés psychologiques ».
Les propriétés phénoménologiques ne sont pas à première vue définissables en termes de leurs rôles causals. Établir que les propriétés phénoménologiques se prêtent à l'individuation par le rôle causal nécessite donc un argument. Chalmers fournit son argument de Dancing Qualia à cette fin.
Chalmers commence par supposer que des agents ayant des organisations causales identiques pourraient avoir des expériences différentes. Il nous demande alors de concevoir le changement d'un agent en un autre par le remplacement de parties (parties neuronales remplacées par du silicium, disons) tout en préservant son organisation causale. Par hypothèse, l'expérience de l'agent en transformation changerait (au fur et à mesure que les parties seraient remplacées), mais il n'y aurait aucun changement dans la topologie causale et donc aucun moyen par lequel l'agent pourrait « remarquer » le changement d'expérience.
Les critiques d'AC objectent que Chalmers pose la question en supposant que toutes les propriétés mentales et les connexions externes sont suffisamment capturées par l'organisation causale abstraite.
Éthique
Si l'on soupçonnait qu'une machine particulière était consciente, ses droits seraient une question éthique qui devrait être évaluée (par exemple, quels droits elle aurait en vertu de la loi). Par exemple, un ordinateur conscient qui a été possédé et utilisé comme outil ou ordinateur central d'un bâtiment d'une machine plus grande est une ambiguïté particulière. Faut-il faire des lois pour un tel cas? La conscience nécessiterait également une définition légale dans ce cas particulier. Parce que la conscience artificielle est encore largement un sujet théorique, une telle éthique n'a pas été discutée ou développée dans une large mesure, bien qu'elle ait souvent été un thème de fiction (voir ci-dessous).
En 2021, le philosophe allemand Thomas Metzinger a réclamé un moratoire mondial sur la phénoménologie synthétique jusqu'en 2050, pour des raisons éthiques.
Le règlement du concours du prix Loebner 2003 abordait explicitement la question des droits des robots :
61. Si, au cours d'une année donnée, une candidature open source accessible au public et présentée par l'Université de Surrey ou le Cambridge Center remporte la médaille d'argent ou la médaille d'or, alors la médaille et le prix en espèces seront décernés à l'organisme responsable de la développement de cette entrée. Si aucun organisme de ce type ne peut être identifié, ou s'il y a un désaccord entre deux ou plusieurs demandeurs, la Médaille et la Récompense en espèces seront détenues en fiducie jusqu'à ce que la Participation puisse légalement posséder, soit aux États-Unis d'Amérique, soit aux États-Unis. lieu du concours, le Cash Award et la Médaille d'or à part entière .
Propositions de recherche et de mise en œuvre
Aspects de la conscience
Il existe divers aspects de la conscience généralement jugés nécessaires pour qu'une machine soit artificiellement consciente. Une variété de fonctions dans lesquelles la conscience joue un rôle ont été suggérées par Bernard Baars ( Baars 1988 ) et d'autres. Les fonctions de conscience suggérées par Bernard Baars sont la définition et la mise en contexte, l'adaptation et l'apprentissage, l'édition, le repérage et le débogage, le recrutement et le contrôle, la hiérarchisation et le contrôle d'accès, la prise de décision ou la fonction exécutive, la fonction de formation d'analogie, la métacognition et l'auto-apprentissage. Fonction de surveillance et fonction de programmation automatique et d'auto-entretien. Igor Aleksander a suggéré 12 principes pour la conscience artificielle ( Aleksander 1995 ) et ceux-ci sont : Le cerveau est une machine d'état, le partitionnement des neurones internes, les états conscients et inconscients, l'apprentissage perceptif et la mémoire, la prédiction, la conscience de soi, la représentation du sens, les énoncés d'apprentissage. , Apprentissage du langage, de la volonté, de l'instinct et de l'émotion. L'objectif de l'AC est de définir si et comment ces aspects et d'autres de la conscience peuvent être synthétisés dans un artefact d'ingénierie tel qu'un ordinateur numérique. Cette liste n'est pas exhaustive; il y en a beaucoup d'autres qui ne sont pas couverts.
Sensibilisation
La sensibilisation pourrait être un aspect requis, mais la définition exacte de la sensibilisation pose de nombreux problèmes . Les résultats des expériences de neuroscanning sur des singes suggèrent qu'un processus, et pas seulement un état ou un objet, active les neurones. La sensibilisation comprend la création et le test de modèles alternatifs de chaque processus sur la base des informations reçues par les sens ou imaginées, et est également utile pour faire des prédictions. Une telle modélisation nécessite beaucoup de flexibilité. La création d'un tel modèle comprend la modélisation du monde physique, la modélisation de ses propres états et processus internes et la modélisation d'autres entités conscientes.
Il existe au moins trois types de conscience : la conscience d'agence, la conscience d'objectif et la conscience sensorimotrice, qui peut aussi être consciente ou non. Par exemple, dans la conscience d'agence, vous pouvez être conscient que vous avez effectué une certaine action hier, mais n'en êtes pas conscient maintenant. Dans la conscience de l'objectif, vous pouvez être conscient que vous devez rechercher un objet perdu, mais n'en êtes pas conscient maintenant. Dans la conscience sensorimotrice, vous pouvez être conscient que votre main repose sur un objet, mais n'en êtes pas conscient maintenant.
Al Byrd, l'auteur de Superhuman Creators, définit la conscience, pour les animaux, les humains et les agents artificiels, comme l'effet de l'intégration et du filtrage de nombreux types différents de conscience de l'affordance ; c'est-à-dire la conscience des possibilités d'action dans un environnement. Selon cette définition, tous les agents qui peuvent percevoir et agir sur les affordances sont conscients dans une certaine mesure.
Parce que les objets de conscience sont souvent conscients, la distinction entre conscience et conscience est souvent floue ou ils sont utilisés comme synonymes.
Mémoire
Les événements conscients interagissent avec les systèmes de mémoire lors de l'apprentissage, de la répétition et de la récupération. Le modèle IDA élucide le rôle de la conscience dans la mise à jour de la mémoire perceptive, de la mémoire épisodique transitoire et de la mémoire procédurale . Les mémoires épisodiques et déclaratives transitoires ont distribué des représentations dans l'IDA, il est prouvé que c'est également le cas dans le système nerveux. Dans l' IDA, ces deux mémoires sont mises en œuvre en utilisant informatiquement une version modifiée de Kanerva de mémoire Sparse distribuée architecture.
Apprentissage
L'apprentissage est également considéré comme nécessaire pour AC. Pour Bernard Baars, l'expérience consciente est nécessaire pour représenter et s'adapter à des événements nouveaux et significatifs ( Baars 1988 ). Par Axel Cleeremans et Luis Jiménez, l' apprentissage se définit comme « un ensemble de philogenetically [ sic ] processus d'adaptation avancés qui dépendent essentiellement de une sensibilité évolué à l' expérience subjective afin de permettre aux agents de se permettre un contrôle flexible sur leurs actions dans des environnements complexes et imprévisibles » ( Cleremans 2001 ).
Anticipation
La capacité de prédire (ou d' anticiper ) les événements prévisibles est considérée comme importante pour AC par Igor Aleksander . Le principe émergentiste des brouillons multiples proposé par Daniel Dennett dans Consciousness Explained peut être utile pour la prédiction : il implique l'évaluation et la sélection du « brouillon » le plus approprié pour s'adapter à l'environnement actuel. L'anticipation comprend la prédiction des conséquences de ses propres actions proposées et la prédiction des conséquences des actions probables d'autres entités.
Les relations entre les états du monde réel se reflètent dans la structure étatique d'un organisme conscient permettant à l'organisme de prédire les événements. Une machine artificiellement consciente devrait être capable d'anticiper correctement les événements afin d'être prête à y répondre lorsqu'ils se produisent ou à prendre des mesures préventives pour éviter les événements anticipés. L'implication ici est que la machine a besoin de composants flexibles en temps réel qui construisent des modèles spatiaux, dynamiques, statistiques, fonctionnels et de cause à effet du monde réel et des mondes prédits, permettant de démontrer qu'elle possède une conscience artificielle dans le présent. et l'avenir et pas seulement dans le passé. Pour ce faire, une machine consciente doit faire des prédictions cohérentes et des plans d'urgence, non seulement dans des mondes avec des règles fixes comme un échiquier, mais aussi pour de nouveaux environnements qui peuvent changer, à exécuter uniquement lorsque cela est approprié pour simuler et contrôler le réel. monde.
Expérience subjective
Les expériences subjectives ou qualia sont largement considérées comme le problème difficile de la conscience . En effet, il est considéré comme un défi au physicalisme , sans parler du computationalisme . D'un autre côté, il existe des problèmes dans d'autres domaines de la science qui limitent ce que nous pouvons observer, comme le principe d'incertitude en physique, qui n'ont pas rendu impossible la recherche dans ces domaines de la science.
Rôle des architectures cognitives
Le terme « architecture cognitive » peut se référer à une théorie sur la structure de l'esprit humain, ou toute partie ou fonction de celui-ci, y compris la conscience. Dans un autre contexte, une architecture cognitive implémente la théorie sur des ordinateurs. Un exemple est QuBIC : Quantum and Bio-inspired Cognitive Architecture for Machine Consciousness . L'un des principaux objectifs d'une architecture cognitive est de résumer les différents résultats de la psychologie cognitive dans un modèle informatique complet. Cependant, les résultats doivent être sous une forme formalisée afin qu'ils puissent être la base d'un programme informatique. De plus, le rôle de l'architecture cognitive est pour l'IA de clairement structurer, construire et mettre en œuvre son processus de réflexion.
Propositions symboliques ou hybrides
Agent de distribution intelligent de Franklin
Stan Franklin (1995, 2003) définit un agent autonome comme possédant une conscience fonctionnelle lorsqu'il est capable de plusieurs des fonctions de la conscience identifiées par la théorie de l'espace de travail global de Bernard Baars (Baars 1988 , 1997 ). Son enfant cerveau IDA (Intelligent Distribution Agent) est une implémentation logicielle de GWT, ce qui le rend fonctionnellement conscient par définition. La tâche de l'IDA est de négocier de nouvelles affectations pour les marins de l' US Navy après leur période de service, en faisant correspondre les compétences et les préférences de chaque individu avec les besoins de la Navy. L'IDA interagit avec les bases de données de la Marine et communique avec les marins via un dialogue de courrier électronique en langage naturel tout en obéissant à un grand nombre de politiques de la Marine. Le modèle informatique IDA a été développé entre 1996 et 2001 au sein du groupe de recherche sur les logiciels « conscients » de Stan Franklin à l' Université de Memphis . Il "se compose d'environ un quart de million de lignes de code Java et consomme presque entièrement les ressources d'un poste de travail haut de gamme de 2001". Il s'appuie fortement sur les codelets , qui sont "des mini-agent[s] à usage spécial, relativement indépendants, généralement implémentés sous la forme d'un petit morceau de code s'exécutant comme un thread séparé". Dans l'architecture descendante d'IDA, les fonctions cognitives de haut niveau sont explicitement modélisées (voir Franklin 1995 et Franklin 2003 pour plus de détails). Alors que IDA est fonctionnellement conscient par définition, Franklin n'attribue pas une conscience phénoménale à son propre agent logiciel 'conscient', IDA, malgré ses nombreux comportements humains. « Oui, c'est comme ça que je procède » tout en observant les actions internes et externes d'IDA pendant qu'elle exécute sa tâche. » IDA a été étendu à LIDA (Learning Intelligent Distribution Agent).
L'architecture cognitive de Ron Sun CLARION
CLARION propose une représentation à deux niveaux qui explique la distinction entre les processus mentaux conscients et inconscients.
CLARION a réussi à rendre compte d'une variété de données psychologiques. Un certain nombre de tâches d'apprentissage de compétences bien connues ont été simulées à l'aide de CLARION et couvrent un spectre allant des compétences réactives simples aux compétences cognitives complexes. Les tâches comprennent des tâches de temps de réaction en série (SRT), des tâches d'apprentissage de la grammaire artificielle (AGL), des tâches de contrôle de processus (PC), la tâche d'inférence catégorielle (CI), la tâche d'arithmétique alphabétique (AA) et la tour de Hanoï (TOH) tâche ( dim 2002 ) . Parmi elles, SRT, AGL et PC sont des tâches d'apprentissage implicites typiques, très pertinentes pour la question de la conscience car elles opérationnalisent la notion de conscience dans le contexte d'expériences psychologiques.
OpenCog de Ben Goertzel
Ben Goertzel poursuit une AGI incarnée à travers le projet open source OpenCog . Le code actuel comprend des animaux de compagnie virtuels incarnés capables d'apprendre des commandes simples en anglais, ainsi que l'intégration avec la robotique du monde réel, en cours à l' Université polytechnique de Hong Kong .
Propositions connexionnistes
L'architecture cognitive de Haikonen
Pentti Haikonen (2003) considère que l'informatique classique basée sur des règles est inadéquate pour atteindre la CA : « le cerveau n'est définitivement pas un ordinateur. Penser n'est pas une exécution de chaînes de commandes programmées. Le cerveau n'est pas non plus une calculatrice numérique. Nous ne pensons pas en Nombres." Plutôt que d' essayer d'atteindre l' esprit et la conscience en identifiant et en appliquant leurs règles de calcul sous - jacents, Haikonen propose « une spéciale architecture cognitive de reproduire les processus de perception , l' imagerie intérieure , la parole intérieure , la douleur , le plaisir , les émotions et les cognitives fonctions derrière celles - ci. Cette une architecture ascendante produirait des fonctions de niveau supérieur par la puissance des unités de traitement élémentaires, les neurones artificiels , sans algorithmes ni programmes ". Haikonen pense que, lorsqu'elle est mise en œuvre avec une complexité suffisante, cette architecture développera une conscience, qu'il considère comme "un style et un mode de fonctionnement, caractérisés par une représentation de signal distribué, un processus de perception, des rapports intermodalités et une disponibilité pour la rétrospection". Haikonen n'est pas seul dans cette vision du processus de la conscience, ou dans la vision que l'AC émergera spontanément dans des agents autonomes qui ont une architecture de complexité neuro-inspirée appropriée ; ceux-ci sont partagés par beaucoup, par exemple Freeman (1999) et Cotterill (2003) . Une mise en œuvre de faible complexité de l'architecture proposée par Haikonen (2003) n'était apparemment pas capable d'AC, mais a montré des émotions comme prévu. Voir Doan (2009) pour une introduction complète à l'architecture cognitive de Haikonen. Un compte rendu mis à jour de l'architecture de Haikonen, ainsi qu'un résumé de ses opinions philosophiques, sont donnés dans Haikonen (2012) , Haikonen (2019) .
L'architecture cognitive de Shanahan
Murray Shanahan décrit une architecture cognitive qui combine l'idée de Baars d'un espace de travail global avec un mécanisme de simulation interne (« imagination ») ( Shanahan 2006 ). Pour des discussions sur l'architecture de Shanahan, voir ( Gamez 2008 ) et ( Reggia 2013 ) et le chapitre 20 de ( Haikonen 2012 ).
La recherche sur la conscience de soi de Takeno
La conscience de soi chez les robots est étudiée par Junichi Takeno à l' Université Meiji au Japon. Takeno affirme avoir développé un robot capable de discriminer entre une image de soi dans un miroir et toute autre image ayant une image identique, et cette affirmation a déjà été examinée ( Takeno, Inaba & Suzuki 2005 ). Takeno affirme qu'il a d'abord conçu le module de calcul appelé MoNAD, qui a une fonction de conscience de soi, puis il a construit le système de conscience artificielle en formulant les relations entre les émotions, les sentiments et la raison en reliant les modules dans une hiérarchie (Igarashi, Takeno 2007). Takeno a réalisé une expérience de cognition par image miroir à l'aide d'un robot équipé du système MoNAD. Takeno a proposé la théorie du corps de soi affirmant que « les humains sentent que leur propre image miroir est plus proche d'eux-mêmes qu'une partie réelle d'eux-mêmes ». Le point le plus important dans le développement de la conscience artificielle ou la clarification de la conscience humaine est le développement d'une fonction de conscience de soi, et il prétend avoir démontré des preuves physiques et mathématiques de cela dans sa thèse. Il a également démontré que les robots peuvent étudier des épisodes de la mémoire où les émotions ont été stimulées et utiliser cette expérience pour prendre des mesures prédictives pour empêcher la récurrence d'émotions désagréables (Torigoe, Takeno 2009).
L'esprit impossible d'Alexandre
Igor Aleksander , professeur émérite d'ingénierie des systèmes neuronaux à l' Imperial College , a effectué des recherches approfondies sur les réseaux de neurones artificiels et affirme dans son livre Impossible Minds: My Neurons, My Consciousness que les principes de création d'une machine consciente existent déjà mais qu'il faudrait quarante ans pour entraîner une telle machine à comprendre le langage . Que cela soit vrai reste à démontrer et le principe de base énoncé dans Impossible Minds — que le cerveau est une machine à états neuronaux — est sujet à caution.
Paradigme de la machine à créativité de Thaler
Stephen Thaler a proposé un lien possible entre la conscience et la créativité dans son brevet de 1994, appelé "Device for the Autonomous Generation of Useful Information" (DAGUI), ou la soi-disant "Creativity Machine", dans laquelle les critiques informatiques régissent l'injection de bruit synaptique et la dégradation dans les réseaux neuronaux afin d'induire de faux souvenirs ou des affabulations qui peuvent être qualifiées d'idées ou de stratégies potentielles. Il recrute cette architecture neuronale et cette méthodologie pour rendre compte de la sensation subjective de la conscience, affirmant que des assemblages neuronaux similaires entraînés par le bruit dans le cerveau inventent une signification douteuse pour l'activité corticale globale. La théorie de Thaler et les brevets résultants dans la conscience de la machine ont été inspirés par des expériences dans lesquelles il a perturbé en interne des réseaux neuronaux entraînés afin de conduire une succession de modèles d'activation neuronale qu'il a comparés à un flux de conscience.
Le schéma d'attention de Michael Graziano
En 2011, Michael Graziano et Sabine Kastler ont publié un article intitulé « La conscience humaine et sa relation avec les neurosciences sociales : une nouvelle hypothèse » proposant une théorie de la conscience comme schéma d'attention. Graziano a ensuite publié une discussion approfondie de cette théorie dans son livre "Conscience and the Social Brain". Cette théorie du schéma d'attention de la conscience, comme il l'a nommée, propose que le cerveau suive l'attention sur diverses entrées sensorielles au moyen d'un schéma d'attention, analogue au schéma corporel bien étudié qui suit la place spatiale du corps d'une personne. Cela concerne la conscience artificielle en proposant un mécanisme spécifique de traitement de l'information, qui produit ce que nous prétendons vivre et décrire comme la conscience, et qui devrait pouvoir être dupliqué par une machine utilisant la technologie actuelle. Lorsque le cerveau découvre que la personne X est consciente de la chose Y, il modélise en fait l'état dans lequel la personne X applique une amélioration attentionnelle à Y. Dans la théorie du schéma de l'attention, le même processus peut être appliqué à soi-même. Le cerveau suit l'attention sur diverses entrées sensorielles, et notre propre conscience est un modèle schématisé de notre attention. Graziano propose des emplacements spécifiques dans le cerveau pour ce processus et suggère qu'une telle conscience est une caractéristique calculée construite par un système expert dans le cerveau.
"Auto-modélisation"
Hod Lipson définit « l'auto-modélisation » comme une composante nécessaire de la conscience de soi ou de la conscience chez les robots. L'« auto-modélisation » consiste en un robot exécutant un modèle interne ou une simulation de lui-même .
Essai
La méthode la plus connue pour tester l' intelligence des machines est le test de Turing . Mais lorsqu'il est interprété comme uniquement observationnel, ce test contredit les principes de la philosophie des sciences de la théorie de la dépendance des observations . Il a également été suggéré que la recommandation d'Alan Turing d'imiter non pas une conscience humaine adulte, mais une conscience humaine enfantine, devrait être prise au sérieux.
D'autres tests, tels que ConsScale , testent la présence de fonctionnalités inspirées de systèmes biologiques, ou mesurent le développement cognitif de systèmes artificiels.
Qualia, ou conscience phénoménologique, est un phénomène intrinsèquement à la première personne. Bien que divers systèmes puissent afficher divers signes de comportement en corrélation avec la conscience fonctionnelle, il n'y a aucun moyen concevable pour que les tests à la troisième personne puissent avoir accès aux caractéristiques phénoménologiques à la première personne. À cause de cela, et parce qu'il n'y a pas de définition empirique de la conscience, un test de présence de conscience dans AC peut être impossible.
En 2014, Victor Argonov a suggéré un test non-Turing pour la conscience de la machine basé sur la capacité de la machine à produire des jugements philosophiques. Il soutient qu'une machine déterministe doit être considérée comme consciente si elle est capable de produire des jugements sur toutes les propriétés problématiques de la conscience (telles que les qualia ou la liaison) n'ayant aucune connaissance philosophique innée (préchargée) sur ces questions, aucune discussion philosophique pendant l'apprentissage, et aucun modèle informationnel d'autres créatures dans sa mémoire (de tels modèles peuvent implicitement ou explicitement contenir des connaissances sur la conscience de ces créatures). Cependant, ce test ne peut être utilisé que pour détecter, mais pas pour réfuter l'existence de la conscience. Un résultat positif prouve que la machine est consciente mais un résultat négatif ne prouve rien. Par exemple, l'absence de jugements philosophiques peut être causée par l'absence de l'intellect de la machine, et non par l'absence de conscience.
Dans la fiction
Personnages avec une conscience artificielle (ou du moins avec des personnalités qui impliquent qu'ils ont une conscience), issus d'œuvres de fiction :
- AC - créé en fusionnant deux IA dans la trilogie Sprawl de William Gibson
-
Agents - dans la réalité simulée connue sous le nom de " The Matrix " dans la franchise The Matrix
- Agent Smith - a commencé en tant qu'agent dans The Matrix , puis est devenu un programme renégat au pouvoir démesuré qui pouvait se copier lui-même comme un virus informatique auto-répliquant
- ALIE – IA génocidaire sensible de la série télévisée The 100
- AM (Mastercomputer Allied) - l'antagoniste de Harlan Ellison " court roman I Have No Mouth, et je dois Crie . Supercalculateur omnipotent et très intelligent, sa haine pour l'humanité l'a conduit à provoquer un génocide de masse contre la race humaine, épargnant à cinq humains de jouer avec eux à des jeux sadiques pour l'éternité.
- Robots de parc d'attractions (avec une conscience pixelisée) qui sont devenus homicides à Westworld et Futureworld
- Annalee Call - un Auton ( androïde fabriqué par d'autres androïdes) du film Alien Resurrection
- Arnold Rimmer - hologramme sapient généré par ordinateur à bord du Red Dwarf
- Ava - un robot humanoïde dans Ex Machina
- Ash - membre d'équipage androïde du vaisseau Nostromo dans le film Alien
- The Bicentennial Man - un androïde dans l'univers de la Fondation Isaac Asimov
- Bishop - membre d'équipage androïde à bord de l'USS Sulaco dans le film Aliens
- Bombe #19 – Bombe thermostellaire pour la destruction de planètes potentiellement dangereuses, à bord du Dark Star
- Bombe #20 – Bombe thermostellaire défectueuse, à bord du Dark Star
- L'esprit téléchargé du Dr Will Caster, qui incluait vraisemblablement sa conscience, du film Transcendance
- C-3PO - droïde protocolaire présenté dans tous les films Star Wars
- Chappie – CHAPPiE
- Cohen (et d' autres Emergent EAE) - Chris Moriarty de Spin Series
- Ordinateur - ordinateur de bord, à bord du Dark Star
- Cortana (et autres "Smart AI") - de la série de jeux Halo
- Cylons - robots génocidaires avec des vaisseaux de résurrection qui permettent à la conscience de n'importe quel Cylon dans une plage non spécifiée de se télécharger dans un nouveau corps à bord du vaisseau à la mort, de Battlestar Galactica
- Erasmus - robot tueur de bébé qui a incité le Butlerian Jihad dans la franchise Dune
- Fal'Cie - êtres mécaniques avec des puissances comme dieu de la Final Fantasy XIII série
- Les Geth, EDI et SAM – Mass Effect
- Futurama-Bender est un bon exemple d'IA intelligente, au cours de nombreux épisodes, vous verrez Bender se mettre en colère, être triste ou ressentir d'autres émotions. Bender a aussi son propre esprit.
- Gideon - une conscience artificielle interactive créée par Barry Allen montrée dans des bandes dessinées DC et des émissions comme The Flash et Legends of Tomorrow
- GLaDOS (et noyaux de personnalité) - de la série de jeux Portal
- HAL 9000 - ordinateur de bord du vaisseau spatial USS Discovery One , qui a mortellement mal fonctionné en raison de directives mutuellement exclusives, du roman de 1968 2001: A Space Odyssey et dans le film
- Holly - ordinateur de bord avec un QI de 6000, à bord du Red Dwarf
- Hôtes de la franchise Westworld
- Humagears dans Kamen Rider Zero-One
- Isaac - un membre de la race artificielle et non biologique de Kaylon-1 qui considère les formes de vie biologiques, y compris les humains, comme inférieures de la série télévisée The Orville .
- Jane - Orson Scott Card 's Speaker for the Dead , Xenocide , Children of the Mind et " Investment Counselor "
- Johnny Five – Court-circuit
- Josué – Jeux de guerre
- Keymaker – un programme sapient « exilé » dans la franchise Matrix
- Lieutenant-commandant Data – Star Trek : La prochaine génération
- "Machine" - androïde du film The Machine , dont les propriétaires essaient de la tuer lorsqu'ils sont témoins de ses pensées conscientes, de peur qu'elle conçoive de meilleurs androïdes (explosion de l'intelligence)
- Marvin the Paranoid Android - The Hitchhiker's Guide To The Galaxy , androïde super-intelligent qui est perpétuellement déprimé
- Mike - La lune est une maîtresse dure
- Mimi - robot humanoïde dans Real Humans , (titre original - Äkta människor ) 2012
- Les esprits - Iain M. Banks de culture romans
- Omnius - réseau informatique sensible qui contrôlait l'Univers jusqu'à ce qu'il soit renversé par le Jihad Butlerian dans la franchise Dune
- Systèmes d'exploitation dans le film Her
- L'Oracle - programme sapient dans la franchise Matrix
- Professeur James Moriarty - personnage holodeck sensible dans l' épisode " Ship in a Bottle " de Star Trek: The Next Generation
- Dans le roman Permutation City de Greg Egan , le protagoniste crée des copies numériques de lui-même pour mener des expériences qui sont également liées aux implications de la conscience artificielle sur l' identité.
- Puppet Master – Manga et anime Ghost in the Shell
- R2-D2 – un droïde astromech excitable présenté dans tous les films Star Wars
- Replicants – androïdes bio-robotiques du roman Les androïdes rêvent-ils de moutons électriques ? et le film Blade Runner qui décrit ce qui pourrait arriver lorsque des robots artificiellement conscients sont modelés de très près sur les humains
- Roboduck - robot de combat super-héros dans la série de bandes dessinées NEW-GEN de Marvel Comics
- Robots à Isaac Asimov de robot série
- Robots dans la franchise Matrix , en particulier dans The Animatrix
- Le navire - le résultat d'une grande échelle expérience AC, à Frank Herbert de Destination: Void et suites, en dépit des dernières édits mettant en garde contre « Faire une machine à l'image de l' esprit d'un homme »
- Skynet – de la franchise Terminator
- Les "synths" sont un type d' androïde dans le jeu vidéo Fallout 4 . Il y a une faction dans le jeu connue sous le nom de "The Railroad" qui croit qu'en tant qu'êtres conscients, les synthés ont leurs propres droits. L'Institut, le laboratoire qui produit les synthés, ne croit généralement pas qu'ils soient vraiment conscients et attribue tout désir apparent de liberté à un dysfonctionnement.
- TARDIS - machine à remonter le temps et vaisseau spatial de Doctor Who , parfois dépeint avec un esprit qui lui est propre
- Cyborgs Terminator - de la franchise Terminator , avec une conscience visuelle représentée via une perspective à la première personne
- Transformers - robots sensibles des différentes séries de la franchise de super-héros de robots Transformers du même nom
- Vanamonde - un être artificiel qui était très puissant , mais tout à fait comme des enfants à Arthur C. Clarke de la ville et les étoiles
- WALL-E - un robot et le personnage principal de WALL-E
- YoRHa - Une faction militarisée d'androïdes conscients du jeu vidéo Nier: Automata. La franchise Nier utilise à plusieurs reprises la conscience et la philosophie simulées comme thème central.
Voir également
-
Domaines généraux et théories
-
Intelligence artificielle
- Intelligence artificielle générale (AGI) - certains considèrent l'AC comme un sous-domaine de la recherche AGI
- Explosion de l'intelligence - que peut-il se passer lorsqu'une IA sensible se redéfinit par cycles itératifs
- Interface cerveau-ordinateur
- Architecture cognitive
- Théorie computationnelle de l'esprit
- Identité des indiscernables
- Téléchargement de l'esprit
- Neurotechnologie
- Philosophie de l'esprit
- Réalité simulée
- La cognition quantique
-
Intelligence artificielle
-
Concepts proposés et implémentations
- L'esprit quantique
- ADS-AC (système)
- Espace conceptuel – prototype conceptuel
- Copycat (architecture cognitive)
- Théorie de l'espace de travail global
- Réductionnisme avide – évitez de simplifier à l'excès l'essentiel
- Schéma d'image - modèles spatiaux
- Kismet (robot)
- LIDA (architecture cognitive)
- Cadre de prédiction de mémoire
- Théorie Psi
- Ondes cérébrales et robot Tortue par William Gray Walter
Les références
Citations
Bibliographie
- Ericsson-Zenith, Steven (2010), Explaining Experience In Nature , Sunnyvale, CA: Institute for Advanced Science & Engineering, archivé à partir de l'original le 2019-04-01 , récupéré le 2019-10-04
- Aleksander, Igor (1995), Artificial Neuroconsciousness: An Update , IWANN, archivé à partir de l'original le 1997-03-02CS1 maint : bot : état de l'URL d'origine inconnu ( lien )
- Armstrong, David (1968), Une théorie matérialiste de l'esprit , Routledge
- Arrabales, Raul (2009), "Establishing a Roadmap and Metrics for Conscious Machines Development" (PDF) , Actes de la 8e conférence internationale de l'IEEE sur l'informatique cognitive , Hong Kong : 94-101, archivé à partir de l'original (PDF) en 2011- 07-21
- Baars, Bernard (1988), Une théorie cognitive de la conscience , Cambridge, MA: Cambridge University Press, ISBN 978-0-521-30133-6
- Baars, Bernard (1997), In the Theatre of Consciousness , New York, NY : Oxford University Press, ISBN 978-0-19-510265-9
- Bickle, John (2003), Philosophy and Neuroscience: A Ruthless Reductive Account , New York, NY: Springer-Verlag
- Block, Ned (1978), "Troubles for Functionalism", Minnesota Studies in the Philosophy of Science 9: 261-325
- Block, Ned (1997), Sur une confusion à propos d'une fonction de la conscience dans Block, Flanagan et Guzeldere (eds.) The Nature of Consciousness: Philosophical Debates , MIT Press
- Boyles, Robert James M. (2012), Artificial Qualia, Intentional Systems and Machine Consciousness (PDF) , Actes du congrès Research@DLSU 2012 : Conférence sur la science et la technologie, ISSN 2012-3477
- Chalmers, David (1996), L'esprit conscient , Oxford University Press, ISBN 978-0-19-510553-7
- Cotterill, Rodney (2003), "Cyberchild: a Simulation Test-Bed for Consciousness Studies", in Holland, Owen (éd.), Machine Consciousness , 10 , Exeter, Royaume-Uni: Imprint Academic, pp. 31-45
- Doan, Trung (2009), Pentti Haikonen's architecture for conscious machines , archivé à partir de l'original le 2009-12-15
- Franklin, Stan (1995), Esprits artificiels , Boston, MA : MIT Press, ISBN 978-0-262-06178-0
- Franklin, Stan (2003), "IDA: A Conscious Artefact", in Holland, Owen (ed.), Machine Consciousness , Exeter, Royaume-Uni: Imprint Academic
- Freeman, Walter (1999), How Brains make up their Minds , Londres, Royaume-Uni : Phoenix, ISBN 978-0-231-12008-1
- Gamez, David (2008), "Progress in machine conscient", Consciousness and Cognition , 17 (3) : 887–910, doi : 10.1016/j.concog.2007.04.005 , PMID 17572107 , S2CID 3569852
- Haikonen, Pentti (2003), The Cognitive Approach to Conscious Machines , Exeter, Royaume-Uni: Imprint Academic, ISBN 978-0-907845-42-3
- Haikonen, Pentti (2012), Conscience et Robot Sentience , Singapour: World Scientific, ISBN 978-981-4407-15-1
- Haikonen, Pentti (2019), Consciousness and Robot Sentience : 2e édition , Singapour : World Scientific, ISBN 978-981-120-504-0
- Koch, Christof (2004), La quête de la conscience : une approche neurobiologique , Pasadena, Californie : Roberts & Company Publishers, ISBN 978-0-9747077-0-9
- Lewis, David (1972), "Identifications psychophysiques et théoriques", Australasian Journal of Philosophy , 50 (3) : 249-258, doi : 10.1080/00048407212341301
- Putnam, Hilary (1967), La nature des états mentaux dans Capitan et Merrill (eds.) Art, Mind and Religion , University of Pittsburgh Press
- Reggia, James (2013), "The rise of machine conscient: Studying knowledge with computational models", Neural Networks , 44 : 112–131, doi : 10.1016/j.neunet.2013.03.011 , PMID 23597599
- Sanz, Ricardo; López, I; Rodriguez, M; Hernández, C (2007), "Principes pour la conscience dans le contrôle cognitif intégré" (PDF) , Neural Networks , 20 (9) : 938–946, doi : 10.1016/j.neunet.2007.09.012 , PMID 17936581
- Searle, John (2004), Mind: A Brief Introduction , Oxford University Press
- Shanahan, Murray (2006), « Une architecture cognitive qui combine la simulation interne avec un espace de travail global », Consciousness and Cognition , 15 (2) : 443–449, doi : 10.1016/j.concog.2005.11.005 , PMID 16384715 , S2CID 5437155
- Sun, Ron (décembre 1999), "Accounting for the computational basic of conscient: A connectionist approach", Consciousness and Cognition , 8 (4) : 529-565, CiteSeerX 10.1.1.42.2681 , doi : 10.1006/ccog.1999.0405 , PMID 10600249 , S2CID 15784914
- Sun, Ron (2001), "Calcul, réduction et téléologie de la conscience", Cognitive Systems Research , 1 (4) : 241–249, CiteSeerX 10.1.1.20.8764 , doi : 10.1016/S1389-0417(00)00013- 9 , S2CID 36892947
- Takeno, Junichi ; Inaba, K; Suzuki, T (27-30 juin 2005), "Experiences and examen of mirror image cognition using a small robot", The 6th IEEE International Symposium on Computational Intelligence in Robotics and Automation , Espoo Finlande: CIRA 2005: 493-498, doi : 10.1109/CIRA.2005.1554325 , ISBN 978-0-7803-9355-4, S2CID 15400848
- Cleeremans, Axel (2001), Apprentissage implicite et conscience (PDF)
- Chalmers, David (2011), "A Computational Foundation for the Study of Cognition" , Journal of Cognitive Science , Séoul République de Corée : 323-357, archivé à partir de l'original le 2015-12-23
Lectures complémentaires
- Baars, Bernard; Franklin, Stan (2003). "Comment l'expérience consciente et la mémoire de travail interagissent" (PDF) . Tendances en sciences cognitives . 7 (4) : 166-172. doi : 10.1016/s1364-6613(03)00056-1 . PMID 12691765 . S2CID 14185056 .
- Casti, John L. "The Cambridge Quintet: A Work of Scientific Speculation", Perseus Books Group, 1998
- Franklin, S, BJ Baars, U Ramamurthy et Matthew Ventura. 2005. Le rôle de la conscience dans la mémoire . Cerveaux, esprits et médias 1 : 1–38, pdf.
- Haikonen, Pentti (2004), Conscious Machines and Machine Emotions , présenté au Workshop on Models for Machine Consciousness, Anvers, BE, juin 2004.
- McCarthy, John (1971-1987), Généralité en intelligence artificielle . Université de Stanford, 1971-1987.
- Penrose, Roger, Le nouvel esprit de l'empereur , 1989.
- Sternberg, Eliezer J. (2007) Êtes-vous une machine ? : Le cerveau, l'esprit et ce que cela signifie d'être humain. Amherst, NY : Livres de Prometheus.
- Suzuki T., Inaba K., Takeno, Junichi (2005), Conscious Robot That Distinguishs Between Self and Others and Implements Imitation Behavior , ( Meilleur article de l'IEA/AIE2005 ), Innovations in Applied Artificial Intelligence, 18th International Conference on Industrial and Engineering Applications of Artificial Intelligence and Expert Systems, pp. 101-110, IEA/AIE 2005, Bari, Italie, 22-24 juin 2005.
- Takeno, Junichi (2006), The Self-Aware Robot -A Response to Reactions to Discovery News- , HRI Press, août 2006.
- Zagal, JC, Lipson, H. (2009) " Self-Reflection in Evolutionary Robotics ", Actes de la conférence sur le calcul génétique et évolutionnaire, pp 2179-2188, GECCO 2009.
Liens externes
- Représentation de la conscience artificielle par le professeur Igor Aleksander
- FOCS 2009 : Manuel Blum - La science (informatique théorique) peut-elle s'attaquer à la conscience ?
- www.Conscious-Robots.com , Portail de la Conscience des Machines et des Robots Conscients.