Conscience artificielle - Artificial consciousness

La conscience artificielle ( AC ), également connue sous le nom de conscience machine ( MC ) ou conscience synthétique ( Games 2008 ; Reggia 2013 ), est un domaine lié à l' intelligence artificielle et à la robotique cognitive . Le but de la théorie de la conscience artificielle est de « définir ce qui devrait être synthétisé si la conscience se trouvait dans un artefact fabriqué » ( Aleksander 1995 ).

Les neurosciences émettent l'hypothèse que la conscience est générée par l'interopérabilité de diverses parties du cerveau , appelées corrélats neuronaux de la conscience ou NCC, bien qu'il y ait des défis à cette perspective. Les partisans de l'AC croient qu'il est possible de construire des systèmes (par exemple, des systèmes informatiques ) qui peuvent émuler cette interopérabilité NCC.

Les concepts de conscience artificielle sont également considérés dans la philosophie de l' intelligence artificielle à travers des questions sur l'esprit, la conscience et les états mentaux .

Vues philosophiques

Comme il existe de nombreux types hypothétiques de conscience , il existe de nombreuses implémentations potentielles de la conscience artificielle. Dans la littérature philosophique, la taxonomie la plus courante de la conscience est peut-être en variantes « accès » et « phénoménale ». La conscience d'accès concerne les aspects de l' expérience qui peuvent être appréhendés, tandis que la conscience phénoménale concerne les aspects de l'expérience qui apparemment ne peuvent pas être appréhendés, au lieu d'être caractérisés qualitativement en termes de « sentiments bruts », « à quoi cela ressemble » ou qualia ( Block 1997 ) .

Débat sur la plausibilité

Les théoriciens de l'identité de type et d'autres sceptiques soutiennent que la conscience ne peut être réalisée que dans des systèmes physiques particuliers parce que la conscience a des propriétés qui dépendent nécessairement de la constitution physique ( Block 1978 ; Bickle 2003 ).

Dans son article « Conscience artificielle : utopie ou possibilité réelle », Giorgio Buttazzo dit qu'une objection courante à la conscience artificielle est que « travaillant dans un mode entièrement automatisé, ils [les ordinateurs] ne peuvent pas faire preuve de créativité, de déprogrammation reprogrammé, de repenser), les émotions ou le libre arbitre . Un ordinateur, comme une machine à laver, est un esclave actionné par ses composants.

Pour d'autres théoriciens (par exemple, les fonctionnalistes ), qui définissent les états mentaux en termes de rôles causaux, tout système qui peut instancier le même modèle de rôles causaux, quelle que soit la constitution physique, instanciera les mêmes états mentaux, y compris la conscience ( Putnam 1967 ).

Argument de base informatique

L'un des arguments les plus explicites pour la plausibilité d'AC vient de David Chalmers . Sa proposition, trouvée dans son article Chalmers 2011 , est à peu près que les bons types de calculs sont suffisants pour la possession d'un esprit conscient. Dans les grandes lignes, il défend sa demande ainsi : Les ordinateurs effectuent des calculs. Les calculs peuvent saisir l'organisation causale abstraite d'autres systèmes.

La partie la plus controversée de la proposition de Chalmers est que les propriétés mentales sont « invariantes sur le plan organisationnel ». Les propriétés mentales sont de deux sortes, psychologiques et phénoménologiques. Les propriétés psychologiques, telles que la croyance et la perception, sont celles qui sont "caractérisées par leur rôle causal". Il s'appuie sur les travaux d' Armstrong 1968 et de Lewis 1972 en affirmant que « les systèmes ayant la même topologie causale… partageront leurs propriétés psychologiques ».

Les propriétés phénoménologiques ne sont pas à première vue définissables en termes de leurs rôles causals. Établir que les propriétés phénoménologiques se prêtent à l'individuation par le rôle causal nécessite donc un argument. Chalmers fournit son argument de Dancing Qualia à cette fin.

Chalmers commence par supposer que des agents ayant des organisations causales identiques pourraient avoir des expériences différentes. Il nous demande alors de concevoir le changement d'un agent en un autre par le remplacement de parties (parties neuronales remplacées par du silicium, disons) tout en préservant son organisation causale. Par hypothèse, l'expérience de l'agent en transformation changerait (au fur et à mesure que les parties seraient remplacées), mais il n'y aurait aucun changement dans la topologie causale et donc aucun moyen par lequel l'agent pourrait « remarquer » le changement d'expérience.

Les critiques d'AC objectent que Chalmers pose la question en supposant que toutes les propriétés mentales et les connexions externes sont suffisamment capturées par l'organisation causale abstraite.

Éthique

Si l'on soupçonnait qu'une machine particulière était consciente, ses droits seraient une question éthique qui devrait être évaluée (par exemple, quels droits elle aurait en vertu de la loi). Par exemple, un ordinateur conscient qui a été possédé et utilisé comme outil ou ordinateur central d'un bâtiment d'une machine plus grande est une ambiguïté particulière. Faut-il faire des lois pour un tel cas? La conscience nécessiterait également une définition légale dans ce cas particulier. Parce que la conscience artificielle est encore largement un sujet théorique, une telle éthique n'a pas été discutée ou développée dans une large mesure, bien qu'elle ait souvent été un thème de fiction (voir ci-dessous).

En 2021, le philosophe allemand Thomas Metzinger a réclamé un moratoire mondial sur la phénoménologie synthétique jusqu'en 2050, pour des raisons éthiques.

Le règlement du concours du prix Loebner 2003 abordait explicitement la question des droits des robots :

61. Si, au cours d'une année donnée, une candidature open source accessible au public et présentée par l'Université de Surrey ou le Cambridge Center remporte la médaille d'argent ou la médaille d'or, alors la médaille et le prix en espèces seront décernés à l'organisme responsable de la développement de cette entrée. Si aucun organisme de ce type ne peut être identifié, ou s'il y a un désaccord entre deux ou plusieurs demandeurs, la Médaille et la Récompense en espèces seront détenues en fiducie jusqu'à ce que la Participation puisse légalement posséder, soit aux États-Unis d'Amérique, soit aux États-Unis. lieu du concours, le Cash Award et la Médaille d'or à part entière .

Propositions de recherche et de mise en œuvre

Aspects de la conscience

Il existe divers aspects de la conscience généralement jugés nécessaires pour qu'une machine soit artificiellement consciente. Une variété de fonctions dans lesquelles la conscience joue un rôle ont été suggérées par Bernard Baars ( Baars 1988 ) et d'autres. Les fonctions de conscience suggérées par Bernard Baars sont la définition et la mise en contexte, l'adaptation et l'apprentissage, l'édition, le repérage et le débogage, le recrutement et le contrôle, la hiérarchisation et le contrôle d'accès, la prise de décision ou la fonction exécutive, la fonction de formation d'analogie, la métacognition et l'auto-apprentissage. Fonction de surveillance et fonction de programmation automatique et d'auto-entretien. Igor Aleksander a suggéré 12 principes pour la conscience artificielle ( Aleksander 1995 ) et ceux-ci sont : Le cerveau est une machine d'état, le partitionnement des neurones internes, les états conscients et inconscients, l'apprentissage perceptif et la mémoire, la prédiction, la conscience de soi, la représentation du sens, les énoncés d'apprentissage. , Apprentissage du langage, de la volonté, de l'instinct et de l'émotion. L'objectif de l'AC est de définir si et comment ces aspects et d'autres de la conscience peuvent être synthétisés dans un artefact d'ingénierie tel qu'un ordinateur numérique. Cette liste n'est pas exhaustive; il y en a beaucoup d'autres qui ne sont pas couverts.

Sensibilisation

La sensibilisation pourrait être un aspect requis, mais la définition exacte de la sensibilisation pose de nombreux problèmes . Les résultats des expériences de neuroscanning sur des singes suggèrent qu'un processus, et pas seulement un état ou un objet, active les neurones. La sensibilisation comprend la création et le test de modèles alternatifs de chaque processus sur la base des informations reçues par les sens ou imaginées, et est également utile pour faire des prédictions. Une telle modélisation nécessite beaucoup de flexibilité. La création d'un tel modèle comprend la modélisation du monde physique, la modélisation de ses propres états et processus internes et la modélisation d'autres entités conscientes.

Il existe au moins trois types de conscience : la conscience d'agence, la conscience d'objectif et la conscience sensorimotrice, qui peut aussi être consciente ou non. Par exemple, dans la conscience d'agence, vous pouvez être conscient que vous avez effectué une certaine action hier, mais n'en êtes pas conscient maintenant. Dans la conscience de l'objectif, vous pouvez être conscient que vous devez rechercher un objet perdu, mais n'en êtes pas conscient maintenant. Dans la conscience sensorimotrice, vous pouvez être conscient que votre main repose sur un objet, mais n'en êtes pas conscient maintenant.

Al Byrd, l'auteur de Superhuman Creators, définit la conscience, pour les animaux, les humains et les agents artificiels, comme l'effet de l'intégration et du filtrage de nombreux types différents de conscience de l'affordance ; c'est-à-dire la conscience des possibilités d'action dans un environnement. Selon cette définition, tous les agents qui peuvent percevoir et agir sur les affordances sont conscients dans une certaine mesure.

Parce que les objets de conscience sont souvent conscients, la distinction entre conscience et conscience est souvent floue ou ils sont utilisés comme synonymes.

Mémoire

Les événements conscients interagissent avec les systèmes de mémoire lors de l'apprentissage, de la répétition et de la récupération. Le modèle IDA élucide le rôle de la conscience dans la mise à jour de la mémoire perceptive, de la mémoire épisodique transitoire et de la mémoire procédurale . Les mémoires épisodiques et déclaratives transitoires ont distribué des représentations dans l'IDA, il est prouvé que c'est également le cas dans le système nerveux. Dans l' IDA, ces deux mémoires sont mises en œuvre en utilisant informatiquement une version modifiée de Kanerva de mémoire Sparse distribuée architecture.

Apprentissage

L'apprentissage est également considéré comme nécessaire pour AC. Pour Bernard Baars, l'expérience consciente est nécessaire pour représenter et s'adapter à des événements nouveaux et significatifs ( Baars 1988 ). Par Axel Cleeremans et Luis Jiménez, l' apprentissage se définit comme « un ensemble de philogenetically [ sic ] processus d'adaptation avancés qui dépendent essentiellement de une sensibilité évolué à l' expérience subjective afin de permettre aux agents de se permettre un contrôle flexible sur leurs actions dans des environnements complexes et imprévisibles » ( Cleremans 2001 ).

Anticipation

La capacité de prédire (ou d' anticiper ) les événements prévisibles est considérée comme importante pour AC par Igor Aleksander . Le principe émergentiste des brouillons multiples proposé par Daniel Dennett dans Consciousness Explained peut être utile pour la prédiction : il implique l'évaluation et la sélection du « brouillon » le plus approprié pour s'adapter à l'environnement actuel. L'anticipation comprend la prédiction des conséquences de ses propres actions proposées et la prédiction des conséquences des actions probables d'autres entités.

Les relations entre les états du monde réel se reflètent dans la structure étatique d'un organisme conscient permettant à l'organisme de prédire les événements. Une machine artificiellement consciente devrait être capable d'anticiper correctement les événements afin d'être prête à y répondre lorsqu'ils se produisent ou à prendre des mesures préventives pour éviter les événements anticipés. L'implication ici est que la machine a besoin de composants flexibles en temps réel qui construisent des modèles spatiaux, dynamiques, statistiques, fonctionnels et de cause à effet du monde réel et des mondes prédits, permettant de démontrer qu'elle possède une conscience artificielle dans le présent. et l'avenir et pas seulement dans le passé. Pour ce faire, une machine consciente doit faire des prédictions cohérentes et des plans d'urgence, non seulement dans des mondes avec des règles fixes comme un échiquier, mais aussi pour de nouveaux environnements qui peuvent changer, à exécuter uniquement lorsque cela est approprié pour simuler et contrôler le réel. monde.

Expérience subjective

Les expériences subjectives ou qualia sont largement considérées comme le problème difficile de la conscience . En effet, il est considéré comme un défi au physicalisme , sans parler du computationalisme . D'un autre côté, il existe des problèmes dans d'autres domaines de la science qui limitent ce que nous pouvons observer, comme le principe d'incertitude en physique, qui n'ont pas rendu impossible la recherche dans ces domaines de la science.

Rôle des architectures cognitives

Le terme « architecture cognitive » peut se référer à une théorie sur la structure de l'esprit humain, ou toute partie ou fonction de celui-ci, y compris la conscience. Dans un autre contexte, une architecture cognitive implémente la théorie sur des ordinateurs. Un exemple est QuBIC : Quantum and Bio-inspired Cognitive Architecture for Machine Consciousness . L'un des principaux objectifs d'une architecture cognitive est de résumer les différents résultats de la psychologie cognitive dans un modèle informatique complet. Cependant, les résultats doivent être sous une forme formalisée afin qu'ils puissent être la base d'un programme informatique. De plus, le rôle de l'architecture cognitive est pour l'IA de clairement structurer, construire et mettre en œuvre son processus de réflexion.

Propositions symboliques ou hybrides

Agent de distribution intelligent de Franklin

Stan Franklin (1995, 2003) définit un agent autonome comme possédant une conscience fonctionnelle lorsqu'il est capable de plusieurs des fonctions de la conscience identifiées par la théorie de l'espace de travail global de Bernard Baars (Baars  1988 , 1997 ). Son enfant cerveau IDA (Intelligent Distribution Agent) est une implémentation logicielle de GWT, ce qui le rend fonctionnellement conscient par définition. La tâche de l'IDA est de négocier de nouvelles affectations pour les marins de l' US Navy après leur période de service, en faisant correspondre les compétences et les préférences de chaque individu avec les besoins de la Navy. L'IDA interagit avec les bases de données de la Marine et communique avec les marins via un dialogue de courrier électronique en langage naturel tout en obéissant à un grand nombre de politiques de la Marine. Le modèle informatique IDA a été développé entre 1996 et 2001 au sein du groupe de recherche sur les logiciels « conscients » de Stan Franklin à l' Université de Memphis . Il "se compose d'environ un quart de million de lignes de code Java et consomme presque entièrement les ressources d'un poste de travail haut de gamme de 2001". Il s'appuie fortement sur les codelets , qui sont "des mini-agent[s] à usage spécial, relativement indépendants, généralement implémentés sous la forme d'un petit morceau de code s'exécutant comme un thread séparé". Dans l'architecture descendante d'IDA, les fonctions cognitives de haut niveau sont explicitement modélisées (voir Franklin 1995 et Franklin 2003 pour plus de détails). Alors que IDA est fonctionnellement conscient par définition, Franklin n'attribue pas une conscience phénoménale à son propre agent logiciel 'conscient', IDA, malgré ses nombreux comportements humains. « Oui, c'est comme ça que je procède » tout en observant les actions internes et externes d'IDA pendant qu'elle exécute sa tâche. » IDA a été étendu à LIDA (Learning Intelligent Distribution Agent).

L'architecture cognitive de Ron Sun CLARION

CLARION propose une représentation à deux niveaux qui explique la distinction entre les processus mentaux conscients et inconscients.

CLARION a réussi à rendre compte d'une variété de données psychologiques. Un certain nombre de tâches d'apprentissage de compétences bien connues ont été simulées à l'aide de CLARION et couvrent un spectre allant des compétences réactives simples aux compétences cognitives complexes. Les tâches comprennent des tâches de temps de réaction en série (SRT), des tâches d'apprentissage de la grammaire artificielle (AGL), des tâches de contrôle de processus (PC), la tâche d'inférence catégorielle (CI), la tâche d'arithmétique alphabétique (AA) et la tour de Hanoï (TOH) tâche ( dim 2002 ) . Parmi elles, SRT, AGL et PC sont des tâches d'apprentissage implicites typiques, très pertinentes pour la question de la conscience car elles opérationnalisent la notion de conscience dans le contexte d'expériences psychologiques.

OpenCog de Ben Goertzel

Ben Goertzel poursuit une AGI incarnée à travers le projet open source OpenCog . Le code actuel comprend des animaux de compagnie virtuels incarnés capables d'apprendre des commandes simples en anglais, ainsi que l'intégration avec la robotique du monde réel, en cours à l' Université polytechnique de Hong Kong .

Propositions connexionnistes

L'architecture cognitive de Haikonen

Pentti Haikonen (2003) considère que l'informatique classique basée sur des règles est inadéquate pour atteindre la CA : « le cerveau n'est définitivement pas un ordinateur. Penser n'est pas une exécution de chaînes de commandes programmées. Le cerveau n'est pas non plus une calculatrice numérique. Nous ne pensons pas en Nombres." Plutôt que d' essayer d'atteindre l' esprit et la conscience en identifiant et en appliquant leurs règles de calcul sous - jacents, Haikonen propose « une spéciale architecture cognitive de reproduire les processus de perception , l' imagerie intérieure , la parole intérieure , la douleur , le plaisir , les émotions et les cognitives fonctions derrière celles - ci. Cette une architecture ascendante produirait des fonctions de niveau supérieur par la puissance des unités de traitement élémentaires, les neurones artificiels , sans algorithmes ni programmes ". Haikonen pense que, lorsqu'elle est mise en œuvre avec une complexité suffisante, cette architecture développera une conscience, qu'il considère comme "un style et un mode de fonctionnement, caractérisés par une représentation de signal distribué, un processus de perception, des rapports intermodalités et une disponibilité pour la rétrospection". Haikonen n'est pas seul dans cette vision du processus de la conscience, ou dans la vision que l'AC émergera spontanément dans des agents autonomes qui ont une architecture de complexité neuro-inspirée appropriée ; ceux-ci sont partagés par beaucoup, par exemple Freeman (1999) et Cotterill (2003) . Une mise en œuvre de faible complexité de l'architecture proposée par Haikonen (2003) n'était apparemment pas capable d'AC, mais a montré des émotions comme prévu. Voir Doan (2009) pour une introduction complète à l'architecture cognitive de Haikonen. Un compte rendu mis à jour de l'architecture de Haikonen, ainsi qu'un résumé de ses opinions philosophiques, sont donnés dans Haikonen (2012) , Haikonen (2019) .

L'architecture cognitive de Shanahan

Murray Shanahan décrit une architecture cognitive qui combine l'idée de Baars d'un espace de travail global avec un mécanisme de simulation interne (« imagination ») ( Shanahan 2006 ). Pour des discussions sur l'architecture de Shanahan, voir ( Gamez 2008 ) et ( Reggia 2013 ) et le chapitre 20 de ( Haikonen 2012 ).

La recherche sur la conscience de soi de Takeno

La conscience de soi chez les robots est étudiée par Junichi Takeno à l' Université Meiji au Japon. Takeno affirme avoir développé un robot capable de discriminer entre une image de soi dans un miroir et toute autre image ayant une image identique, et cette affirmation a déjà été examinée ( Takeno, Inaba & Suzuki 2005 ). Takeno affirme qu'il a d'abord conçu le module de calcul appelé MoNAD, qui a une fonction de conscience de soi, puis il a construit le système de conscience artificielle en formulant les relations entre les émotions, les sentiments et la raison en reliant les modules dans une hiérarchie (Igarashi, Takeno 2007). Takeno a réalisé une expérience de cognition par image miroir à l'aide d'un robot équipé du système MoNAD. Takeno a proposé la théorie du corps de soi affirmant que « les humains sentent que leur propre image miroir est plus proche d'eux-mêmes qu'une partie réelle d'eux-mêmes ». Le point le plus important dans le développement de la conscience artificielle ou la clarification de la conscience humaine est le développement d'une fonction de conscience de soi, et il prétend avoir démontré des preuves physiques et mathématiques de cela dans sa thèse. Il a également démontré que les robots peuvent étudier des épisodes de la mémoire où les émotions ont été stimulées et utiliser cette expérience pour prendre des mesures prédictives pour empêcher la récurrence d'émotions désagréables (Torigoe, Takeno 2009).

L'esprit impossible d'Alexandre

Igor Aleksander , professeur émérite d'ingénierie des systèmes neuronaux à l' Imperial College , a effectué des recherches approfondies sur les réseaux de neurones artificiels et affirme dans son livre Impossible Minds: My Neurons, My Consciousness que les principes de création d'une machine consciente existent déjà mais qu'il faudrait quarante ans pour entraîner une telle machine à comprendre le langage . Que cela soit vrai reste à démontrer et le principe de base énoncé dans Impossible Minds — que le cerveau est une machine à états neuronaux — est sujet à caution.

Paradigme de la machine à créativité de Thaler

Stephen Thaler a proposé un lien possible entre la conscience et la créativité dans son brevet de 1994, appelé "Device for the Autonomous Generation of Useful Information" (DAGUI), ou la soi-disant "Creativity Machine", dans laquelle les critiques informatiques régissent l'injection de bruit synaptique et la dégradation dans les réseaux neuronaux afin d'induire de faux souvenirs ou des affabulations qui peuvent être qualifiées d'idées ou de stratégies potentielles. Il recrute cette architecture neuronale et cette méthodologie pour rendre compte de la sensation subjective de la conscience, affirmant que des assemblages neuronaux similaires entraînés par le bruit dans le cerveau inventent une signification douteuse pour l'activité corticale globale. La théorie de Thaler et les brevets résultants dans la conscience de la machine ont été inspirés par des expériences dans lesquelles il a perturbé en interne des réseaux neuronaux entraînés afin de conduire une succession de modèles d'activation neuronale qu'il a comparés à un flux de conscience.

Le schéma d'attention de Michael Graziano

En 2011, Michael Graziano et Sabine Kastler ont publié un article intitulé « La conscience humaine et sa relation avec les neurosciences sociales : une nouvelle hypothèse » proposant une théorie de la conscience comme schéma d'attention. Graziano a ensuite publié une discussion approfondie de cette théorie dans son livre "Conscience and the Social Brain". Cette théorie du schéma d'attention de la conscience, comme il l'a nommée, propose que le cerveau suive l'attention sur diverses entrées sensorielles au moyen d'un schéma d'attention, analogue au schéma corporel bien étudié qui suit la place spatiale du corps d'une personne. Cela concerne la conscience artificielle en proposant un mécanisme spécifique de traitement de l'information, qui produit ce que nous prétendons vivre et décrire comme la conscience, et qui devrait pouvoir être dupliqué par une machine utilisant la technologie actuelle. Lorsque le cerveau découvre que la personne X est consciente de la chose Y, il modélise en fait l'état dans lequel la personne X applique une amélioration attentionnelle à Y. Dans la théorie du schéma de l'attention, le même processus peut être appliqué à soi-même. Le cerveau suit l'attention sur diverses entrées sensorielles, et notre propre conscience est un modèle schématisé de notre attention. Graziano propose des emplacements spécifiques dans le cerveau pour ce processus et suggère qu'une telle conscience est une caractéristique calculée construite par un système expert dans le cerveau.

"Auto-modélisation"

Hod Lipson définit « l'auto-modélisation » comme une composante nécessaire de la conscience de soi ou de la conscience chez les robots. L'« auto-modélisation » consiste en un robot exécutant un modèle interne ou une simulation de lui-même .

Essai

La méthode la plus connue pour tester l' intelligence des machines est le test de Turing . Mais lorsqu'il est interprété comme uniquement observationnel, ce test contredit les principes de la philosophie des sciences de la théorie de la dépendance des observations . Il a également été suggéré que la recommandation d'Alan Turing d'imiter non pas une conscience humaine adulte, mais une conscience humaine enfantine, devrait être prise au sérieux.

D'autres tests, tels que ConsScale , testent la présence de fonctionnalités inspirées de systèmes biologiques, ou mesurent le développement cognitif de systèmes artificiels.

Qualia, ou conscience phénoménologique, est un phénomène intrinsèquement à la première personne. Bien que divers systèmes puissent afficher divers signes de comportement en corrélation avec la conscience fonctionnelle, il n'y a aucun moyen concevable pour que les tests à la troisième personne puissent avoir accès aux caractéristiques phénoménologiques à la première personne. À cause de cela, et parce qu'il n'y a pas de définition empirique de la conscience, un test de présence de conscience dans AC peut être impossible.

En 2014, Victor Argonov a suggéré un test non-Turing pour la conscience de la machine basé sur la capacité de la machine à produire des jugements philosophiques. Il soutient qu'une machine déterministe doit être considérée comme consciente si elle est capable de produire des jugements sur toutes les propriétés problématiques de la conscience (telles que les qualia ou la liaison) n'ayant aucune connaissance philosophique innée (préchargée) sur ces questions, aucune discussion philosophique pendant l'apprentissage, et aucun modèle informationnel d'autres créatures dans sa mémoire (de tels modèles peuvent implicitement ou explicitement contenir des connaissances sur la conscience de ces créatures). Cependant, ce test ne peut être utilisé que pour détecter, mais pas pour réfuter l'existence de la conscience. Un résultat positif prouve que la machine est consciente mais un résultat négatif ne prouve rien. Par exemple, l'absence de jugements philosophiques peut être causée par l'absence de l'intellect de la machine, et non par l'absence de conscience.

Dans la fiction

Personnages avec une conscience artificielle (ou du moins avec des personnalités qui impliquent qu'ils ont une conscience), issus d'œuvres de fiction :

Voir également

Les références

Citations

Bibliographie

Lectures complémentaires

Liens externes