Intelligence artificielle générale - Artificial general intelligence

L'intelligence artificielle générale ( AGI ) est la capacité hypothétique d'un agent intelligent à comprendre ou à apprendre n'importe quelle tâche intellectuelle qu'un être humain peut effectuer. C'est un objectif principal de certaines recherches sur l' intelligence artificielle et un sujet commun dans la science-fiction et les études prospectives . AGI peut également être appelée IA forte , complète AI ou générale action intelligente (Bien que les sources universitaires se réservent le terme « AI forte » pour les programmes informatiques que l' expérience sentience ou conscience .)

Contrairement à l'IA forte, l'IA faible ou « l'IA étroite » n'est pas destinée à avoir des capacités cognitives générales ; plutôt, une IA faible est un programme conçu pour résoudre exactement un problème. (Les sources universitaires réservent une « IA faible » aux programmes qui n'ont pas de conscience ou d' esprit dans le même sens que les gens.)

En 2017, plus de quarante organisations effectuaient activement des recherches sur l'IAG.

Caractéristiques

Divers critères d' intelligence ont été proposés (le plus connu est le test de Turing ) mais à ce jour, il n'existe aucune définition qui satisfasse tout le monde.

Traits intelligents

Cependant, il existe un large accord parmi les chercheurs en intelligence artificielle pour dire que l'intelligence est nécessaire pour : raisonner , utiliser une stratégie, résoudre des énigmes et porter des jugements dans l' incertitude ; représenter la connaissance , y compris la connaissance de bon sens ; planifier ; apprendre ; communiquer en langage naturel ; et intégrer toutes ces compétences vers des objectifs communs. D'autres capacités importantes incluent la capacité de sentir (par exemple, voir ) et la capacité d'agir (par exemple, déplacer et manipuler des objets ) dans ce monde où un comportement intelligent doit être observé. Cela inclurait une capacité à détecter et à réagir aux dangers . De nombreuses approches interdisciplinaires de l'intelligence (par exemple, les sciences cognitives , l' intelligence informatique et la prise de décision ) ont tendance à mettre l'accent sur la nécessité de prendre en compte des traits supplémentaires tels que l' imagination (considérée comme la capacité de former des images mentales et des concepts non programmés) et l' autonomie .

Des systèmes informatiques qui présentent bon nombre de ces capacités existent (par exemple, voir créativité informatique , raisonnement automatisé , système d'aide à la décision , robot , calcul évolutif , agent intelligent ), mais personne n'a créé de système intégré qui excelle dans tous ces domaines.

Tests pour confirmer l'IAG au niveau humain

Les tests suivants pour confirmer l'IAG au niveau humain ont été envisagés :

Le test de Turing ( Turing )
Une machine et un humain conversent tous deux sans être vus avec un deuxième humain, qui doit évaluer lequel des deux est la machine, qui réussit le test s'il peut tromper l'évaluateur une fraction du temps significative. Remarque : Turing ne prescrit pas ce qui devrait être qualifié d'intelligence, seulement que sachant qu'il s'agit d'une machine devrait le disqualifier.
Le test du café ( Wozniak )
Une machine est nécessaire pour entrer dans une maison américaine moyenne et comprendre comment faire du café : trouver la machine à café, trouver le café, ajouter de l'eau, trouver une tasse et préparer le café en appuyant sur les boutons appropriés.
Le Robot College Student Test ( Goertzel )
Une machine s'inscrit dans une université, suit et réussit les mêmes cours que les humains, et obtient un diplôme.
Le test d'emploi ( Nilsson )
Une machine effectue un travail économiquement important au moins aussi bien que les humains dans le même travail.

Problèmes complets avec l'IA

Il existe de nombreux problèmes individuels qui peuvent nécessiter une intelligence générale, si les machines doivent résoudre les problèmes aussi bien que les gens le font. Par exemple, même des tâches simples et spécifiques, comme la traduction automatique , nécessitent qu'une machine lise et écrive dans les deux langues ( NLP ), suive l'argument de l'auteur ( raison ), sache de quoi on parle ( connaissance ) et reproduise fidèlement l'original de l'auteur intention ( intelligence sociale ). Tous ces problèmes doivent être résolus simultanément afin d'atteindre des performances machine de niveau humain.

Un problème est officieusement appelé « IA-complet » ou « IA-difficile », si sa résolution équivaut à l'aptitude générale de l'intelligence humaine, ou à une IA forte, et dépasse les capacités d'un algorithme spécifique à un objectif. On suppose que les problèmes complets de l'IA incluent la vision générale par ordinateur , la compréhension du langage naturel et la gestion de circonstances inattendues tout en résolvant n'importe quel problème du monde réel.

Les problèmes complets de l'IA ne peuvent pas être résolus avec la seule technologie informatique actuelle et nécessitent des calculs humains . Cette propriété pourrait être utile, par exemple, pour tester la présence d'humains, comme visent à le faire les CAPTCHA ; et pour que la sécurité informatique repousse les attaques par force brute .

Histoire

IA classique

La recherche moderne sur l'IA a commencé au milieu des années 1950. La première génération de chercheurs en IA était convaincue que l'intelligence artificielle générale était possible et qu'elle existerait dans quelques décennies. Le pionnier de l'IA Herbert A. Simon a écrit en 1965 : « Les machines seront capables, d'ici vingt ans, de faire n'importe quel travail qu'un homme peut faire. Leurs prédictions ont inspiré Stanley Kubrick et Arthur C. Clarke , le personnage HAL 9000 , qui incarnait ce que les chercheurs en IA pensaient pouvoir créer d'ici l'an 2001. Le pionnier de l'IA Marvin Minsky était consultant sur le projet de rendre HAL 9000 aussi réaliste que possible. possible selon les prédictions consensuelles de l'époque ; Crevier le cite comme ayant dit à ce sujet en 1967 : « D'ici une génération...

Plusieurs projets classiques AI , tels que Doug Lenat « s Cyc projet (qui a commencé en 1984), et Allen Newell » s Soar projet, ont été spécifiquement adressées à l' IAG.

Cependant, au début des années 1970, puis à nouveau au début des années 90, il est devenu évident que les chercheurs avaient grossièrement sous-estimé la difficulté du projet. Les agences de financement sont devenues sceptiques à l'égard de l'IAG et ont mis les chercheurs sous une pression croissante pour produire une « IA appliquée » utile. Au début des années 1980, le projet informatique de cinquième génération du Japon a ravivé l'intérêt pour AGI, établissant un calendrier de dix ans qui incluait des objectifs AGI tels que « continuer une conversation informelle ». En réponse à cela et au succès des systèmes experts , l'industrie et le gouvernement ont réinjecté de l'argent dans le domaine. Cependant, la confiance dans l'IA s'est effondrée de manière spectaculaire à la fin des années 1980, et les objectifs du projet informatique de cinquième génération n'ont jamais été atteints. Pour la deuxième fois en 20 ans, les chercheurs en IA qui avaient prédit la réalisation imminente de l'AGI s'étaient fondamentalement trompés. Dans les années 1990, les chercheurs en IA avaient acquis la réputation de faire de vaines promesses. Ils sont devenus réticents à faire des prédictions et à éviter toute mention d'intelligence artificielle "au niveau humain" de peur d'être étiquetés "rêveurs aux yeux fous".

Recherche étroite sur l'IA

Dans les années 1990 et au début du 21e siècle, l'IA grand public a obtenu un succès commercial et une respectabilité académique bien plus importants en se concentrant sur des sous-problèmes spécifiques où elle peut produire des résultats vérifiables et des applications commerciales, telles que les réseaux de neurones artificiels et l' apprentissage automatique statistique . Ces systèmes « d'IA appliquée » sont désormais largement utilisés dans l'ensemble de l'industrie technologique, et la recherche dans ce sens est très fortement financée dans les universités et l'industrie. Actuellement, le développement dans ce domaine est considéré comme une tendance émergente, et une étape de maturité devrait se produire dans plus de 10 ans.

La plupart des chercheurs traditionnels en IA espèrent qu'une IA forte pourra être développée en combinant les programmes qui résolvent divers sous-problèmes. Hans Moravec a écrit en 1988 :

"Je suis convaincu que cette voie ascendante vers l'intelligence artificielle rencontrera un jour la voie descendante traditionnelle plus qu'à mi-chemin, prête à fournir les compétences du monde réel et les connaissances de bon sens qui ont été si frustrantes insaisissables dans les programmes de raisonnement. Entièrement des machines intelligentes résulteront lorsque la pointe dorée métaphorique sera entraînée en unissant les deux efforts. »

Cependant, même cette philosophie fondamentale a été contestée ; par exemple, Stevan Harnad de Princeton a conclu son article de 1990 sur le Symbol Grounding Hypothesis en déclarant :

« L'attente a souvent été exprimée que les approches « top-down » (symboliques) de la modélisation de la cognition rencontreront d'une manière ou d'une autre les approches « bottom-up » (sensorielles) quelque part entre les deux. Si les considérations fondamentales de cet article sont valables, alors cette attente est désespérément modulaire et il n'y a vraiment qu'une seule voie viable du sens aux symboles : à partir de la base. Un niveau symbolique flottant comme le niveau logiciel d'un ordinateur ne sera jamais atteint par cette voie (ou vice versa) - ce n'est pas clair non plus pourquoi nous devrions même essayer d'atteindre un tel niveau, car il semble qu'y parvenir reviendrait à déraciner nos symboles de leurs significations intrinsèques (nous réduisant ainsi à l'équivalent fonctionnel d'un ordinateur programmable)."

Recherche moderne sur l'intelligence générale artificielle

Le terme « intelligence générale artificielle » a été utilisé dès 1997, par Mark Gubrud dans une discussion sur les implications d'une production et d'opérations militaires entièrement automatisées. Le terme a été réintroduit et popularisé par Shane Legg et Ben Goertzel vers 2002. L'activité de recherche de l'AGI en 2006 a été décrite par Pei Wang et Ben Goertzel comme « produisant des publications et des résultats préliminaires ». La première école d'été de l'AGI a été organisée à Xiamen, en Chine, en 2009 par le laboratoire du cerveau artificiel de l'université de Xiamen et OpenCog. Le premier cours universitaire a été donné en 2010 et 2011 à l'Université de Plovdiv, Bulgarie par Todor Arnaudov. Le MIT a présenté un cours en AGI en 2018, organisé par Lex Fridman et mettant en vedette un certain nombre de conférenciers invités.

Cependant, pour l'instant, la plupart des chercheurs en IA ont accordé peu d'attention à l'IAG, certains affirmant que l'intelligence est trop complexe pour être complètement répliquée à court terme. Cependant, un petit nombre d'informaticiens sont actifs dans la recherche AGI, et nombre d'entre eux contribuent à une série de conférences AGI . La recherche est extrêmement diversifiée et souvent de nature pionnière.

Échelles de temps : Dans l'introduction de son livre de 2006, Goertzel dit que les estimations du temps nécessaire avant qu'un AGI vraiment flexible soit construit varient de 10 ans à plus d'un siècle, mais le consensus de 2007 dans la communauté de recherche AGI semble être que le calendrier discuté de Ray Kurzweil dans The Singularity is Near (c'est-à-dire entre 2015 et 2045) est plausible. - Cependant, les principaux chercheurs en IA ont donné un large éventail d'opinions sur la question de savoir si les progrès seront aussi rapides. Une méta-analyse de 2012 de 95 de ces opinions a révélé un biais dans la prédiction que l'apparition de l'IAG se produirait dans les 16 à 26 ans pour les prédictions modernes et historiques. Il a été constaté plus tard que l'ensemble de données répertoriait certains experts comme non-experts et vice versa.

Les organisations qui poursuivent explicitement l'IAG incluent le laboratoire d'IA suisse IDSIA , Nnaisense, Vicarious , Maluuba , la Fondation OpenCog , Adaptive AI, LIDA et Numenta et le Redwood Neuroscience Institute associé . En outre, des organisations telles que le Machine Intelligence Research Institute et OpenAI ont été fondées pour influencer le développement d'AGI. Enfin, des projets tels que le Human Brain Project ont pour objectif de construire une simulation fonctionnelle du cerveau humain. Une enquête de 2017 d'AGI a classé quarante-cinq « projets de R&D actifs » connus qui recherchent explicitement ou implicitement (par le biais de recherches publiées) AGI, les trois plus importants étant DeepMind , le Human Brain Project et OpenAI .

En 2017, Ben Goertzel a fondé la plateforme d'IA SingularityNET dans le but de faciliter le contrôle démocratique et décentralisé de l'AGI à son arrivée.

En 2017, les chercheurs Feng Liu, Yong Shi et Ying Liu ont mené des tests d'intelligence sur des IA faibles accessibles au public et librement accessibles, telles que Google AI ou Siri d'Apple et d'autres. Au maximum, ces IA ont atteint un QI d'environ 47, ce qui correspond approximativement à un enfant de six ans en première année. Un adulte vient à environ 100 en moyenne. Des tests similaires avaient été effectués en 2014, le score de QI atteignant une valeur maximale de 27.

En 2019, le programmeur de jeux vidéo et ingénieur en aérospatiale John Carmack a annoncé son intention de rechercher AGI.

En 2020, OpenAI a développé GPT-3 , un modèle de langage capable d'effectuer de nombreuses tâches diverses sans formation spécifique. Selon Gary Grossman dans un article de VentureBeat , bien qu'il existe un consensus sur le fait que GPT-3 n'est pas un exemple d'IAG, certains le considèrent comme trop avancé pour être classé comme un système d'IA étroit. La même année, Jason Rohrer a utilisé son compte GPT-3 pour développer un chatbot et a fourni une plate-forme de développement de chatbot appelée "Project December". OpenAI a demandé des modifications au chatbot pour se conformer à ses consignes de sécurité ; Rohrer a déconnecté Project December de l'API GPT-3.

Simulation cérébrale

Émulation du cerveau entier

Une approche populaire discutée pour réaliser une action intelligente générale est l'émulation du cerveau entier . Un modèle cérébral de bas niveau est construit en scannant et en cartographiant en détail un cerveau biologique et en copiant son état dans un système informatique ou un autre appareil de calcul. L'ordinateur exécute un modèle de simulation si fidèle à l'original qu'il se comportera essentiellement de la même manière que le cerveau d'origine, ou à toutes fins pratiques, de manière indiscernable. L'émulation du cerveau entier est abordée en neurosciences computationnelles et en neuroinformatique , dans le contexte de la simulation cérébrale à des fins de recherche médicale. Il est discuté dans la recherche sur l' intelligence artificielle comme une approche de l'IA forte. Les technologies de neuroimagerie qui pourraient fournir la compréhension détaillée nécessaire s'améliorent rapidement, et le futuriste Ray Kurzweil dans le livre The Singularity Is Near prédit qu'une carte de qualité suffisante deviendra disponible sur une échelle de temps similaire à la puissance de calcul requise.

Premières estimations

Estimations de la puissance de traitement nécessaire pour émuler un cerveau humain à différents niveaux (de Ray Kurzweil, et Anders Sandberg et Nick Bostrom ), ainsi que le supercalculateur le plus rapide du TOP500 cartographié par année. Notez l'échelle logarithmique et la ligne de tendance exponentielle, qui supposent que la capacité de calcul double tous les 1,1 an. Kurzweil pense que le téléchargement de l'esprit sera possible lors de la simulation neuronale, tandis que le rapport Sandberg, Bostrom est moins certain de l'endroit où la conscience surgit.

Pour une simulation cérébrale de bas niveau, un ordinateur extrêmement puissant serait nécessaire. Le cerveau humain possède un grand nombre de synapses . Chacun des 10 11 (cent milliards) de neurones possède en moyenne 7 000 connexions synaptiques (synapses) avec d'autres neurones. Il a été estimé que le cerveau d'un enfant de trois ans a environ 10 15 synapses (1 quadrillion). Ce nombre diminue avec l'âge, se stabilisant à l'âge adulte. Les estimations varient pour un adulte, allant de 10 14 à 5 × 10 14 synapses (100 à 500 billions). Une estimation de la puissance de traitement du cerveau, basée sur un modèle de commutation simple pour l'activité des neurones, est d'environ 10 14 (100 000 milliards) de mises à jour synaptiques par seconde ( SUPS ). En 1997, Kurzweil a examiné diverses estimations du matériel nécessaire pour égaler le cerveau humain et a adopté un chiffre de 10 16 calculs par seconde (cps). (À titre de comparaison, si un « calcul » équivalait à une « opération à virgule flottante » – une mesure utilisée pour évaluer les supercalculateurs actuels – alors 10 16 « calculs » équivaudraient à 10 petaFLOPS , réalisés en 2011 ). Il a utilisé ce chiffre pour prédire que le matériel nécessaire serait disponible entre 2015 et 2025, si la croissance exponentielle de la puissance informatique au moment de la rédaction se poursuivait.

Modéliser les neurones plus en détail

Le modèle de neurones artificiels assumé par Kurzweil et utilisé dans de nombreuses implémentations actuelles de réseaux de neurones artificiels est simple comparé aux neurones biologiques . Une simulation cérébrale devrait probablement capturer le comportement cellulaire détaillé des neurones biologiques , actuellement compris uniquement dans les grandes lignes. Le surcoût introduit par la modélisation complète des détails biologiques, chimiques et physiques du comportement neuronal (en particulier à l'échelle moléculaire) nécessiterait des puissances de calcul de plusieurs ordres de grandeur supérieures à l'estimation de Kurzweil. De plus, les estimations ne tiennent pas compte des cellules gliales , qui sont au moins aussi nombreuses que les neurones, et qui peuvent dépasser le nombre de neurones jusqu'à 10:1, et sont maintenant connues pour jouer un rôle dans les processus cognitifs.

Les recherches en cours

Certains projets de recherche étudient la simulation du cerveau à l'aide de modèles neuronaux plus sophistiqués, mis en œuvre sur des architectures informatiques conventionnelles. Le projet Système d'Intelligence Artificielle a mis en œuvre des simulations en temps différé d'un « cerveau » (avec 10 11 neurones) en 2005. Il a fallu 50 jours sur un cluster de 27 processeurs pour simuler 1 seconde d'un modèle. Le Blue Brain projet a utilisé l' une des plus rapides architectures de supercalculateurs dans le monde, IBM de Blue Gene plate - forme, pour créer une simulation en temps réel d'un seul rat colonne néocortex composé d'environ 10 000 neurones et 10 8 synapses en 2006. A plus long terme L'objectif est de construire une simulation fonctionnelle détaillée des processus physiologiques dans le cerveau humain : "Il n'est pas impossible de construire un cerveau humain et nous pouvons le faire en 10 ans" , a déclaré Henry Markram , directeur du Blue Brain Project en 2009 à la conférence TED à Oxford. Il y a également eu des affirmations controversées selon lesquelles on aurait simulé un cerveau de chat . Les interfaces neuro-silicium ont été proposées comme une stratégie de mise en œuvre alternative qui peut mieux évoluer.

Hans Moravec a abordé les arguments ci-dessus ("les cerveaux sont plus compliqués", "les neurones doivent être modélisés plus en détail") dans son article de 1997 "Quand le matériel informatique correspondra-t-il au cerveau humain?". Il a mesuré la capacité des logiciels existants à simuler la fonctionnalité du tissu neural, en particulier la rétine. Ses résultats ne dépendent pas du nombre de cellules gliales, ni de quels types de neurones de traitement effectuent où.

La complexité réelle de la modélisation des neurones biologiques a été explorée dans le projet OpenWorm qui visait la simulation complète d'un ver qui n'a que 302 neurones dans son réseau neuronal (parmi environ 1000 cellules au total). Le réseau neuronal de l'animal a été bien documenté avant le début du projet. Cependant, bien que la tâche paraisse simple au départ, les modèles basés sur un réseau de neurones génériques n'ont pas fonctionné. Actuellement, les efforts sont concentrés sur l'émulation précise des neurones biologiques (en partie au niveau moléculaire), mais le résultat ne peut pas encore être qualifié de succès total. Même si le nombre de problèmes à résoudre dans un modèle à l'échelle du cerveau humain n'est pas proportionnel au nombre de neurones, la quantité de travail dans cette voie est évidente.

Critiques des approches basées sur la simulation

Une critique fondamentale de l'approche du cerveau simulé découle de la cognition incarnée où l'incarnation humaine est considérée comme un aspect essentiel de l'intelligence humaine. De nombreux chercheurs pensent que l'incarnation est nécessaire pour fonder le sens. Si ce point de vue est correct, tout modèle cérébral entièrement fonctionnel devra englober plus que les neurones (c'est-à-dire un corps robotique). Goertzel propose une incarnation virtuelle (comme dans Second Life ), mais on ne sait pas encore si cela serait suffisant.

Des ordinateurs de bureau utilisant des microprocesseurs capables de plus de 10 9 cps (l'unité non standard de Kurzweil "calculs par seconde", voir ci-dessus) sont disponibles depuis 2005. Selon les estimations de puissance cérébrale utilisées par Kurzweil (et Moravec), cet ordinateur devrait être capable de prendre en charge une simulation d'un cerveau d'abeille, mais malgré un certain intérêt, une telle simulation n'existe pas. Il y a au moins trois raisons à cela :

  1. Le modèle neuronal semble être trop simplifié (voir la section suivante).
  2. La compréhension des processus cognitifs supérieurs est insuffisante pour établir avec précision avec quoi l'activité neuronale du cerveau, observée à l'aide de techniques telles que l'imagerie par résonance magnétique fonctionnelle , est en corrélation.
  3. Même si notre compréhension de la cognition progresse suffisamment, les premiers programmes de simulation seront probablement très inefficaces et nécessiteront donc beaucoup plus de matériel.
  4. Le cerveau d'un organisme, bien que critique, peut ne pas être une limite appropriée pour un modèle cognitif. Pour simuler un cerveau d'abeille, il peut être nécessaire de simuler le corps et l'environnement. La thèse Extended Mind formalise le concept philosophique, et la recherche sur les céphalopodes a démontré des exemples clairs d'un système décentralisé.

De plus, l'échelle du cerveau humain n'est actuellement pas bien limitée. Une estimation place le cerveau humain à environ 100 milliards de neurones et 100 000 milliards de synapses. Une autre estimation est de 86 milliards de neurones dont 16,3 milliards dans le cortex cérébral et 69 milliards dans le cervelet . Les synapses des cellules gliales sont actuellement non quantifiées mais sont connues pour être extrêmement nombreuses.

Point de vue philosophique

« IA forte » telle que définie en philosophie

En 1980, le philosophe John Searle a inventé le terme « IA forte » dans le cadre de son argumentaire chinois . Il a voulu distinguer deux hypothèses différentes sur l'intelligence artificielle :

  • Hypothèse IA forte : Un système d'intelligence artificielle peut "penser", avoir "un esprit" et une "conscience".
  • Hypothèse d'IA faible : Un système d'intelligence artificielle peut (seulement) agir comme s'il pensait et avait un esprit et une conscience.

Le premier qu'il a appelé "fort" parce qu'il fait une déclaration plus forte : il suppose que quelque chose de spécial est arrivé à la machine qui va au-delà de toutes ses capacités que nous pouvons tester - le comportement d'une machine "faible IA" serait précisément identique à une machine "à IA forte", mais cette dernière aurait aussi une expérience consciente subjective. Cette utilisation est également courante dans la recherche universitaire et les manuels scolaires.

L'IA grand public ne s'intéresse qu'au comportement d' un programme . Selon Russell et Norvig , "tant que le programme fonctionne, ils ne se soucient pas de savoir si vous l'appelez réel ou une simulation". Si le programme peut se comporter comme s'il avait un esprit, alors il n'y a aucun besoin de savoir s'il a réellement un esprit -- en effet, il n'y aurait aucun moyen de le savoir. Pour la recherche sur l'IA, « l'hypothèse d'IA faible » de Searle équivaut à l'affirmation « une intelligence générale artificielle est possible ». Ainsi, selon Russell et Norvig, "la plupart des chercheurs en IA tiennent l'hypothèse de l'IA faible pour acquise et ne se soucient pas de l'hypothèse de l'IA forte". Ainsi, pour la recherche universitaire en IA, "Strong AI" et "AGI" sont deux choses très différentes.

Contrairement à Searle et à l'IA traditionnelle, certains futuristes tels que Ray Kurzweil utilisent le terme « IA forte » pour « intelligence générale artificielle au niveau humain ». Ce n'est pas la même chose que l' IA forte de Searle , à moins que vous ne présumiez que la conscience est nécessaire pour l'IAG au niveau humain. Les philosophes universitaires tels que Searle ne croient pas que ce soit le cas, et les chercheurs en intelligence artificielle s'en moquent.

La conscience

Outre l'intelligence, d'autres aspects de l'esprit humain sont pertinents pour le concept d'IA forte et jouent un rôle majeur dans la science-fiction et l' éthique de l'intelligence artificielle :

Ces traits ont une dimension morale, car une machine dotée de cette forme d'IA forte peut avoir des droits, analogues aux droits des animaux non humains . À ce titre, des travaux préliminaires ont été menés sur les approches visant à intégrer pleinement les agents éthiques dans les cadres juridiques et sociaux existants. Ces approches se sont concentrées sur la position juridique et les droits de l'IA « forte ». Bill Joy , entre autres, soutient qu'une machine avec ces caractéristiques peut être une menace pour la vie ou la dignité humaine.

Il reste à montrer si l'un de ces traits est nécessaire pour une IA forte. Le rôle de la conscience n'est pas clair et il n'existe actuellement aucun test convenu pour sa présence. Si une machine est construite avec un appareil qui simule les corrélats neuronaux de la conscience , aurait-elle automatiquement une conscience de soi ? Il est également possible que certaines de ces propriétés, telles que la sensibilité, émergent naturellement d'une machine entièrement intelligente. Il est également possible qu'il devienne naturel d' attribuer ces propriétés aux machines une fois qu'elles commencent à agir d'une manière clairement intelligente.

Recherche sur la conscience artificielle

Bien que le rôle de la conscience dans une IA/AGI forte soit discutable, de nombreux chercheurs de l'AGI considèrent que la recherche qui étudie les possibilités de mise en œuvre de la conscience est vitale. Dans un premier effort, Igor Aleksander a soutenu que les principes de création d'une machine consciente existaient déjà, mais qu'il faudrait quarante ans pour entraîner une telle machine à comprendre le langage .

Explications possibles de la lenteur des progrès de la recherche en IA

Depuis le lancement de la recherche sur l'IA en 1956, la croissance de ce domaine s'est ralentie au fil du temps et a bloqué les objectifs de création de machines dotées d'une action intelligente au niveau humain. Une explication possible de ce retard est que les ordinateurs n'ont pas suffisamment de mémoire ou de puissance de traitement. De plus, le niveau de complexité lié au processus de recherche en IA peut également limiter les progrès de la recherche en IA.

Alors que la plupart des chercheurs en IA pensent qu'une IA forte peut être obtenue à l'avenir, certains individus comme Hubert Dreyfus et Roger Penrose nient la possibilité d'obtenir une IA forte. John McCarthy était l'un des nombreux informaticiens qui pensent que l'IA au niveau humain sera accomplie, mais aucune date ne peut être prédite avec précision.

Les limitations conceptuelles sont une autre raison possible de la lenteur de la recherche en IA. Les chercheurs en IA peuvent avoir besoin de modifier le cadre conceptuel de leur discipline afin de fournir une base et une contribution plus solides à la quête d'une IA forte. Comme l'écrivait William Clocksin en 2003 : « le cadre part de l'observation de Weizenbaum selon laquelle l'intelligence ne se manifeste que par rapport à des contextes sociaux et culturels spécifiques ».

De plus, les chercheurs en IA ont été capables de créer des ordinateurs capables d'effectuer des tâches compliquées pour les gens, comme les mathématiques, mais à l'inverse, ils ont eu du mal à développer un ordinateur capable d'effectuer des tâches simples à faire pour les humains, comme la marche ( paradoxe de Moravec ). Un problème décrit par David Gelernter est que certaines personnes supposent que la pensée et le raisonnement sont équivalents. Cependant, l'idée de savoir si les pensées et le créateur de ces pensées sont isolés individuellement a intrigué les chercheurs en IA.

Les problèmes rencontrés dans la recherche sur l'IA au cours des dernières décennies ont encore entravé les progrès de l'IA. Les prédictions infructueuses promises par les chercheurs en IA et le manque de compréhension complète des comportements humains ont contribué à diminuer l'idée principale de l'IA au niveau humain. Bien que les progrès de la recherche sur l'IA aient apporté à la fois des améliorations et des déceptions, la plupart des chercheurs se sont montrés optimistes quant à la possibilité d'atteindre l'objectif de l'IA au 21e siècle.

D'autres raisons possibles ont été proposées pour les longues recherches sur les progrès de l'IA forte. La complexité des problèmes scientifiques et la nécessité de comprendre pleinement le cerveau humain à travers la psychologie et la neurophysiologie ont limité de nombreux chercheurs dans l'émulation de la fonction du cerveau humain dans le matériel informatique. De nombreux chercheurs ont tendance à sous-estimer tout doute qui est impliqué dans les prédictions futures de l'IA, mais sans prendre ces problèmes au sérieux, les gens peuvent alors négliger les solutions à des questions problématiques.

Clocksin dit qu'une limitation conceptuelle qui peut entraver les progrès de la recherche sur l'IA est que les gens peuvent utiliser les mauvaises techniques pour les programmes informatiques et la mise en œuvre de l'équipement. Lorsque les chercheurs en IA ont commencé à viser l'objectif de l'intelligence artificielle, leur principal intérêt était le raisonnement humain. Les chercheurs espéraient établir des modèles informatiques de la connaissance humaine par le raisonnement et découvrir comment concevoir un ordinateur avec une tâche cognitive spécifique.

La pratique de l'abstraction, que les gens ont tendance à redéfinir lorsqu'ils travaillent dans un contexte de recherche particulier, permet aux chercheurs de se concentrer sur quelques concepts seulement. L'utilisation la plus productive de l'abstraction dans la recherche en IA provient de la planification et de la résolution de problèmes. Bien que l'objectif soit d'augmenter la vitesse d'un calcul, le rôle de l'abstraction a posé des questions sur l'implication des opérateurs d'abstraction.

Une raison possible de la lenteur de l'IA est liée à la reconnaissance par de nombreux chercheurs en IA que l'heuristique est une section qui contient une brèche significative entre les performances de l'ordinateur et les performances humaines. Les fonctions spécifiques qui sont programmées sur un ordinateur peuvent être en mesure de répondre à de nombreuses exigences qui lui permettent de correspondre à l'intelligence humaine. Ces explications ne sont pas nécessairement les causes fondamentales du retard dans l'obtention d'une IA forte, mais elles sont largement acceptées par de nombreux chercheurs.

De nombreux chercheurs en IA ont débattu de l'idée de savoir si les machines devaient être créées avec des émotions . Il n'y a pas d'émotions dans les modèles typiques d'IA et certains chercheurs disent que la programmation d'émotions dans des machines leur permet d'avoir leur propre esprit. L'émotion résume les expériences des humains car elle leur permet de se souvenir de ces expériences. David Gelernter écrit : "Aucun ordinateur ne sera créatif s'il ne peut simuler toutes les nuances de l'émotion humaine." Cette préoccupation au sujet des émotions a posé des problèmes aux chercheurs en IA et elle est liée au concept d'IA forte au fur et à mesure que ses recherches progressent dans le futur.

Controverses et dangers

Faisabilité

En août 2020, AGI reste spéculatif car aucun système de ce type n'a encore été démontré. Les opinions varient à la fois sur le fait de savoir si et quand l'intelligence artificielle générale arrivera, du tout. À un extrême, le pionnier de l'IA Herbert A. Simon a émis l'hypothèse en 1965 : « les machines seront capables, d'ici vingt ans, de faire n'importe quel travail qu'un homme peut faire ». Cependant, cette prédiction ne s'est pas réalisée. Le cofondateur de Microsoft, Paul Allen, pensait qu'une telle intelligence était peu probable au 21e siècle, car elle nécessiterait « des percées imprévisibles et fondamentalement imprévisibles » et une « compréhension scientifiquement approfondie de la cognition ». Écrivant dans The Guardian , le roboticien Alan Winfield a affirmé que le fossé entre l'informatique moderne et l'intelligence artificielle au niveau humain est aussi large que le fossé entre les vols spatiaux actuels et les vols spatiaux pratiques plus rapides que la lumière.

Le point de vue des experts en IA sur la faisabilité de l'AGI va et vient, et a peut-être connu une résurgence dans les années 2010. Quatre sondages menés en 2012 et 2013 ont suggéré que l'estimation médiane parmi les experts du moment où ils seraient sûrs à 50 % que l'AGI arriverait était de 2040 à 2050, selon le sondage, la moyenne étant de 2081. Parmi les experts, 16,5 % ont répondu par " jamais" lorsqu'on lui pose la même question mais avec une confiance de 90 % à la place. D'autres considérations sur les progrès actuels de l'IAG peuvent être trouvées ci-dessous Tests pour confirmer l'IAG au niveau humain .

Menace potentielle pour l'existence humaine

La thèse selon laquelle l'IA pose un risque existentiel, et que ce risque nécessite beaucoup plus d'attention qu'elle n'en reçoit actuellement, a été approuvée par de nombreuses personnalités publiques ; les plus célèbres sont peut-être Elon Musk , Bill Gates et Stephen Hawking . Le chercheur en IA le plus notable à avoir soutenu la thèse est Stuart J. Russell . Les partisans de la thèse expriment parfois leur perplexité face aux sceptiques : Gates déclare qu'il ne « comprend pas pourquoi certaines personnes ne sont pas concernées », et Hawking a critiqué l'indifférence généralisée dans son éditorial de 2014 :

« Donc, face à des futurs possibles d'avantages et de risques incalculables, les experts font sûrement tout leur possible pour assurer le meilleur résultat, n'est-ce pas ? Tort. Si une civilisation extraterrestre supérieure nous envoyait un message disant : « Nous arriverons dans quelques décennies », répondrions-nous simplement : « OK, appelez-nous quand vous arriverez ici, nous laisserons les lumières allumées ? » Probablement pas, mais c'est plus ou moins ce qui se passe avec l'IA.'

De nombreux chercheurs qui s'inquiètent du risque existentiel pensent que la meilleure voie à suivre serait de mener des recherches (éventuellement massives) pour résoudre le difficile « problème de contrôle » pour répondre à la question : quels types de sauvegardes, d'algorithmes ou d'architectures les programmeurs peuvent-ils mettre en œuvre maximiser la probabilité que leur IA à amélioration récursive continue à se comporter de manière amicale plutôt que destructrice après avoir atteint la superintelligence ?

La thèse selon laquelle l'IA peut présenter un risque existentiel a également de nombreux détracteurs. Les sceptiques accusent parfois la thèse d'être crypto-religieuse, avec une croyance irrationnelle en la possibilité d'une superintelligence remplaçant une croyance irrationnelle en un Dieu omnipotent ; à l'extrême, Jaron Lanier soutient que tout le concept selon lequel les machines actuelles sont intelligentes de quelque manière que ce soit est « une illusion » et une « arnaque formidable » de la part des riches.

Une grande partie des critiques existantes soutient que l'AGI est peu probable à court terme. L'informaticien Gordon Bell soutient que la race humaine se détruira déjà avant d'atteindre la singularité technologique . Gordon Moore , le promoteur original de la loi de Moore , déclare que « Je suis sceptique. Je ne crois pas [une singularité technologique] est susceptible de se produire, au moins pendant longtemps. manière." L'ancien vice-président et scientifique en chef de Baidu, Andrew Ng, déclare que le risque existentiel de l'IA est "comme s'inquiéter de la surpopulation sur Mars alors que nous n'avons même pas encore mis les pieds sur la planète".

Voir également

Remarques

Les références

Sources

Liens externes