Superintelligence - Superintelligence

Une superintelligence est un agent hypothétique qui possède une intelligence dépassant de loin celle des esprits humains les plus brillants et les plus doués . La « superintelligence » peut également faire référence à une propriété des systèmes de résolution de problèmes (par exemple, des traducteurs de langue superintelligents ou des assistants en ingénierie), que ces compétences intellectuelles de haut niveau soient ou non incorporées dans des agents qui agissent dans le monde. Une superintelligence peut ou non être créée par une explosion d'intelligence et associée à une singularité technologique .

Le philosophe de l'Université d'Oxford , Nick Bostrom, définit la superintelligence comme « tout intellect qui dépasse largement les performances cognitives des humains dans pratiquement tous les domaines d'intérêt ». Le programme Fritz est loin de la superintelligence - même s'il est bien meilleur que les humains aux échecs - parce que Fritz ne peut pas surpasser les humains dans d'autres tâches. À la suite de Hutter et Legg, Bostrom traite la superintelligence comme une domination générale du comportement orienté vers un but, laissant ouvert la question de savoir si une superintelligence artificielle ou humaine posséderait des capacités telles que l' intentionnalité (cf. l' argument de la chambre chinoise ) ou la conscience à la première personne ( cf. le problème difficile de la conscience ).

Les chercheurs en technologie ne sont pas d'accord sur la probabilité que l'intelligence humaine actuelle soit dépassée. Certains soutiennent que les progrès de l' intelligence artificielle (IA) entraîneront probablement des systèmes de raisonnement généraux dépourvus de limitations cognitives humaines. D'autres pensent que les humains évolueront ou modifieront directement leur biologie afin d'atteindre une intelligence radicalement supérieure. Un certain nombre de scénarios d' études futures combinent des éléments de ces deux possibilités, suggérant que les humains sont susceptibles de s'interfacer avec des ordinateurs , ou de télécharger leur esprit sur des ordinateurs , d'une manière qui permet une amplification substantielle de l'intelligence.

Certains chercheurs pensent que la superintelligence suivra probablement peu de temps après le développement de l'intelligence artificielle générale . Les premières machines généralement intelligentes sont susceptibles de détenir immédiatement un énorme avantage dans au moins certaines formes de capacité mentale, y compris la capacité de rappel parfait , une base de connaissances largement supérieure et la capacité d'effectuer plusieurs tâches de manière impossible aux entités biologiques. Cela peut leur donner l'opportunité, soit en tant qu'être unique, soit en tant que nouvelle espèce, de devenir beaucoup plus puissants que les humains et de les déplacer.

Un certain nombre de scientifiques et de prévisionnistes plaident pour donner la priorité aux premières recherches sur les avantages et les risques possibles de l'amélioration cognitive de l' homme et de la machine , en raison de l'impact social potentiel de ces technologies.

Faisabilité de la superintelligence artificielle

Progrès dans la classification automatique des images
Le taux d'erreur de l'IA par année. Ligne rouge - le taux d'erreur d'un humain entraîné

Le philosophe David Chalmers soutient que l'intelligence artificielle générale est une voie très probable vers l'intelligence surhumaine. Chalmers décompose cette affirmation en un argument selon lequel l'IA peut atteindre l' équivalence avec l'intelligence humaine, qu'elle peut être étendue pour dépasser l'intelligence humaine et qu'elle peut être encore amplifiée pour dominer complètement les humains dans des tâches arbitraires.

Concernant l'équivalence au niveau humain, Chalmers soutient que le cerveau humain est un système mécanique et devrait donc être émulable par des matériaux synthétiques. Il note également que l'intelligence humaine a pu évoluer biologiquement, ce qui rend plus probable que les ingénieurs humains seront en mesure de récapituler cette invention. Les algorithmes évolutionnaires en particulier devraient être capables de produire une IA de niveau humain. Concernant l'extension et l'amplification de l'intelligence, Chalmers soutient que les nouvelles technologies d'IA peuvent généralement être améliorées, et que cela est particulièrement probable lorsque l'invention peut aider à concevoir de nouvelles technologies.

Si la recherche sur une IA puissante produisait un logiciel suffisamment intelligent, il serait capable de se reprogrammer et de s'améliorer - une fonctionnalité appelée "auto-amélioration récursive". Il serait alors encore meilleur pour s'améliorer et pourrait continuer à le faire dans un cycle en augmentation rapide, conduisant à une superintelligence. Ce scénario est connu sous le nom d' explosion du renseignement . Une telle intelligence n'aurait pas les limitations de l'intellect humain et pourrait être capable d'inventer ou de découvrir presque n'importe quoi.

Les composants informatiques dépassent déjà largement les performances humaines en termes de vitesse. Bostrom écrit : « Les neurones biologiques fonctionnent à une vitesse de pointe d'environ 200 Hz, sept ordres de grandeur plus lents qu'un microprocesseur moderne (~2 GHz). De plus, les neurones transmettent des signaux de pointe à travers les axones à une vitesse ne dépassant pas 120 m/s, "alors que les cœurs de traitement électroniques existants peuvent communiquer optiquement à la vitesse de la lumière". Ainsi, l'exemple le plus simple d'une superintelligence peut être un esprit humain émulé exécuté sur un matériel beaucoup plus rapide que le cerveau. Un raisonneur semblable à un humain qui pourrait penser des millions de fois plus vite que les humains actuels aurait un avantage dominant dans la plupart des tâches de raisonnement, en particulier celles qui nécessitent de la hâte ou de longues séries d'actions.

Un autre avantage des ordinateurs est la modularité, c'est-à-dire que leur taille ou leur capacité de calcul peut être augmentée. Un cerveau non humain (ou humain modifié) pourrait devenir beaucoup plus gros qu'un cerveau humain actuel, comme de nombreux superordinateurs . Bostrom soulève également la possibilité d' une superintelligence collective : un nombre suffisamment grand de systèmes de raisonnement séparés, s'ils communiquaient et se coordonnaient suffisamment, pourraient agir ensemble avec des capacités bien plus grandes que n'importe quel sous-agent.

Il peut également y avoir des moyens d' améliorer qualitativement le raisonnement humain et la prise de décision. Les humains semblent différer des chimpanzés par la façon dont nous pensons plus que par la taille ou la vitesse de notre cerveau. Les humains surpassent les animaux non humains en grande partie en raison de capacités de raisonnement nouvelles ou améliorées, telles que la planification à long terme et l' utilisation du langage . (Voir l' évolution de l'intelligence humaine et de la cognition des primates .) S'il existe d'autres améliorations possibles du raisonnement qui auraient un impact tout aussi important, cela rend plus probable la construction d'un agent qui surpasse les humains de la même manière que les humains surpassent les chimpanzés.

Tous les avantages ci-dessus sont valables pour la superintelligence artificielle, mais on ne sait pas combien sont valables pour la superintelligence biologique. Les contraintes physiologiques limitent la vitesse et la taille des cerveaux biologiques de plusieurs manières qui ne s'appliquent pas à l'intelligence artificielle. En tant que tels, les auteurs sur la superintelligence ont consacré beaucoup plus d'attention aux scénarios d'IA superintelligente.

Faisabilité de la superintelligence biologique

Evolution de la vitesse de réaction dans la noogenèse . Dans un organisme unicellulaire – la vitesse de déplacement des ions à travers la membrane ~ m/s, l'eau à travers la membrane m/s, le liquide intracellulaire (cytoplasme) m/s ; À l'intérieur d'un organisme multicellulaire - la vitesse du sang à travers les vaisseaux ~ 0,05 m/s, la quantité de mouvement le long des fibres nerveuses ~ 100 m/s ; En population ( humanité ) – communications : son (voix et audio) ~300 m/s, électron quantique ~ m/s (vitesse des ondes radio-électromagnétiques, courant électrique, lumière, optique, télécommunications).
Evolution du nombre de composants dans les systèmes intelligents. A - nombre de neurones dans le cerveau au cours du développement individuel ( ontogenèse ), B - nombre de personnes ( évolution des populations de l'humanité), C - nombre de neurones dans le système nerveux des organismes au cours de l'évolution ( phylogenèse ).
Evolution du nombre de connexions des systèmes intelligents. A - nombre de synapses entre les neurones au cours du développement individuel (ontogenèse) du système d'intelligence du cerveau humain, B - nombre de connexions entre les personnes dans la dynamique de la croissance démographique de la population humaine, C - nombre de synapses entre les neurones dans le développement évolutif historique (phylogenèse) des systèmes nerveux au cerveau humain.
Emergence et évolution des info-interactions au sein des populations de l'Humanité Apopulation humaine mondiale → 7 milliards ; B – nombre de personnes alphabétisées ; C – nombre de livres de lecture (avec début d' impression ) ; D – nombre de récepteurs (radio, TV) ; E – nombre de téléphones, d'ordinateurs, d'internautes

Carl Sagan a suggéré que l'avènement des césariennes et de la fécondation in vitro pourrait permettre aux humains de développer des têtes plus grosses, entraînant des améliorations via la sélection naturelle dans la composante héréditaire de l'intelligence humaine . En revanche, Gerald Crabtree a fait valoir qu'une diminution de la pression de sélection entraîne une réduction lente et séculaire de l'intelligence humaine , et que ce processus est plutôt susceptible de se poursuivre dans le futur. Il n'y a pas de consensus scientifique concernant l'une ou l'autre possibilité, et dans les deux cas, le changement biologique serait lent, en particulier par rapport aux taux de changement culturel.

La reproduction sélective , les nootropiques , le NSI-189 , les IMAO , la modulation épigénétique et le génie génétique pourraient améliorer l'intelligence humaine plus rapidement. Bostrom écrit que si nous arrivons à comprendre la composante génétique de l'intelligence, le diagnostic génétique préimplantatoire pourrait être utilisé pour sélectionner des embryons avec jusqu'à 4 points de gain de QI (si un embryon est sélectionné sur deux), ou avec des gains plus importants (par exemple, jusqu'à 24,3 points de QI gagnés si un embryon est sélectionné sur 1000). Si ce processus est itéré sur plusieurs générations, les gains pourraient être d'un ordre de grandeur supérieur. Bostrom suggère que la dérivation de nouveaux gamètes à partir de cellules souches embryonnaires pourrait être utilisée pour itérer le processus de sélection très rapidement. Une société bien organisée d'humains hautement intelligents de ce type pourrait potentiellement atteindre une superintelligence collective .

Alternativement, l'intelligence collective pourrait être constructible en organisant mieux les humains aux niveaux actuels d'intelligence individuelle. Un certain nombre d'écrivains ont suggéré que la civilisation humaine, ou certains de ses aspects (par exemple, Internet ou l'économie), en vient à fonctionner comme un cerveau mondial avec des capacités dépassant de loin ses agents composants. Si cette superintelligence basée sur les systèmes repose fortement sur des composants artificiels, elle peut cependant être considérée comme une IA plutôt que comme un super - organisme basé sur la biologie . Un marché de prédiction est parfois considéré comme un exemple de système d'intelligence collective fonctionnel, composé uniquement d'humains (en supposant que les algorithmes ne soient pas utilisés pour éclairer les décisions).

Une dernière méthode d'amplification de l'intelligence serait d' améliorer directement les humains individuels, plutôt que d'améliorer leur dynamique sociale ou reproductive. Cela pourrait être réalisé en utilisant des nootropiques , une thérapie génique somatique ou des interfaces cerveau-ordinateur . Cependant, Bostrom exprime son scepticisme quant à l'évolutivité des deux premières approches et soutient que la conception d'une interface cyborg superintelligente est un problème complet d'IA .

Évolution avec intégration possible de NI, IT et AI

En 2005, Alexei Eryomin dans la monographie "Noogenèse et théorie de l'intellect" a proposé un nouveau concept de noogenèse pour comprendre l'évolution des systèmes d'intelligence. L'évolution des capacités intellectuelles peut se produire avec la participation simultanée des intelligences naturelles (biologiques) (NI), des progrès modernes des technologies de l'information (TI) et des futures réalisations scientifiques dans le domaine de l'intelligence artificielle (IA).

Evolution de la vitesse d'interaction entre les composants des systèmes de renseignement

La première personne à mesurer la vitesse (de l'ordre de 24,6 à 38,4 mètres par seconde) à laquelle le signal est transporté le long d'une fibre nerveuse en 1849 était Helmholtz . À ce jour, les taux mesurés de vitesse de conduction nerveuse sont de 0,5 à 120 m/s. La vitesse du son et la vitesse de la lumière ont été déterminées plus tôt au XVIIe siècle. Au 21e siècle, il est devenu clair qu'ils déterminent principalement les vitesses des signaux physiques porteurs d'informations, entre les systèmes intelligents et leurs composants : le son (voix et audio) ~300 m/s, l'électron quantique ~ m/s (la vitesse des ondes radio-électromagnétiques, courant électrique, lumière, optique, télécommunications).

Évolution des composants des systèmes de renseignement

En 1906, Santiago Ramón y Cajal a attiré l'attention des scientifiques sur l'importance centrale du neurone et a établi la doctrine du neurone , qui stipule que le système nerveux est composé de cellules individuelles distinctes. Selon les données modernes, il y a environ 86 milliards de neurones dans le cerveau d'un humain adulte.

Évolution des liens entre les composants des systèmes de renseignement

Synapse – du grec synapsis (συνάψις), signifiant « conjonction », à son tour de συνάπτεὶν (συν (« ensemble ») et ἅπτειν (« attacher »)) – a été introduit en 1897 par Charles Sherrington . La pertinence des mesures dans cette direction est confirmée à la fois par les recherches approfondies modernes sur la coopération et les connexions d'informations, génétiques et culturelles, dues aux structures au niveau neuronal du cerveau, et à l'importance de la coopération dans le développement de la civilisation. À cet égard, AL Eryomin a analysé les données connues sur l'évolution du nombre de connexions pour la coopération dans les systèmes intelligents. On peut considérer que les connexions, les contacts entre objets biologiques, sont apparus avec une multicellularité d'environ 3 à 3,5 milliards d'années. Le système de connexions à grande vitesse de cellules spécialisées qui transmettent des informations à l'aide de signaux électriques, le système nerveux, dans toute l'histoire de la vie n'est apparu que dans une branche évolutive majeure : chez les animaux multicellulaires ( Métazoaires ) et est apparu dans la période Ediacaran (environ 635 -542 millions d'années). Au cours de l'évolution (phylogénie), le nombre de connexions entre les neurones est passé d'une à ~ 7000 connexions synoptiques de chaque neurone avec d'autres neurones dans le cerveau humain. Il a été estimé que le cerveau d'un enfant de trois ans a environ des synapses (1 quadrillion). Dans le développement individuel (ontogenèse), le nombre de synapses diminue avec l'âge jusqu'à ~ . Selon d'autres données, le nombre estimé de synapses néocorticales dans les cerveaux masculin et féminin diminue au cours de la vie humaine de ~ à ~ .

Le nombre de contacts humains est difficile à calculer, mais le « nombre de Dunbar » ~150 connexions humaines stables avec d'autres personnes est fixé dans la science, la limite cognitive supposée du nombre de personnes avec lesquelles il est possible d'entretenir des relations sociales stables, selon à d'autres auteurs - la gamme de 100-290. Des structures responsables de l'interaction sociale ont été identifiées dans le cerveau. Avec l'apparition de l'Homo sapiens il y a ~50-300 000 ans, la pertinence de la coopération, son évolution dans la population humaine, a augmenté quantitativement. S'il y a 2000 ans, il y avait 0,1 milliard de personnes sur Terre, il y a 100 ans - 1 milliard, au milieu du vingtième siècle - 3 milliards, et maintenant l'humanité - 7,7 milliards. Ainsi, le nombre total de « connexions stables » entre les personnes, les relations sociales au sein de la population, peut être estimé par un nombre ~ . »

Noométrie de l'interaction intellectuelle
Paramètre Résultats des mesures
(limites)
Nombre de composants des
systèmes intellectuels
~ -
Nombre de liens entre
composants
~ -
Vitesse d'interaction entre les
composants (m/s)
~ -

Prévisions

La plupart des chercheurs en IA interrogés s'attendent à ce que les machines finissent par rivaliser avec les humains en matière d'intelligence, bien qu'il y ait peu de consensus sur le moment où cela se produira probablement. Lors de la conférence AI@50 de 2006 , 18 % des participants ont déclaré s'attendre à ce que les machines soient capables de « simuler l'apprentissage et tous les autres aspects de l'intelligence humaine » d'ici 2056 ; 41 % des participants s'attendaient à ce que cela se produise après 2056 ; et 41 % s'attendaient à ce que les machines n'atteignent jamais cette étape.

Dans une enquête auprès des 100 auteurs les plus cités en IA (en mai 2013, selon la recherche académique de Microsoft), l'année médiane au cours de laquelle les personnes interrogées s'attendaient à des machines « pouvant exercer la plupart des professions humaines au moins aussi bien qu'un humain typique » ( en supposant qu'aucune catastrophe mondiale ne se produise) avec 10 % de confiance est 2024 (moyenne 2034, st. év. 33 ans), avec 50 % de confiance est 2050 (moyenne 2072, st. év. 110 ans) et avec 90 % de confiance est 2070 ( moyenne 2168, st. dev. 342 ans). Ces estimations excluent les 1,2 % de répondants qui ont dit qu'aucune année n'atteindrait jamais une confiance de 10 %, les 4,1 % qui ont dit « jamais » pour une confiance de 50 % et les 16,5 % qui ont dit « jamais » pour une confiance de 90 %. Les personnes interrogées ont attribué une probabilité médiane de 50 % à la possibilité que la superintelligence artificielle soit inventée dans les 30 ans suivant l'invention d'une intelligence artificielle approximativement au niveau humain.

Considérations sur la conception

Bostrom a exprimé son inquiétude quant aux valeurs pour lesquelles une superintelligence devrait être conçue. Il a comparé plusieurs propositions :

  • La proposition cohérente de la volonté extrapolée (CEV) est qu'elle devrait avoir les valeurs vers lesquelles les humains convergeraient.
  • La proposition de la justesse morale (MR) est qu'elle devrait valoriser la justesse morale.
  • La proposition d' admissibilité morale (MP) est qu'elle devrait valoriser le fait de rester dans les limites de l'admissibilité morale (et autrement avoir des valeurs CEV).

Bostrom clarifie ces termes :

au lieu de mettre en œuvre la volonté extrapolée cohérente de l'humanité, on pourrait essayer de construire une IA dans le but de faire ce qui est moralement juste, en s'appuyant sur les capacités cognitives supérieures de l'IA pour déterminer quelles actions correspondent à cette description. On peut qualifier cette proposition de « droiture morale » (MR)  … Le MR semble aussi présenter quelques inconvénients. Il s'appuie sur la notion de « moralement juste », un concept notoirement difficile, avec lequel les philosophes se débattent depuis l'Antiquité sans encore parvenir à un consensus quant à son analyse. Choisir une explication erronée de la « justesse morale » pourrait entraîner des résultats qui seraient moralement très mauvais  ... Le chemin pour doter une IA de l'un de ces concepts [moraux] pourrait impliquer de lui donner une capacité linguistique générale (comparable, celui d'un adulte humain normal). Une telle capacité générale à comprendre le langage naturel pourrait alors être utilisée pour comprendre ce que l'on entend par « moralement juste ». Si l'IA pouvait en saisir le sens, elle pourrait rechercher des actions qui correspondent  ...

On pourrait essayer de préserver l'idée de base du modèle MR tout en réduisant son exigence en se concentrant sur la permissivité morale : l'idée étant que nous pourrions laisser l'IA poursuivre le CEV de l'humanité tant qu'elle n'agirait pas de manière moralement inadmissible.

Répondant à Bostrom, Santos-Lang a fait part de ses inquiétudes quant au fait que les développeurs pourraient tenter de démarrer avec un seul type de superintelligence.

Menace potentielle pour l'humanité

Il a été suggéré que si les systèmes d'IA deviennent rapidement super-intelligents, ils peuvent prendre des mesures imprévues ou surpasser l'humanité. Les chercheurs ont fait valoir que, par le biais d'une "explosion de l'intelligence", une IA auto-améliorée pourrait devenir si puissante qu'elle serait imparable pour les humains.

Concernant les scénarios d'extinction humaine, Bostrom (2002) identifie la superintelligence comme une cause possible :

Lorsque nous créons la première entité superintelligente, nous pouvons commettre une erreur et lui donner des objectifs qui la conduisent à anéantir l'humanité, en supposant que son énorme avantage intellectuel lui donne le pouvoir de le faire. Par exemple, nous pourrions par erreur élever un sous-objectif au statut de super-objectif. Nous lui disons de résoudre un problème mathématique, et il se conforme en transformant toute la matière du système solaire en un appareil de calcul géant, tuant ainsi la personne qui a posé la question.

En théorie, étant donné qu'une IA surintelligente serait capable d'obtenir presque tous les résultats possibles et de contrecarrer toute tentative d'empêcher la mise en œuvre de ses objectifs, de nombreuses conséquences incontrôlées et imprévues pourraient survenir. Cela pourrait tuer tous les autres agents, les persuader de changer leur comportement ou bloquer leurs tentatives d'interférence. Eliezer Yudkowsky illustre une telle convergence instrumentale comme suit : « L'IA ne vous déteste pas, ni ne vous aime, mais vous êtes fait d'atomes qu'elle peut utiliser pour autre chose.

Cela pose le problème du contrôle de l' IA : comment construire un agent intelligent qui aidera ses créateurs, tout en évitant de construire par inadvertance une superintelligence qui nuira à ses créateurs. Le danger de ne pas concevoir le contrôle correctement "la première fois", est qu'une superintelligence puisse être capable de prendre le pouvoir sur son environnement et d'empêcher les humains de le fermer. Étant donné qu'une IA surintelligente aura probablement la capacité de ne pas craindre la mort et de la considérer plutôt comme une situation évitable qui peut être prédite et évitée en désactivant simplement le bouton d'alimentation. Les stratégies potentielles de contrôle de l'IA comprennent le « contrôle des capacités » (limiter la capacité d'une IA à influencer le monde) et le « contrôle de la motivation » (construire une IA dont les objectifs sont alignés sur les valeurs humaines).

Bill Hibbard plaide pour l'éducation du public sur la superintelligence et le contrôle public sur le développement de la superintelligence.

Voir également

Citations

Bibliographie

Liens externes