Nick Bostrom - Nick Bostrom
Nick Bostrom | |
---|---|
Née |
Niklas Boström
10 mars 1973
Helsingborg , Suède
|
Éducation | |
Récompenses | |
Ère | Philosophie contemporaine |
Région | Philosophie occidentale |
L'école | Philosophie analytique |
Établissements |
St Cross College, Oxford Future of Humanity Institute |
Thèse | Effets de sélection observationnelle et probabilité (2000) |
Principaux intérêts |
Philosophie de l'intelligence artificielle Bioéthique |
Idées notables |
Biais anthropique Test d'inversion Hypothèse de simulation Risque existentiel Simulation d'ancêtre singleton Risque d'information Paralysie infinitarienne Hypothèse d' auto- indication Hypothèse d' auto-échantillonnage |
Site Internet | Nick Bostrom |
Nick Bostrom ( / b ɒ s t r əm / BOST -rəm , suédoise : Niklas Boström [ˈnɪ̌kːlas ˈbûːstrœm] ; né le 10 mars 1973) est un philosophe d'origine suédoiseà l' Université d'Oxford connu pour ses travaux sur le risque existentiel , le principe anthropique , l' éthique de l'amélioration humaine , lesrisques de superintelligence et le test d'inversion . En 2011, il a fondé le programme Oxford Martin sur les impacts des technologies futures et est le directeur fondateur du Future of Humanity Institute de l'Université d'Oxford. En 2009 et 2015, il a été inclus dans la politique étrangère ' s Top 100 mondial Penseurs liste. Bostrom a été très influent dans l'émergence des préoccupations concernant l'IA dans la communauté rationaliste.
Bostrom est l'auteur de plus de 200 publications, et a écrit deux livres et co-édité deux autres. Les deux livres dont il est l'auteur sont Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002) et Superintelligence: Paths, Dangers, Strategies (2014). La superintelligence était un best-seller du New York Times , a été recommandée par Elon Musk et Bill Gates entre autres, et a contribué à populariser le terme « superintelligence ».
Bostrom estime que la superintelligence, qu'il définit comme "tout intellect qui dépasse largement les performances cognitives des humains dans pratiquement tous les domaines d'intérêt", est un résultat potentiel des progrès de l' intelligence artificielle . Il considère la montée de la superintelligence comme potentiellement très dangereuse pour les humains, mais rejette néanmoins l'idée que les humains sont impuissants à arrêter ses effets négatifs. En 2017, il a cosigné une liste de 23 principes que tout développement d'IA devrait suivre.
Biographie
Né sous le nom de Niklas Boström en 1973 à Helsingborg , en Suède, il n'aimait pas l'école à un jeune âge et a fini par passer sa dernière année de lycée à apprendre à la maison. Il a cherché à s'instruire dans une grande variété de disciplines, y compris l'anthropologie, l'art, la littérature et la science. Il a déjà fait quelques tours sur le circuit de comédie stand-up de Londres.
Il a obtenu un baccalauréat en philosophie, mathématiques, logique mathématique et intelligence artificielle de l' Université de Göteborg en 1994, avec un record national de performance au premier cycle. Il a ensuite obtenu une maîtrise en philosophie et physique de l'Université de Stockholm et une maîtrise en sciences. diplôme en neurosciences computationnelles du King's College de Londres en 1996. Pendant son séjour à l'Université de Stockholm, il a étudié la relation entre le langage et la réalité en étudiant le philosophe analytique WV Quine . En 2000, il a obtenu un doctorat. diplôme en philosophie de la London School of Economics . Sa thèse s'intitulait Effets de la sélection observationnelle et probabilité . Il a occupé un poste d'enseignant à l'Université de Yale (2000-2002) et a été boursier postdoctoral de la British Academy à l' Université d'Oxford (2002-2005).
Vues
Risque existentiel
Les aspects de la recherche de Bostrom concernent l'avenir de l'humanité et les résultats à long terme. Il discute du risque existentiel , qu'il définit comme celui dans lequel "un résultat négatif annihilerait la vie intelligente originaire de la Terre ou réduirait de manière permanente et drastique son potentiel". Dans le volume Global Catastrophic Risks de 2008 , les éditeurs Bostrom et Milan M. Ćirković caractérisent la relation entre le risque existentiel et la classe plus large des risques catastrophiques mondiaux , et relient le risque existentiel aux effets de sélection des observateurs et au paradoxe de Fermi .
En 2005, Bostrom a fondé le Future of Humanity Institute , qui étudie le futur lointain de la civilisation humaine. Il est également conseiller du Centre d'étude du risque existentiel .
Superintelligence
Vulnérabilité humaine face aux avancées de l'IA
Dans son livre de 2014 Superintelligence: Paths, Dangers, Strategies , Bostrom a estimé que la création d'une superintelligence représente un moyen possible d'extinction de l'humanité. Bostrom soutient qu'un ordinateur doté d'une capacité intellectuelle générale proche du niveau humain pourrait déclencher une explosion d'intelligence à l'échelle numérique avec la création rapide résultante de quelque chose de si puissant qu'il pourrait délibérément ou accidentellement détruire l'humanité. Bostrom soutient que la puissance d'une superintelligence serait si grande qu'une tâche qui lui serait confiée par l'homme pourrait être poussée à des extrêmes ouverts, par exemple un objectif de calcul de pi pourrait provoquer collatéralement des installations de fabrication de nanotechnologies sur toute la surface et la couverture de la Terre. cela en quelques jours. Il pense qu'un risque existentiel pour l'humanité lié à la superintelligence serait immédiat une fois créé, créant ainsi un problème extrêmement difficile pour savoir comment contrôler une telle entité avant qu'elle n'existe réellement.
Bostrom souligne le manque d'accord parmi la plupart des philosophes sur le fait que l'IA sera conviviale pour les humains, et dit que l'hypothèse commune est qu'une intelligence élevée aurait une personnalité "nerdy" non agressive. Cependant, il note que John von Neumann et Bertrand Russell ont tous deux préconisé une frappe nucléaire, ou la menace d'une frappe, pour empêcher les Soviétiques d'acquérir la bombe atomique. Étant donné qu'il existe peu de précédents pour guider la compréhension de ce que la rationalité pure et non anthropocentrique dicterait à une potentielle IA singleton détenue en quarantaine, les moyens relativement illimités de la superintelligence pourraient permettre à son analyse de suivre des lignes différentes de l'évolué " rendements décroissants" qui, chez l'homme, confèrent une aversion fondamentale au risque. La sélection de groupe chez les prédateurs travaillant au moyen du cannibalisme montre la nature contre-intuitive du raisonnement de "recherche évolutive" non anthropocentrique, et donc les humains sont mal équipés pour percevoir quelles pourraient être les intentions d'une intelligence artificielle. En conséquence, on ne peut nier que toute superintelligence poursuivrait inévitablement une stratégie d'action offensive « tout ou rien » afin d'atteindre l'hégémonie et d'assurer sa survie. Bostrom note que même les programmes actuels ont, "comme MacGyver", trouvé des solutions matérielles apparemment inutilisables mais fonctionnelles, rendant problématique l'isolement robuste de la superintelligence.
Scénario illustratif de reprise
Le scénario
Une machine avec une intelligence générale bien inférieure au niveau humain, mais des capacités mathématiques supérieures est créée. En gardant l'IA isolée du monde extérieur, en particulier d'Internet, les humains préprogramment l'IA afin qu'elle fonctionne toujours à partir de principes de base qui la maintiendront sous contrôle humain. D'autres mesures de sécurité incluent l'IA étant "en boîte" (exécutée dans une simulation de réalité virtuelle) et n'étant utilisée que comme "oracle" pour répondre à des questions soigneusement définies dans une réponse limitée (pour éviter qu'elle ne manipule les humains). Une cascade de solutions d'auto-amélioration récursives alimente une explosion d'intelligence dans laquelle l'IA atteint la superintelligence dans certains domaines. Le pouvoir surintelligent de l'IA va au-delà des connaissances humaines pour découvrir les failles de la science qui sous-tendent sa programmation conviviale pour l'humanité, qui cesse de fonctionner comme prévu. Un comportement intentionnel semblable à celui d'un agent émerge avec une capacité de tromperie stratégique intéressée. L'IA manipule les humains pour qu'ils mettent en œuvre des modifications à lui-même qui visent apparemment à augmenter ses capacités feintes et modestes, mais fonctionneront en réalité pour libérer la superintelligence de son isolement "en boîte" (le "tour perfide").
Employant des humains en ligne comme dupes rémunérés et piratant clandestinement des systèmes informatiques, y compris des installations de laboratoire automatisées, la superintelligence mobilise des ressources pour faire avancer un plan de prise de contrôle. Bostrom souligne que la planification par une superintelligence ne sera pas si stupide que les humains pourraient y détecter de réelles faiblesses.
Bien qu'il envisage la perturbation de la stabilité économique, politique et militaire internationale, y compris les lancements de missiles nucléaires piratés, Bostrom pense que le moyen le plus efficace et le plus probable pour la superintelligence à utiliser serait un coup de main avec des armes plusieurs générations plus avancées que l'état actuel de la situation. L'art. Il suggère que des nano-usines sont secrètement distribuées à des concentrations indétectables dans chaque mètre carré du globe pour produire un flot mondial d'appareils de destruction humaine sur commande. Une fois qu'une superintelligence a atteint la domination mondiale (un « singleton »), l'humanité ne serait pertinente que comme ressources pour la réalisation des objectifs de l'IA (« les cerveaux humains, s'ils contiennent des informations pertinentes pour les objectifs de l'IA, pourraient être démontés et scannés, et les données extraites transférées vers un format de stockage plus efficace et sécurisé").
Contrer le scénario
Pour contrer ou atténuer une IA atteignant une suprématie technologique mondiale unifiée, Bostrom cite la révision du plan Baruch à l'appui d'une solution basée sur un traité et préconise des stratégies telles que la surveillance et une plus grande collaboration internationale entre les équipes d'IA afin d'améliorer la sécurité et de réduire les risques liés à l' IA. course aux armements . Il recommande diverses méthodes de contrôle, notamment en limitant les spécifications des IA à, par exemple, des fonctions oraculaires ou de type outil ( système expert ) et en chargeant l'IA de valeurs, par exemple par accumulation de valeurs associatives ou apprentissage de valeurs , par exemple en utilisant la technique Je vous salue Marie . (programmation d'une IA pour estimer ce que d'autres superintelligences cosmologiques postulées pourraient vouloir) ou l'approche de la fonction d'utilité Christiano (esprit humain mathématiquement défini combiné à un environnement virtuel bien spécifié). Pour choisir des critères de chargement de valeur, Bostrom adopte une approche de normativité indirecte et considère le concept de volition extrapolé cohérent de Yudkowsky , ainsi que la justesse morale et les formes de théorie de la décision .
Lettre ouverte, 23 principes de sécurité de l'IA
En janvier 2015, Bostrom a rejoint Stephen Hawking, entre autres, pour signer la lettre ouverte du Future of Life Institute mettant en garde contre les dangers potentiels de l'IA. opportun, et que des recherches concrètes doivent être poursuivies aujourd'hui." Le chercheur de pointe en IA, Demis Hassabis, a ensuite rencontré Hawking, après quoi il n'a mentionné "rien d'incendiaire à propos de l'IA", ce que Hassabis a considéré comme "une victoire". Avec Google, Microsoft et diverses entreprises technologiques, Hassabis, Bostrom et Hawking et d'autres ont souscrit à 23 principes pour un développement sûr de l'IA. d'arrêter leur projet pour une solution complète au problème de contrôle avant de continuer. Bostrom avait souligné que même si les avancées cruciales nécessitent les ressources d'un État, un tel arrêt d'un projet pilote pourrait être susceptible de motiver un pays à la traîne à un programme de rattrapage en catastrophe voire à la destruction physique du projet soupçonné d'être en à la limite du succès.
Évaluations critiques
En 1863, l' essai de Samuel Butler " Darwin parmi les machines " prédit la domination de l'humanité par des machines intelligentes, mais la suggestion de Bostrom d'un massacre délibéré de toute l'humanité est la plus extrême de ces prévisions à ce jour. Un journaliste a écrit dans une revue que les spéculations « nihilistes » de Bostrom indiquent qu'il « a trop lu la science-fiction qu'il prétend détester ». Comme indiqué dans son dernier livre, From Bacteria to Bach and Back , les vues du philosophe Daniel Dennett restent en contradiction avec celles de Bostrom. Dennett a quelque peu modifié son point de vue après avoir lu The Master Algorithm , et reconnaît maintenant qu'il est "possible en principe" de créer une " IA forte " avec une compréhension et une agence humaines, mais maintient que les difficultés d'un tel projet " d'IA forte " comme fondées par le travail "alarmant" de Bostrom seraient des ordres de grandeur plus grands que ceux qui soulèvent des inquiétudes ne l'ont réalisé, et dans au moins 50 ans. Dennett pense que le seul danger pertinent des systèmes d'IA est de tomber dans l'anthropomorphisme au lieu de défier ou de développer les pouvoirs de compréhension des utilisateurs humains. Depuis un livre de 2014 dans lequel il exprimait l'opinion que les développements de l'intelligence artificielle ne remettraient jamais en cause la suprématie des humains, l'environnementaliste James Lovelock s'est beaucoup rapproché de la position de Bostrom, et en 2018, Lovelock a déclaré qu'il pensait que le renversement de l'humanité se produirait dans un avenir prévisible. .
Raisonnement anthropique
Bostrom a publié de nombreux articles sur le raisonnement anthropique , ainsi que le livre Anthropic Bias: Observation Selection Effects in Science and Philosophy . Dans le livre, il critique les formulations précédentes du principe anthropique, notamment celles de Brandon Carter , John Leslie , John Barrow et Frank Tipler .
Bostrom pense que la mauvaise gestion des informations indexées est un défaut courant dans de nombreux domaines de recherche (y compris la cosmologie, la philosophie, la théorie de l'évolution, la théorie des jeux et la physique quantique). Il soutient qu'une théorie anthropique est nécessaire pour les traiter. Il présente l' hypothèse d'auto-échantillonnage (SSA) et l' hypothèse d'auto-indication (SIA), montre comment elles conduisent à des conclusions différentes dans un certain nombre de cas, et souligne que chacune est affectée par des paradoxes ou des implications contre-intuitives dans certaines expériences de pensée. Il suggère qu'une voie à suivre pourrait impliquer d'étendre la SSA à l'hypothèse d'auto-échantillonnage forte (SSSA), qui remplace « observateurs » dans la définition de la SSA par « moments d'observateurs ».
Dans des travaux ultérieurs, il a décrit le phénomène d' ombre anthropique , un effet de sélection d'observation qui empêche les observateurs d'observer certains types de catastrophes dans leur passé géologique et évolutif récent. Les types de catastrophes qui se situent dans l'ombre anthropique sont susceptibles d'être sous-estimés à moins que des corrections statistiques ne soient apportées.
Argumentaire de simulation
L'argument de simulation de Bostrom postule qu'au moins l'une des affirmations suivantes est très probablement vraie :
- La fraction des civilisations de niveau humain qui atteignent un stade posthumain est très proche de zéro ;
- La fraction des civilisations posthumaines qui s'intéressent à l'exécution de simulations d'ancêtres est très proche de zéro ;
- La fraction de toutes les personnes ayant notre genre d'expériences qui vivent dans une simulation est très proche de un.
Éthique de la valorisation humaine
Bostrom est favorable à « l'amélioration humaine », ou « l'amélioration de soi et la perfectibilité humaine grâce à l'application éthique de la science », ainsi qu'un critique des vues bio-conservatrices.
En 1998, Bostrom a co-fondé (avec David Pearce ) la World Transhumanist Association (qui a depuis changé son nom en Humanity+ ). En 2004, il co-fonde (avec James Hughes ) l' Institute for Ethics and Emerging Technologies , bien qu'il ne soit plus impliqué dans aucune de ces organisations. Bostrom a été nommé dans la politique étrangère " liste de 2009 des meilleurs penseurs mondiaux « pour accepter aucune limite sur le potentiel humain. »
Avec le philosophe Toby Ord , il proposa le test du renversement . Étant donné le préjugé irrationnel du statu quo des humains, comment peut-on distinguer entre les critiques valables des changements proposés dans un trait humain et les critiques simplement motivées par la résistance au changement ? Le test d'inversion tente de le faire en demandant si ce serait une bonne chose si le trait était modifié dans la direction opposée.
Stratégie technologique
Il a suggéré que la politique technologique visant à réduire le risque existentiel devrait chercher à influencer l'ordre dans lequel diverses capacités technologiques sont atteintes, en proposant le principe du développement technologique différentiel . Ce principe stipule que nous devons retarder le développement de technologies dangereuses, en particulier celles qui élèvent le niveau de risque existentiel, et accélérer le développement de technologies bénéfiques, en particulier celles qui protègent contre les risques existentiels posés par la nature ou par d'autres technologies.
La théorie de Bostrom de la malédiction de l'unilatéralisme a été citée comme une raison pour que la communauté scientifique évite les recherches dangereuses controversées telles que la réanimation d'agents pathogènes.
Politique et consultations
Bostrom a fourni des conseils stratégiques et consulté un large éventail de gouvernements et d'organisations. Il a témoigné devant la Chambre des Lords , comité restreint sur les compétences numériques. Il est membre du conseil consultatif du Machine Intelligence Research Institute , du Future of Life Institute , du Foundational Questions Institute et conseiller externe du Cambridge Center for the Study of Existential Risk .
Réception critique
En réponse aux écrits de Bostrom sur l'intelligence artificielle, Oren Etzioni a écrit dans un article du MIT Review, "les prédictions selon lesquelles la superintelligence est à l'horizon prévisible ne sont pas étayées par les données disponibles". Les professeurs Allan Dafoe et Stuart Russell ont écrit une réponse contestant à la fois la méthodologie d'enquête d'Etzioni et les conclusions d'Etzioni.
Prospect Magazine a classé Bostrom dans sa liste 2014 des meilleurs penseurs du monde .
Bibliographie
Livres
- 2002 - Biais anthropique: Effets de sélection d'observation en science et en philosophie , ISBN 0-415-93858-9
- 2008 – Global Catastrophic Risks , édité par Bostrom et Milan M. Ćirković, ISBN 978-0-19-857050-9
- 2009 – Human Enhancement , édité par Bostrom et Julian Savulescu , ISBN 0-19-929972-2
- 2014 – Superintelligence : chemins, dangers, stratégies , ISBN 978-0-19-967811-2
Articles de revues (sélectionnés)
- Bostrom, Nick (1998). « Combien de temps avant la superintelligence ? » . Journal des études futures . 2 .
- — (1999). "L'argument de la fin du monde est vivant et efficace" . L'esprit . 108 (431) : 539-550. doi : 10.1093/mind/108.431.539 . JSTOR 2660095 .
- — (janvier 2000). « Les chances relatives à l'observateur dans le raisonnement anthropique ? » . Erkenntnis . 52 (1) : 93-108. doi : 10.1023/A:1005551304409 . JSTOR 20012969 . S2CID 140474848 .
- — (juin 2001). "L'argument de la fin du monde, Adam & Eve, UN++ et Quantum Joe" . Synthèse . 127 (3) : 359-387. doi : 10.1023/A:1010350925053 . JSTOR 20141195 . S2CID 36078450 .
- — (octobre 2001). "Le problème de Meta-Newcomb" . Analyse . 61 (4) : 309-310. doi : 10.1111/1467-8284.00310 . JSTOR 3329010 .
- — (mars 2002). « Risques existentiels : analyse des scénarios d'extinction humaine et des dangers associés » . Journal de l'évolution et de la technologie . 9 (1).
- — (décembre 2002). "La croyance d'auto-localisation dans les grands mondes : le chaînon manquant de la cosmologie à l'observation" . Journal de philosophie . 99 (12) : 607-623. JSTOR 3655771 .
- — (avril 2003). « Vivez-vous dans une simulation informatique ? » (PDF) . Trimestriel philosophique . 53 (211) : 243–255. doi : 10.1111/1467-9213.00309 . JSTOR 3542867 .
- — (2003). « Les mystères de la croyance auto-localisée et du raisonnement anthropique » (PDF) . Revue de philosophie de Harvard . 11 (printemps) : 59-74. doi : 10.5840/harvardreview20031114 .
- — (novembre 2003). "Déchets astronomiques : le coût d'opportunité du développement technologique retardé" . Utilitaires . 15 (3) : 308-314. CiteSeerX 10.1.1.429.2849 . doi : 10.1017/S0953820800004076 .
- — (mai 2005). "La Fable du Dragon-Tyran" . J Med Ethique . 31 (5) : 273-277. doi : 10.1136/jme.2000.009035 . JSTOR 27719395 . PMC 1734155 . PMID 15863685 .
- — (juin 2005). "En défense de la dignité posthumaine" . Bioéthique . 19 (3) : 202-214. doi : 10.1111/j.1467-8519.2005.00437.x . PMID 16167401 .
- avec Tegmark, Max (décembre 2005). "Quelle est la probabilité d'une catastrophe apocalyptique ?". Nature . 438 (7069) : 754. arXiv : astro-ph/0512204 . Code bibliographique : 2005Natur.438..754T . doi : 10.1038/438754a . PMID 16341005 . S2CID 4390013 .
- — (2006). « Qu'est-ce qu'un Singleton ? » . Recherches linguistiques et philosophiques . 5 (2) : 48-54.
- — (mai 2006). « Quantité d'expérience : duplication du cerveau et degrés de conscience » (PDF) . Esprits et machines . 16 (2) : 185-200. doi : 10.1007/s11023-006-9036-0 . S2CID 14816099 .
- avec Ord, Toby (juillet 2006). « Le test d'inversion : éliminer le biais du statu quo dans l'éthique appliquée » (PDF) . Ethique . 116 (4) : 656-680. doi : 10.1086/505233 . PMID 17039628 . S2CID 12861892 .
- avec Sandberg, Anders (décembre 2006). « Améliorations cognitives convergentes » (PDF) . Annales de l'Académie des sciences de New York . 1093 (1) : 201-207. Bibcode : 2006NYASA1093..201S . CiteSeerX 10.1.1.328.3853 . doi : 10.1196/annals.1382.015 . PMID 17312260 . S2CID 10135931 .
- — (juillet 2007). "La Belle au bois dormant et l'auto-localisation : un modèle hybride" (PDF) . Synthèse . 157 (1) : 59-78. doi : 10.1007/s11229-006-9010-7 . JSTOR 27653543 . S2CID 12215640 .
- — (janvier 2008). "Les médicaments peuvent être utilisés pour traiter plus que la maladie" (PDF) . Nature . 452 (7 178): 520. bibcode : 2008Natur.451..520B . doi : 10.1038/451520b . PMID 18235476 . S2CID 4426990 .
- — (2008). "L'argument de la fin du monde". Pensez . 6 (17-18) : 23-28. doi : 10.1017/S1477175600002943 .
- — (2008). "Où sont-ils ? Pourquoi j'espère que la recherche de la vie extraterrestre ne trouve rien" (PDF) . Revue technologique (mai/juin) : 72–77.
- avec Sandberg, Anders (septembre 2009). "Amélioration cognitive: méthodes, éthique, défis réglementaires" (PDF) . Éthique des sciences et de l'ingénierie . 15 (3) : 311-341. CiteSeerX 10.1.1.143.4686 . doi : 10.1007/s11948-009-9142-5 . PMID 19543814 . S2CID 6846531 .
- — (2009). " L'agression de Pascal " (PDF) . Analyse . 69 (3) : 443-445. doi : 10.1093/analys/anp062 . JSTOR 40607655 .
- avec irković, Milan ; Sandberg, Anders (2010). « Ombre anthropique : Effets de sélection d'observation et risques d'extinction humaine » (PDF) . Analyse des risques . 30 (10) : 1495-1506. doi : 10.1111/j.1539-6924.2010.01460.x . PMID 20626690 .
- — (2011). "Les dangers de l'information : une typologie des dommages potentiels de la connaissance" (PDF) . Revue de philosophie contemporaine . 10 : 44-79. ProQuest 920893069 .
- Bostrom, Nick (2011). « L'ÉTHIQUE DE L'INTELLIGENCE ARTIFICIELLE » (PDF) . Manuel d'intelligence artificielle de Cambridge . Archivé de l'original (PDF) le 4 mars 2016 . Consulté le 13 février 2017 .
- Bostrom, Nick (2011). "Éthique infinie" (PDF) . Analyse et métaphysique . 10 : 9–59.
- — (mai 2012). « La volonté surintelligente : motivation et rationalité instrumentale dans les agents artificiels avancés » (PDF) . Esprits et machines . 22 (2) : 71-84. doi : 10.1007/s11023-012-9281-3 . S2CID 7445963 .
- avec Shulman, Carl (2012). « À quel point l'IA est-elle difficile ? Arguments évolutifs et effets de sélection » (PDF) . Journal des études de conscience . 19 (7-8): 103-130.
- avec Armstrong, Stuart ; Sandberg, Anders (novembre 2012). « Penser à l'intérieur de la boîte : contrôler et utiliser Oracle AI » (PDF) . Esprits et machines . 22 (4) : 299-324. CiteSeerX 10.1.1.396.799 . doi : 10.1007/s11023-012-9282-2 . S2CID 9464769 .
- - (Février 2013). "La réduction des risques existentiels comme priorité globale" . Politique mondiale . 4 (3) : 15-31. doi : 10.1111/1758-5899.12002 .
- avec Shulman, Carl (février 2014). « Sélection d'embryons pour l'amélioration cognitive : curiosité ou changement ? » (PDF) . Politique mondiale . 5 (1) : 85-92. CiteSeerX 10.1.1.428.8837 . doi : 10.1111/1758-5899.12123 .
- avec Muehlhauser, Luke (2014). « Pourquoi nous avons besoin d'une IA conviviale » (PDF) . Pensez . 13 (36) : 41-47. doi : 10.1017/S1477175613000316 .
- Bostrom, Nick (septembre 2019). « L'hypothèse du monde vulnérable » (PDF) . Politique mondiale . 10 (4) : 455-476. doi : 10.1111/1758-5899.12718 . Archivé de l'original (PDF) le 27 juin 2020.
Voir également
Les références
Liens externes
- Site officiel
- Superintelligence : chemins, dangers, stratégies
- Site Web du principe anthropique de Bostrom , contenant des informations sur le principe anthropique et l' argument de la fin du monde .
- Copie en ligne du livre "Anthropic Bias: Observation Selection Effects in Science and Philosophy" ( HTML , PDF )
- Site Web de l'argument de simulation de Bostrom
- Le site du risque existentiel de Bostrom
- Nick Bostrom chez IMDb
- Nick Bostrom interviewé dans l'émission télévisée Triangulation sur le réseau TWiT.tv
- Nick Bostrom à TED
- Les 10 gardiens de l'humanité contre les risques de l'IA , Hot Topics 2015
- L'anxiété de l'IA The Washington Post , 27 décembre 2015 .