Institut de recherche en intelligence artificielle - Machine Intelligence Research Institute

Institut de recherche en intelligence artificielle
MIRI logo.png
Formation 2000 ; il y a 21 ans ( 2000 )
Taper Institut de recherche à but non lucratif
But Recherche sur l' intelligence artificielle amicale et le problème du contrôle de l' IA
Emplacement
Personnes clés
Eliezer Yudkowsky
Site Internet intelligence .org

Le Machine Intelligence Research Institute ( MIRI ), anciennement Singularity Institute for Artificial Intelligence ( SIAI ), est un institut de recherche à but non lucratif axé depuis 2005 sur l'identification et la gestion des risques existentiels potentiels liés à l'intelligence artificielle générale . Les travaux de MIRI se sont concentrés sur une approche d' IA conviviale pour la conception de systèmes et sur la prévision du taux de développement technologique.

Histoire

En 2000, Eliezer Yudkowsky a fondé le Singularity Institute for Artificial Intelligence avec le financement de Brian et Sabine Atkins, dans le but d'accélérer le développement de l' intelligence artificielle (IA). Cependant, Yudkowsky a commencé à craindre que les systèmes d'IA développés à l'avenir puissent devenir superintelligents et présenter des risques pour l'humanité, et en 2005, l'institut a déménagé dans la Silicon Valley et a commencé à se concentrer sur les moyens d'identifier et de gérer ces risques, qui étaient à l'époque largement ignoré par les scientifiques du domaine.

À partir de 2006, l'Institut a organisé le Singularity Summit pour discuter de l'avenir de l'IA et de ses risques, initialement en coopération avec l'Université de Stanford et avec le financement de Peter Thiel . Le San Francisco Chronicle a décrit la première conférence comme une « fête de sortie de la région de la baie pour la philosophie inspirée de la technologie appelée transhumanisme ». En 2011, ses bureaux étaient quatre appartements au centre-ville de Berkeley. En décembre 2012, l'institut a vendu son nom, son domaine Web et le Singularity Summit à Singularity University et, le mois suivant, a pris le nom de « Machine Intelligence Research Institute ».

En 2014 et 2015, l'intérêt du public et des scientifiques pour les risques de l'IA s'est accru, augmentant les dons pour financer la recherche au MIRI et à des organisations similaires.

En 2019, Open Philanthropy a recommandé une subvention de soutien général d'environ 2,1 millions de dollars sur deux ans à MIRI. En avril 2020, Open Philanthropy a complété cela avec une subvention de 7,7 millions de dollars sur deux ans.

En 2021, Vitalik Buterin a fait don de plusieurs millions de dollars d' Ethereum à MIRI.

Recherche et approche

Nate Soares présente un aperçu du problème d'alignement de l'IA chez Google .

L'approche de MIRI pour identifier et gérer les risques de l'IA, dirigée par Yudkowsky, porte principalement sur la façon de concevoir une IA conviviale, couvrant à la fois la conception initiale des systèmes d'IA et la création de mécanismes pour garantir que les systèmes d'IA en évolution restent conviviaux.

Les chercheurs de MIRI préconisent un travail de sécurité précoce comme mesure de précaution. Cependant, les chercheurs de MIRI ont exprimé leur scepticisme quant aux points de vue des défenseurs de la singularité comme Ray Kurzweil selon lesquels la superintelligence est « juste au coin de la rue ». MIRI a financé des travaux de prévision par le biais d'une initiative appelée AI Impacts, qui étudie les cas historiques de changement technologique discontinu et a développé de nouvelles mesures de la puissance de calcul relative des humains et du matériel informatique.

MIRI s'aligne sur les principes et les objectifs du mouvement de l' altruisme efficace .

Travaux du personnel de MIRI

  • Graves, Matthieu (8 novembre 2017). « Pourquoi nous devrions nous préoccuper de la superintelligence artificielle » . Sceptique . La Société des Sceptiques . Récupéré le 28 juillet 2018 .
  • LaVictoire, Patrick ; Fallenstein, Benja; Yudkowsky, Eliezer ; Bárász, Mihály; Christiano, Paul; Herreshoff, Marcello (2014). "L'équilibre du programme dans le dilemme du prisonnier via le théorème de Löb" . Interaction multi-agents sans coordination préalable : articles de l'atelier AAAI-14 . Publications de l'AAAI.
  • Soares, Nate ; Levinstein, Benjamin A. (2017). « Tromper la mort à Damas » (PDF) . Atelier d'épistémologie formelle (FEW) . Récupéré le 28 juillet 2018 .
  • Soares, Nate ; Fallenstein, Benja; Yudkowsky, Eliezer ; Armstrong, Stuart (2015). "Corrigibilité" . Ateliers AAAI : Ateliers à la vingt-neuvième conférence AAAI sur l'intelligence artificielle, Austin, Texas, 25-26 janvier 2015 . Publications de l'AAAI.
  • Soares, Nate ; Fallenstein, Benja (2015). « Aligner la superintelligence avec les intérêts humains : un programme de recherche technique » (PDF) . Dans Miller, James; Yampolskiy, Romain ; Armstrong, Stuart; et al. (éd.). La Singularité Technologique : Gérer le Voyage . Springer.
  • Yudkowsky, Eliezer (2008). "L'intelligence artificielle en tant que facteur positif et négatif dans le risque global" (PDF) . A Bostrom, Nick ; Ćirković, Milan (éd.). Risques catastrophiques mondiaux . Presses de l'Université d'Oxford. ISBN 978-0199606504.
  • Taylor, Jessica (2016). « Quantiliseurs : une alternative plus sûre aux maximiseurs pour une optimisation limitée » . Ateliers à la trentième conférence de l'AAAI sur l'intelligence artificielle .
  • Yudkowsky, Eliezer (2011). « Systèmes de valeur complexes dans une IA conviviale » (PDF) . Intelligence générale artificielle : 4e conférence internationale, AGI 2011, Mountain View, Californie, États-Unis, 3-6 août 2011 . Berlin : Springer.

Voir également

Les références

Lectures complémentaires

  • Russell, Stuart ; Dewey, Daniel; Tegmark, Max (Hiver 2015). « Priorités de recherche pour une intelligence artificielle robuste et bénéfique ». Magazine de l'IA . 36 (4) : 6. arXiv : 1602.03506 . Bibcode : 2016arXiv160203506R .

Liens externes