Institut du futur de la vie - Future of Life Institute

Coordonnées : 42.3736158°N 71.1097335°W 42°22′25″N 71°06′35″W /  / 42.3736158; -71.1097335

Institut du futur de la vie
Logo de l'Institut Future of Life
Abréviation FLI
Formation mars 2014 ; Il y a 7 ans ( 2014-03 )
Fondateurs
Taper Institut de recherche à but non lucratif
47-1052538
Statut légal actif
But Réduction du risque existentiel , notamment grâce à l'intelligence artificielle avancée
Emplacement
Président
Max Tegmark
Site Internet futureoflife.org

Le Future of Life Institute ( FLI ) est une organisation à but non lucratif qui s'efforce de réduire les risques catastrophiques et existentiels mondiaux auxquels l'humanité est confrontée, en particulier le risque existentiel lié à l'intelligence artificielle (IA) avancée . Le travail de l'Institut se compose de trois volets principaux : l'octroi de subventions pour la réduction des risques, la sensibilisation à l'éducation et le plaidoyer au sein des Nations Unies, du gouvernement américain et des institutions de l'Union européenne. Ses fondateurs incluent le cosmologue du MIT Max Tegmark et le co-fondateur de Skype Jaan Tallinn , et son conseil consultatif comprend l'entrepreneur Elon Musk .

Mission

Max Tegmark , professeur au MIT , l' un des fondateurs et actuel président du Future of Life Institute

La mission de FLI est de réduire les risques catastrophiques et existentiels mondiaux liés aux technologies puissantes. FLI se concentre particulièrement sur les risques potentiels pour l'humanité du développement de l' intelligence générale artificielle (IAG) au niveau humain ou superintelligente , mais travaille également sur les risques liés à la biotechnologie, aux armes nucléaires et au changement climatique. Le travail de l'Institut consiste en l'octroi de subventions pour la réduction des risques, la sensibilisation à l'éducation et le plaidoyer au sein des institutions des Nations Unies, du gouvernement américain et de l'Union européenne.

Personnes clés

L'institut a été fondé en mars 2014 par le cosmologue du MIT Max Tegmark , le co-fondateur de Skype Jaan Tallinn , le chercheur de DeepMind Viktoriya Krakovna, la chercheuse postdoctorale de l'Université Tufts Meia Chita-Tegmark et le physicien de l' UCSC Anthony Aguirre . Le conseil consultatif scientifique de l'Institut, composé de 14 personnes, comprend les informaticiens Stuart J. Russell et Francesca Rossi , le biologiste George Church , le cosmologue Saul Perlmutter , l'astrophysicienne Sandra Faber , le physicien théoricien Frank Wilczek , l'entrepreneur Elon Musk et les acteurs et communicateurs scientifiques Alan Alda et Morgan Freeman. (ainsi que le cosmologue Stephen Hawking avant sa mort en 2018).

Conférences

En 2014, le Future of Life Institute a tenu son événement d'ouverture au MIT : une table ronde sur « L'avenir de la technologie : avantages et risques », animée par Alan Alda . Les panélistes étaient le biologiste synthétique George Church , le généticien Ting Wu , l'économiste Andrew McAfee , le physicien et lauréat du prix Nobel Frank Wilczek et le co-fondateur de Skype Jaan Tallinn .

Depuis 2015, FLI organise des conférences semestrielles qui réunissent les principaux constructeurs d'IA du monde universitaire et de l'industrie. A ce jour, les conférences suivantes ont eu lieu :

  • Conférence "The Future of AI: Opportunities and Challenges" à Porto Rico (2015). L'objectif était d'identifier des directions de recherche prometteuses qui peuvent aider à maximiser les avantages futurs de l'IA. Lors de la conférence, l'Institut a fait circuler une lettre ouverte sur la sécurité de l'IA qui a ensuite été signée par Stephen Hawking , Elon Musk et de nombreux experts en intelligence artificielle.
  • La conférence Beneficial AI à Asilomar, Californie (2017), un rassemblement privé de ce que le New York Times a appelé les « poids lourds de l'IA » (dont Yann LeCun , Elon Musk et Nick Bostrom ). L'institut a publié un ensemble de principes pour un développement responsable de l'IA qui est ressorti de la discussion lors de la conférence, signé par Yoshua Bengio , Yann LeCun et de nombreux autres chercheurs en IA. Ces principes ont influencé la réglementation de l'intelligence artificielle et les initiatives ultérieures, telles que les principes de l' OCDE sur l'intelligence artificielle.
  • La conférence AGI bénéfique à Porto Rico (2019). Cette rencontre a porté sur des questions de long terme pour faire en sorte que l'Intelligence Artificielle Générale soit bénéfique à l'humanité.

Programme de recherche mondial

Le programme de recherche FLI a débuté en 2015 avec un don initial de 10 millions de dollars d'Elon Musk. Contrairement à la recherche typique sur l'IA, ce programme vise à rendre l'IA plus sûre ou plus bénéfique pour la société, plutôt que simplement plus puissante. Dans ce premier tour, un total de 7 millions de dollars a été attribué à 37 projets de recherche. En juillet 2021, FLI a annoncé qu'elle lancerait un nouveau programme de subventions de 25 millions de dollars grâce au financement du programmeur russo-canadien Vitalik Buterin .

Dans les médias

  • "Le combat pour définir quand l'IA est "à haut risque"" dans Wired .
  • « Les armes autonomes mortelles existent ; elles doivent être interdites » dans IEEE Spectrum .
  • « Les États-Unis et leurs alliés protestent contre les pourparlers de l'ONU pour interdire les armes nucléaires » dans le New York Times .
  • « L'intelligence artificielle est-elle une menace ? » dans The Chronicle of Higher Education , comprenant des entretiens avec les fondateurs de FLI Max Tegmark , Jaan Tallinn et Viktoriya Krakovna.
  • "Mais que signifierait la fin de l'humanité pour moi ?", une interview de Max Tegmark sur les idées derrière FLI dans The Atlantic .
  • Michael del Castillo (15 janvier 2015). "L'image de marque d'une startup ne cache pas les nuances apocalyptiques d'une lettre signée par Elon Musk" . Journal d'entreprise parvenu .

Voir également

Les références

Liens externes