Course aux armements de l'intelligence artificielle - Artificial intelligence arms race

Course aux armements de l'IA
Une partie de l' ère de l' après-guerre froide et de la deuxième guerre froide
7-raven-avion.jpg

Date Aujourd'hui
Emplacement (Principaux concurrents) États-Unis , Russie , Chine
Statut En cours
  • Les grandes puissances mondiales signalent des objectifs pour stimuler le développement de l'IA et le niveau de technologie
  • Au milieu de l'évolution de la situation du conflit mondial, la pandémie de COVID-19 éclate dans le monde entier
Principaux concurrents
Deuxième bloc occidental (grands partis)
 États Unis
Deuxième bloc de l'Est (grands partis)
 Russie Chine
 
Commandants et chefs
États Unis Joe Biden Lloyd Austin Mark A. Milley Jake Sullivan Eric Lander Kathleen Hicks John E. Hyten Jonathan Finer Alondra Nelson
États Unis
États Unis
États Unis
États Unis
États Unis
États Unis
États Unis
États Unis
Chine Xi Jinping Vladimir Poutine Li Keqiang Mikhail Mishustin Xu Qiliang Zhang Youxia Sergey Shoygu Wei Fenghe Li Zuocheng Valery Gerasimov Nikolay Bogdanovsky Wang Zhigang Valery Falkov
Russie
Chine
Russie
Chine
Chine
Russie
Chine
Chine
Russie
Russie
Chine
Russie
Opérations notables
Projet Maven
Frais

Une course aux armements par intelligence artificielle militaire est une compétition ou une course aux armements entre deux ou plusieurs États pour que leurs forces militaires soient équipées de la meilleure intelligence artificielle (IA). Depuis le milieu des années 2010, de nombreux analystes ont noté l'émergence d'une telle course aux armements mondiale, la course aux armements de l' IA , entre les grandes puissances pour une meilleure IA militaire, coïncidant et étant conduite par les tensions géopolitiques et militaires croissantes de la Seconde Guerre froide . Le contexte de la course aux armements de l'IA est le récit de la guerre froide de l' IA , dans lequel les tensions entre les États-Unis et la Chine conduisent à une guerre froide menée dans le domaine de la technologie de l'IA.

Terminologie

Plus largement, toute compétition pour une IA supérieure est parfois présentée comme une « course aux armements ». Une quête de domination militaire de l'IA se chevauche avec une quête de domination dans d'autres secteurs, d'autant plus qu'un pays poursuit des avantages économiques et militaires.

Des risques

Stephen Cave du Leverhulme Center soutient que les risques d'une course à l'IA sont triples, le premier risque ayant potentiellement des implications géopolitiques, et les deux seconds ayant certainement des implications géopolitiques. Le premier risque est que même s'il n'y avait pas de course, la terminologie entourant la course est dangereuse. La rhétorique autour de la course à l'IA et l'importance d'être le premier n'encouragent pas le type de délibération réfléchie avec les parties prenantes nécessaire pour produire une technologie d'IA qui soit la plus largement bénéfique pour la société et qui pourrait induire une course de manière auto-réalisatrice.

Le deuxième risque est la course à l'IA elle-même, que la course soit remportée ou non par un groupe. En raison de la rhétorique et de l'avantage perçu d'être le premier à développer une technologie d'IA avancée, il apparaît de fortes incitations à rogner sur les considérations de sécurité, ce qui pourrait laisser de côté des aspects importants tels que les préjugés et l'équité. En particulier, la perception qu'une autre équipe est au bord de la percée encourage les autres équipes à prendre des raccourcis et à déployer un système d'IA qui n'est pas prêt, ce qui peut être préjudiciable aux autres et au groupe possédant le système d'IA. Comme le prévient Paul Scharre dans Foreign Policy , « Pour chaque pays, le vrai danger n'est pas qu'il prenne du retard sur ses concurrents en IA mais que la perception d'une course pousse tout le monde à se précipiter pour déployer des systèmes d'IA peu sûrs. Dans leur désir de gagner. , les pays risquent de se mettre en danger tout autant que leurs adversaires." Nick Bostrom et d'autres ont développé un modèle qui en fournit une preuve supplémentaire. Le modèle a révélé qu'une équipe possédant plus d'informations sur les capacités des autres équipes entraînait plus de prise de risque et de raccourcis dans le développement de leurs systèmes d'IA. De plus, plus l'inimitié entre les équipes est grande, plus le risque d'ignorer les précautions et de conduire à un désastre d'IA est grand. Un autre danger d'une course aux armements de l'IA est le risque de perdre le contrôle des systèmes d'IA et le risque est aggravé dans le cas d'une course à l'intelligence artificielle générale, ce qui, selon Cave, peut présenter un risque existentiel .

Le troisième risque d'une course aux armements de l'IA est que la course soit réellement remportée par un groupe. Un exemple de ce risque est la consolidation du pouvoir et de l'avantage technologique entre les mains d'un groupe. Si un groupe parvient à une technologie d'IA supérieure, "[i]l n'est que raisonnable de conclure que les capacités activées par l'IA pourraient être utilisées pour menacer notre infrastructure critique, amplifier les campagnes de désinformation et faire la guerre". :1

La terminologie de la course aux armements est aussi parfois utilisée dans le contexte de la compétition pour la domination économique et le « soft power » ; par exemple, le « rapport intermédiaire » de novembre 2019 de la Commission de sécurité nationale sur l'intelligence artificielle des États-Unis, tout en soulignant le rôle de la diplomatie dans l'engagement avec la Chine et la Russie, adopte le langage d'une course aux armements compétitive. Il déclare que la supériorité militaro-technologique des États-Unis est vitale pour l'ordre mondial existant :11 et souligne que la militarisation actuelle de l'IA par les États-Unis, ainsi que la militarisation de l'IA par la Chine et la Russie, sont à des fins géopolitiques. :1-2

Positions envers l'intelligence artificielle militaire

Russie

Un mille-pattes de dessin animé lit des livres et des types sur un ordinateur portable.
Poutine (assis, au centre) à la Journée nationale du savoir, 2017

Le général russe Viktor Bondarev , commandant en chef de l'armée de l'air russe, a déclaré que dès février 2017, la Russie travaillait sur des missiles guidés par IA qui pourraient décider de changer de cible en plein vol. Le Comité industriel militaire de la Russie a approuvé des plans visant à tirer 30 % de la puissance de combat de la Russie de plates-formes robotiques télécommandées et compatibles avec l'IA d'ici 2030. [1] Les rapports des médias russes parrainés par l'État sur les utilisations militaires potentielles de l'IA ont augmenté à la mi-2017. En mai 2017, le PDG du groupe russe Kronstadt, un entrepreneur de la défense, a déclaré qu'« il existe déjà des systèmes d'exploitation d'IA complètement autonomes qui fournissent les moyens aux clusters d'UAV, lorsqu'ils remplissent des missions de manière autonome, partagent des tâches entre eux et interagissent », et qu'il est inévitable que des « essaims de drones » survolent un jour les zones de combat. La Russie a testé plusieurs systèmes de combat autonomes et semi-autonomes, tels que le module de combat « réseau neuronal » de Kalachnikov , avec une mitrailleuse, une caméra et une IA qui, selon ses fabricants, peut émettre ses propres jugements de ciblage sans intervention humaine.

En septembre 2017, lors d'un discours prononcé lors de la Journée nationale du savoir devant plus d'un million d'élèves dans 16 000 écoles russes, le président russe Vladimir Poutine a déclaré : « L'intelligence artificielle est l'avenir, non seulement pour la Russie mais pour toute l'humanité... Celui qui devient le leader dans ce domaine deviendra le maître du monde". Poutine a également déclaré qu'il serait préférable d'empêcher un seul acteur d'obtenir un monopole, mais que si la Russie devenait le leader de l'IA, elle partagerait sa "technologie avec le reste du monde, comme nous le faisons actuellement avec la technologie atomique et nucléaire". .

La Russie est en train de créer un certain nombre d'organisations consacrées au développement de l'IA militaire. En mars 2018, le gouvernement russe a publié un programme d'IA en 10 points, qui appelle à la création d'un consortium d'IA et de Big Data, un fonds pour les algorithmes et programmes analytiques, un programme de formation et d'éducation à l'IA soutenu par l'État, un laboratoire d'IA dédié , et un Centre national d'intelligence artificielle, entre autres initiatives. En outre, la Russie a récemment créé une organisation de recherche pour la défense, à peu près équivalente à la DARPA, dédiée à l'autonomie et à la robotique appelée la Fondation pour les études avancées, et a lancé une conférence annuelle sur « la robotisation des forces armées de la Fédération de Russie ».

L'armée russe a effectué des recherches sur un certain nombre d'applications d'IA, en mettant fortement l'accent sur les véhicules semi-autonomes et autonomes. Dans une déclaration officielle du 1er novembre 2017, Viktor Bondarev, président du comité de défense et de sécurité du Conseil de la Fédération, a déclaré que « l'intelligence artificielle pourra remplacer un soldat sur le champ de bataille et un pilote dans un cockpit d'avion » et a noté plus tard que "Le jour approche où les véhicules bénéficieront de l'intelligence artificielle." Bondarev a fait ces remarques à proximité du test réussi du Nerehta, un véhicule terrestre russe sans équipage qui aurait "surclassé les véhicules de combat [avec équipage] existants". La Russie prévoit d'utiliser Nerehta comme plate-forme de recherche et développement pour l'IA et pourrait un jour déployer le système dans des rôles de combat, de collecte de renseignements ou de logistique. La Russie aurait également construit un module de combat pour véhicules terrestres sans équipage capable d'identifier des cibles autonomes - et, potentiellement, d'engager des cibles - et prévoit de développer une suite de systèmes autonomes compatibles avec l'IA.

En outre, l'armée russe prévoit d'intégrer l'IA dans des véhicules aériens, navals et sous-marins sans équipage et développe actuellement des capacités d'essaimage. Il explore également des utilisations innovantes de l'IA pour la télédétection et la guerre électronique, y compris les sauts de fréquence adaptatifs, les formes d'onde et les contre-mesures. La Russie a également largement utilisé les technologies de l'IA pour la propagande et la surveillance nationales, ainsi que pour les opérations d'information dirigées contre les États-Unis et leurs alliés.

Le gouvernement russe a fermement rejeté toute interdiction des systèmes d' armes létales autonomes , suggérant qu'une telle interdiction pourrait être ignorée.

Chine

La Chine poursuit une politique stratégique de fusion militaro-civile sur l'IA pour la suprématie technologique mondiale. Selon un rapport Février 2019 par Gregory C. Allen du Centre pour une nouvelle sécurité américaine , la Chine de direction - y compris chef suprême Xi Jinping - estime qu'être à la pointe de la technologie AI est essentielle pour l'avenir des militaires mondiales et économique concurrence pour le pouvoir. Les responsables militaires chinois ont déclaré que leur objectif était d'intégrer la technologie commerciale de l'IA pour « réduire l'écart entre l'armée chinoise et les puissances avancées mondiales ». Les liens étroits entre la Silicon Valley et la Chine, et la nature ouverte de la communauté de recherche américaine, ont rendu la technologie d'IA la plus avancée d'Occident facilement accessible à la Chine ; en outre, l'industrie chinoise possède ses propres réalisations en matière d'IA, comme Baidu qui a passé un remarquable critère de capacité de reconnaissance vocale en langue chinoise en 2015. À partir de 2017, la feuille de route de Pékin vise à créer une industrie de l'IA de 150 milliards de dollars d'ici 2030. Avant 2013, les achats de défense chinois étaient principalement limités à quelques conglomérats ; Cependant, depuis 2017, la Chine s'approvisionne souvent en technologies émergentes sensibles telles que les drones et l'intelligence artificielle auprès de start-up privées. Un État chinois s'est engagé à investir 5 milliards de dollars dans l'IA. Pékin a engagé 2 milliards de dollars dans un parc de développement de l'IA. Le Japan Times a rapporté en 2018 que les investissements privés chinois dans l'IA sont inférieurs à 7 milliards de dollars par an. Les startups de l'IA en Chine ont reçu près de la moitié du total des investissements mondiaux dans les startups de l'IA en 2017 ; les Chinois ont déposé près de cinq fois plus de brevets d'IA que les Américains.

La Chine a publié un document de position en 2016 remettant en question l'adéquation du droit international existant pour faire face à l'éventualité d'armes entièrement autonomes, devenant ainsi le premier membre permanent du Conseil de sécurité de l'ONU à aborder la question. En 2018, Xi a appelé à une plus grande coopération internationale dans la recherche fondamentale en IA. Les responsables chinois ont exprimé leur inquiétude quant au fait que l'IA telle que les drones pourrait conduire à une guerre accidentelle, en particulier en l'absence de normes internationales. En 2019, l'ancien secrétaire américain à la Défense Mark Esper s'en est pris à la Chine pour avoir vendu des drones capables de tuer sans surveillance humaine.

États Unis

Le Sea Hunter prend la mer
Le Sea Hunter , un navire de guerre américain autonome, 2016

En 2014, l'ancien secrétaire à la Défense Chuck Hagel a proposé la " troisième stratégie de compensation " selon laquelle les progrès rapides de l'intelligence artificielle définiront la prochaine génération de guerre. Selon la société de science des données et d'analyse Govini, le département américain de la Défense a augmenté ses investissements dans l'intelligence artificielle , les mégadonnées et le cloud computing de 5,6 milliards de dollars en 2011 à 7,4 milliards de dollars en 2016. Cependant, le budget civil de la NSF pour l'IA n'a pas augmenté en 2017. Japan Times a rapporté en 2018 que l'investissement privé des États-Unis est d'environ 70 milliards de dollars par an. Le « rapport intermédiaire » de novembre 2019 de la Commission de sécurité nationale sur l'intelligence artificielle des États-Unis a confirmé que l'IA est essentielle à la supériorité militaire technologique des États-Unis.

Les États-Unis ont de nombreux programmes de combat d'IA militaires, tels que le navire de guerre autonome Sea Hunter , qui est conçu pour fonctionner pendant de longues périodes en mer sans un seul membre d'équipage, et même pour se guider dans et hors du port. À partir de 2017, une directive temporaire du département américain de la Défense exige qu'un opérateur humain soit tenu au courant lorsqu'il s'agit de prendre des vies humaines par des systèmes d'armes autonomes. Le 31 octobre 2019, le Defense Innovation Board du ministère de la Défense des États-Unis a publié le projet d'un rapport recommandant des principes pour l'utilisation éthique de l'intelligence artificielle par le ministère de la Défense qui garantirait qu'un opérateur humain serait toujours en mesure d'examiner le ' boîte noire' et comprendre le processus de la chaîne de destruction . Cependant, une préoccupation majeure est de savoir comment le rapport sera mis en œuvre.

Le projet Maven est un projet du Pentagone impliquant l'utilisation de talents d'apprentissage automatique et d'ingénierie pour distinguer les personnes et les objets dans les vidéos de drones, donnant apparemment au gouvernement le commandement et le contrôle du champ de bataille en temps réel, et la possibilité de suivre, marquer et espionner des cibles sans intervention humaine. Il semblerait qu'il n'agisse pas comme un système d'armes d'IA capable de tirer sur des cibles auto-désignées. Le projet a été établi dans une note du sous-secrétaire américain à la Défense le 26 avril 2017. Également connu sous le nom d'équipe interfonctionnelle de guerre algorithmique , il s'agit, selon le lieutenant-général de l' US Air Force Jack Shanahan en novembre 2017, un projet "conçu pour être ce projet pilote, cet éclaireur, cette étincelle qui allume le front de flamme de l'intelligence artificielle dans le reste du département [de la Défense]". Son chef, le colonel du Corps des Marines des États-Unis, Drew Cukor, a déclaré : « Les gens et les ordinateurs travailleront en symbiose pour augmenter la capacité des systèmes d'armes à détecter des objets. Lors du deuxième Defence One Tech Summit en juillet 2017, Cukor a également déclaré que l'investissement dans un "processus de flux de travail délibéré" était financé par le ministère [de la Défense] par le biais de ses "autorités d'acquisition rapide" pendant environ "les 36 prochains mois".

Le Joint Artificial Intelligence Center (JAIC) (prononcé "Jake") est une organisation américaine qui explore l'utilisation de l'IA (en particulier de l' informatique de pointe ), du réseau de réseaux et de la communication améliorée par l'IA, pour une utilisation dans le combat réel. Il s'agit d'une subdivision des forces armées des États-Unis et a été créée en juin 2018. L'objectif déclaré de l'organisation est de « transformer le département américain de la Défense en accélérant la livraison et l'adoption de l'IA pour obtenir un impact de mission à grande échelle. L'objectif est d'utiliser L'IA pour résoudre des ensembles de problèmes vastes et complexes qui s'étendent sur plusieurs systèmes de combat ; puis, assurez-vous que les systèmes de combat et les composants ont un accès en temps réel à des bibliothèques d'ensembles de données et d'outils en constante amélioration. »

Royaume-Uni

En 2015, le gouvernement britannique s'est opposé à l'interdiction des armes létales autonomes, déclarant que « le droit international humanitaire prévoit déjà une réglementation suffisante pour ce domaine », mais que toutes les armes utilisées par les forces armées britanniques seraient « sous surveillance et contrôle humains ».

Israël

Le drone israélien Harpy anti-radar « Tire et oublie » est conçu pour être lancé par des troupes au sol et survoler de manière autonome une zone pour trouver et détruire un radar répondant à des critères prédéterminés. L'application de l'intelligence artificielle devrait également être avancée dans les systèmes au sol sans équipage et les véhicules robotiques tels que le Guardium MK III et les versions ultérieures. Ces véhicules robotisés sont utilisés dans la défense des frontières.

Corée du Sud

La mitrailleuse sud-coréenne Super aEgis II , dévoilée en 2010, est utilisée à la fois en Corée du Sud et au Moyen-Orient. Il peut identifier, suivre et détruire une cible en mouvement à une distance de 4 km. Alors que la technologie peut théoriquement fonctionner sans intervention humaine, dans la pratique, des sauvegardes sont installées pour nécessiter une entrée manuelle. Un fabricant sud-coréen déclare : « Nos armes ne dorment pas, comme les humains doivent le faire. Ils peuvent voir dans le noir, comme les humains ne le peuvent pas. Notre technologie comble donc les lacunes des capacités humaines », et ils veulent « atteindre un endroit où notre logiciel peut discerner si une cible est amie, ennemie, civile ou militaire".

Union européenne

Le Parlement européen soutient que les humains doivent avoir un pouvoir de surveillance et de décision sur les armes autonomes létales. Cependant, il appartient à chaque État membre de l'Union européenne de déterminer sa position sur l'utilisation d'armes autonomes et les positions mixtes des États membres constituent peut-être le plus grand obstacle à la capacité de l'Union européenne à développer des armes autonomes. Certains membres comme la France, l'Allemagne, l'Italie et la Suède développent des armes autonomes létales. Certains membres restent indécis quant à l'utilisation d'armes militaires autonomes et l'Autriche a même appelé à interdire l'utilisation de telles armes.

Certains États membres de l'UE ont développé et développent des armes automatisées. L'Allemagne a développé un système de protection active , l'Active Defense System, capable de répondre à une menace en toute autonomie en moins d'une milliseconde. L'Italie envisage d'intégrer des systèmes d'armes autonomes dans ses futurs plans militaires.

Les tendances

Selon Siemens , les dépenses militaires mondiales en robotique s'élevaient à 5,1 milliards de dollars américains en 2010 et à 7,5 milliards de dollars américains en 2015.

La Chine est devenue un acteur de premier plan dans la recherche sur l'intelligence artificielle dans les années 2010. Selon le Financial Times , en 2016, pour la première fois, la Chine a publié plus d'articles sur l'IA que l'ensemble de l'Union européenne. Limitée au nombre d'articles sur l'IA dans les 5 % des articles les plus cités, la Chine a dépassé les États-Unis en 2016, mais a pris du retard par rapport à l'Union européenne. 23% des chercheurs présentés à la conférence 2017 de l' American Association for the Advancement of Artificial Intelligence (AAAI) étaient chinois. Eric Schmidt , l'ancien président d' Alphabet , a prédit que la Chine serait le pays leader de l'IA d'ici 2025.

Présentateurs de l'AAAI :
Pays en 2012 en 2017
nous 41% 34%
Chine dix% 23%
Royaume-Uni 5% 5%

Propositions de réglementation internationale

La réglementation internationale des armes autonomes est une question émergente pour le droit international. Le contrôle des armements de l'IA nécessitera probablement l'institutionnalisation de nouvelles normes internationales incorporées dans des spécifications techniques efficaces combinées à une surveillance active et à une diplomatie informelle par des communautés d'experts, ainsi qu'un processus de vérification juridique et politique. Dès 2007, des universitaires tels que le professeur d'IA Noel Sharkey ont mis en garde contre « une course aux armements émergente parmi les nations de haute technologie pour développer des sous-marins autonomes, des avions de combat, des cuirassés et des chars qui peuvent trouver leurs propres cibles et appliquer une force violente sans implication. de décisions humaines significatives". En 2014, le spécialiste de l'IA Steve Omohundro a averti qu'« une course aux armements autonomes est déjà en cours ». Miles Brundage de l' Université d'Oxford a fait valoir qu'une course aux armements de l'IA pourrait être quelque peu atténuée par la diplomatie : « Nous avons vu dans les diverses courses aux armements historiques que la collaboration et le dialogue peuvent porter leurs fruits ». Plus d'une centaine d'experts ont signé une lettre ouverte en 2017 appelant l'ONU à s'attaquer au problème des armes autonomes létales ; Cependant, lors d'une session de novembre 2017 de la Convention des Nations Unies sur certaines armes classiques (CCW), les diplomates ne pouvaient même pas s'entendre sur la manière de définir ces armes. L'ambassadeur indien et président de la CCW a déclaré qu'un accord sur les règles restait une perspective lointaine. En 2017, vingt-deux pays ont appelé à une interdiction totale des armes létales autonomes.

De nombreux experts pensent que les tentatives visant à interdire complètement les robots tueurs sont susceptibles d'échouer. Un rapport de 2017 du Belfer Center de Harvard prédit que l'IA a le potentiel d'être aussi transformatrice que les armes nucléaires. Le rapport affirme en outre que « empêcher l'utilisation militaire élargie de l'IA est probablement impossible » et que « l'objectif plus modeste d'une gestion de la technologie sûre et efficace doit être poursuivi », comme l'interdiction de rattacher un homme mort à l' IA à un arsenal nucléaire. Une partie de l'impraticabilité est que la détection des violations des traités serait extrêmement difficile.

Autres réactions aux armes autonomes

Une lettre ouverte 2015 appelant à l'interdiction des systèmes d'armes automatiques létales a été signé par des dizaines de milliers de citoyens, y compris des savants tels que le physicien Stephen Hawking , Tesla magnat Elon Musk , et d' Apple de Steve Wozniak .

Le professeur Noel Sharkey de l' Université de Sheffield a averti que les armes autonomes tomberaient inévitablement entre les mains de groupes terroristes tels que l' État islamique .

Dissociation

De nombreuses entreprises technologiques occidentales craignent d'être associées trop étroitement à l'armée américaine, de peur de perdre l'accès au marché chinois. En outre, certains chercheurs, comme DeepMind de Demis Hassabis , sont idéologiquement opposés à contribuer au travail militaire.

Par exemple, en juin 2018, des sources de l'entreprise chez Google ont déclaré que la dirigeante Diane Greene avait déclaré au personnel que l'entreprise ne donnerait pas suite au projet Maven après l'expiration du contrat actuel en mars 2019.

Voir également

Les références

Lectures complémentaires

  • Paul Scharre, « Killer Apps : The Real Dangers of an AI Arms Race », Foreign Affairs , vol. 98, non. 3 (mai/juin 2019), p. 135-44. "Les technologies d'IA d'aujourd'hui sont puissantes mais peu fiables. Les systèmes basés sur des règles ne peuvent pas faire face à des circonstances que leurs programmeurs n'avaient pas anticipées. Les systèmes d'apprentissage sont limités par les données sur lesquelles ils ont été formés. Les échecs de l'IA ont déjà conduit à une tragédie. Fonctionnalités avancées de pilote automatique dans les voitures, bien que les sddsy fonctionnent bien dans certaines circonstances, ont conduit des voitures sans avertissement dans des camions, des barrières en béton et des voitures garées. Dans la mauvaise situation, les systèmes d'IA passent de super intelligent à super stupide en un instant. Quand un ennemi essaie de manipuler et de pirater une IA système, les risques sont encore plus grands. (p.140.)
  • La Commission nationale de sécurité sur l'intelligence artificielle. (2019). Rapport intérimaire . Washington, DC : auteur.