Histoire de l'intelligence artificielle - History of artificial intelligence

L' histoire de l'Intelligence Artificielle ( IA ) a commencé dans l' Antiquité , avec des mythes, des histoires et des rumeurs d'êtres artificiels dotés d'intelligence ou de conscience par des maîtres artisans. Les graines de l'IA moderne ont été plantées par des philosophes classiques qui ont tenté de décrire le processus de la pensée humaine comme la manipulation mécanique de symboles. Ce travail a abouti à l'invention de l' ordinateur numérique programmable dans les années 1940, une machine basée sur l'essence abstraite du raisonnement mathématique. Cet appareil et les idées sous-jacentes ont inspiré une poignée de scientifiques à commencer à discuter sérieusement de la possibilité de construire un cerveau électronique.

Le domaine de la recherche en IA a été fondé lors d'un atelier organisé sur le campus du Dartmouth College au cours de l'été 1956. Ceux qui y ont participé deviendront les leaders de la recherche en IA pendant des décennies. Beaucoup d'entre eux ont prédit qu'une machine aussi intelligente qu'un être humain existerait dans pas plus d'une génération, et ils ont reçu des millions de dollars pour concrétiser cette vision.

Finalement, il est devenu évident que les développeurs commerciaux et les chercheurs avaient grossièrement sous-estimé la difficulté du projet. En 1973, en réponse aux critiques de James Lighthill et aux pressions continues du Congrès, les gouvernements américain et britannique ont cessé de financer la recherche non dirigée sur l'intelligence artificielle, et les années difficiles qui ont suivi seront plus tard connues sous le nom d'« hiver de l'IA ». Sept ans plus tard, une initiative visionnaire du gouvernement japonais a incité les gouvernements et l'industrie à fournir des milliards de dollars à l'IA, mais à la fin des années 80, les investisseurs ont perdu leurs illusions et ont à nouveau retiré leur financement.

L'investissement et l'intérêt pour l'IA ont explosé au cours des premières décennies du 21e siècle, lorsque l'apprentissage automatique a été appliqué avec succès à de nombreux problèmes dans les universités et l'industrie en raison de nouvelles méthodes, de l'application de matériel informatique puissant et de la collecte d'immenses ensembles de données.

Précurseurs

Précurseurs mythiques, fictifs et spéculatifs

Mythe et légende

Dans la mythologie grecque, Talos était un géant construit en bronze qui servait de gardien à l'île de Crète. Il lançait des rochers sur les navires des envahisseurs et effectuait quotidiennement 3 circuits autour du périmètre de l'île. Selon la pseudo-Apollodore ' Bibliotheke , Héphaïstos forgea Talos à l'aide d'un cyclope et présenta l'automate en cadeau à Minos . Dans l' Argonautica , Jason et les Argonautes l'ont vaincu au moyen d'un seul bouchon près de son pied qui, une fois retiré, a permis à l' ichor vital de s'écouler de son corps et l'a laissé inanimé.

Pygmalion était un roi légendaire et sculpteur de la mythologie grecque, célèbre représenté dans les Métamorphoses d' Ovide . Dans le dixième livre du poème narratif d'Ovide, Pygmalion se dégoûte des femmes lorsqu'il est témoin de la manière dont les Propoétides se prostituent. Malgré cela, il fait des offrandes au temple de Vénus demandant la déesse de lui apporter une femme comme une statue , il carvexreThe premier compte rendu écrit au sujet de la prise de golem se trouve dans les écrits de Eleazar ben Judah de Worms vers C. 12-13ème Au Moyen Âge, on croyait que l'animation d'un Golem pouvait être réalisée en insérant un morceau de papier avec l'un des noms de Dieu dessus, dans la bouche de la figure d'argile. Contrairement aux automates légendaires comme Brazen Heads , un Golem était incapable de parler.

Moyens alchimiques de l'intelligence artificielle

Représentation d'un homoncule du Faust de Goethe

Dans De la nature des choses , écrit par l'alchimiste d'origine suisse Paracelse , il décrit une procédure qui, selon lui, peut fabriquer un "homme artificiel". En plaçant le "sperme d'un homme" dans de la bouse de cheval et en le nourrissant de "l'Arcane du sang de l'homme" après 40 jours, la concoction deviendra un enfant vivant. Avant Paracelse, Jābir ibn Hayyān adoptait l'homunculus : Takwin In Faust, The Second Part of the Tragedy de Johann Wolfgang von Goethe , un Homunculus fabriqué alchimiquement, destiné à vivre pour toujours dans le flacon dans lequel il a été fabriqué, s'efforce d'être né dans un corps humain complet. Lors de l'initiation de cette transformation, cependant, le flacon se brise et l'homunculus meurt.

Fiction moderne

Au 19e siècle, des idées sur les hommes artificiels et machines de pensée ont été développés dans la fiction, comme dans Mary Shelley 's Frankenstein ou Karel Čapek de RUR (Universal Robots de Rossum) , et de la spéculation, comme Samuel Butler "de Darwin parmi les machines , " et dans des instances du monde réel, y compris " Le joueur d'échecs de Maelzel " d' Edgar Allan Poe . L'IA est devenue un sujet régulier de la science-fiction à travers le présent.

Automates

Les automates programmables d' Al-Jazari (1206 CE)

Des automates humanoïdes réalistes ont été construits par des artisans de toutes les civilisations, y compris Yan Shi , Héros d'Alexandrie , Al-Jazari , Pierre Jaquet-Droz et Wolfgang von Kempelen . Les plus anciens automates connus étaient les statues sacrées de l'Egypte ancienne et de la Grèce . Les fidèles croyaient que l'artisan avait imprégné ces personnages d'esprits bien réels, capables de sagesse et d'émotion — Hermès Trismégiste écrivait qu'« en découvrant la vraie nature des dieux, l'homme a pu la reproduire ».

Au début de la période moderne, on disait que ces automates légendaires possédaient la capacité magique de répondre aux questions qui leur étaient posées. L'alchimiste et érudit de la fin du Moyen Âge Roger Bacon était censé avoir fabriqué une tête d'airain , ayant développé une légende d'avoir été un sorcier. Ces légendes étaient similaires au mythe nordique de la tête de Mímir. Selon la légende, Mímir était connu pour son intelligence et sa sagesse, et fut décapité lors de la guerre Æsir-Vanir. On dit qu'Odin a « embaumé » la tête avec des herbes et a prononcé des incantations dessus de telle sorte que la tête de Mímir est restée capable de dire la sagesse à Odin. Odin a alors gardé la tête près de lui pour conseil.

Raisonnement formel

L'intelligence artificielle est basée sur l'hypothèse que le processus de la pensée humaine peut être mécanisé. L'étude du raisonnement mécanique — ou « formel » — a une longue histoire. Les philosophes chinois , indiens et grecs ont tous développé des méthodes structurées de déduction formelle au cours du premier millénaire avant notre ère. Leurs idées ont été développées au cours des siècles par des philosophes tels qu'Aristote (qui a donné une analyse formelle du syllogisme ), Euclide (dont Éléments était un modèle de raisonnement formel), al-Khwārizmī (qui a développé l' algèbre et a donné son nom à « algorithme » ) et des philosophes scolastiques européens tels que Guillaume d'Ockham et Duns Scot .

Le philosophe espagnol Ramon Llull (1232-1315) a développé plusieurs machines logiques consacrées à la production de connaissances par des moyens logiques ; Lulle a décrit ses machines comme des entités mécaniques qui pouvaient combiner des vérités fondamentales et indéniables par de simples opérations logiques, produites par la machine par des significations mécaniques, de manière à produire toutes les connaissances possibles. L'œuvre de Lulle a eu une grande influence sur Gottfried Leibniz , qui a redéveloppé ses idées.

Gottfried Leibniz , qui a spéculé que la raison humaine pourrait être réduite au calcul mécanique

Au 17ème siècle, Leibniz , Thomas Hobbes et René Descartes ont exploré la possibilité que toute pensée rationnelle puisse être rendue aussi systématique que l'algèbre ou la géométrie. Hobbes a écrit dans Leviathan : "la raison n'est rien d'autre que le calcul". Leibniz envisageait un langage universel du raisonnement (son featurea universalis ) qui réduirait l'argumentation au calcul, de sorte qu'« il n'y aurait pas plus besoin de dispute entre deux philosophes qu'entre deux comptables. Car il suffirait de prendre leurs crayons en main, de descendre à leurs ardoises, et de se dire (avec un ami comme témoin, s'ils le voulaient) : Calculons . » Ces philosophes avaient commencé à formuler l' hypothèse du système de symboles physiques qui deviendrait la foi directrice de la recherche sur l'IA.

Au 20e siècle, l'étude de la logique mathématique a fourni la percée essentielle qui a rendu l'intelligence artificielle plausible. Les fondations ont été établies par des œuvres telles que Boole « s lois de la pensée et Frege » s Begriffsschrift . S'appuyant sur le système de Frege , Russell et Whitehead ont présenté un traitement formel des fondements des mathématiques dans leur chef-d'œuvre, les Principia Mathematica en 1913. Inspiré par le succès de Russell , David Hilbert a mis les mathématiciens des années 1920 et 1930 au défi de répondre à cette question fondamentale. : "peut-on formaliser tout le raisonnement mathématique ?" Sa question a été répondue par la preuve d'incomplétude de Gödel , la machine de Turing et le calcul Lambda de Church .

Photo de l'armée américaine de l'ENIAC à la Moore School of Electrical Engineering.

Leur réponse était surprenante à deux égards. Premièrement, ils ont prouvé qu'il y avait, en fait, des limites à ce que la logique mathématique pouvait accomplir. Mais deuxièmement (et plus important pour l'IA), leurs travaux suggéraient que, dans ces limites, toute forme de raisonnement mathématique pouvait être mécanisée. La thèse de Church-Turing impliquait qu'un dispositif mécanique, mélangeant des symboles aussi simples que 0 et 1, pourrait imiter n'importe quel processus imaginable de déduction mathématique. L'idée clé était la machine de Turing, une construction théorique simple qui a capturé l'essence de la manipulation de symboles abstraits. Cette invention inspirerait une poignée de scientifiques à commencer à discuter de la possibilité de penser des machines.

L'informatique

Les machines à calculer ont été construites dans l'Antiquité et améliorées au cours de l'histoire par de nombreux mathématiciens, dont (encore une fois) le philosophe Gottfried Leibniz . Au début du 19ème siècle, Charles Babbage a conçu un ordinateur programmable (le moteur analytique ), bien qu'il n'ait jamais été construit. Ada Lovelace a émis l' hypothèse que la machine « pourrait composer des morceaux de musique élaborés et scientifiques de tout degré de complexité ou d'étendue ». (Elle est souvent créditée comme la première programmeuse en raison d' un ensemble de notes qu'elle a écrites qui détaillent complètement une méthode de calcul des nombres de Bernoulli avec le moteur.)

Les premiers ordinateurs modernes étaient les machines massives de déchiffrement de code de la Seconde Guerre mondiale (telles que Z3 , ENIAC et Colossus ). Les deux dernières de ces machines étaient basées sur les bases théoriques posées par Alan Turing et développées par John von Neumann .

La naissance de l'intelligence artificielle 1952-1956

L'IBM 702 : un ordinateur utilisé par la première génération de chercheurs en IA.

Dans les années 40 et 50, une poignée de scientifiques de divers domaines (mathématiques, psychologie, ingénierie, économie et sciences politiques) ont commencé à discuter de la possibilité de créer un cerveau artificiel. Le domaine de la recherche en intelligence artificielle a été fondé en tant que discipline universitaire en 1956.

Cybernétique et premiers réseaux de neurones

Les premières recherches sur les machines à penser ont été inspirées par une confluence d'idées qui se sont répandues à la fin des années 1930, 1940 et au début des années 1950. Des recherches récentes en neurologie ont montré que le cerveau était un réseau électrique de neurones qui se déclenchaient par impulsions tout ou rien. La cybernétique de Norbert Wiener décrit le contrôle et la stabilité des réseaux électriques. La théorie de l'information de Claude Shannon décrit les signaux numériques (c'est-à-dire les signaux tout ou rien). La théorie du calcul d' Alan Turing a montré que toute forme de calcul pouvait être décrite numériquement. La relation étroite entre ces idées a suggéré qu'il pourrait être possible de construire un cerveau électronique .

Des exemples de travaux dans cette veine incluent des robots tels que les tortues de W. Gray Walter et la bête de Johns Hopkins . Ces machines n'utilisaient pas d'ordinateurs, d'électronique numérique ou de raisonnement symbolique ; ils étaient entièrement contrôlés par des circuits analogiques.

Walter Pitts et Warren McCulloch ont analysé des réseaux de neurones artificiels idéalisés et ont montré comment ils pourraient exécuter des fonctions logiques simples en 1943. Ils ont été les premiers à décrire ce que les chercheurs ultérieurs appelleraient un réseau de neurones . L'un des étudiants inspirés par Pitts et McCulloch était un jeune Marvin Minsky , alors étudiant diplômé de 24 ans. En 1951 (avec Dean Edmonds), il construisit la première machine à réseau neuronal, la SNARC . Minsky allait devenir l'un des leaders et innovateurs les plus importants de l'IA au cours des 50 prochaines années.

L'épreuve de Turing

En 1950, Alan Turing a publié un article historique dans lequel il spéculait sur la possibilité de créer des machines qui pensent. Il a noté que « penser » est difficile à définir et a conçu son célèbre test de Turing . Si une machine pouvait tenir une conversation (sur un téléscripteur ) qui ne pouvait être distinguée d'une conversation avec un être humain, alors il était raisonnable de dire que la machine « réfléchissait ». Cette version simplifiée du problème a permis à Turing d'argumenter de manière convaincante qu'une "machine à penser" était au moins plausible et l'article a répondu à toutes les objections les plus courantes à la proposition. Le test de Turing a été la première proposition sérieuse dans la philosophie de l'intelligence artificielle .

IA de jeu

En 1951, en utilisant la machine Ferranti Mark 1 de l' Université de Manchester , Christopher Strachey a écrit un programme de dames et Dietrich Prinz en a écrit un pour les échecs. Le programme de jeu de dames d' Arthur Samuel , développé au milieu des années 50 et au début des années 60, a finalement atteint des compétences suffisantes pour défier un amateur respectable. L'IA du jeu continuerait à être utilisée comme mesure des progrès de l'IA tout au long de son histoire.

Le raisonnement symbolique et le théoricien de la logique

Lorsque l'accès aux ordinateurs numériques est devenu possible au milieu des années cinquante, quelques scientifiques ont instinctivement reconnu qu'une machine capable de manipuler des nombres pouvait également manipuler des symboles et que la manipulation de symboles pouvait bien être l'essence de la pensée humaine. C'était une nouvelle approche pour créer des machines à penser.

En 1955, Allen Newell et (futur lauréat du prix Nobel) Herbert A. Simon créèrent le " Logic Theorist " (avec l'aide de JC Shaw ). Le programme prouverait finalement 38 des 52 premiers théorèmes des Principia Mathematica de Russell et Whitehead , et trouverait de nouvelles preuves plus élégantes pour certains. Simon a dit qu'ils avaient "résolu le vénérable problème esprit/corps , expliquant comment un système composé de matière peut avoir les propriétés de l'esprit". (C'était une première déclaration de la position philosophique que John Searle appellerait plus tard « Strong AI » : que les machines peuvent contenir des esprits tout comme les corps humains.)

Dartmouth Workshop 1956 : la naissance de l'IA

L' atelier de Dartmouth de 1956 a été organisé par Marvin Minsky , John McCarthy et deux scientifiques chevronnés : Claude Shannon et Nathan Rochester d' IBM . La proposition pour la conférence comprenait cette affirmation : « chaque aspect de l'apprentissage ou toute autre caractéristique de l'intelligence peut être décrit si précisément qu'une machine peut être conçue pour le simuler ». Les participants comprenaient Ray Solomonoff , Oliver Selfridge , Trenchard More , Arthur Samuel , Allen Newell et Herbert A. Simon , qui allaient tous créer d'importants programmes au cours des premières décennies de recherche sur l'IA. Lors de la conférence, Newell et Simon ont présenté le " Théoricien de la logique " et McCarthy a persuadé les participants d'accepter " Intelligence artificielle " comme nom du domaine. La conférence de Dartmouth de 1956 a été le moment où l'IA a gagné son nom, sa mission, son premier succès et ses principaux acteurs, et est largement considérée comme la naissance de l'IA. Le terme « Intelligence Artificielle » a été choisi par McCarthy pour éviter les associations avec la cybernétique et les connexions avec l'influent cybernéticien Norbert Wiener .

IA symbolique 1956-1974

Les programmes développés dans les années qui ont suivi l'atelier de Dartmouth étaient, pour la plupart des gens, tout simplement « étonnants » : les ordinateurs résolvaient des problèmes de mots algébriques, prouvaient des théorèmes de géométrie et apprenaient à parler anglais. Peu à l'époque auraient cru qu'un comportement aussi « intelligent » des machines était possible. Les chercheurs ont exprimé un optimisme intense en privé et dans la presse écrite, prédisant qu'une machine entièrement intelligente serait construite en moins de 20 ans. Les agences gouvernementales comme la DARPA ont versé de l'argent dans le nouveau domaine.

Approches

Il y a eu de nombreux programmes réussis et de nouvelles orientations à la fin des années 50 et dans les années 60. Parmi les plus influents figurent ceux-ci :

Raisonnement comme recherche

De nombreux premiers programmes d'IA utilisaient le même algorithme de base . Pour atteindre un objectif (comme gagner un jeu ou prouver un théorème), ils avançaient pas à pas (en effectuant un mouvement ou une déduction) comme s'ils cherchaient dans un labyrinthe, faisant marche arrière chaque fois qu'ils atteignaient une impasse. Ce paradigme a été appelé « raisonnement comme recherche ».

La principale difficulté était que, pour de nombreux problèmes, le nombre de chemins possibles à travers le « labyrinthe » était simplement astronomique (une situation connue sous le nom d'« explosion combinatoire »). Les chercheurs réduiraient l'espace de recherche en utilisant des heuristiques ou des « règles empiriques » qui élimineraient les chemins qui étaient peu susceptibles de conduire à une solution.

Newell et Simon ont essayé de capturer une version générale de cet algorithme dans un programme appelé " General Problem Solver ". D' autres « recherche » programmes ont pu accomplir des tâches impressionnantes comme la résolution de problèmes dans la géométrie et de l' algèbre, tels que Herbert Gelernter de la géométrie de théorèmes (1958) et SAINT , écrit par Minsky étudiant James Slagle (1961). D'autres programmes ont recherché des objectifs et des sous-objectifs pour planifier des actions, comme le système STRIPS développé à Stanford pour contrôler le comportement de leur robot Shakey .

Un exemple de réseau sémantique

Langage naturel

Un objectif important de la recherche sur l'IA est de permettre aux ordinateurs de communiquer dans des langues naturelles comme l'anglais. Un des premiers succès fut le programme STUDENT de Daniel Bobrow , qui pouvait résoudre des problèmes de mots d'algèbre au secondaire.

Un réseau sémantique représente les concepts (par exemple "maison", "porte") en tant que nœuds et les relations entre les concepts (par exemple "has-a") en tant que liens entre les nœuds. Le premier programme AI d'utiliser un réseau sémantique a été écrit par Ross Quillian et la version la plus réussie (et controversée) était Roger Schank de la théorie de la dépendance conceptuelle .

Joseph Weizenbaum de ELIZA pourrait mener à des conversations qui étaient si réalistes que les utilisateurs de temps en temps ont été trompés en pensant qu'ils communiquaient avec un être humain et non pas un programme (Voir effet ELIZA ). Mais en fait, ELIZA n'avait aucune idée de ce dont elle parlait. Elle a simplement donné une réponse en conserve ou a répété ce qu'on lui avait dit, reformulant sa réponse avec quelques règles de grammaire. ELIZA a été la première chatterbot .

Micro-mondes

À la fin des années 60, Marvin Minsky et Seymour Papert du MIT AI Laboratory ont proposé que la recherche en IA se concentre sur des situations artificiellement simples connues sous le nom de micro-mondes. Ils ont souligné que dans les sciences à succès comme la physique, les principes de base étaient souvent mieux compris en utilisant des modèles simplifiés comme des plans sans friction ou des corps parfaitement rigides. Une grande partie de la recherche s'est concentrée sur un « monde de blocs », qui se compose de blocs colorés de différentes formes et tailles disposés sur une surface plane.

Ce paradigme a conduit à des travaux novateurs dans la vision de la machine par Gerald Sussman (qui a dirigé l'équipe), Adolfo Guzman , David Waltz (qui a inventé " la propagation de contraintes "), et surtout Patrick Winston . Dans le même temps, Minsky et Papert ont construit un bras robotisé capable d'empiler des blocs, donnant ainsi vie au monde des blocs. Le couronnement du programme micro-monde a été Terry Winograd de SHRDLU . Il pouvait communiquer dans des phrases anglaises ordinaires, planifier des opérations et les exécuter.

Automates

Au Japon, l'Université Waseda a lancé le projet WABOT en 1967 et, en 1972, a achevé le WABOT-1, le premier robot humanoïde "intelligent" à grande échelle au monde , ou androïde . Son système de contrôle des membres lui permettait de marcher avec les membres inférieurs, de saisir et de transporter des objets avec les mains, à l'aide de capteurs tactiles. Son système de vision lui a permis de mesurer les distances et les directions vers des objets à l'aide de récepteurs externes, d'yeux et d'oreilles artificiels. Et son système de conversation lui permettait de communiquer avec une personne en japonais, avec une bouche artificielle.

Optimisme

La première génération de chercheurs en IA a fait ces prédictions sur leur travail :

  • 1958, HA Simon et Allen Newell : "d'ici dix ans un ordinateur numérique sera le champion du monde d'échecs" et "d'ici dix ans un ordinateur numérique découvrira et prouvera un nouveau théorème mathématique important."
  • 1965, HA Simon : "les machines seront capables, d'ici vingt ans, de faire n'importe quel travail qu'un homme peut faire."
  • 1967, Marvin Minsky : "D'ici une génération... le problème de la création d'une 'intelligence artificielle' sera substantiellement résolu."
  • 1970, Marvin Minsky (dans Life Magazine ) : "Dans trois à huit ans, nous aurons une machine avec l'intelligence générale d'un être humain moyen."

Financement

En juin 1963, le MIT a reçu une subvention de 2,2 millions de dollars de la nouvelle Agence pour les projets de recherche avancée (plus tard connue sous le nom de DARPA ). L'argent a été utilisé pour financer le projet MAC qui a englobé le « Groupe AI » fondé par Minsky et McCarthy cinq ans plus tôt. La DARPA a continué à fournir trois millions de dollars par an jusque dans les années 70. La DARPA a accordé des subventions similaires au programme de Newell et Simon à la CMU et au Stanford AI Project (fondé par John McCarthy en 1963). Un autre laboratoire d'IA important a été créé à l'Université d'Édimbourg par Donald Michie en 1965. Ces quatre institutions continueront d'être les principaux centres de recherche (et de financement) en IA dans les universités pendant de nombreuses années.

L'argent a été offert avec peu de conditions : JCR Licklider , alors directeur de l' ARPA , estimait que son organisation devait « financer des gens, pas des projets ! » et a permis aux chercheurs de poursuivre toutes les directions qui pourraient les intéresser. Cela a créé une atmosphère de roue libre au MIT qui a donné naissance à la culture des hackers , mais cette approche "sans intervention" ne durera pas.

La première IA hiver 1974-1980

Dans les années 1970, l'IA a fait l'objet de critiques et de revers financiers. Les chercheurs en IA n'avaient pas compris la difficulté des problèmes auxquels ils étaient confrontés. Leur immense optimisme avait suscité des attentes incroyablement élevées, et lorsque les résultats promis ne se sont pas matérialisés, le financement de l'IA a disparu. En même temps, le champ de connectionism (ou les réseaux de neurones ) a été fermé presque complètement pendant 10 ans par Marvin Minsky de la critique dévastatrice de Perceptron . Malgré les difficultés avec la perception du public de l'IA à la fin des années 70, de nouvelles idées ont été explorées dans la programmation logique , le raisonnement de bon sens et de nombreux autres domaines.

Les problèmes

Au début des années 70, les capacités des programmes d'IA étaient limitées. Même les plus impressionnants ne pouvaient gérer que des versions triviales des problèmes qu'ils étaient censés résoudre ; tous les programmes étaient, dans un certain sens, des "jouets". Les chercheurs en IA avaient commencé à se heurter à plusieurs limites fondamentales qui ne pouvaient pas être surmontées dans les années 1970. Bien que certaines de ces limites soient dépassées au cours des décennies suivantes, d'autres entravent encore le terrain à ce jour.

  • Puissance informatique limitée : Il n'y avait pas assez de mémoire ou de vitesse de traitement pour accomplir quoi que ce soit de vraiment utile. Par exemple, le travail réussi de Ross Quillian sur le langage naturel a été démontré avec un vocabulaire de seulement vingt mots, parce que c'était tout ce qui pouvait tenir dans la mémoire. Hans Moravec a soutenu en 1976 que les ordinateurs étaient encore des millions de fois trop faibles pour faire preuve d'intelligence. Il a suggéré une analogie : l'intelligence artificielle nécessite une puissance informatique de la même manière que les avions nécessitent de la puissance . En deçà d'un certain seuil, c'est impossible, mais au fur et à mesure que la puissance augmente , cela peut éventuellement devenir facile. En ce qui concerne la vision par ordinateur, Moravec a estimé que le simple fait de faire correspondre les capacités de détection de contour et de mouvement de la rétine humaine en temps réel nécessiterait un ordinateur polyvalent capable de 10 9 opérations/seconde (1000 MIPS). Depuis 2011, les applications pratiques de vision par ordinateur nécessitent 10 000 à 1 000 000 MIPS. En comparaison, le supercalculateur le plus rapide en 1976, Cray-1 (vendu entre 5 et 8 millions de dollars), n'était capable que d'environ 80 à 130 MIPS, et un ordinateur de bureau typique à l'époque atteignait moins de 1 MIPS.
  • Intraitabilité et explosion combinatoire . En 1972, Richard Karp (en s'appuyant sur le théorème de Stephen Cook de 1971) a montré qu'il existe de nombreux problèmes qui ne peuvent probablement être résolus qu'en un temps exponentiel (dans la taille des entrées). Trouver des solutions optimales à ces problèmes nécessite des quantités inimaginables de temps informatique, sauf lorsque les problèmes sont insignifiants. Cela signifiait presque certainement que bon nombre des solutions "jouets" utilisées par l'IA ne se transformeraient probablement jamais en systèmes utiles.
  • Connaissances et raisonnements de bon sens . De nombreuses applications importantes de l'intelligence artificielle, telles que la vision ou le langage naturel, nécessitent simplement d'énormes quantités d'informations sur le monde : le programme doit avoir une idée de ce qu'il peut regarder ou de ce dont il parle. Cela nécessite que le programme connaisse la plupart des mêmes choses sur le monde qu'un enfant. Les chercheurs ont rapidement découvert qu'il s'agissait d'une énorme quantité d'informations. Personne en 1970 ne pouvait construire une base de données aussi grande et personne ne savait comment un programme pouvait apprendre autant d'informations.
  • Le paradoxe de Moravec : Démontrer des théorèmes et résoudre des problèmes de géométrie est relativement facile pour les ordinateurs, mais une tâche prétendument simple comme reconnaître un visage ou traverser une pièce sans heurter quoi que ce soit est extrêmement difficile. Cela aide à expliquer pourquoi la recherche sur la vision et la robotique avait fait si peu de progrès au milieu des années 1970.
  • Les problèmes de cadre et de qualification . Les chercheurs en IA (comme John McCarthy ) qui utilisaient la logique ont découvert qu'ils ne pouvaient pas représenter des déductions ordinaires impliquant une planification ou un raisonnement par défaut sans apporter de modifications à la structure de la logique elle-même. Ils ont développé de nouvelles logiques (comme des logiques non monotones et des logiques modales ) pour essayer de résoudre les problèmes.

La fin du financement

Les agences qui ont financé la recherche sur l'IA (comme le gouvernement britannique , la DARPA et le NRC ) ont été frustrées par le manque de progrès et ont finalement coupé presque tout financement pour la recherche non dirigée sur l'IA. Le modèle a commencé dès 1966 lorsque le rapport ALPAC est apparu critiquant les efforts de traduction automatique. Après avoir dépensé 20 millions de dollars, le NRC a mis fin à tout soutien. En 1973, le rapport Lighthill sur l'état de la recherche en IA en Angleterre a critiqué l'échec total de l'IA à atteindre ses « objectifs grandioses » et a conduit au démantèlement de la recherche en IA dans ce pays. (Le rapport mentionnait spécifiquement le problème d' explosion combinatoire comme raison des échecs de l'IA.) La DARPA a été profondément déçue par les chercheurs travaillant sur le programme de recherche sur la compréhension de la parole à la CMU et a annulé une subvention annuelle de trois millions de dollars. En 1974, le financement des projets d'IA était difficile à trouver.

Hans Moravec a imputé la crise aux prédictions irréalistes de ses collègues. "De nombreux chercheurs ont été pris dans une toile d'exagération croissante." Cependant, il y avait un autre problème : depuis l'adoption de l' amendement Mansfield en 1969, la DARPA avait subi une pression croissante pour financer « la recherche directe axée sur la mission, plutôt que la recherche fondamentale non dirigée ». Le financement de l'exploration créative et libre qui s'était déroulée dans les années 60 ne viendrait pas de la DARPA . Au lieu de cela, l'argent a été dirigé vers des projets spécifiques avec des objectifs clairs, tels que des chars autonomes et des systèmes de gestion de combat.

Critiques de tout le campus

Plusieurs philosophes avaient de fortes objections aux affirmations des chercheurs en IA. L'un des premiers était John Lucas , qui a soutenu que le théorème d'incomplétude de Gödel montrait qu'un système formel (comme un programme informatique) ne pouvait jamais voir la vérité de certaines déclarations, alors qu'un être humain le pouvait. Hubert Dreyfus a ridiculisé les promesses non tenues des années 1960 et a critiqué les hypothèses de l'IA, arguant que le raisonnement humain impliquait en réalité très peu de « traitement de symboles » et beaucoup de « savoir-faire » incarné , instinctif et inconscient . John Searle « s Chinese Room argument présenté en 1980, a tenté de montrer qu'un programme ne pouvait pas dire à « comprendre » les symboles qu'il utilise (une qualité appelée « intentionnalité »). Si les symboles n'ont aucune signification pour la machine, a fait valoir Searle, alors la machine ne peut pas être décrite comme « pensante ».

Ces critiques n'ont pas été prises au sérieux par les chercheurs en IA, souvent parce qu'elles semblaient si éloignées du sujet. Des problèmes tels que l' intraitabilité et les connaissances de bon sens semblaient beaucoup plus immédiats et graves. Il n'était pas clair quelle différence le « savoir-faire » ou « l' intentionnalité » faisait à un programme informatique réel. Minsky a dit de Dreyfus et de Searle "ils se méprennent et devraient être ignorés". Dreyfus, qui enseignait au MIT , a reçu une épaule froide : il a déclaré plus tard que les chercheurs en IA "n'osaient pas être vus en train de déjeuner avec moi". Joseph Weizenbaum , l'auteur d' ELIZA , a estimé que le traitement de Dreyfus par ses collègues n'était pas professionnel et enfantin. Bien qu'il ait été un critique franc des positions de Dreyfus, il "a délibérément clairement indiqué que la leur n'était pas la façon de traiter un être humain".

Weizenbaum a commencé à avoir de sérieux doutes éthiques sur l'IA lorsque Kenneth Colby a écrit un "programme informatique qui peut conduire un dialogue psychothérapeutique" basé sur ELIZA. Weizenbaum était troublé par le fait que Colby considérait un programme stupide comme un outil thérapeutique sérieux. Une querelle a commencé, et la situation n'a pas été aidée lorsque Colby n'a pas crédité Weizenbaum pour sa contribution au programme. En 1976, Weizenbaum a publié Computer Power and Human Reason, qui soutenait que l'utilisation abusive de l'intelligence artificielle a le potentiel de dévaluer la vie humaine.

Les perceptrons et l'attaque contre le connexionnisme

Un perceptron était une forme de réseau neuronal introduit en 1958 par Frank Rosenblatt , qui avait été un camarade de classe de Marvin Minsky à la Bronx High School of Science . Comme la plupart des chercheurs en IA, il était optimiste quant à leur pouvoir, prédisant que "perceptron pourrait éventuellement être capable d'apprendre, de prendre des décisions et de traduire des langues". Un programme de recherche actif sur le paradigme a été mené tout au long des années 1960, mais s'est soudainement arrêté avec la publication du livre Perceptrons de Minsky et Papert en 1969 . Cela suggérait qu'il y avait de sérieuses limitations à ce que les perceptrons pouvaient faire et que les prédictions de Frank Rosenblatt avaient été grossièrement exagérées. L'effet du livre a été dévastateur : pratiquement aucune recherche n'a été faite sur le connexionnisme pendant 10 ans. Finalement, une nouvelle génération de chercheurs relancerait le domaine et par la suite, il deviendrait une partie vitale et utile de l'intelligence artificielle. Rosenblatt ne vivra pas pour voir cela, car il est décédé dans un accident de bateau peu de temps après la publication du livre.

Raisonnement logique et symbolique : les « soignés »

La logique a été introduite dans la recherche sur l'IA dès 1959, par John McCarthy dans sa proposition Advice Taker . En 1963, J. Alan Robinson avait découvert une méthode simple pour implémenter la déduction sur ordinateur, l' algorithme de résolution et d' unification . Cependant, les implémentations simples, comme celles tentées par McCarthy et ses étudiants à la fin des années 1960, étaient particulièrement difficiles à résoudre : les programmes nécessitaient un nombre astronomique d'étapes pour prouver des théorèmes simples. Une approche plus fructueuse de la logique a été développée dans les années 1970 par Robert Kowalski à l' Université d'Edimbourg , et cela a rapidement conduit à la collaboration avec les chercheurs français Alain Colmerauer et Philippe Roussel qui ont créé le langage de programmation logique à succès Prolog . Prolog utilise un sous-ensemble de logique ( clauses de Horn , étroitement liées aux "règles" et aux " règles de production ") qui permettent un calcul traitable. Les règles continueraient à être influentes, fournissant une base pour les systèmes experts d' Edward Feigenbaum et le travail continu d' Allen Newell et Herbert A. Simon qui conduirait à Soar et à leurs théories unifiées de la cognition .

Les critiques de l'approche logique ont noté, comme l' avait fait Dreyfus , que les êtres humains utilisaient rarement la logique lorsqu'ils résolvaient des problèmes. Des expériences menées par des psychologues comme Peter Wason , Eleanor Rosch , Amos Tversky , Daniel Kahneman et d'autres en ont fourni la preuve. McCarthy a répondu que ce que les gens font n'est pas pertinent. Il a fait valoir que ce dont on a vraiment besoin, ce sont des machines capables de résoudre des problèmes, et non des machines qui pensent comme les gens.

Cadres et scripts : les « échauffourées »

Parmi les critiques de l' approche de McCarthy figuraient ses collègues du MIT à travers le pays . Marvin Minsky , Seymour Papert et Roger Schank essayaient de résoudre des problèmes tels que la "compréhension de l'histoire" et la "reconnaissance d'objets" qui nécessitaient qu'une machine pense comme une personne. Afin d'utiliser des concepts ordinaires comme « chaise » ou « restaurant », ils ont dû faire les mêmes hypothèses illogiques que les gens normalement. Malheureusement, des concepts imprécis comme ceux-ci sont difficiles à représenter en logique. Gerald Sussman a observé que "l'utilisation d'un langage précis pour décrire des concepts essentiellement imprécis ne les rend pas plus précis". Schank a décrit leurs approches « anti-logiques » comme « débraillées », par opposition aux paradigmes « soignés » utilisés par McCarthy , Kowalski , Feigenbaum , Newell et Simon .

En 1975, dans un article fondateur , Minsky a noté que beaucoup de ses collègues chercheurs « débraillés » utilisaient le même type d'outil : un cadre qui capture toutes nos hypothèses de bon sens sur quelque chose. Par exemple, si nous utilisons le concept d'oiseau, il y a une constellation de faits qui viennent immédiatement à l'esprit : nous pourrions supposer qu'il vole, mange des vers, etc. Nous savons que ces faits ne sont pas toujours vrais et que les déductions utilisant ces faits ne seront pas « logiques », mais ces ensembles structurés d'hypothèses font partie du contexte de tout ce que nous disons et pensons. Il appelait ces structures des « cadres ». Schank a utilisé une version de cadres qu'il a appelé " scripts " pour répondre avec succès aux questions sur les histoires courtes en anglais. De nombreuses années plus tard, la programmation orientée objet adopterait l'idée essentielle d'« héritage » de la recherche d'IA sur les cadres.

Boom 1980-1987

Dans les années 1980, une forme de programme d'IA appelé « systèmes experts » a été adoptée par des entreprises du monde entier et les connaissances sont devenues l'objet de la recherche traditionnelle sur l'IA. Au cours de ces mêmes années, le gouvernement japonais a financé de manière agressive l'IA avec son projet informatique de cinquième génération . Un autre événement encourageant au début des années 1980 a été le renouveau du connexionnisme dans les travaux de John Hopfield et David Rumelhart . Une fois de plus, l'IA a réussi.

L'essor des systèmes experts

Un système expert est un programme qui répond à des questions ou résout des problèmes concernant un domaine de connaissances spécifique, en utilisant des règles logiques dérivées des connaissances des experts. Les premiers exemples ont été développés par Edward Feigenbaum et ses étudiants. Dendral , commencé en 1965, a identifié des composés à partir de lectures de spectromètre. MYCIN , développé en 1972, a diagnostiqué des maladies infectieuses du sang. Ils ont démontré la faisabilité de l'approche.

Les systèmes experts se limitaient à un petit domaine de connaissances spécifiques (évitant ainsi le problème des connaissances de sens commun ) et leur conception simple rendait relativement facile la construction des programmes puis leur modification une fois qu'ils étaient en place. Dans l'ensemble, les programmes se sont avérés utiles : quelque chose que l'IA n'avait pas pu réaliser jusqu'à présent.

En 1980, un système expert appelé XCON a été achevé à la CMU pour Digital Equipment Corporation . Ce fut un énorme succès : cela permettait à l'entreprise d'économiser 40 millions de dollars par an en 1986. Les entreprises du monde entier ont commencé à développer et à déployer des systèmes experts et en 1985, elles dépensaient plus d'un milliard de dollars en IA, la plupart pour l'IA en interne. départements. Une industrie s'est développée pour les soutenir, notamment des sociétés de matériel informatique telles que Symbolics et Lisp Machines et des sociétés de logiciels telles qu'IntelliCorp et Aion .

La révolution du savoir

La puissance des systèmes experts provenait des connaissances spécialisées qu'ils contenaient. Ils faisaient partie d'une nouvelle direction dans la recherche sur l'IA qui avait gagné du terrain tout au long des années 70. "Les chercheurs en IA commençaient à soupçonner - à contrecœur, car cela violait le canon scientifique de la parcimonie - que l'intelligence pourrait très bien être basée sur la capacité d'utiliser de grandes quantités de connaissances diverses de différentes manières", écrit Pamela McCorduck . "[L]a grande leçon des années 1970 était que le comportement intelligent dépendait beaucoup de la gestion des connaissances, parfois des connaissances assez détaillées, d'un domaine où se trouvait une tâche donnée". Les systèmes basés sur les connaissances et l' ingénierie des connaissances sont devenus un axe majeur de la recherche en IA dans les années 1980.

Les années 1980 ont également vu la naissance de Cyc , la première tentative d'attaquer directement le problème de la connaissance du sens commun , en créant une base de données massive qui contiendrait tous les faits banals que la personne moyenne connaît. Douglas Lenat , qui a lancé et dirigé le projet, a soutenu qu'il n'y a pas de raccourci - la seule façon pour les machines de connaître le sens des concepts humains est de leur enseigner, un concept à la fois, à la main. Le projet ne devait pas être achevé avant plusieurs décennies.

Les programmes de jeu d'échecs HiTech et Deep Thought ont vaincu les maîtres d'échecs en 1989. Tous deux ont été développés par l'Université Carnegie Mellon ; Le développement de Deep Thought a ouvert la voie à Deep Blue .

L'argent revient : le projet de cinquième génération

En 1981, le ministère japonais du Commerce international et de l'Industrie a mis de côté 850 millions de dollars pour le projet informatique de cinquième génération . Leurs objectifs étaient d'écrire des programmes et de construire des machines capables de tenir des conversations, de traduire des langues, d'interpréter des images et de raisonner comme des êtres humains. Au grand dam des scruffies , ils ont choisi Prolog comme langage informatique principal pour le projet.

D'autres pays ont répondu avec de nouveaux programmes. Le Royaume-Uni a lancé le projet Alvey de 350 millions de livres sterling . Un consortium d'entreprises américaines a formé la Microelectronics and Computer Technology Corporation (ou "MCC") pour financer des projets à grande échelle dans les domaines de l'IA et des technologies de l'information. La DARPA a également réagi en fondant la Strategic Computing Initiative et en triplant son investissement dans l'IA entre 1984 et 1988.

Un réseau Hopfield à quatre nœuds.

Le renouveau du connexionnisme

En 1982, le physicien John Hopfield a pu prouver qu'une forme de réseau neuronal (maintenant appelé " réseau Hopfield ") pouvait apprendre et traiter l'information d'une manière complètement nouvelle. Vers la même époque, Geoffrey Hinton et David Rumelhart ont popularisé une méthode d'apprentissage des réseaux de neurones appelée « backpropagation », également connue sous le nom de mode inverse de différenciation automatique publiée par Seppo Linnainmaa (1970) et appliquée aux réseaux de neurones par Paul Werbos . Ces deux découvertes ont contribué à relancer le domaine du connexionnisme .

Le nouveau domaine a été unifié et inspiré par l'apparition de Parallel Distributed Processing en 1986, une collection de deux volumes d'articles édités par Rumelhart et le psychologue James McClelland . Les réseaux de neurones ont connu un succès commercial dans les années 1990, lorsqu'ils ont commencé à être utilisés comme moteurs de programmes tels que la reconnaissance optique de caractères et la reconnaissance vocale .

Le développement de l' intégration à très grande échelle (VLSI) métal-oxyde-semiconducteur (MOS) , sous la forme de la technologie complémentaire MOS ( CMOS ), a permis le développement de la technologie pratique des réseaux de neurones artificiels (ANN) dans les années 1980. Une publication historique dans le domaine était le livre de 1989 Analog VLSI Implementation of Neural Systems par Carver A. Mead et Mohammed Ismail.

Buste : le deuxième AI hiver 1987-1993

La fascination du monde des affaires pour l'IA a augmenté et diminué dans les années 1980 dans le modèle classique d'une bulle économique . L'effondrement était dû à l'échec des fournisseurs commerciaux à développer une grande variété de solutions viables. Comme des dizaines d'entreprises ont échoué, la perception était que la technologie n'était pas viable. Cependant, le domaine a continué à progresser malgré les critiques. De nombreux chercheurs, dont les développeurs en robotique Rodney Brooks et Hans Moravec , ont plaidé en faveur d'une toute nouvelle approche de l'intelligence artificielle.

hiver IA

Le terme « hiver de l'IA » a été inventé par des chercheurs qui avaient survécu aux réductions de financement de 1974 lorsqu'ils se sont inquiétés du fait que l'enthousiasme pour les systèmes experts était devenu incontrôlable et que la déception s'ensuivrait certainement. Leurs craintes étaient fondées : à la fin des années 80 et au début des années 90, l'IA a subi une série de revers financiers.

La première indication d'un changement climatique a été l'effondrement soudain du marché du matériel d'IA spécialisé en 1987. Les ordinateurs de bureau d' Apple et d' IBM n'avaient cessé de gagner en vitesse et en puissance et, en 1987, ils sont devenus plus puissants que les machines Lisp plus chères fabriquées par Symbolique et autres. Il n'y avait plus de bonnes raisons de les acheter. Une industrie entière d'une valeur d'un demi-milliard de dollars a été démolie du jour au lendemain.

Finalement, les premiers systèmes experts à succès, tels que XCON , se sont avérés trop coûteux à entretenir. Ils étaient difficiles à mettre à jour, ils ne pouvaient pas apprendre, ils étaient « cassants » (c'est-à-dire qu'ils pouvaient faire des erreurs grotesques lorsqu'on leur donnait des informations inhabituelles), et ils étaient la proie de problèmes (comme le problème de qualification ) qui avaient été identifiés des années plus tôt. Les systèmes experts se sont avérés utiles, mais seulement dans quelques contextes particuliers.

À la fin des années 1980, la Strategic Computing Initiative a réduit le financement de l'IA "profondément et brutalement". La nouvelle direction de la DARPA avait décidé que l'IA n'était pas "la prochaine vague" et a orienté les fonds vers des projets qui semblaient plus susceptibles de produire des résultats immédiats.

En 1991, la liste impressionnante d'objectifs écrits en 1981 pour le projet de cinquième génération du Japon n'avait pas été atteint. En effet, certains d'entre eux, comme « continuer une conversation informelle » n'avaient pas été atteints en 2010. Comme pour d'autres projets d'IA, les attentes étaient bien plus élevées que ce qui était réellement possible.

Plus de 300 sociétés d'IA avaient fermé, fait faillite ou avaient été acquises à la fin de 1993, mettant ainsi fin à la première vague commerciale d'IA.

Nouvelle IA et raison incarnée

À la fin des années 1980, plusieurs chercheurs ont préconisé une toute nouvelle approche de l'intelligence artificielle, basée sur la robotique. Ils croyaient que, pour montrer une réelle intelligence, une machine doit avoir un corps - elle doit percevoir, bouger, survivre et faire face au monde. Ils ont fait valoir que ces compétences sensorimotrices sont essentielles aux compétences de niveau supérieur comme le raisonnement de bon sens et que le raisonnement abstrait était en fait la compétence humaine la moins intéressante ou la moins importante (voir le paradoxe de Moravec ). Ils ont préconisé la construction de l'intelligence « de bas en haut ».

L'approche a ravivé les idées de la cybernétique et de la théorie du contrôle qui étaient impopulaires depuis les années soixante. Un autre précurseur était David Marr , qui était venu au MIT à la fin des années 1970 d'une expérience réussie en neurosciences théoriques pour diriger le groupe d'étude de la vision . Il a rejeté toutes les approches symboliques (à la fois la logique de McCarthy et les cadres de Minsky ), arguant que l'IA devait comprendre la machinerie physique de la vision de bas en haut avant tout traitement symbolique. (Le travail de Marr sera interrompu par la leucémie en 1980.)

Dans un article de 1990, "Les éléphants ne jouent pas aux échecs", le chercheur en robotique Rodney Brooks s'est directement penché sur l' hypothèse du système de symboles physiques , affirmant que les symboles ne sont pas toujours nécessaires car "le monde est son meilleur modèle. Il est toujours exactement à la hauteur. à ce jour. Il a toujours tous les détails à connaître. L'astuce est de le sentir de manière appropriée et assez souvent. " Dans les années 1980 et 1990, de nombreux scientifiques cognitifs ont également rejeté le modèle de traitement des symboles de l'esprit et ont fait valoir que le corps était essentiel au raisonnement, une théorie appelée thèse de l' esprit incarné .

IA 1993-2011

Le domaine de l'IA, maintenant vieux de plus d'un demi-siècle, a finalement atteint certains de ses objectifs les plus anciens. Il a commencé à être utilisé avec succès dans l'ensemble de l'industrie technologique, bien qu'un peu dans les coulisses. Une partie du succès était due à l'augmentation de la puissance informatique et une autre a été obtenue en se concentrant sur des problèmes isolés spécifiques et en les poursuivant avec les normes les plus élevées de responsabilité scientifique. Pourtant, la réputation de l'IA, du moins dans le monde des affaires, était loin d'être vierge. À l'intérieur du domaine, il y avait peu d'accord sur les raisons de l'échec de l'IA à réaliser le rêve d'une intelligence au niveau humain qui avait capturé l'imagination du monde dans les années 1960. Ensemble, tous ces facteurs ont contribué à fragmenter l'IA en sous-domaines concurrents axés sur des problèmes ou des approches particuliers, parfois même sous de nouveaux noms qui masquaient le pedigree terni de « l'intelligence artificielle ». L'IA était à la fois plus prudente et plus efficace qu'elle ne l'avait jamais été.

Jalons et loi de Moore

Le 11 mai 1997, Deep Blue est devenu le premier système informatique de jeu d'échecs à battre un champion du monde en titre, Garry Kasparov . Le super ordinateur était une version spécialisée d'un framework produit par IBM et était capable de traiter deux fois plus de mouvements par seconde que lors du premier match (que Deep Blue avait perdu), soit 200 000 000 de mouvements par seconde. L'événement a été diffusé en direct sur Internet et a reçu plus de 74 millions de visites.

En 2005, un robot de Stanford a remporté le DARPA Grand Challenge en conduisant de manière autonome sur 131 miles le long d'un sentier désertique non répété. Deux ans plus tard, une équipe de CMU a remporté le DARPA Urban Challenge en parcourant de manière autonome 55 miles dans un environnement urbain tout en respectant les dangers de la circulation et tous les codes de la route. En février 2011, dans un Jeopardy! quiz show match d'exhibition , système de réponse aux questions d' IBM , Watson , a vaincu les deux plus grands Jeopardy ! champions, Brad Rutter et Ken Jennings , par une marge significative.

Ces succès n'étaient pas dus à un nouveau paradigme révolutionnaire, mais principalement à l'application fastidieuse de compétences en ingénierie et à l'énorme augmentation de la vitesse et de la capacité des ordinateurs dans les années 90. En fait, l' ordinateur de Deep Blue était 10 millions de fois plus rapide que le Ferranti Mark 1 que Christopher Strachey a appris à jouer aux échecs en 1951. Cette augmentation spectaculaire est mesurée par la loi de Moore , qui prédit que la vitesse et la capacité de mémoire des ordinateurs double tous les deux ans, en raison du nombre de transistors métal-oxyde-semiconducteur (MOS) doublant tous les deux ans. Le problème fondamental de la "puissance informatique brute" était lentement surmonté.

Agents intelligents

Un nouveau paradigme appelé « agents intelligents » est devenu largement accepté au cours des années 1990. Bien que des chercheurs antérieurs aient proposé des approches modulaires "diviser pour régner" à l'IA, l' agent intelligent n'a pas atteint sa forme moderne jusqu'à ce que Judea Pearl , Allen Newell , Leslie P. Kaelbling et d'autres introduisent des concepts de la théorie de la décision et de l'économie dans l'étude de l'IA. . Lorsque la définition de l' économiste d'un agent rationnel était mariée à la définition informatique d'un objet ou d'un module , le paradigme de l' agent intelligent était complet.

Un agent intelligent est un système qui perçoit son environnement et prend des mesures qui maximisent ses chances de succès. Selon cette définition, les programmes simples qui résolvent des problèmes spécifiques sont des "agents intelligents", tout comme les êtres humains et les organisations d'êtres humains, telles que les entreprises . Le paradigme de l'agent intelligent définit la recherche en IA comme « l'étude des agents intelligents ». Il s'agit d'une généralisation de certaines définitions antérieures de l'IA : elle va au-delà de l'étude de l'intelligence humaine ; il étudie toutes sortes d'intelligence.

Le paradigme a permis aux chercheurs d'étudier des problèmes isolés et de trouver des solutions à la fois vérifiables et utiles. Il a fourni un langage commun pour décrire les problèmes et partager leurs solutions les uns avec les autres, et avec d'autres domaines qui ont également utilisé des concepts d'agents abstraits, comme l'économie et la théorie du contrôle . On espérait qu'une architecture d'agent complète (comme le SOAR de Newell ) permettrait un jour aux chercheurs de construire des systèmes plus polyvalents et intelligents à partir d' agents intelligents en interaction .

La "victoire des nets"

Les chercheurs en IA ont commencé à développer et à utiliser des outils mathématiques sophistiqués plus qu'ils ne l'avaient jamais fait par le passé. Il y avait une prise de conscience générale que de nombreux problèmes que l'IA devait résoudre étaient déjà traités par des chercheurs dans des domaines comme les mathématiques , le génie électrique , l' économie ou la recherche opérationnelle . Le langage mathématique partagé a permis à la fois un niveau plus élevé de collaboration avec des domaines plus établis et couronnés de succès et l'obtention de résultats mesurables et démontrables ; L'IA était devenue une discipline "scientifique" plus rigoureuse. Russell & Norvig (2003) décrivent cela comme rien de moins qu'une « révolution » et « la victoire des nets ».

Le livre influent de Judea Pearl de 1988 a introduit la théorie des probabilités et de la décision dans l'IA. Parmi les nombreux nouveaux outils utilisés figuraient les réseaux bayésiens , les modèles de Markov cachés , la théorie de l'information , la modélisation stochastique et l' optimisation classique . Des descriptions mathématiques précises ont également été développées pour des paradigmes d'« intelligence computationnelle » comme les réseaux neuronaux et les algorithmes évolutionnaires .

L'IA dans les coulisses

Les algorithmes développés à l'origine par les chercheurs en IA ont commencé à apparaître comme faisant partie de systèmes plus vastes. L'IA avait résolu de nombreux problèmes très difficiles et leurs solutions se sont avérées utiles dans l'ensemble de l'industrie technologique, telles que l'exploration de données , la robotique industrielle , la logistique, la reconnaissance vocale , les logiciels bancaires, le diagnostic médical et le moteur de recherche de Google .

Le domaine de l'IA a reçu peu ou pas de crédit pour ces succès dans les années 1990 et au début des années 2000. Bon nombre des plus grandes innovations de l'IA ont été réduites au statut de simple élément de plus dans la boîte à outils de l'informatique. Nick Bostrom explique "Beaucoup d'IA de pointe ont filtré dans des applications générales, souvent sans s'appeler IA car une fois que quelque chose devient suffisamment utile et assez commun, il n'est plus étiqueté IA."

De nombreux chercheurs en IA dans les années 1990 ont délibérément appelé leur travail par d'autres noms, tels que l' informatique , les systèmes basés sur la connaissance , les systèmes cognitifs ou l' intelligence informatique . Cela s'explique peut-être en partie par le fait qu'ils considéraient leur domaine comme fondamentalement différent de l'IA, mais les nouveaux noms contribuent également à l'obtention de financement. Dans le monde commercial du moins, les promesses non tenues de l' IA Winter ont continué de hanter la recherche sur l'IA dans les années 2000, comme l'a rapporté le New York Times en 2005 : -des rêveurs aux yeux."

Prédictions (ou "Où est HAL 9000 ?")

En 1968, Arthur C. Clarke et Stanley Kubrick avaient imaginé que, d'ici l'an 2001 , une machine existerait avec une intelligence égale ou supérieure aux capacités des êtres humains. Le personnage qu'ils ont créé, HAL 9000 , était basé sur la conviction partagée par de nombreux chercheurs de premier plan en IA qu'une telle machine existerait d'ici l'an 2001.

En 2001, le fondateur de l'IA, Marvin Minsky, a demandé : « La question est donc de savoir pourquoi n'avons-nous pas obtenu HAL en 2001 ? » Minsky pensait que la réponse était que les problèmes centraux, comme le raisonnement de bon sens , étaient négligés, tandis que la plupart des chercheurs poursuivaient des choses comme les applications commerciales des réseaux neuronaux ou des algorithmes génétiques . John McCarthy , d'autre part, a toujours blâmé le problème de qualification . Pour Ray Kurzweil , le problème est la puissance informatique et, en utilisant la loi de Moore , il a prédit que des machines dotées d'une intelligence de niveau humain apparaîtront d'ici 2029. Jeff Hawkins a fait valoir que la recherche sur les réseaux neuronaux ignore les propriétés essentielles du cortex humain , préférant des modèles simples qui ont réussi à résoudre des problèmes simples. Il y avait beaucoup d'autres explications et pour chacune il y avait un programme de recherche correspondant en cours.

Apprentissage profond, mégadonnées et intelligence artificielle générale : 2011 à aujourd'hui

Au cours des premières décennies du 21e siècle, l'accès à de grandes quantités de données (appelées « big data »), des ordinateurs moins chers et plus rapides et des techniques avancées d' apprentissage automatique ont été appliqués avec succès à de nombreux problèmes dans l'ensemble de l'économie. En fait, le McKinsey Global Institute a estimé dans son célèbre article "Big data: The next frontier for innovation, competition, and productivité" que "en 2009, presque tous les secteurs de l'économie américaine disposaient d'au moins 200 téraoctets de données stockées en moyenne". .

En 2016, le marché des produits, du matériel et des logiciels liés à l'IA a atteint plus de 8 milliards de dollars, et le New York Times a rapporté que l'intérêt pour l'IA avait atteint une « frénésie ». Les applications des mégadonnées ont également commencé à s'étendre à d'autres domaines, tels que les modèles de formation en écologie et pour diverses applications en économie . Les progrès de l'apprentissage en profondeur (en particulier les réseaux de neurones convolutifs profonds et les réseaux de neurones récurrents ) ont conduit au progrès et à la recherche dans le traitement d'images et de vidéos, l'analyse de texte et même la reconnaissance vocale.

L'apprentissage en profondeur

L'apprentissage en profondeur est une branche de l'apprentissage automatique qui modélise des abstractions de haut niveau dans les données en utilisant un graphique profond avec de nombreuses couches de traitement. Selon le théorème d'approximation universel , la profondeur n'est pas nécessaire pour qu'un réseau de neurones puisse approximer des fonctions continues arbitraires. Même ainsi, il existe de nombreux problèmes communs aux réseaux peu profonds (comme le surapprentissage ) que les réseaux profonds aident à éviter. En tant que tels, les réseaux de neurones profonds sont capables de générer de manière réaliste des modèles beaucoup plus complexes que leurs homologues peu profonds.

Cependant, l'apprentissage en profondeur a ses propres problèmes. Un problème courant pour les réseaux de neurones récurrents est le problème du gradient de fuite , où les gradients passés entre les couches rétrécissent progressivement et disparaissent littéralement à mesure qu'ils sont arrondis à zéro. De nombreuses méthodes ont été développées pour aborder ce problème, telles que les unités de mémoire à long terme .

Les architectures de réseau de neurones profonds à la pointe de la technologie peuvent parfois même rivaliser avec la précision humaine dans des domaines tels que la vision par ordinateur, en particulier sur des éléments tels que la base de données MNIST et la reconnaissance des panneaux de signalisation.

Les moteurs de traitement du langage alimentés par des moteurs de recherche intelligents peuvent facilement battre les humains pour répondre à des questions générales (comme IBM Watson ), et les récents développements en apprentissage en profondeur ont produit des résultats étonnants en concurrence avec les humains, dans des choses comme Go et Doom (qui, étant un jeu de tir à la première personne , a suscité une certaine controverse).

Big Data

Les mégadonnées font référence à une collection de données qui ne peuvent pas être capturées, gérées et traitées par des outils logiciels conventionnels dans un certain laps de temps. Il s'agit d'une quantité massive de capacités de prise de décision, d'analyse et d'optimisation des processus qui nécessitent de nouveaux modèles de traitement. Dans l'ère des mégadonnées écrites par Victor Meyer Schonberg et Kenneth Cooke , les mégadonnées signifient qu'au lieu d'une analyse aléatoire (enquête par échantillon), toutes les données sont utilisées pour l'analyse. Les caractéristiques 5V du big data (proposées par IBM) : Volume , Velocity , Variety , Value , Veracity . L'importance stratégique de la technologie des mégadonnées n'est pas de maîtriser d'énormes informations de données, mais de se spécialiser dans ces données significatives. En d'autres termes, si le big data est assimilé à une industrie, la clé pour réaliser la rentabilité dans cette industrie est d'augmenter la « capacité de processus » des données et de réaliser la « valeur ajoutée » des données grâce au « traitement ».

Intelligence artificielle générale

L'intelligence générale est la capacité de résoudre n'importe quel problème, plutôt que de trouver une solution à un problème particulier. L'intelligence artificielle générale (ou "AGI") est un programme qui peut appliquer l'intelligence à une grande variété de problèmes, à peu près de la même manière que les humains.

Ben Goertzel et d'autres ont fait valoir au début des années 2000 que la recherche en IA avait largement abandonné l'objectif initial du domaine de créer une intelligence générale artificielle. La recherche AGI a été fondée en tant que sous-domaine distinct et, en 2010, il y avait des conférences universitaires, des laboratoires et des cours universitaires dédiés à la recherche AGI, ainsi que des consortiums privés et de nouvelles entreprises.

L'intelligence artificielle générale est également appelée « IA forte », « IA complète » ou intelligence synthétique par opposition à « IA faible » ou « IA étroite ». (Les sources universitaires réservent « IA forte » pour désigner des machines capables d'expérimenter la conscience.)

Voir également

Remarques

Les références