AI hiver - AI winter

Dans l' histoire de l'intelligence artificielle , un hiver d'IA est une période de financement et d'intérêt réduits pour la recherche en intelligence artificielle . Le terme a été inventé par analogie avec l'idée d'un hiver nucléaire . Le domaine a connu plusieurs cycles de battage médiatique , suivis de déceptions et de critiques, suivis de réductions de financement, suivis d'un regain d'intérêt des années ou des décennies plus tard.

Le terme est apparu pour la première fois en 1984 comme sujet d'un débat public lors de la réunion annuelle de l' AAAI (alors appelée « American Association of Artificial Intelligence »). C'est une réaction en chaîne qui commence par le pessimisme dans la communauté de l'IA, suivi par le pessimisme dans la presse, suivi d'une sévère réduction du financement, suivi de la fin de la recherche sérieuse. Lors de la réunion, Roger Schank et Marvin Minsky – deux chercheurs de premier plan en IA qui ont survécu à « l'hiver » des années 1970 – ont averti le monde des affaires que l'enthousiasme pour l'IA était devenu incontrôlable dans les années 1980 et que la déception s'ensuivrait certainement. Trois ans plus tard, l'industrie de l'IA d'un milliard de dollars a commencé à s'effondrer.

Le battage médiatique est courant dans de nombreuses technologies émergentes, telles que la folie ferroviaire ou la bulle Internet . L'hiver de l'IA était le résultat d'un tel battage médiatique, en raison de promesses exagérées des développeurs, d'attentes anormalement élevées de la part des utilisateurs finaux et d'une large promotion dans les médias. Malgré la montée et la chute de la réputation de l'IA, elle a continué à développer de nouvelles technologies à succès. Le chercheur en IA Rodney Brooks se plaignait en 2002 qu'« il existe ce mythe stupide selon lequel l'IA a échoué, mais l'IA est autour de vous à chaque seconde de la journée ». En 2005, Ray Kurzweil était d'accord : « De nombreux observateurs pensent encore que l'hiver de l'IA était la fin de l'histoire et que rien depuis n'est venu du domaine de l'IA. Pourtant, aujourd'hui, des milliers d'applications d'IA sont profondément ancrées dans l'infrastructure de chaque industrie. "

L'enthousiasme et l'optimisme à l'égard de l'IA ont généralement augmenté depuis son creux du début des années 90. À partir de 2012, l'intérêt pour l'intelligence artificielle (et en particulier le sous-domaine de l'apprentissage automatique ) de la part des communautés de la recherche et des entreprises a conduit à une augmentation spectaculaire du financement et des investissements.

Aperçu

Il y a eu deux hivers majeurs en 1974-1980 et 1987-1993 et ​​plusieurs épisodes plus petits, dont les suivants :

Premiers épisodes

La traduction automatique et le rapport ALPAC de 1966

Pendant la guerre froide , le gouvernement américain s'intéressait particulièrement à la traduction automatique et instantanée des documents et rapports scientifiques russes. Le gouvernement a soutenu agressivement les efforts de traduction automatique à partir de 1954. Au départ, les chercheurs étaient optimistes. Le nouveau travail de Noam Chomsky en grammaire rationalisait le processus de traduction et il y avait « de nombreuses prédictions de « percées » imminentes ».

Briefing pour le vice-président américain Gerald Ford en 1973 sur le modèle de traduction informatique basé sur la jonction grammaticale

Cependant, les chercheurs avaient sous-estimé la difficulté profonde de la désambiguïsation du sens des mots . Pour traduire une phrase, une machine avait besoin d'avoir une idée de ce dont il s'agissait, sinon elle commettait des erreurs. Un exemple apocryphe est "l'esprit est disposé mais la chair est faible". Traduit dans les deux sens avec le russe, il est devenu "la vodka est bonne mais la viande est pourrie". Les chercheurs ultérieurs appelleraient cela le problème de la connaissance du sens commun .

En 1964, le Conseil national de recherches s'est inquiété du manque de progrès et a formé le Comité consultatif sur le traitement automatique des langues ( ALPAC ) pour examiner le problème. Ils ont conclu, dans un célèbre rapport de 1966, que la traduction automatique était plus chère, moins précise et plus lente que la traduction humaine. Après avoir dépensé quelque 20 millions de dollars, le NRC a mis fin à tout soutien. Des carrières ont été détruites et la recherche a pris fin.

La traduction automatique reste un problème de recherche ouvert au XXIe siècle, qui rencontre un certain succès ( Google Translate , Yahoo Babel Fish ).

L'abandon du connexionnisme en 1969

Certains des premiers travaux en IA utilisaient des réseaux ou des circuits d'unités connectées pour simuler un comportement intelligent. Des exemples de ce genre de travail, appelé « connexionnisme », incluent la première description de Walter Pitts et Warren McCulloch d'un réseau de neurones pour la logique et les travaux de Marvin Minsky sur le système SNARC . À la fin des années 1950, la plupart de ces approches ont été abandonnées lorsque les chercheurs ont commencé à explorer le raisonnement symbolique comme l'essence de l'intelligence, suite au succès de programmes comme le Logic Theorist et le General Problem Solver .

Cependant, un type de travail connexionniste s'est poursuivi : l'étude des perceptrons , inventée par Frank Rosenblatt, qui a maintenu le domaine en vie grâce à son art de la vente et à la force de sa personnalité. Il a prédit avec optimisme que le perceptron « pourrait éventuellement être capable d'apprendre, de prendre des décisions et de traduire des langues ». La recherche traditionnelle sur les perceptrons a pris fin brutalement en 1969, lorsque Marvin Minsky et Seymour Papert ont publié le livre Perceptrons , qui était perçu comme décrivant les limites de ce que les perceptrons pouvaient faire.

Les approches connexionnistes ont été abandonnées au cours de la décennie suivante. Alors que des travaux importants, tels que la découverte de la rétropropagation par Paul Werbos , se sont poursuivis de manière limitée, un financement majeur pour des projets connexionnistes était difficile à trouver dans les années 1970 et au début des années 1980. L'« hiver » de la recherche connexionniste a pris fin au milieu des années 1980, lorsque les travaux de John Hopfield , David Rumelhart et d'autres ont ravivé l'intérêt à grande échelle pour les réseaux de neurones. Rosenblatt n'a pas vécu pour voir cela, cependant, car il est décédé dans un accident de bateau peu de temps après la publication de Perceptrons .

Les revers de 1974

Le rapport Lighthill

En 1973, le Parlement britannique a demandé au professeur Sir James Lighthill d'évaluer l'état de la recherche en IA au Royaume-Uni. Son rapport, désormais appelé rapport Lighthill, critiquait l'échec total de l'IA à atteindre ses "objectifs grandioses". Il a conclu que rien de ce qui était fait en IA ne pouvait être fait dans d'autres sciences. Il a spécifiquement mentionné le problème de « l' explosion combinatoire » ou « l' intraitabilité », ce qui impliquait que bon nombre des algorithmes les plus performants de l'IA s'arrêteraient sur des problèmes du monde réel et ne conviendraient qu'à la résolution de versions « jouets ».

Le rapport a été contesté dans un débat diffusé dans la série "Controversy" de la BBC en 1973. Le débat "Le robot à usage général est un mirage" de la Royal Institution était Lighthill contre l'équipe de Donald Michie , John McCarthy et Richard Gregory . McCarthy a écrit plus tard que « le problème de l'explosion combinatoire a été reconnu dans l'IA depuis le début ».

Le rapport a conduit au démantèlement complet de la recherche sur l'IA en Angleterre. La recherche sur l'IA s'est poursuivie dans quelques universités seulement (Édimbourg, Essex et Sussex). La recherche n'a repris à grande échelle qu'en 1983, lorsque Alvey (un projet de recherche du gouvernement britannique) a recommencé à financer l'IA à partir d'un trésor de guerre de 350 millions de livres sterling en réponse au projet japonais de cinquième génération (voir ci-dessous). Alvey avait un certain nombre d'exigences uniquement au Royaume-Uni qui ne satisfaisaient pas bien à l'échelle internationale, en particulier avec les partenaires américains, et a perdu le financement de la phase 2.

Les coupes budgétaires de la DARPA au début des années 1970

Au cours des années 1960, la Defense Advanced Research Projects Agency (alors connue sous le nom d'"ARPA", maintenant connue sous le nom de "DARPA") a fourni des millions de dollars pour la recherche sur l'IA avec peu de conditions. JCR Licklider , le directeur fondateur de la division informatique de la DARPA, croyait au "financement des gens, pas des projets" et lui et plusieurs successeurs ont permis aux dirigeants d'IA (tels que Marvin Minsky , John McCarthy, Herbert A. Simon ou Allen Newell ) de le dépenser presque n'importe où. comme ils l'aimaient.

Cette attitude a changé après l'adoption de l' amendement Mansfield en 1969, qui obligeait la DARPA à financer « la recherche directe axée sur la mission, plutôt que la recherche fondamentale non dirigée ». Les recherches purement non dirigées du type de celles qui avaient eu lieu dans les années 1960 ne seraient plus financées par la DARPA. Les chercheurs devaient maintenant montrer que leur travail produirait bientôt une technologie militaire utile. Les propositions de recherche sur l'IA ont été tenues à un niveau très élevé. La situation n'a pas été aidée lorsque le rapport Lighthill et la propre étude de la DARPA (l' American Study Group ) ont suggéré que la plupart des recherches sur l'IA étaient peu susceptibles de produire quelque chose de vraiment utile dans un avenir prévisible. L'argent de la DARPA était destiné à des projets spécifiques avec des objectifs identifiables, tels que des chars autonomes et des systèmes de gestion de combat. En 1974, le financement des projets d'IA était difficile à trouver.

Le chercheur en IA Hans Moravec a imputé la crise aux prédictions irréalistes de ses collègues : « De nombreux chercheurs ont été pris dans une toile d'exagération croissante. Leurs promesses initiales à la DARPA étaient beaucoup trop optimistes. . Mais ils pensaient qu'ils ne pouvaient pas dans leur prochaine proposition promettre moins que dans la première, alors ils ont promis plus." Le résultat, selon Moravec, est que certains membres du personnel de la DARPA ont perdu patience avec la recherche sur l'IA. "Il a été littéralement dit à la DARPA que" certaines de ces personnes allaient recevoir une leçon [en] ayant leurs contrats de deux millions de dollars par an réduits à presque rien ! "", a déclaré Moravec à Daniel Crevier .

Alors que le projet de char autonome était un échec, le système de gestion de combat (l' outil d'analyse et de replanification dynamique ) s'est avéré un énorme succès, économisant des milliards lors de la première guerre du Golfe , remboursant tous les investissements de la DARPA dans l'IA et justifiant la politique pragmatique de la DARPA.

La débâcle de SUR

La DARPA a été profondément déçue par les chercheurs travaillant sur le programme de recherche sur la compréhension de la parole à l'Université Carnegie Mellon. La DARPA avait espéré, et estimé qu'elle avait été promise, un système qui pourrait répondre aux commandes vocales d'un pilote. L'équipe SUR avait développé un système qui pouvait reconnaître l'anglais parlé, mais seulement si les mots étaient prononcés dans un ordre particulier . La DARPA a estimé qu'elle avait été dupée et, en 1974, ils ont annulé un contrat de trois millions de dollars par an.

De nombreuses années plus tard, plusieurs systèmes de reconnaissance vocale commerciaux à succès utiliseraient la technologie développée par l'équipe de Carnegie Mellon (comme les modèles Markov cachés ) et le marché des systèmes de reconnaissance vocale atteindrait 4 milliards de dollars en 2001.

Les déboires de la fin des années 80 et du début des années 90

L'effondrement du marché des machines LISP

Dans les années 1980, une forme de programme d'IA appelée « système expert » a été adoptée par des entreprises du monde entier. Le premier système expert commercial était XCON , développé à Carnegie Mellon pour Digital Equipment Corporation , et ce fut un énorme succès : on estimait qu'il avait permis à l'entreprise d'économiser 40 millions de dollars en seulement six ans d'exploitation. Des entreprises du monde entier ont commencé à développer et à déployer des systèmes experts et, en 1985, elles dépensaient plus d'un milliard de dollars en IA, la plupart dans des départements internes d'IA. Une industrie s'est développée pour les soutenir, y compris des sociétés de logiciels comme Teknowledge et Intellicorp (KEE) , et des sociétés de matériel informatique comme Symbolics et LISP Machines Inc. qui ont construit des ordinateurs spécialisés, appelés machines LISP , qui ont été optimisés pour traiter le langage de programmation LISP , le préféré langage pour l'IA.

En 1987, trois ans après la prédiction de Minsky et Schank , le marché du matériel d'IA spécialisé basé sur LISP s'est effondré. Les postes de travail d'entreprises comme Sun Microsystems offraient une alternative puissante aux machines LISP et des entreprises comme Lucid offraient un environnement LISP pour cette nouvelle classe de postes de travail. La performance de ces postes de travail généralistes est devenue un défi de plus en plus difficile pour LISP Machines. Des sociétés comme Lucid et Franz LISP proposaient des versions de plus en plus puissantes de LISP qui étaient portables sur tous les systèmes UNIX. Par exemple, des benchmarks ont été publiés montrant que les stations de travail conservent un avantage de performance par rapport aux machines LISP. Les ordinateurs de bureau ultérieurs construits par Apple et IBM offriraient également une architecture plus simple et plus populaire pour exécuter des applications LISP. En 1987, certains d'entre eux étaient devenus aussi puissants que les machines LISP plus chères. Les ordinateurs de bureau disposaient de moteurs basés sur des règles tels que CLIPS . Ces alternatives n'ont laissé aux consommateurs aucune raison d'acheter une machine coûteuse spécialisée pour exécuter LISP. Une industrie entière d'une valeur d'un demi-milliard de dollars a été remplacée en une seule année.

Au début des années 1990, la plupart des sociétés LISP commerciales avaient échoué, notamment Symbolics, LISP Machines Inc., Lucid Inc., etc. D'autres sociétés, comme Texas Instruments et Xerox , ont abandonné le domaine. Un petit nombre d'entreprises clientes (c'est-à-dire des entreprises utilisant des systèmes écrits en LISP et développés sur des plates-formes de machines LISP) ont continué à maintenir des systèmes. Dans certains cas, cette maintenance impliquait la prise en charge des travaux d'accompagnement qui en découlent.

Ralentissement du déploiement des systèmes experts

Au début des années 1990, les premiers systèmes experts à succès, tels que XCON, se sont avérés trop coûteux à entretenir. Ils étaient difficiles à mettre à jour, ils ne pouvaient pas apprendre, ils étaient « fragiles » (c'est-à-dire qu'ils pouvaient faire des erreurs grotesques lorsqu'on leur donnait des informations inhabituelles), et ils étaient la proie de problèmes (comme le problème de qualification ) qui avaient été identifiés des années plus tôt dans recherche en logique non monotone . Les systèmes experts se sont avérés utiles, mais seulement dans quelques contextes particuliers. Un autre problème concernait la dureté de calcul des efforts de maintien de la vérité pour les connaissances générales. KEE a utilisé une approche basée sur des hypothèses (voir NASA, TEXSYS ) prenant en charge des scénarios multi- mondes difficiles à comprendre et à appliquer.

Les quelques sociétés coquilles de systèmes experts restantes ont finalement été contraintes de réduire leurs effectifs et de rechercher de nouveaux marchés et paradigmes logiciels, comme le raisonnement basé sur des cas ou l' accès universel aux bases de données . La maturation de Common Lisp a sauvé de nombreux systèmes tels que l' ICAD qui a trouvé une application dans l' ingénierie basée sur la connaissance . D'autres systèmes, tels que le KEE d'Intellicorp, sont passés de LISP à une version C++ (variante) sur PC et ont aidé à établir une technologie orientée objet (notamment en fournissant un support majeur pour le développement d' UML (voir Partenaires UML ).

La fin du projet de cinquième génération

En 1981, le ministère japonais du Commerce international et de l'Industrie a mis de côté 850 millions de dollars pour le projet informatique de cinquième génération . Leurs objectifs étaient d'écrire des programmes et de construire des machines capables de tenir des conversations, de traduire des langues, d'interpréter des images et de raisonner comme des êtres humains. En 1991, la liste impressionnante d'objectifs écrits en 1981 n'avait pas été atteinte. Selon HP Newquist dans The Brain Makers , "Le 1er juin 1992, le projet de cinquième génération s'est terminé non pas par un rugissement réussi, mais par un gémissement." Comme pour d'autres projets d'IA, les attentes étaient beaucoup plus élevées que ce qui était réellement possible.

Réductions de l'Initiative informatique stratégique

En 1983, en réponse au projet de cinquième génération, la DARPA a recommencé à financer la recherche sur l'IA par le biais de la Strategic Computing Initiative. Comme initialement proposé, le projet commencerait par des objectifs pratiques et réalisables, qui incluaient même l'intelligence artificielle générale comme objectif à long terme. Le programme était placé sous la direction de l' Information Processing Technology Office (IPTO) et visait également le calcul intensif et la microélectronique . En 1985, il avait dépensé 100 millions de dollars et 92 projets étaient en cours dans 60 institutions, la moitié dans l'industrie, la moitié dans les universités et les laboratoires gouvernementaux. La recherche en IA a été généreusement financée par le SCI.

Jack Schwarz, qui a accédé à la direction de l'IPTO en 1987, a qualifié les systèmes experts de "programmation intelligente" et a réduit le financement de l'IA "profondément et brutalement", "éviscérant" la SCI. Schwarz a estimé que la DARPA devrait concentrer son financement que sur les technologies qui ont montré la plus prometteuse, selon ses termes, la DARPA devrait « surfer », plutôt que « paddle chien », et il se sentait fortement l' IA était pas « la prochaine vague ». Les initiés du programme ont évoqué des problèmes de communication, d'organisation et d'intégration. Quelques projets ont survécu aux coupures de financement, notamment un assistant de pilote et un véhicule terrestre autonome (qui n'ont jamais été livrés) et le système de gestion de combat DART, qui (comme indiqué ci-dessus) a été un succès.

Développements post-IA hiver

Une enquête sur les rapports du début des années 2000 suggère que la réputation de l'IA était encore loin d'être excellente :

  • Alex Castro, cité dans The Economist , 7 juin 2007 : « [Les investisseurs] ont été rebutés par le terme « reconnaissance vocale » qui, comme « l'intelligence artificielle », est associé à des systèmes qui ont trop souvent manqué à leurs promesses. ."
  • Patty Tascarella dans Pittsburgh Business Times , 2006 : « Certains pensent que le mot 'robotique' porte en fait une stigmatisation qui nuit aux chances de financement d'une entreprise.
  • John Markoff dans le New York Times , 2005 : « À son point le plus bas, certains informaticiens et ingénieurs en logiciels évitaient le terme d'intelligence artificielle de peur d'être considérés comme des rêveurs aux yeux fous. »

De nombreux chercheurs en IA au milieu des années 2000 ont délibérément appelé leur travail par d'autres noms , tels que l' informatique , l'apprentissage automatique, l'analyse, les systèmes basés sur la connaissance , la gestion des règles métier , les systèmes cognitifs , les systèmes intelligents, les agents intelligents ou l' intelligence informatique , pour indiquer que leur le travail met l'accent sur des outils particuliers ou est dirigé vers un sous-problème particulier. Bien que cela puisse être en partie parce qu'ils considèrent leur domaine comme fondamentalement différent de l'IA, il est également vrai que les nouveaux noms aident à se procurer des financements en évitant la stigmatisation des fausses promesses attachées au nom "intelligence artificielle".

Intégration de l'IA

À la fin des années 1990 et au début du 21e siècle, la technologie de l'IA est devenue largement utilisée en tant qu'éléments de systèmes plus vastes, mais le domaine est rarement crédité de ces succès. En 2006, Nick Bostrom a expliqué que "beaucoup d'IA de pointe ont filtré dans des applications générales, souvent sans être appelées IA car une fois que quelque chose devient suffisamment utile et assez commun, il n'est plus étiqueté IA". Rodney Brooks a déclaré à peu près au même moment qu'"il existe ce mythe stupide selon lequel l'IA a échoué, mais l'IA est autour de vous à chaque seconde de la journée".

Les technologies développées par les chercheurs en IA ont connu un succès commercial dans un certain nombre de domaines, tels que la traduction automatique, l'exploration de données , la robotique industrielle , la logistique, la reconnaissance vocale, les logiciels bancaires, le diagnostic médical et le moteur de recherche de Google .

Les contrôleurs à logique floue ont été développés pour les boîtes de vitesses automatiques des automobiles (les Audi TT, VW Touareg et VW Caravelle de 2006 sont équipées de la transmission DSP qui utilise la logique floue, un certain nombre de variantes de Škoda ( koda Fabia ) comprennent également actuellement un contrôleur basé sur la logique floue) . Les capteurs de caméra utilisent largement la logique floue pour permettre la mise au point.

La recherche heuristique et l'analyse de données sont deux technologies qui se sont développées à partir de la subdivision de l' informatique évolutive et de l'apprentissage automatique de la communauté de recherche en IA. Encore une fois, ces techniques ont été appliquées à un large éventail de problèmes du monde réel avec un succès commercial considérable.

La technologie d'analyse de données utilisant des algorithmes pour la formation automatisée de classificateurs qui a été développée dans la communauté de l'apprentissage automatique supervisé dans les années 1990 (par exemple, TDIDT, Support Vector Machines, Neural Nets, IBL) est désormais largement utilisée par les entreprises pour le ciblage et la découverte d'enquêtes marketing. des tendances et des caractéristiques des ensembles de données.

Financement de l'IA

Les chercheurs et les économistes ont souvent jugé le statut d'un hiver d'IA en examinant quels projets d'IA étaient financés, combien et par qui. Les tendances en matière de financement sont souvent définies par les principaux organismes de financement du monde développé. Actuellement, la DARPA et un programme de financement civil appelé EU-FP7 fournissent une grande partie du financement de la recherche en IA aux États-Unis et dans l'Union européenne .

En 2007, la DARPA sollicitait des propositions de recherche sur l'IA dans le cadre d'un certain nombre de programmes, notamment The Grand Challenge Program , Cognitive Technology Threat Warning System (CT2WS), " Human Assisted Neural Devices (SN07-43) ", " Autonomous Real-Time Ground Ubiquitous Surveillance -Système d'imagerie (ARGUS-IS )" et " Technologie de raisonnement urbain et d'exploitation géospatiale (URGENT) "

Le plus connu est peut-être le programme Grand Challenge de la DARPA, qui a développé des véhicules routiers entièrement automatisés capables de naviguer avec succès sur le terrain du monde réel de manière entièrement autonome.

La DARPA a également soutenu des programmes sur le Web sémantique en mettant l'accent sur la gestion intelligente du contenu et la compréhension automatisée. Cependant, James Hendler , le directeur du programme DARPA à l'époque, a exprimé une certaine déception quant à la capacité du gouvernement à créer un changement rapide et a commencé à travailler avec le World Wide Web Consortium pour transférer les technologies au secteur privé.

Le programme de financement UE-FP7 apporte un soutien financier aux chercheurs au sein de l'Union européenne. En 2007-2008, il finançait la recherche en IA dans le cadre du programme Systèmes cognitifs : interaction et robotique (193 millions d'euros), du programme Bibliothèques numériques et contenus (203 millions d'euros) et du programme FET (185 millions d'euros).

Le "printemps AI" actuel

Une augmentation marquée du financement, du développement, du déploiement et de l'utilisation commerciale de l'IA a conduit à l'idée que l'hiver de l'IA est révolu depuis longtemps. On craint parfois qu'un nouvel hiver de l'IA ne soit déclenché par des promesses trop ambitieuses ou irréalistes d'éminents scientifiques de l'IA ou par des promesses excessives de la part de fournisseurs commerciaux.

Les succès de l'actuel « printemps de l'IA » sont des avancées dans la traduction des langues (en particulier, Google Translate ), la reconnaissance d'images (stimulée par la base de données de formation ImageNet ) telle que commercialisée par Google Image Search , et dans les systèmes de jeu tels que AlphaZero (échecs champion) et AlphaGo (champion de go) et Watson ( champion Jeopardy ). La plupart de ces avancées ont eu lieu depuis 2010.

Causes sous-jacentes des hivers de l'IA

Plusieurs explications ont été avancées pour la cause des hivers d'IA en général. Au fur et à mesure que l'IA passait des applications financées par le gouvernement aux applications commerciales, une nouvelle dynamique est entrée en jeu. Bien que le battage médiatique soit la cause la plus souvent citée, les explications ne sont pas nécessairement mutuellement exclusives.

Battage publicitaire

Les hivers de l'IA peuvent être en partie compris comme une séquence d'attentes surgonflées et de krach consécutif observé sur les marchés boursiers et illustré par la manie ferroviaire et la bulle Internet . Dans un modèle courant dans le développement de nouvelles technologies (connu sous le nom de cycle de battage médiatique), un événement, généralement une percée technologique, crée une publicité qui se nourrit d'elle-même pour créer un « pic d'attentes exagérées » suivi d'un « creux de désillusion ». Étant donné que les progrès scientifiques et technologiques ne peuvent suivre le rythme de l'augmentation des attentes des investisseurs et des autres parties prenantes, alimentée par la publicité, un krach doit s'ensuivre. La technologie de l'IA ne semble pas faire exception à cette règle.

Par exemple, dans les années 1960, la prise de conscience que les ordinateurs pouvaient simuler des réseaux de neurones à 1 couche a conduit à un cycle de battage des réseaux de neurones qui a duré jusqu'à la publication en 1969 du livre Perceptrons qui a considérablement limité l'ensemble des problèmes pouvant être résolus de manière optimale par 1- réseaux en couches. En 1985, la prise de conscience que les réseaux de neurones pouvaient être utilisés pour résoudre des problèmes d'optimisation, à la suite d'articles célèbres de Hopfield et Tank, ainsi que la menace du projet japonais de 5e génération, ont suscité un regain d'intérêt et d'application.

Facteurs institutionnels

Un autre facteur est la place de l'IA dans l'organisation des universités. La recherche sur l'IA prend souvent la forme d' une recherche interdisciplinaire . L'IA est donc sujette aux mêmes problèmes que d'autres types de recherche interdisciplinaire. Le financement est canalisé par les départements établis et lors des coupes budgétaires, il y aura une tendance à protéger le « contenu de base » de chaque département, au détriment des projets de recherche interdisciplinaires et moins traditionnels.

Facteurs économiques

Les ralentissements de l'économie nationale d'un pays entraînent des coupes budgétaires dans les universités. La tendance des « contenus de base » aggrave l'effet sur la recherche en IA et les investisseurs sur le marché sont susceptibles de placer leur argent dans des entreprises moins risquées pendant une crise. Ensemble, cela peut amplifier un ralentissement économique en un hiver de l'IA. Il convient de noter que le rapport Lighthill est arrivé à un moment de crise économique au Royaume-Uni, lorsque les universités ont dû faire des coupes et que la question était uniquement de savoir quels programmes devaient disparaître.

Capacité de calcul insuffisante

Au début de l'histoire de l'informatique, le potentiel des réseaux de neurones a été compris, mais il n'a jamais été réalisé. Des réseaux assez simples nécessitent une capacité de calcul importante, même selon les normes actuelles.

Pipeline vide

Il est courant de considérer la relation entre la recherche fondamentale et la technologie comme un pipeline. Les avancées de la recherche fondamentale donnent naissance aux avancées de la recherche appliquée, qui à leur tour débouchent sur de nouvelles applications commerciales. À partir de là, il est souvent avancé qu'un manque de recherche fondamentale entraînera une baisse de la technologie commercialisable quelques années plus tard. Ce point de vue a été avancé par James Hendler en 2008, lorsqu'il a affirmé que la chute des systèmes experts à la fin des années 80 n'était pas due à une fragilité inhérente et inévitable des systèmes experts, mais à des coupes dans le financement de la recherche fondamentale dans les années 1970. Ces systèmes experts ont progressé dans les années 1980 grâce à la recherche appliquée et au développement de produits, mais, à la fin de la décennie, le pipeline était à sec et les systèmes experts étaient incapables de produire des améliorations qui auraient pu surmonter cette fragilité et obtenir un financement supplémentaire.

Ne pas s'adapter

La chute du marché des machines LISP et l'échec des ordinateurs de cinquième génération ont été des cas où des produits avancés coûteux ont été dépassés par des alternatives plus simples et moins chères. Cela correspond à la définition d'une technologie de rupture bas de gamme , les fabricants de machines LISP étant marginalisés. Les systèmes experts ont été transférés aux nouveaux ordinateurs de bureau par exemple par CLIPS , de sorte que la chute du marché des machines LISP et la chute des systèmes experts sont à proprement parler deux événements distincts. Pourtant, l'incapacité à s'adapter à un tel changement dans le milieu informatique extérieur est citée comme l'une des raisons de l'hiver de l'IA des années 1980.

Arguments et débats sur le passé et l'avenir de l'IA

Plusieurs philosophes, scientifiques cognitifs et informaticiens ont spéculé sur où l'IA aurait pu échouer et ce qui se trouve dans son avenir. Hubert Dreyfus a mis en évidence les hypothèses erronées de la recherche en IA dans le passé et, dès 1966, a correctement prédit que la première vague de recherche en IA ne tiendrait pas les promesses très publiques qu'elle faisait. D'autres critiques comme Noam Chomsky ont fait valoir que l'IA allait dans la mauvaise direction, en partie à cause de sa forte dépendance aux techniques statistiques. Les commentaires de Chomsky s'inscrivent dans un débat plus large avec Peter Norvig , centré sur le rôle des méthodes statistiques dans l'IA. L'échange entre les deux a commencé par des commentaires faits par Chomsky lors d'un symposium au MIT auquel Norvig a écrit une réponse.

Voir également

Remarques

Les références

Lectures complémentaires

  • Marcus, Gary , « Suis-je humain ? : Les chercheurs ont besoin de nouvelles façons de distinguer l'intelligence artificielle de l'intelligence naturelle », Scientific American , vol. 316, non. 3 (mars 2017), p. 58-63. De multiples tests d' efficacité de l' intelligence artificielle sont nécessaires car, "tout comme il n'y a pas de test unique de prouesses athlétiques , il ne peut y avoir un test ultime d' intelligence ". L'un de ces tests, un "Construction Challenge", testerait la perception et l'action physique - "deux éléments importants du comportement intelligent qui étaient totalement absents du test de Turing original ". Une autre proposition a été de donner aux machines les mêmes tests standardisés de sciences et d'autres disciplines que les écoliers. Une pierre d'achoppement insurmontable à l'intelligence artificielle jusqu'à présent est l'incapacité d'une ambiguïté fiable . "[V]irtually chaque phrase [que les gens génèrent] est ambiguë , souvent de plusieurs manières." Un exemple frappant est connu sous le nom de « problème de désambiguïsation des pronoms » : une machine n'a aucun moyen de déterminer à qui ou à quoi se réfère un pronom dans une phrase, comme « il », « elle » ou « elle ».
  • Luke Muehlhauser (septembre 2016). « Que devrions-nous apprendre des prévisions passées de l'IA ? » . Projet de philanthropie ouverte.

Liens externes