Intelligence artificielle symbolique - Symbolic artificial intelligence

Dans l' histoire de l'intelligence artificielle , l'intelligence artificielle symbolique est le terme désignant l'ensemble de toutes les méthodes de recherche en intelligence artificielle basées sur des représentations symboliques de haut niveau (lisibles par l'homme) des problèmes, de la logique et de la recherche . L'IA symbolique utilisait des outils tels que la programmation logique , les règles de production , les réseaux sémantiques et les cadres , et développait des applications telles que les systèmes experts .

John Haugeland a donné le nom de GOFAI ("Good Old-Fashioned Artificial Intelligence") à l'IA symbolique dans son livre de 1985 Artificial Intelligence: The Very Idea , qui a exploré les implications philosophiques de la recherche sur l'intelligence artificielle. En robotique, le terme analogue est GOFR ("Good Old-Fashioned Robotics").

L'intelligence artificielle sous-symbolique est l'ensemble des approches alternatives qui n'utilisent pas de symboles explicites de haut niveau, telles que l'optimisation mathématique , les classificateurs statistiques et les réseaux de neurones .

L'IA symbolique était le paradigme dominant de la recherche sur l'IA du milieu des années 1950 jusqu'au milieu des années 1990. Cependant, l'approche symbolique sera finalement abandonnée au profit d'approches sous-symboliques, en grande partie à cause des limites techniques.

Les chercheurs des années 1960 et 1970 étaient convaincus que les approches symboliques réussiraient à terme à créer une machine à intelligence artificielle générale et considéraient cela comme le but de leur domaine. Il a été remplacé par une IA statistique hautement mathématique qui est largement dirigée vers des problèmes spécifiques avec des objectifs spécifiques, plutôt que l'intelligence générale. Les recherches sur l'intelligence générale sont désormais étudiées dans le sous-domaine exploratoire de l'intelligence générale artificielle .

Origines

Le premier programme d'IA symbolique était le Théoricien de la logique , écrit par Allen Newell , Herbert Simon et Cliff Shaw en 1955-56.

L'approche symbolique a été exprimée succinctement dans « l'hypothèse des systèmes de symboles physiques » proposée par Newell et Simon au milieu des années 1960 :

  • "Un système de symboles physiques a les moyens nécessaires et suffisants d'une action intelligente générale."

Paradigme dominant 1955-1990

Au cours des années 1960, les approches symboliques ont obtenu un grand succès pour simuler un comportement intelligent dans de petits programmes de démonstration. La recherche sur l'IA était centrée dans trois institutions dans les années 1960 : l'Université Carnegie Mellon , Stanford , le MIT et (plus tard) l' Université d'Édimbourg . Chacun a développé son propre style de recherche. Les approches antérieures basées sur la cybernétique ou les réseaux de neurones artificiels ont été abandonnées ou relégués au second plan.

Simulation cognitive

Les économistes Herbert Simon et Allen Newell ont étudié les compétences humaines en résolution de problèmes et ont tenté de les formaliser, et leurs travaux ont jeté les bases du domaine de l'intelligence artificielle, ainsi que des sciences cognitives , de la recherche opérationnelle et des sciences de gestion . Leur équipe de recherche a utilisé les résultats d' expériences psychologiques pour développer des programmes qui simulaient les techniques que les gens utilisaient pour résoudre des problèmes. Cette tradition, centrée à l'Université Carnegie Mellon, a finalement abouti au développement de l' architecture Soar au milieu des années 1980.

Basé sur la logique

Contrairement à Simon et Newell, John McCarthy a estimé que les machines n'avaient pas besoin de simuler la pensée humaine, mais devraient plutôt essayer de trouver l'essence du raisonnement abstrait et de la résolution de problèmes, que les gens aient utilisé ou non les mêmes algorithmes. Son laboratoire à Stanford ( SAIL ) s'est concentré sur l'utilisation de la logique formelle pour résoudre une grande variété de problèmes, y compris la représentation des connaissances , la planification et l' apprentissage . La logique était également au centre des travaux à l' Université d'Édimbourg et ailleurs en Europe qui ont conduit au développement du langage de programmation Prolog et de la science de la programmation logique .

Anti-logique ou "débraillé"

Les chercheurs du MIT (comme Marvin Minsky et Seymour Papert ) ont constaté que la résolution des problèmes difficiles dans la vision et le traitement du langage naturel nécessaire des solutions ad hoc , ils ont fait valoir qu'aucun simple et principe général (comme la logique ) engloberait tous les aspects du comportement intelligent. Roger Schank a décrit leurs approches « anti-logiques » comme « débraillées » (par opposition aux paradigmes « soignés » de la CMU et de Stanford). Bases de connaissances Commonsense (comme Doug Lenat de Cyc ) sont un exemple de « miteux » AI, car ils doivent être construits à la main, un seul concept compliqué à la fois.

Basé sur la connaissance

Lorsque des ordinateurs dotés de mémoires volumineuses sont devenus disponibles vers 1970, des chercheurs des trois traditions ont commencé à intégrer des connaissances dans des applications d'IA. La révolution des connaissances a été motivée par la prise de conscience que d'énormes quantités de connaissances seraient requises par de nombreuses applications d'IA simples.

Technique

Un système d'IA symbolique peut être réalisé comme un micromonde, par exemple un monde de blocs . Le micromonde représente le monde réel dans la mémoire de l'ordinateur. Il est décrit avec des listes contenant des symboles, et l' agent intelligent utilise des opérateurs pour amener le système dans un nouvel état. Le système de production est le logiciel qui recherche dans l'espace d'état la prochaine action de l'agent intelligent. Les symboles pour représenter le monde sont fondés sur la perception sensorielle. Contrairement aux réseaux de neurones, le système global fonctionne avec des heuristiques, ce qui signifie que des connaissances spécifiques au domaine sont utilisées pour améliorer la recherche dans l'espace d'état .

Succès avec les systèmes experts 1975-1990

Cette « révolution de la connaissance » a conduit au développement et au déploiement de systèmes experts (introduits par Edward Feigenbaum ), la première forme vraiment réussie de logiciel d'IA. Un élément clé de l'architecture système pour tous les systèmes experts est la base de connaissances, qui stocke les faits et les règles qui illustrent l'IA. Celles-ci utilisent un réseau de règles de production . Les règles de production relient les symboles dans une relation similaire à une instruction If-Then. Le système expert traite les règles pour effectuer des déductions et pour déterminer les informations supplémentaires dont il a besoin, c'est-à-dire les questions à poser, à l'aide de symboles lisibles par l'homme.

Abandon de l'approche symbolique des années 1990

La critique de Dreyfus

L'un des premiers critiques de l'IA symbolique était le philosophe Hubert Dreyfus . À partir des années 1960, la critique de l'IA par Dreyfus a ciblé les fondements philosophiques du domaine dans une série d'articles et de livres. Il a prédit que cela ne conviendrait qu'aux problèmes de jouets et a pensé que la construction de systèmes plus complexes ou la mise à l'échelle de l'idée vers un logiciel utile ne serait pas possible.

Hivers de l'IA

Le même argument a été avancé dans le rapport Lighthill , qui a lancé l' IA Winter au milieu des années 1970.

IA sous-symbolique

Robotique

Les opposants à l'approche symbolique dans les années 1980 comprenaient des roboticiens tels que Rodney Brooks , qui vise à produire des robots autonomes sans représentation symbolique (ou avec seulement une représentation minimale) et des chercheurs en intelligence informatique, qui appliquent des techniques telles que les réseaux neuronaux et l'optimisation pour résoudre des problèmes dans la machine. ingénierie d' apprentissage et de contrôle .

Raisonnement incertain

Les symboles peuvent être utilisés lorsque l'entrée est définie et tombe sous la certitude. Mais lorsqu'il y a une incertitude, par exemple dans la formulation de prédictions, la représentation se fait à l'aide de réseaux de neurones artificiels .

Synthétiser symbolique et sous-symbolique

Récemment, des efforts structurés ont été déployés pour intégrer les approches d'IA symbolique et connexionniste sous l'égide de l'informatique neuro-symbolique. Comme le soutiennent Valiant et bien d'autres, la construction efficace de modèles cognitifs informatiques riches exige la combinaison d'un raisonnement symbolique solide et de modèles d'apprentissage (machine) efficaces.

Voir également

Remarques

Citations

Les références

  • Crevier, Daniel (1993). IA : la recherche tumultueuse de l'intelligence artificielle . New York, NY : BasicBooks. ISBN 0-465-02997-3..
  • Dreyfus, Hubert L (1981). « Des micro-mondes à la représentation des connaissances : l'IA dans une impasse » (PDF) . Conception de l'esprit . MIT Press, Cambridge, MA : 161-204.
  • Artur S. d'Avila Garcez, Tarek R. Besold, Luc De Raedt, Peter Földiák, Pascal Hitzler , Thomas Icard, Kai-Uwe Kühnberger, Luís C. Lamb, Risto Miikkulainen, Daniel L. Silver. Apprentissage et raisonnement neuro-symbolique : contributions et défis . Symposium de printemps de l'AAAI 2015. Stanford : AAAI Press.CS1 maint : utilise le paramètre auteurs ( lien )
  • Haugeland, John (1985), Intelligence artificielle : l'idée même , Cambridge, Mass : MIT Press, ISBN 0-262-08153-9
  • Hayes-Roth, Frédéric ; Murray, Guillaume ; Adelman, Léonard. "Systèmes experts". AccèsScience . doi : 10.1036/1097-8542.248550 .
  • Honavar, Vasant ; Uhr, Léonard (1994). Intelligence Artificielle Symbolique, Réseaux Connexionnistes & Au-delà (Rapport technique). Référentiel numérique de l'Iowa State University, rapports techniques en informatique. 76. p. 6.
  • Honavar, Vasant (1995). Intelligence artificielle symbolique et réseaux de neurones artificiels numériques : vers une résolution de la dichotomie . La série internationale Springer en ingénierie et en informatique. Springer États-Unis. p. 351-388. doi : 10.1007/978-0-585-29599-2_11 .
  • Howe, J. (novembre 1994). « L'intelligence artificielle à l'Université d'Édimbourg : une perspective » . Archivé de l' original le 15 mai 2007 . Récupéré le 30 août 2007 .
  • Kolata, G. (1982). « Comment les ordinateurs peuvent-ils faire preuve de bon sens ? » Sciences . 217 (4566) : 1237-1238. Bibcode : 1982Sci ... 217.1237K . doi : 10.1126/science.217.4566.1237 . PMID  17837639 .
  • Créatrice, Meg Houston (2006). "AI@50 : IA passé, présent, futur" . Collège de Dartmouth. Archivé de l' original le 3 janvier 2007 . Récupéré le 16 octobre 2008 .
  • McCorduck, Pamela (2004), Machines Who Think (2e éd.), Natick, MA : AK Peters, Ltd., ISBN 1-56881-205-1.
  • Nilsson, Nils (1998). Intelligence artificielle : une nouvelle synthèse . Morgan Kaufmann. ISBN 978-1-55860-467-4. Archivé de l'original le 26 juillet 2020 . Récupéré le 18 novembre 2019 .
  • Russell, Stuart J. ; Norvig, Peter (2003), Intelligence artificielle : une approche moderne (2e éd.), Upper Saddle River, New Jersey : Prentice Hall, ISBN 0-13-790395-2.
  • Xifan Yao et Jiajun Zhou et Jiangming Zhang et Claudio R. Boer (2017). De la fabrication intelligente à la fabrication intelligente pour l'industrie 4.0 grâce à l'intelligence artificielle de nouvelle génération et au-delà . 2017 5e Conférence internationale sur les systèmes d'entreprise (ES). IEEE. doi : 10.1109/es.2017.58 .