Intelligence artificielle - Artificial intelligence


Un article de Wikipédia, l'encyclopédie libre

L' intelligence artificielle ( IA ), parfois appelé l' intelligence artificielle , est l' intelligence démontrée par des machines , contrairement à l' intelligence naturelle affichée par les humains et les autres animaux. Dans la science informatique recherche en IA est définie comme l'étude des « agents intelligents »: tout appareil qui perçoit son environnement et prend les mesures qui maximisent ses chances de réaliser avec succès ses objectifs. Familièrement, le terme « intelligence artificielle » est appliquée lorsqu'une machine imite les fonctions « cognitives » que les humains associent à d' autres esprits humains , tels que « l' apprentissage » et « résolution de problèmes ».

La portée de l' intelligence artificielle est contestée: que les machines deviennent de plus en plus capables, les tâches considérées comme nécessitant une « intelligence » sont souvent retirés de la définition, un phénomène connu sous le nom d' effet AI , conduisant à la boutade dans le théorème de Tesler, « AI est ce qui n'a pas encore été fait. » Par exemple, la reconnaissance optique de caractères est souvent exclu de « l' intelligence artificielle », devenu une technologie de routine. Capacités de machines modernes généralement classées comme AI comprennent avec succès la compréhension de la parole humaine , en compétition au plus haut niveau dans le jeu stratégique des systèmes (tels que les échecs et Go ), les voitures fonctionnant de manière autonome , et le routage intelligent dans les réseaux de distribution de contenu et les simulations militaires .

L' emprunt de la gestion littérature, Kaplan et Haenlein l' intelligence artificielle classifient en trois différents types de systèmes AI: l' intelligence artificielle d' analyse, d'inspiration humaine et humanisé. Analyse AI n'a que des caractéristiques compatibles avec l' intelligence cognitive génération de la représentation cognitive du monde et grâce à l' apprentissage basé sur l' expérience passée pour éclairer les décisions futures. AI inspiration humaine a des éléments de cognitif, ainsi que l' intelligence émotionnelle , la compréhension, en plus des éléments cognitifs, aussi les émotions humaines les considérant dans leur prise de décision . Humanisé AI présente des caractéristiques de tous les types de compétences (c. -à- cognitif, émotionnel et intelligence sociale ), capable d'être conscient de soi et de conscience de soi dans les interactions avec les autres.

L' intelligence artificielle a été fondée en tant que discipline académique en 1956, et dans les années depuis a connu plusieurs vagues d'optimisme, suivie par la déception et la perte de financement (appelé « AI hiver »), suivi de nouvelles approches, le succès et le renouvellement du financement . Pour la plupart de son histoire, la recherche en IA a été divisé en sous - domaines qui souvent ne parviennent à communiquer entre eux. Ces sous-domaines reposent sur des considérations techniques, telles que des objectifs particuliers (par exemple , « robotique » ou « apprentissage de la machine »), l'utilisation d'outils particuliers ( « logique » ou réseaux de neurones artificiels ), ou les différences philosophiques profondes. Les sous - zones ont été basées sur des facteurs sociaux (établissements ou le travail des chercheurs , en particulier).

Les problèmes traditionnels (ou objectifs) de la recherche en IA comprennent le raisonnement , la représentation des connaissances , la planification , l' apprentissage , le traitement du langage naturel , la perception et la capacité de se déplacer et manipuler des objets. L' intelligence générale est parmi les objectifs à long terme du terrain. Les approches incluent des méthodes statistiques , l' intelligence informatique et symbolique traditionnelle AI . De nombreux outils sont utilisés dans l' IA, y compris les versions de recherche et d' optimisation mathématique , les réseaux de neurones artificiels et des méthodes basées sur les statistiques, les probabilités et l' économie . Le champ AI puise dans l'informatique , l' ingénierie de l' information , les mathématiques , la psychologie , la linguistique , la philosophie , et bien d' autres.

Le champ a été fondé sur l'affirmation selon laquelle l' intelligence humaine « peut être décrit de manière précise qu'une machine peut être fait pour simuler ». Cela soulève des arguments philosophiques sur la nature de l' esprit et l'éthique de créer des êtres artificiels doués d'intelligence humaine comme qui sont des questions qui ont été explorés par le mythe , la fiction et la philosophie depuis l' antiquité . Certaines personnes considèrent également l' IA d'être un danger pour l' humanité si elle progresse sans relâche. D' autres pensent que l' IA, à la différence des révolutions technologiques précédentes, crée un risque de chômage de masse .

Au XXIe siècle, les techniques d' Amnesty International ont connu une résurgence suivant les progrès simultanés dans la puissance de l' ordinateur , de grandes quantités de données , et la compréhension théorique; et les techniques de l' IA sont devenues un élément essentiel de l' industrie de la technologie , en aidant à résoudre de nombreux problèmes difficiles dans la science informatique, génie logiciel et la recherche opérationnelle .

Contenu

L'histoire

Talos , un ancien mythique automate avec l' intelligence artificielle

Pensée capable êtres artificiels sont apparus comme des dispositifs de contes dans l' antiquité, et sont monnaie courante dans la fiction, comme dans Mary Shelley 's Frankenstein ou Karel Čapek est RUR (Rossum Universal Robots) . Ces personnages et leurs destins ont soulevé un grand nombre des mêmes questions maintenant abordées dans l' éthique de l' intelligence artificielle .

L'étude de la mécanique ou le raisonnement « formel » a commencé avec les philosophes et mathématiciens dans l' antiquité. L'étude de la logique mathématique a conduit directement à Alan Turing de la théorie du calcul , ce qui suggère qu'une machine, en mélangeant des symboles aussi simple que « 0 » et « 1 », peut simuler tout acte concevable de déduction mathématique. Cette idée, que les ordinateurs numériques peuvent simuler tout processus de raisonnement formel, est connu comme la thèse de Church-Turing . En plus de découvertes simultanées dans la neurobiologie , la théorie de l' information et de la cybernétique , ce qui a conduit les chercheurs à envisager la possibilité de construire un cerveau électronique. Turation a proposé que « si un homme ne pouvait pas distinguer entre les réponses d'une machine et un être humain, la machine pourrait être considéré comme « intelligent ». Le premier travail qui est maintenant généralement reconnu comme l' IA était McCullouch et Pitts 1943 conception formelle pour Turing-complet « neurones artificiels ».

Le domaine de la recherche en IA est né à un atelier au Dartmouth College en 1956. Les participants Allen Newell ( CMU ), Herbert Simon ( CMU ), John McCarthy ( MIT ), Marvin Minsky ( MIT ) et Arthur Samuel ( IBM ) sont devenus les fondateurs et leaders de la recherche en IA. Ils et leurs élèves ont produit des programmes que la presse décrit comme « étonnant »: les ordinateurs apprenaient contrôleurs des stratégies (et en 1959 auraient joué mieux que l'humain moyen), la résolution de problèmes de mots en algèbre, prouvant théorèmes logiques ((c 1954). Logique théoricien , premier essai c. 1956) et parlant anglais. Vers le milieu des années 1960, la recherche aux États - Unis a été fortement financé par le ministère de la Défense et des laboratoires a été mis en place à travers le monde. Les fondateurs d'Amnesty International se sont montrés optimistes quant à l'avenir: Herbert Simon prédit, « machines seront capables, dans les vingt ans, de faire un travail peut faire un homme ». Marvin Minsky a accepté, écrit, « dans une génération ... le problème de créer « l' intelligence artificielle » sera essentiellement résolu ».

Ils ont échoué à reconnaître la difficulté de quelques - unes des tâches restantes. Les progrès ont ralenti et en 1974, en réponse à la critique de Sir James Lighthill et la pression continue du Congrès des États - Unis pour financer des projets plus productifs, tant aux États - Unis et les gouvernements britanniques coupé la recherche exploratoire en IA. Les prochaines années plus tard être appelé « AI hiver », une période où l' obtention d'un financement pour des projets AI a été difficile.

Au début des années 1980, la recherche en IA a été relancé par le succès commercial des systèmes experts , une forme de programme AI qui a simulé les connaissances et les compétences analytiques des experts humains. En 1985, le marché de l' influenza aviaire a atteint plus d' un milliard de dollars. En même temps, le Japon cinquième ordinateur génération projet a inspiré les gouvernements américain et britannique de rétablir le financement de la recherche universitaire. Cependant, en commençant par l'effondrement de la machine Lisp marché en 1987, AI est tombé une fois de plus dans le discrédit, et une seconde interruption plus durable a commencé.

Dans les années 1990 fin et début du 21e siècle, AI a commencé à être utilisé pour la logistique, l' exploration de données , le diagnostic médical et d' autres domaines. Le succès est dû à l' augmentation de la puissance de calcul (voir la loi de Moore ), davantage l' accent sur la résolution des problèmes spécifiques, de nouveaux liens entre l' IA et d' autres domaines (tels que les statistiques , l' économie et les mathématiques ), et un engagement des chercheurs à des méthodes mathématiques et aux normes scientifiques. Deep Blue est devenu le premier système de jeu d'échecs d'ordinateur pour battre un champion du monde d'échecs, Garry Kasparov , le 11 mai 1997.

En 2011, un Jeopardy! quiz show match d'exhibition, IBM du système de réponse aux questions , Watson , a battu les deux plus grands Jeopardy! champions, Brad Rutter et Ken Jennings , par une marge importante. Ordinateurs plus rapides , des améliorations algorithmiques, et l' accès à de grandes quantités de données ont permis des progrès dans l' apprentissage de la machine et de la perception; avides de données d' apprentissage profondes méthodes ont commencé à dominer les repères de précision autour de 2012 . Le Kinect , qui fournit une interface corps-mouvement 3D pour la Xbox 360 et la Xbox One , utilise des algorithmes qui ont émergé de longues recherches AI comme les assistants personnels intelligents dans les smartphones . En Mars 2016, AlphaGo a gagné 4 sur 5 jeux de Go dans un match avec le champion Go Lee Sedol , devenant ainsi le premier ordinateur du système jeu Aller à battre un joueur professionnel Go sans handicaps . Dans le 2017 avenir de Go Sommet , AlphaGo a gagné un match de trois matchs avec Ke Jie , qui à l'époque détenu de manière continue le n ° 1 mondial de classement pour deux ans. Cela a marqué l'achèvement d'une étape importante dans le développement de l' intelligence artificielle comme Go est un jeu extrêmement complexe, plus que les échecs.

Selon Bloomberg Jack Clark, 2015 a été une année marquante pour l' intelligence artificielle, avec le nombre de projets logiciels qui utilisent AI au sein de Google a augmenté d'une « utilisation sporadique » en 2012 à plus de 2.700 projets. Clark présente également des données factuelles indiquant que les taux d'erreur dans les tâches de traitement d'image ont considérablement diminué depuis 2011. Il attribue cela à une augmentation des prix abordables des réseaux de neurones , en raison d'une augmentation des infrastructures de cloud computing et à une augmentation des outils de recherche et des ensembles de données. D' autres ont cité des exemples comprennent le développement de Microsoft d'un système Skype qui peut se traduire automatiquement d'une langue à l' autre et le système de Facebook qui peut décrire les images aux personnes aveugles. Dans une enquête 2017, une entreprise sur cinq ont déclaré qu'ils avaient « incorporé AI dans certaines offres ou processus ». Vers 2016, la Chine considérablement accéléré son financement gouvernemental; compte tenu de sa grande quantité de données et de sa production de recherche de plus en plus rapidement, certains observateurs pensent qu'il pourrait être en voie de devenir une « superpuissance AI ».

Notions de base

Une IA typique perçoit son environnement et prend les mesures qui maximisent ses chances de réaliser avec succès ses objectifs. Destiné d'une AI fonction de but peut être simple ( « 1 si l'IA gagne un jeu de Go , 0 sinon ») ou complexe ( « Faites des actions mathématiquement semblables aux actions que vous avez obtenu des récompenses dans le passé »). Les objectifs peuvent être définis de façon explicite ou peuvent être induites. Si l'IA est programmé pour « l' apprentissage de renforcement », les objectifs peuvent être induits implicitement en récompensant certains types de comportements et de punir les autres. En variante, un système évolutif peut induire des objectifs à l'aide d' une « fonction de remise en forme » à muter et à se répliquer de manière préférentielle les systèmes d' IA haut pointage; ce qui est similaire à la façon dont les animaux ont évolué au désir de certains objectifs tels naturellement que trouver de la nourriture, ou comment les chiens peuvent être élevés par sélection artificielle posséder les caractéristiques souhaitées. Certains systèmes d' IA, tels que, au lieu raisonner par analogie le plus proche voisin; ces systèmes ne sont généralement pas donné des objectifs, sauf dans la mesure où les objectifs sont en quelque sorte implicite dans leurs données de formation. De tels systèmes peuvent encore être comparés si le système non-objectif est présenté comme un système dont le « but » est d'accomplir avec succès sa tâche de classification étroite.

AI tourne souvent autour de l'utilisation d' algorithmes . Un algorithme est un ensemble d'instructions sans ambiguïté qu'un ordinateur mécanique peut exécuter. Un algorithme complexe est souvent construit sur d'autres, des algorithmes plus simples. Un exemple simple d'un algorithme est la recette suivante pour un jeu optimal au tic-tac-toe :

  1. Si quelqu'un a une « menace » (qui est, deux fois de suite), prendre la place restante. Autrement,
  2. si un mouvement « fourches » pour créer deux menaces à la fois, jouer ce mouvement. Autrement,
  3. prendre la place centrale si elle est libre. Autrement,
  4. si votre adversaire a joué dans un coin, prenez le coin opposé. Autrement,
  5. prendre un coin vide si l'on existe. Autrement,
  6. prendre une place vide.

De nombreux algorithmes IA sont capables d'apprendre à partir des données; ils peuvent se renforcer en apprenant de nouvelles heuristiques (stratégies, ou « règles empiriques », qui ont bien fonctionné dans le passé), ou peuvent écrire eux - mêmes d' autres algorithmes. Certains des « apprenants » décrits ci - dessous, y compris les réseaux bayésiens, arbres de décision, et le plus proche voisin, pourrait théoriquement, si on leur donne des données infinies, le temps et la mémoire, apprendre à se rapprocher toute fonction , y compris toutes les combinaisons possibles de fonctions mathématiques qui décrit le mieux la le monde entier. Ces apprenants pourraient donc, en théorie, tirer toutes les connaissances possibles, en tenant compte de toutes les hypothèses possibles et correspondant par rapport aux données. Dans la pratique, il est presque jamais possible d'envisager toutes les possibilités, en raison du phénomène de « explosion combinatoire », où la quantité de temps nécessaire pour résoudre un problème croît de façon exponentielle. Une grande partie de la recherche en IA consiste à déterminer comment identifier et éviter de considérer de larges andains de possibilités qui sont peu susceptibles d'être féconds. Par exemple, lorsque vous regardez une carte et la recherche de la route la plus courte de voiture de Denver à New York , à l'Est, on peut dans la plupart des cas sauter regardant tout chemin à travers San Francisco ou d' autres loin à l'ouest; ainsi, une IA maniant un algorithme de pathfinding comme A * peut éviter l'explosion combinatoire qui résulterait si toutes les voies possibles devait être considéré à son tour pesamment.

La première (et la plus facile à comprendre) approche AI était symbolique (comme la logique formelle): « Si un adulte en bonne santé a de la fièvre, ils peuvent avoir la grippe ». Une deuxième approche plus générale est l' inférence bayésienne : « Si le patient actuel a de la fièvre, ajuster la probabilité qu'ils ont la grippe dans telle ou telle manière ». La troisième approche importante, extrêmement populaire dans les affaires courantes applications AI, sont analogizers tels que SVM et plus proche voisin : « Après avoir examiné les dossiers des anciens patients connus dont la température, les symptômes, l' âge et d' autres facteurs correspondent à la plupart du temps le patient actuel, X% de ces patients est avéré avoir la grippe ». Une quatrième approche est plus difficile de comprendre intuitivement, mais est inspiré par la façon dont fonctionne la machinerie du cerveau: le réseau de neurones artificiels approche utilise des « artificiels neurones » qui peuvent apprendre en se comparant à la sortie désirée et de modifier les points forts des connexions entre ses neurones internes aux connexions « renforcer » qui semblaient être utiles. Ces quatre approches principales peuvent se chevaucher les uns avec les autres et avec les systèmes évolutifs; par exemple, les réseaux de neurones peuvent apprendre à tirer des conclusions, de généraliser et de faire des analogies. Certains systèmes utilisent implicitement ou explicitement plusieurs de ces approches, aux côtés de nombreux autres algorithmes AI et non-AI; la meilleure approche est souvent différente en fonction du problème.

La ligne bleue pourrait être un exemple de surapprentissage une fonction linéaire en raison du bruit aléatoire.

Algorithmes d' apprentissage fonctionnent sur la base que les stratégies, les algorithmes et déductions qui ont bien fonctionné dans le passé sont susceptibles de continuer à travailler bien à l'avenir. Ces conclusions peuvent être évidentes, telles que « depuis le soleil se levait tous les matins pour les 10.000 derniers jours, il sera probablement augmenter demain matin aussi bien. » Ils peuvent être nuancées, comme « X% des familles ont des espèces séparées géographiquement avec des variantes de couleurs, donc il y a un Y% de chance que inexplorées cygnes noirs existent ». Les apprenants travaillent également sur la base du « rasoir d'Occam »: La théorie la plus simple qui explique les données est le plus probable. Par conséquent, pour réussir, l'apprenant doit être conçu de telle sorte qu'il préfère les théories plus simples aux théories complexes, sauf dans les cas où la théorie complexe est prouvé nettement mieux. S'établir sur une mauvaise théorie trop complexe Gerrymandered pour adapter toutes les données de la formation antérieure est connue sous le nom surapprentissage . De nombreux systèmes tentent de réduire overfitting en récompensant une théorie conformément à la façon dont il convient les données, mais pénalisant la théorie selon la façon dont la théorie est complexe. En plus overfitting classique, les apprenants peuvent aussi décevoir par « apprendre la mauvaise leçon ». Un exemple de jouet est qu'un classificateur d'image formé uniquement sur des images de chevaux bruns et chats noirs pourrait en conclure que tous les taches brunes sont susceptibles d'être des chevaux. Un exemple concret est que, contrairement à l' homme, classificateurs d'image actuelles ne déterminent pas la relation spatiale entre les composantes de l'image; à la place, ils apprennent des motifs abstraits de pixels que les humains ne sont pas conscients, mais qui sont en corrélation linéaire avec des images de certains types d'objets réels. Superposant Faiblement un tel motif sur les résultats d'image légitimes dans une image « contradictoire » que le système misclassifies.

Un système de voiture auto-conduite peut utiliser un réseau de neurones pour déterminer quelles parties de l'image semblent correspondre à des images antérieures de formation des piétons, puis modéliser ces domaines se déplaçant lentement, mais des prismes rectangulaires peu imprévisibles qui doivent être évités.

Par rapport à l' homme, AI existante manque plusieurs caractéristiques de « l' homme raisonnement du sens commun »; notamment, les humains ont des mécanismes puissants pour raisonner sur « physique naïve », comme l' espace, le temps et les interactions physiques. Cela permet même les jeunes enfants de faire facilement des déductions comme « Si je roule ce stylo sur une table, il tombera sur le sol ». Les humains ont aussi un puissant mécanisme de « psychologie populaire » qui les aide à interpréter des phrases en langage naturel comme « Les conseillers municipaux de la ville ont refusé les manifestants un permis parce qu'ils prônaient la violence ». (A AI générique a des difficultés inférant si les conseillers municipaux ou les manifestants sont les présumés préconiser la violence.) Ce manque de « connaissance commune » signifie que l' IA fait souvent des erreurs que les humains font, d' une manière qui peut sembler incompréhensible. Par exemple, les voitures auto-conduite existants ne peuvent pas raisonner sur l'emplacement , ni les intentions des piétons de la manière exacte que les humains, et au lieu doivent utiliser des modes non humains de raisonnement pour éviter les accidents.

Problèmes

L'objectif général de la recherche de l'intelligence artificielle est de créer une technologie qui permet aux ordinateurs et machines de fonctionner d'une manière intelligente. Le problème général de la simulation (ou la création) l'intelligence a été divisée en sous-problèmes. Ceux-ci consistent en des traits particuliers ou des capacités que les chercheurs attendent un système intelligent pour afficher. Les traits décrits ci-dessous ont reçu le plus d'attention.

Raisonnement, la résolution de problèmes

Les premiers chercheurs ont développé des algorithmes qui imitent le raisonnement étape par étape que les humains utilisent quand ils résolvent des puzzles ou des déductions logiques. Fin des années 1980 et 1990, la recherche en IA a développé des méthodes pour faire face à incertaine des informations ou incomplètes, en utilisant des concepts de probabilité et l' économie .

Ces algorithmes se sont avérées insuffisantes pour résoudre les grands problèmes de raisonnement, parce qu'ils ont connu une « explosion combinatoire »: ils sont devenus exponentiellement plus lents que les problèmes grossissaient. En fait, même les humains utilisent rarement la déduction étape par étape que la recherche précoce IA a pu modéliser. Ils résolvent la plupart de leurs problèmes en utilisant des jugements rapides, intuitifs.

Représentation des connaissances

Une ontologie représente la connaissance comme un ensemble de concepts dans un domaine et les relations entre ces concepts.

La représentation des connaissances et l' ingénierie des connaissances sont au cœur de la recherche classique AI. Certains tentent de rassembler des connaissances explicites « systèmes experts » possédés par des experts dans certains domaine étroit. De plus, certains projets tentent de recueillir la « connaissance du sens commun » connu pour la personne moyenne dans une base de données contenant des connaissances approfondies sur le monde. Parmi les choses une base de connaissances complète du sens commun contiendrait sont: des objets, des propriétés, des catégories et des relations entre les objets; situations, événements, états et temps; causes et effets; savoir sur le savoir (ce que nous savons ce que les autres savent); et beaucoup d' autres, des domaines moins bien étudiés. Une représentation de « ce qui existe » est une ontologie : l'ensemble des objets, les relations, les concepts et les propriétés formellement décrites afin que les agents logiciels peuvent les interpréter. La sémantique de ces derniers sont capturés comme logiques de description des concepts, des rôles et des particuliers, et généralement mis en œuvre sous forme de classes, les propriétés et les individus dans la langue Ontology Web . Les ontologies les plus généraux sont appelés ontologies supérieurs , qui tentent de fournir une base pour toutes les autres connaissances en agissant comme médiateurs entre les ontologies de domaine qui couvrent des connaissances spécifiques sur un domaine de connaissances particulier (domaine d'intérêt ou de préoccupation). De telles représentations de connaissances formelles peuvent être utilisés dans l' indexation basée sur le contenu et la recherche, l' interprétation de la scène, aide à la décision clinique, la découverte de connaissances (mines « intéressantes » et des conclusions concrètes de grandes bases de données), et d' autres domaines.

Parmi les problèmes les plus difficiles dans la représentation des connaissances sont les suivantes:

Raisonnement par défaut et le problème de qualification
Beaucoup des choses que les gens savent prendre la forme de « hypothèses de travail ». Par exemple, si un oiseau vient dans la conversation, gens d' image généralement un animal qui est le poing de taille, chante, et les mouches. Aucune de ces choses sont vraies au sujet de tous les oiseaux. John McCarthy a identifié ce problème en 1969 , comme le problème de qualification: pour toute règle de bon sens que les chercheurs d' Amnesty International se soucient de représenter, il a tendance à être un grand nombre d'exceptions. Presque rien est tout simplement vrai ou faux de la manière que la logique abstraite exige. AI recherche a exploré un certain nombre de solutions à ce problème.
L'étendue des connaissances du sens commun
Le nombre de faits atomiques que la personne moyenne connaît est très grand. Les projets de recherche qui tentent de construire une base de connaissance complète de la connaissance du sens commun (par exemple, Cyc ) exigent d' énormes quantités de laborieux ingénierie ontologique -Ils doit être construit, à la main, une notion complexe à la fois.
La forme subsymbolique de certaines connaissances du sens commun
Une grande partie de ce que les gens savent n'est pas représenté comme des « faits » ou « déclarations » qu'ils pourraient exprimer verbalement. Par exemple, un maître d'échecs évitera une position d'échecs en particulier parce qu'il « se sent trop exposé » ou un critique d'art peut prendre un coup d' oeil à une statue et se rendre compte qu'il est un faux. Ce sont des tendances ou non intuitions-conscientes et sous-symbolique dans le cerveau humain. La connaissance comme celui - ci informe, soutient et fournit un contexte pour la connaissance symbolique, conscient. Comme le problème connexe du raisonnement sous-symbolique, il est à espérer que situé AI , l' intelligence informatique ou AI statistique fourniront des moyens de représenter ce genre de connaissances.

Planification

Un système de contrôle hiérarchique est une forme de système de commande dans lequel un ensemble de dispositifs et de logiciels d'administration est agencé dans une hiérarchie.

Les agents intelligents doivent être en mesure de fixer des objectifs et de les atteindre. Ils ont besoin d' un moyen de visualiser l'avenir une représentation de l'état du monde et être en mesure de faire des prédictions sur la façon dont leurs actions le changer et être en mesure de faire des choix qui maximisent l' utilité (ou « valeur ») des choix disponibles .

Dans les problèmes de planification classiques, l'agent peut supposer qu'il est le seul système agissant dans le monde, ce qui permet à l'agent d'être certain des conséquences de ses actions. Toutefois, si l'agent est pas le seul acteur, il exige que l'agent peut raisonner dans l'incertitude. Cela demande un agent qui ne peut pas seulement évaluer son environnement et faire des prévisions, mais aussi d'évaluer ses prévisions et ADAPT en fonction de son évaluation.

La planification multi-agent utilise la coopération et la concurrence de nombreux agents pour atteindre un objectif donné. Le comportement émergent comme celui - ci est utilisé par des algorithmes évolutifs et intelligence en essaim .

Apprentissage

l'apprentissage de la machine, un concept fondamental de la recherche en IA depuis la création du champ, est l'étude des algorithmes informatiques qui améliorent automatiquement par l'expérience.

L' apprentissage non supervisé est la capacité de trouver des modèles dans un courant d'entrée, sans avoir besoin d' un être humain à étiqueter les premières entrées. L' apprentissage supervisé comprend à la fois la classification et numérique régression , ce qui nécessite un être humain pour étiqueter les données d'entrée en premier. La classification est utilisée pour déterminer dans quelle catégorie quelque chose appartient à, après avoir vu un certain nombre d'exemples de choses de plusieurs catégories. La régression est la tentative de produire une fonction qui décrit la relation entre les entrées et les sorties et prédit la façon dont les résultats devraient changer à mesure que le changement des entrées. Les deux classificateurs et les apprenants de régression peuvent être considérés comme « fonction » approximateurs essayant d'apprendre une fonction inconnue (peut - être implicite); par exemple, un classificateur de spam peut être considéré comme l' apprentissage d' une fonction qui à partir du texte d'un e - mail à l' une des deux catégories, « spam » ou « pas du spam ». Théorie de l' apprentissage informatique peut évaluer les apprenants par la complexité des calculs , par la complexité de l' échantillon (la quantité de données est nécessaire), ou par d' autres notions d' optimisation . Dans l' apprentissage par renforcement de l'agent est récompensé pour de bonnes réponses et puni pour les mauvaises. L'agent utilise cette séquence de récompenses et de punitions pour former une stratégie pour fonctionner dans son espace de problème.

traitement du langage naturel

Un arbre d'analyse syntaxique représente la syntaxe structure d'une phrase selon une grammaire formelle .

Traitement du langage naturel (NLP) donne des machines la capacité de lire et de comprendre le langage humain. Un système de traitement du langage naturel suffisamment puissant permettrait des interfaces utilisateur en langage naturel et l'acquisition de connaissances directement à partir de sources écrites humaines telles que les textes de fil d' infos. Certaines applications simples de traitement du langage naturel comprennent la recherche d'information , l' exploration de texte , la réponse aux questions et la traduction automatique . De nombreuses approches actuelles utilisent des fréquences de cooccurrences mots pour construire des représentations syntaxiques du texte. « Mot - clé spotting » stratégies de recherche sont très populaires et évolutive mais stupide; une requête de recherche pour « chien » pourrait ne correspondre les documents avec le mot littéral « chien » et manquer un document avec le mot « caniche ». Stratégies « d'affinité » lexicales utilisent l'apparition de mots tels que « accident » pour évaluer le sentiment d'un document. Approches modernes PNL statistiques peuvent combiner toutes ces stratégies, ainsi que d' autres, et d' obtenir souvent une précision acceptable au niveau de la page ou du paragraphe, mais continuent de ne pas avoir la compréhension sémantique nécessaire de classer bien des phrases isolées. Outre les difficultés habituelles avec le codage des connaissances de sens commun sémantique, échelles existantes parfois la PNL sémantique trop mal pour être viable dans les applications commerciales. Au - delà de la PNL sémantique, le but ultime de la PNL « narratif » est d'incarner une bonne compréhension du raisonnement de bon sens.

la perception

La détection d'objets (photo: détection de bord ) aide AI structures abstraites composer d' information sur les données brutes.

La perception de la machine est la possibilité d'utiliser l' entrée de capteurs (tels que des caméras (spectre visible ou infrarouge), des microphones, des signaux sans fil, et actif lidar , sonar, radar, et des capteurs tactiles ) pour en déduire les aspects du monde. Les applications incluent la reconnaissance vocale , la reconnaissance faciale et la reconnaissance des objets . Vision par ordinateur est la capacité d'analyser les données visuelles. Une telle entrée est généralement ambiguë; un géant, piéton peut loin de produire de haut cinquante mètres exactement les mêmes pixels en tant que piéton taille normale à proximité, ce qui nécessite l'IA pour juger de la probabilité relative et le caractère raisonnable des interprétations différentes, par exemple en utilisant son « modèle d'objet » pour évaluer que les piétons cinquante mètres n'existent pas.

Motion et manipulation

AI est fortement utilisé dans la robotique . Avancés bras robotiques et d' autres robots industriels , largement utilisés dans les usines modernes, peuvent apprendre de l' expérience comment déplacer efficacement malgré la présence de la friction et le glissement de vitesse. Un robot mobile moderne, quand donné un environnement faible, statique et visible, peut facilement déterminer son emplacement et la carte son environnement; Cependant, des environnements dynamiques, tels que (en endoscopie ) l'intérieur du corps de la respiration d'un patient, pose un plus grand défi. La planification de mouvement est le processus de décomposer une tâche de mouvement en « primitives », comme les mouvements articulaires individuels. Ce mouvement implique souvent un mouvement conforme, un processus dans lequel le mouvement exige de maintenir un contact physique avec un objet. Le paradoxe de Moravec généralise que les compétences sensori faible niveau que les humains prennent pour acquis sont, contre - intuitivement, difficile à programmer dans un robot; le paradoxe est nommé d' après Hans Moravec , qui a déclaré en 1988 qu ' « il est relativement facile de faire des ordinateurs présentent des performances de niveau des adultes sur les tests d'intelligence ou jouer aux dames, et difficile , voire impossible , de leur donner les compétences d'un enfant d' un an quand il vient à la perception et à la mobilité ». Ceci est dû au fait que, contrairement aux dames, la dextérité physique a été une cible directe de la sélection naturelle pour des millions d'années.

Intelligence sociale

Kismet , un robot avec des compétences sociales rudimentaires

Le paradoxe de Moravec peut être étendue à de nombreuses formes d'intelligence sociale. Distribué coordination multi-agents des véhicules autonomes reste un problème difficile. Affective informatique est un parapluie interdisciplinaire qui comprend des systèmes qui reconnaissent, interpréter, traiter, ou simulent humain affecte . Succès modérés liés à l' informatique affective comprennent textuelle l' analyse des sentiments et, plus récemment, l' analyse multimodal affecter (voir l' analyse des sentiments multimodal ), où AI classe les affects affichés par un sujet sur bande vidéo.

À long terme, les compétences sociales et une compréhension de l' émotion humaine et la théorie des jeux seraient utiles à un agent social. Être en mesure de prédire les actions des autres par la compréhension de leurs motivations et leurs états émotionnels permettrait à un agent pour prendre de meilleures décisions. Certains systèmes informatiques simulent l' émotion humaine et les expressions apparaissent plus sensibles à la dynamique émotionnelle de l' interaction humaine, ou pour faciliter autrement l' interaction homme-ordinateur . De même, certains assistants virtuels sont programmés pour parler conversationnel ou même à badiner avec humour; ce qui tend à donner aux utilisateurs naïfs une conception réaliste de la façon dont les agents informatiques existants intelligents sont en réalité.

Intelligence générale

Dans le passé, des projets tels que la base de connaissances Cyc (1984-) et le massif japonais de la cinquième génération de systèmes informatiques initiative (1982-1992) ont tenté de couvrir l'étendue de la cognition humaine. Ces premiers projets ont échoué à échapper aux limites des modèles logiques symboliques non-quantitatives et, rétrospectivement, grandement sous - estimé la difficulté de interdomaine AI. De nos jours, la grande majorité des chercheurs actuels d' influenza aviaire travaillent plutôt sur des applications « AI » étroites traitables (telles que le diagnostic médical ou la navigation automobile). De nombreux chercheurs prédisent que ces travaux « AI étroite » dans différents domaines individuels sera éventuellement intégré à une machine avec l' intelligence artificielle générale (AGI), combinant la plupart des compétences étroites mentionnées dans cet article et à un moment donné dépassant même capacité humaine dans la plupart ou tous ces domaines. De nombreux progrès ont en général, l' importance inter-domaines. Un exemple très médiatisé que DeepMind dans les années 2010 a développé une « intelligence artificielle généralisée » qui pourrait apprendre beaucoup de divers Atari jeux lui - même, et plus tard mis au point une variante du système qui réussit à un apprentissage séquentiel . En plus de l' apprentissage de transfert , des percées AGI hypothétiques pourraient inclure le développement d'architectures réfléchissantes qui peuvent s'engager dans métaraisonnement de décision-théorétique, et déterminer comment « gober » une base de connaissances complète de l'ensemble non structuré Web . Certains font valoir que certains types de (actuellement non découvert) sur le plan conceptuel simple, mais mathématiquement difficile, « maître algorithme » pourrait conduire à l' IAG. Enfin, quelques approches « émergentes » cherchent à simuler l' intelligence humaine très étroitement, et nous croyons que anthropomorphes caractéristiques comme un cerveau artificiel ou simulé le développement des enfants pourraient un jour atteindre un point critique où l' intelligence générale émerge.

Bon nombre des problèmes dans cet article peut également exiger des renseignements généraux, si les machines sont à résoudre les problèmes ainsi que les gens font. Par exemple, les tâches simples même spécifiques, comme la traduction automatique , exigent qu'une machine lire et écrire dans les deux langues ( PNL ), suivre l'argument de l'auteur ( raison ), savoir ce qui est parlé ( connaissances ), et reproduire fidèlement l'original de l'auteur intention ( intelligence sociale ). Un problème comme la traduction automatique est considérée comme « AI-complet », parce que tous ces problèmes doivent être résolus simultanément afin d'atteindre des performances de la machine au niveau humain.

Approches

Il n'y a pas de théorie unificatrice établi ou paradigme qui guide la recherche en IA. Les chercheurs sont en désaccord sur de nombreuses questions. Quelques - unes des plus longues questions qui sont restées debout sans réponse sont celles - ci: l' intelligence artificielle devraient simulent l' intelligence naturelle en étudiant la psychologie ou la neurobiologie ? Ou est la biologie humaine comme non pertinents pour la recherche en IA comme la biologie des oiseaux est à l' ingénierie aéronautique ? Peut - être un comportement intelligent décrit en utilisant des principes simples, élégants (comme la logique ou l' optimisation )? Ou faut - il nécessairement besoin de résoudre un grand nombre de problèmes complètement indépendants?

Cybernétique et simulation du cerveau

Dans les années 1940 et 1950, un certain nombre de chercheurs ont étudié le lien entre la neurobiologie , la théorie de l' information et Cybernétique . Certains d'entre eux ont construit des machines qui ont utilisé les réseaux électroniques pour présenter l' intelligence rudimentaire, comme W. Gray Walter de tortues et de la Johns Hopkins Beast . Un grand nombre de ces chercheurs se sont réunis pour les réunions de la Société téléologique à l' Université de Princeton et le Club Ratio en Angleterre. En 1960, cette approche a été largement abandonnée, bien que certains de ses éléments seraient ravivé dans les années 1980.

Symbolique

Lorsque l' accès aux ordinateurs numériques est devenu possible dans les années 1950 du milieu, la recherche IA a explorer la possibilité que l' intelligence humaine pourrait être réduit à la manipulation des symboles. La recherche a été centrée sur trois institutions: Carnegie Mellon University , Stanford et MIT , et comme décrit ci - dessous, chacun a développé son propre style de recherche. John Haugeland nommé ces approches symboliques à l' IA « bon vieux AI » ou « GOFAI ». Au cours des années 1960, les approches symboliques ont connu un grand succès à la simulation pensée de haut niveau dans les petits programmes de démonstration. Les approches fondées sur la cybernétique ou les réseaux de neurones artificiels ont été abandonnés ou relégués au second plan. Les chercheurs dans les années 1960 et les années 1970 , étaient convaincus que les approches symboliques finiraient par réussir à créer une machine avec l' intelligence artificielle générale et a examiné ce dans le but de leur domaine.

simulation cognitive

Économiste Herbert Simon et Allen Newell ont étudié les compétences de résolution de problèmes humains et ont tenté de les formaliser, et leur travail a jeté les bases du domaine de l' intelligence artificielle, ainsi que les sciences cognitives , la recherche opérationnelle et les sciences de gestion . Leur équipe de recherche a utilisé les résultats de psychologiques expériences pour développer des programmes qui ont simulé les techniques que les gens utilisés pour résoudre les problèmes. Cette tradition, centrée à l' Université Carnegie Mellon finirait par aboutir à l'élaboration de la Soar architecture dans le milieu des années 1980.

basé sur la logique

Contrairement à Simon et Newell, John McCarthy a estimé que les machines ne ont pas besoin de simuler la pensée humaine, mais devraient plutôt essayer de trouver l'essence du raisonnement abstrait et la résolution de problèmes, indépendamment du fait que les gens ont utilisé les mêmes algorithmes. Son laboratoire à Stanford ( SAIL ) axé sur l' utilisation formelle logique pour résoudre une grande variété de problèmes, y compris la représentation des connaissances , la planification et l' apprentissage . La logique a également été au centre des travaux à l' Université d'Edimbourg et ailleurs en Europe qui a conduit au développement du langage de programmation Prolog et la science de la programmation logique .

Anti-logique ou débraillé

Les chercheurs du MIT (comme Marvin Minsky et Seymour Papert ) ont constaté que la résolution des problèmes difficiles dans la vision et le traitement du langage naturel nécessaire ad-hoc des solutions, ils ont fait valoir qu'il n'y avait aucun principe simple et général (comme la logique ) qui capture tous les aspects de la comportement intelligent. Roger Schank décrit leurs approches « anti-logiques » comme « débraillé » (par opposition aux « purs paradigmes » à la CMU et Stanford). Bases de connaissances Commonsense (comme Doug Lenat de Cyc ) sont un exemple de « miteux » AI, car ils doivent être construits à la main, une notion complexe à la fois.

fondée sur le savoir

Lorsque les ordinateurs avec de grands souvenirs sont devenus disponibles vers 1970, les chercheurs de trois traditions ont commencé à construire des connaissances dans des applications AI. Cette « révolution du savoir » a conduit à la mise au point et le déploiement de systèmes experts (mis en place par Edward Feigenbaum ), la première forme vraiment réussie du logiciel AI. Élément clé sur le système arhitecute pour tous les systèmes experts est la base de connaissances, qui stocke des faits et des règles qui illustre AI. La révolution du savoir a également été tirée par la prise de conscience que d' énormes quantités de connaissances seraient nécessaires par de nombreuses applications simples AI.

Sous-symbolique

Dans les années 1980, les progrès dans l' IA symbolique semblait décrochage et beaucoup pensaient que les systèmes symboliques ne seraient jamais capables d'imiter tous les processus de la cognition humaine, en particulier la perception , la robotique , l' apprentissage et la reconnaissance des formes . Un certain nombre de chercheurs ont commencé à étudier les approches « sous-symbolique » à des problèmes spécifiques AI. Méthodes sous-symboliques parviennent à approcher l' intelligence sans représentations spécifiques de la connaissance.

l'intelligence Embodied

Cela inclut réalisé , situé , basée sur le comportement , et nouvelle AI . Les chercheurs du domaine connexe de la robotique , tels que Rodney Brooks , a rejeté l' IA symbolique et ont porté sur les problèmes d'ingénierie de base qui permettraient aux robots de se déplacer et survivre. Leur travail a relancé le point de vue non-symbolique des premiers cybernétiques chercheurs des années 1950 et réintroduit l'utilisation de la théorie du contrôle en IA. Cela a coïncidé avec le développement de la thèse de l' esprit incarné dans le domaine connexe des sciences cognitives : l'idée que les aspects du corps (comme le mouvement, la perception et la visualisation) sont nécessaires pour une plus grande intelligence.

Au sein de la robotique de développement , les approches d'apprentissage du développement sont élaborées de manière à permettre aux robots d'accumuler répertoires de nouvelles compétences grâce à l' auto-exploration autonome, l' interaction sociale avec les enseignants de l' homme, et l'utilisation de mécanismes d'orientation (d'apprentissage actif, la maturation, des synergies de moteur, etc.).

l'intelligence informatique et l'informatique douce

L' intérêt pour les réseaux de neurones et « connexionniste » a été ravivé par David Rumelhart et d' autres au milieu des années 1980. Réseaux de neurones artificiels sont un exemple de calcul souple -Ils sont des solutions à des problèmes qui ne peuvent être résolus avec une certitude absolue logique, et où une solution approximative est souvent suffisante. D' autres Soft Computing approches AI comprennent des systèmes flous , calcul évolutif et de nombreux outils statistiques. L'application de l' informatique douce AI est étudiée collectivement par la discipline émergente de l' intelligence informatique .

apprentissage statistique

Une grande partie de GOFAI traditionnelle enlisée sur ad hoc des correctifs pour le calcul symbolique qui ont travaillé sur leurs propres modèles de jouets , mais a échoué à généraliser les résultats du monde réel. Cependant, dans les années 1990, les chercheurs ont adopté l' IA des outils mathématiques sophistiqués, tels que les modèles de Markov cachés (HMM), théorie de l' information , et bayésienne normative théorie de la décision de comparer ou à unifier les architectures concurrentes. Le langage mathématique partagé a permis un niveau élevé de collaboration avec des domaines plus établis (comme les mathématiques , l' économie ou la recherche opérationnelle ). Par rapport à GOFAI, de nouvelles techniques « d'apprentissage statistique » tels que les réseaux de neurones et HMM ont été gagnent des niveaux plus élevés de précision dans de nombreux domaines pratiques tels que l' exploration de données , sans nécessairement acquérir la compréhension sémantique des ensembles de données. Les succès ont augmenté avec des données réelles ont conduit à de plus en plus l' accent sur la comparaison des approches différentes par rapport aux données de test partagées pour voir quelle approche a le mieux performé dans un contexte plus large que celui fourni par les modèles de jouets idiosyncrasiques; La recherche en IA a été de plus en plus scientifique . De nos jours , les résultats des expériences sont souvent rigoureusement mesurables et sont parfois (avec difficulté) reproductible. Différentes techniques d'apprentissage statistique ont des limites; par exemple, HMM de base ne peut pas modéliser les combinaisons possibles infinies du langage naturel. Les critiques notent que le passage de GOFAI à l' apprentissage statistique est souvent aussi un abandon de explicitable AI . Dans la recherche AGI, certains chercheurs mettent en garde contre le recours excessif à l' apprentissage statistique, et soutiennent que la poursuite des recherches en GOFAI sera toujours nécessaire pour atteindre l' intelligence générale.

L'intégration des approches

paradigme agent intelligent
Un agent intelligent est un système qui perçoit son environnement et prend les mesures qui maximisent ses chances de succès. Les plus simples agents intelligents sont des programmes qui permettent de résoudre des problèmes spécifiques. Les agents plus complexes comprennent les êtres humains et les organisations d'êtres humains (comme les entreprises ). Le paradigme permet aux chercheurs de comparer directement ou même combiner différentes approches de problèmes isolés, en demandant quel agent est le mieux à maximiser une donnée « fonction objectif ». Un agent qui permet de résoudre un problème spécifique peut utiliser toute approche qui fonctionne-certains agents sont symboliques et logiques, certains sont sous-symbolique des réseaux de neurones artificiels et d' autres peuvent utiliser de nouvelles approches. Le paradigme donne également aux chercheurs un langage commun pour communiquer avec d' autres domaines tels que la théorie de la décision et l' économie qui utilisent aussi des concepts abstraits d'agents. Construire un agent complet exige que les chercheurs pour résoudre les problèmes d'intégration réalistes; par exemple, parce que les systèmes sensoriels donnent des informations sur l'environnement incertain, les systèmes de planification doivent être en mesure de fonctionner en présence d'incertitude. Le paradigme agent intelligent est devenu largement accepté dans les années 1990.
Architectures Agent et architectures cognitives
Les chercheurs ont conçu des systèmes pour construire des systèmes intelligents de l' interaction des agents intelligents dans un système multi-agents . Un système de contrôle hiérarchique fournit un pont entre l' IA sous-symbolique au plus bas, les niveaux réactifs et AI symbolique traditionnelle à son plus haut niveau, où les contraintes de temps détendues permettent la planification et la modélisation mondiale. Certaines architectures cognitives sont construites sur mesure pour résoudre un problème étroit; d' autres, comme Soar , sont conçus pour mimer la cognition humaine et de donner un aperçu de l' intelligence générale. Extensions modernes de Soar sont des systèmes hybrides intelligents qui comprennent les deux composantes symboliques et sous-symboliques.

Outils

Amnesty International a développé un grand nombre d'outils pour résoudre les problèmes les plus difficiles dans la science informatique . Quelques - unes de ces méthodes les plus générales sont abordées ci - dessous.

Recherche et optimisation

De nombreux problèmes en IA peuvent être résolus en théorie en effectuant une recherche intelligente à travers de nombreuses solutions possibles: Raisonnement peut être réduit à effectuer une recherche. Par exemple, la preuve logique peut être considérée comme la recherche d'un chemin qui mène de locaux à des conclusions , où chaque étape est l'application d'une règle d'inférence . Planification des algorithmes de recherche à travers les arbres des objectifs et sous - objectifs, en essayant de trouver un chemin vers un objectif cible, un processus appelé moyens-fins d' analyse . Robotique algorithmes pour bouger les membres et saisir des objets utilisent des recherches locales dans l' espace de configuration . De nombreux apprentissage algorithmes utilisent des algorithmes de recherche basés sur l' optimisation .

Des recherches exhaustives simples sont rarement suffisantes pour la plupart des problèmes du monde réel: l' espace de recherche (le nombre de places à la recherche) pousse rapidement à un nombre astronomique . Le résultat est une recherche qui est trop lent ou ne se termine jamais. La solution, pour de nombreux problèmes, est d'utiliser « heuristiques » ou « règles empiriques » qui accordent la priorité des choix en faveur de ceux qui sont plus susceptibles d'atteindre un objectif et de le faire dans un certain nombre d'étapes plus courtes. Dans certaines méthodologies de recherche heuristiques peuvent aussi servir à éliminer complètement des choix qui ne sont pas susceptibles de conduire à un objectif (appelé « la taille du arbre de recherche »). Heuristiques fournir le programme avec une « meilleure estimation » pour le chemin sur lequel la solution est. Heuristiques limitent la recherche de solutions dans une plus petite taille de l' échantillon.

Un genre très différent de la recherche est fait connaître dans les années 1990, basée sur la théorie mathématique de l' optimisation . Pour beaucoup de problèmes, il est possible de commencer la recherche avec une certaine forme d'une estimation puis affiner la conjecture progressivement jusqu'à ce qu'aucune raffinements peuvent être faites. Ces algorithmes peuvent être visualisés aveugle escalade de montagne : nous commençons la recherche à un point au hasard sur le paysage, puis, par des sauts ou pas, nous continuons à faire avancer notre estimation en montée, jusqu'à ce que nous atteignons le sommet. D' autres algorithmes d'optimisation sont le recuit simulé , recherche de faisceau et l' optimisation aléatoire .

Un essaim de particules à la recherche du minimum global

Evolutionary computation utilise une forme de recherche d'optimisation. Par exemple, ils peuvent commencer par une population d'organismes (les) Guesses et leur permettre de muter et se recombinent, sélectionner uniquement les plus aptes à survivre chaque génération (affiner les hypothèses). Classiques algorithmes évolutifs comprennent des algorithmes génétiques , la programmation de l' expression des gènes , et la programmation génétique . Vous pouvez également, les processus de recherche distribués peuvent coordonner via intelligence en essaim des algorithmes. Deux algorithmes d'essaims populaires utilisés dans la recherche sont l' optimisation des essaim de particules (inspiré par oiseau flocage ) et fourmis optimisation des colonies (inspirée par les sentiers de fourmis ).

Logique

Logic est utilisé pour la représentation des connaissances et la résolution de problèmes, mais il peut être appliqué à d' autres problèmes. Par exemple, le SATPLAN algorithme utilise la logique pour la planification et la programmation logique inductive est une méthode d' apprentissage .

Plusieurs formes différentes de la logique sont utilisés dans la recherche en IA. La logique propositionnelle implique des fonctions de vérité telles que « ou » et « non ». La logique du premier ordre ajoute quantificateurs et prédicats , et peut exprimer des faits sur les objets, leurs propriétés et leurs relations les uns avec les autres. Théorie des ensembles flous attribue un « degré de vérité » (entre 0 et 1) aux déclarations vagues comme « Alice est vieux » (ou riche, ou grand, ou faim) qui sont trop imprécises pour être linguistiquement complètement vrai ou faux. La logique floue est utilisée avec succès dans les systèmes de contrôle pour permettre aux experts de contribuer des règles vagues telles que « si vous êtes proche de la gare de destination et en mouvement rapide, augmenter la pression de freinage du train »; ces règles vagues peuvent être numériquement raffiné dans le système. La logique floue ne parvient pas à l' échelle et dans les bases de connaissances; de nombreux chercheurs d' Amnesty International remettent en question la validité de l' enchaînement des déductions logique floue.

Logiques par défaut , logiques non-monotones et Circonscription sont des formes de logique conçues pour aider avec le raisonnement par défaut et le problème de qualification . Plusieurs extensions de la logique ont été conçues pour traiter des domaines spécifiques de la connaissance , tels que: les logiques de description ; calcul de la situation , le calcul des événements et calcul couramment (pour représenter les événements et le temps); calcul de cause à effet ; calcul de croyance; et la logique modale .

Dans l' ensemble, la logique symbolique qualitiative est fragile et échelles mal en présence de bruit ou d'une autre incertitude. Les exceptions aux règles sont nombreuses, et il est difficile pour les systèmes logiques de fonctionner en présence de règles contradictoires.

Méthodes probabilistes pour le raisonnement incertain

Attente maximisation regroupement des Old Faithful données d'éruption commence à partir d' une estimation aléatoire mais converge avec succès sur un regroupement précis des deux modes physiquement distincts d'éruption.

De nombreux problèmes dans AI (dans le raisonnement, la planification, l' apprentissage, la perception et la robotique) exigent l'agent pour fonctionner avec des informations incomplètes ou incertaines. Les chercheurs d' Amnesty International ont mis au point un certain nombre d'outils puissants pour résoudre ces problèmes en utilisant des méthodes de probabilité la théorie et l' économie.

Les réseaux bayésiens sont un outil très général qui peut être utilisé pour un grand nombre de problèmes: le raisonnement ( en utilisant l' inférence bayésienne algorithme), l' apprentissage ( en utilisant l' algorithme de maximisation de l' espérance ), la planification ( à l' aide des réseaux de décision ) et la perception ( en utilisant les réseaux bayésiens dynamiques ). Algorithmes probabilistes peuvent également être utilisés pour le filtrage, la prédiction, le lissage et trouver des explications pour les flux de données, aidant la perception des systèmes pour analyser les processus qui se produisent au fil du temps (par exemple, les modèles de Markov cachés ou les filtres de Kalman ). Par rapport à la logique symbolique, l' inférence bayésienne formelle est informatiquement coûteuse. Pour conclusion à tractable, la plupart des observations doivent être indépendantes conditionnellement les uns des autres. Graphiques complexes avec des diamants ou d' autres « boucles » (non orientés cycles ) peuvent nécessiter une méthode sophistiquée, comme une chaîne de Markov Monte Carlo , qui se répand un ensemble de promeneurs au hasard à travers le réseau bayésien et tente de converger vers une évaluation des probabilités conditionnelles. Les réseaux bayésiens sont utilisés sur Xbox Live pour les joueurs de taux et correspondance; gains et les pertes sont « preuves » de la qualité d' un joueur. AdSense utilise un réseau bayésien avec plus de 300 millions de bords pour apprendre la diffusion des annonces.

Un concept clé de la science de l' économie est « utilité »: une mesure de la valeur que quelque chose est un agent intelligent. Outils mathématiques précis ont été développés qui analysent comment un agent peut faire des choix et un plan, en utilisant la théorie de la décision , l' analyse décisionnelle et la théorie de la valeur de l' information . Ces outils comprennent des modèles tels que les processus de décision de Markov , dynamique des réseaux de décision , la théorie des jeux et la conception du mécanisme .

Classificateurs et méthodes d'apprentissage statistique

Les applications les plus simples IA peuvent être divisés en deux types: classificateurs ( « si brillant alors diamant ») et les contrôleurs ( « si brillant puis ramasser »). Les contrôleurs ne, cependant, également placé des conditions avant que les actions inférer, et donc le classement constitue un élément central de nombreux systèmes d' IA. Les classificateurs sont des fonctions qui utilisent l' appariement de motif pour déterminer une correspondance la plus proche. Ils peuvent être réglés selon les exemples, ce qui les rend très attractif pour une utilisation en IA. Ces exemples sont connus comme des observations ou des motifs. Dans l' apprentissage supervisé, chaque modèle appartient à une certaine classe prédéfinie. Une classe peut être considérée comme une décision qui doit être fait. Toutes les observations combinées avec leurs étiquettes de classe sont connues sous le nom d' un ensemble de données. Lorsqu'une nouvelle observation est reçue, cette observation est classée en fonction de l'expérience antérieure.

Un classificateur peut être formé de diverses manières; il y a beaucoup de statistiques et l' apprentissage automatique des approches. L' arbre de décision est peut - être l'algorithme d'apprentissage automatique le plus largement utilisé. D' autres classificateurs largement utilisés sont le réseau de neurones , k-algorithme le plus proche voisin , les méthodes du noyau comme la machine à vecteurs de support (SVM), modèle de mélange de gaussiennes , et le très populaire classificateur bayésiens naïfs . La performance de classificateur dépend en grande partie des caractéristiques des données à classer, telles que la taille du jeu de données, la distribution d'échantillons dans toutes les classes, la dimensionnalité, et le niveau de bruit. Classificateurs à base de modèles fonctionnent bien si le modèle retenu est un très bon moyen pour les données réelles. Dans le cas contraire, si aucun modèle correspondant est disponible et si la précision (plutôt que la vitesse ou l' évolutivité) est la seule préoccupation, la sagesse conventionnelle est que discriminantes classificateurs ( en particulier SVM) ont tendance à être plus précis que les classificateurs basés sur des modèles tels que « bayésiens naïfs » sur la plupart des ensembles de données pratiques.

Réseaux de neurones artificiels

Un réseau de neurones est un groupe interconnecté de noeuds, semblable à la vaste réseau de neurones dans le cerveau humain .

Les réseaux de neurones, ou les réseaux de neurones, ont été inspirés par l'architecture des neurones dans le cerveau humain. Un « neurone » simple , N accepte une entrée à partir de plusieurs autres neurones, dont chacun, lorsqu'il est activé (ou « feu »), coulé un « vote » pondéré pour ou contre si neurone N doit s'activer. L' apprentissage requiert un algorithme pour ajuster ces poids à partir des données de formation; un algorithme simple (surnommé « feu ensemble, le fil ensemble ») consiste à augmenter la masse entre deux neurones connectés lors de l'activation d'une déclenche l'activation réussie d' une autre. Les formes nettes « concepts » qui sont répartis entre un sous - réseau de neurones partagés qui ont tendance à tirer ensemble; un concept qui signifie « jambe » peut être couplé à un sous - réseau qui signifie « pied » qui inclut le son pour « pied ». Les neurones ont un spectre continu de l' activation; en plus, les neurones peuvent traiter des entrées d'une manière non linéaire plutôt que de peser votes simples. Les réseaux de neurones modernes peuvent apprendre les fonctions continues et, de façon surprenante, les opérations logiques numériques. Les premiers succès de réseaux de neurones inclus prédire le marché boursier et (en 1995) une voiture pour la plupart auto-conduite. Dans les années 2010, les progrès dans les réseaux de neurones à l' aide de l' IA poussée apprentissage profondément dans la conscience publique généralisée et a contribué à une énorme upshift des dépenses des entreprises AI; par exemple, AI liées M & A en 2017 a été plus de 25 fois plus grand que en 2015.

L'étude de non-apprentissage des réseaux de neurones artificiels a commencé dans la décennie avant que le domaine de la recherche en IA a été fondée, dans l'œuvre de Walter Pitts et Warren McCullouch . Frank Rosenblatt a inventé le perceptron , un réseau d'apprentissage avec une seule couche, similaire à l'ancien concept de régression linéaire . Les pionniers également Alexey Grigorevich Ivakhnenko , Teuvo Kohonen , Stephen Grossberg , Kunihiko Fukushima , Christoph von der Malsburg, David Willshaw, Shun-Ichi Amari , Bernard Widrow , John Hopfield , Eduardo R. Caianiello , et d' autres.

Les principales catégories de réseaux sont acycliques ou des réseaux de neurones feedforward (où le signal passe dans un seul sens) et des réseaux de neurones récurrents (qui permettent la rétroaction et des mémoires à court terme des événements d'entrée précédente). Parmi les plus populaires réseaux anticipatifs sont perceptrons , perceptrons multicouches et réseaux de base radiale . Les réseaux de neurones peuvent être appliqués au problème de contrôle intelligent (pour la robotique) ou l' apprentissage , en utilisant des techniques telles que Hebbian apprentissage ( « feu ensemble, fil ensemble »), GMDH ou apprentissage compétitif .

Aujourd'hui, les réseaux de neurones sont souvent formés par le rétropropagation algorithme, qui avait été autour depuis 1970 en tant que mode inverse de la différentiation automatique publiée par Seppo Linnainmaa , et a été présenté aux réseaux de neurones par Paul Werbos .

Mémoire temporelle hiérarchique est une approche que les modèles certaines des propriétés structurelles et algorithmiques du néocortex .

En résumé, la plupart des réseaux de neurones utilisent une forme de descente de gradient sur une topologie de neurones créé à la main. Cependant, certains groupes de recherche, comme Uber , affirment aussi simple que cela neuroevolution muter nouvelles topologies de réseaux de neurones et de poids peut être compétitif avec des approches sophistiquées de descente de gradient. Un avantage de neuroevolution est qu'il peut être moins enclin à se coincer dans les « impasses ».

les réseaux de neurones de profondeur d'anticipation

L' apprentissage en profondeur est tout réseau de neurones artificiels qui peut apprendre une longue chaîne de liens de cause à effet. Par exemple, un réseau de six couches anticipatrice cachées peuvent apprendre une chaîne de cause à effet sept lien (six couches cachées + couche de sortie) et un « chemin d'affectation de crédit » de profondeur (CAP) de sept. De nombreux systèmes d'apprentissage en profondeur doivent être en mesure d'apprendre des chaînes dix ou plus de liens de cause à effet de longueur. L' apprentissage en profondeur a transformé de nombreux sous - domaines importants de l' intelligence artificielle, y compris la vision par ordinateur , la reconnaissance vocale , le traitement du langage naturel et d' autres.

Selon un aperçu, l'expression « apprentissage en profondeur » a été présenté à l' apprentissage de la machine communautaire par Rina Dechter en 1986 et a gagné la traction après Igor Aizenberg et ses collègues ont présenté à des réseaux de neurones artificiels en 2000. Les premiers réseaux d'apprentissage en profondeur fonctionnels ont été publiés par Alexey Grigorevich Ivakhnenko et VG Lapa en 1965. Ces réseaux sont formés d' une couche à la fois. Papier Ivakhnenko 1971 décrit l'apprentissage d'un perceptron multicouche profond avec huit anticipatrice couches, déjà beaucoup plus profondes que de nombreux réseaux plus tard. En 2006, une publication par Geoffrey Hinton et Ruslan Salakhutdinov introduit un autre moyen de pré-formation de plusieurs couches de réseaux de neurones feedforward (les FNNs) une de couche à la fois, le traitement de chaque couche tour à tour comme une non supervisée Machine Boltzmann restreinte , puis en utilisant supervisé rétropropagation pour réglage fin. Similaires à des réseaux de neurones artificiels peu profonds, les réseaux de neurones profonds peuvent modéliser complexes des relations non linéaires. Au cours des dernières années, les progrès dans les deux algorithmes d'apprentissage machine et matériel informatique ont conduit à des méthodes plus efficaces pour la formation de réseaux de neurones profonds qui contiennent de nombreuses couches d'unités cachées non-linéaires et une couche de sortie très importante.

L' apprentissage en profondeur utilise souvent des réseaux de neurones convolutionnels (CNNs), dont les origines remontent à la Neocognitron introduite par Kunihiko Fukushima en 1980. En 1989, Yann LeCun et ses collègues ont appliqué rétropropagation à une telle architecture. Au début des années 2000, dans une application industrielle CNNs déjà traité environ 10% à 20% de tous les chèques émis aux États - Unis. Depuis 2011, les mises en œuvre rapide de CNNs sur les GPU ont remporté de nombreux concours de reconnaissance de motif visuel.

CNNs avec 12 couches convolutifs ont été utilisés conjointement avec l' apprentissage de renforcement par « de Deepmind AlphaGo Lee », le programme qui a battu un top Go champion en 2016.

réseaux de neurones profonds récurrents

Dès le début, l' apprentissage en profondeur a également été appliquée à la séquence d' apprentissage avec les réseaux de neurones récurrents (de RNNs) qui sont en théorie complète et peut Turing exécuter des programmes arbitraires pour traiter des séquences arbitraires d'entrées. La profondeur d'un RNN est illimité et dépend de la longueur de sa séquence d'entrée; ainsi, un RNN est un exemple d'apprentissage en profondeur. RNNs peuvent être formés par une descente de gradient , mais souffrent du problème gradient de fuite . En 1992, il a été montré que la pré-formation sans supervision d'un empilement de réseaux de neurones récurrents peuvent accélérer l' apprentissage ultérieur supervisé des problèmes séquentiels profonds.

De nombreux chercheurs utilisent maintenant des variantes d'une récurrente d'apprentissage profond NN appelé la longue mémoire à court terme réseau (LSTM) publié par Hochreiter & Schmidhuber en 1997. LSTM est souvent formé par Connectionist Classification temporelle (CTC). Chez Google, Microsoft et Baidu cette approche a révolutionné la reconnaissance vocale . Par exemple, en 2015, la reconnaissance vocale de Google a connu un bond spectaculaire des performances de 49% par LSTM CTC formés, qui est désormais disponible via Google Voice à des milliards d'utilisateurs de téléphones intelligents. Google a également utilisé LSTM pour améliorer la traduction automatique, langage de modélisation et de traitement du langage multilingue. LSTM combiné avec CNNs a également amélioré le sous - titrage automatique d'images et une pléthore d'autres applications.

l'évaluation des progrès

AI, comme l' électricité ou le moteur à vapeur, est une technologie d'usage général. Il n'y a pas de consensus sur la façon de caractériser les tâches AI tend à exceller. Alors que des projets tels que AlphaZero ont réussi à générer leurs propres connaissances à partir de zéro, de nombreux autres projets d'apprentissage machine nécessitent grands ensembles de données de formation. Chercheur Andrew Ng a suggéré, comme « très imparfaite règle générale », que « presque tout un être humain typique peut faire avec moins d'une seconde de la pensée mentale, nous pouvons sans doute maintenant ou dans un avenir proche d' automatiser l'insémination artificielle. » Le paradoxe de Moravec suggère que l' IA accuse les humains à de nombreuses tâches que le cerveau humain a évolué spécifiquement pour bien fonctionner .

Jeux constituent une référence très médiatisée pour évaluer les taux de progrès. AlphaGo vers 2016 a l'ère des repères classiques de jeux de société à sa fin. Jeux de la connaissance imparfaite de nouveaux défis à l' IA dans le domaine de la théorie des jeux . E-sports tels que StarCraft continuent de fournir des repères publics supplémentaires. Il y a beaucoup de concours et de prix, tels que le Défi IMAGEnet , pour promouvoir la recherche en intelligence artificielle. Les zones les plus communes de la concurrence comprennent l' intelligence générale de la machine, le comportement de la conversation, l' extraction de données, les voitures robotiques , et le football de robot ainsi que des jeux traditionnels.

Le « jeu d'imitation » (une interprétation du 1950 test de Turing qui évalue si un ordinateur peut imiter un être humain) est aujourd'hui considéré comme trop exploitable pour être une référence significative. Dérivé du test de Turing est le test automatisé complètement public Turing pour dire les ordinateurs et les humains Apart ( CAPTCHA ). Comme son nom l' indique, cela aide à déterminer si un utilisateur est une personne réelle et non un posing ordinateur comme un être humain. Contrairement à l'essai standard de Turing, CAPTCHA est administré par une machine et destiné à un être humain au lieu d'être administré par un être humain et ciblé sur une machine. Un ordinateur demande à un utilisateur d'effectuer un test simple génère ensuite une note pour ce test. Les ordinateurs sont incapables de résoudre le problème, donc les solutions correctes sont réputées être le résultat d'une personne prenant le test. Un type courant de CAPTCHA est le test qui nécessite la saisie des lettres déformées, des chiffres ou des symboles qui apparaissent dans une image indéchiffrable par un ordinateur.

Proposé des tests « intelligence universelle » visent à comparer comment les machines, les humains, et même les animaux non humains se produisent sur des ensembles de problèmes qui sont génériques que possible. À l'extrême, la suite de tests peut contenir tous les problèmes possibles, pondérés par la complexité de Kolmogorov ; malheureusement, ces ensembles de problèmes ont tendance à être dominé par des exercices de filtrages pauvres où une IA réglé peut facilement dépasser les niveaux de performance humaine.

Applications

Un assistant en ligne automatisé service à la clientèle sur une page Web - une des nombreuses applications très primitives de l' intelligence artificielle

AI est pertinente pour toute tâche intellectuelle. Techniques d'intelligence artificielle modernes sont omniprésents et sont trop nombreux pour les énumérer ici. Souvent, lorsqu'une technique atteint utilisation courante, il n'est plus considéré comme l' intelligence artificielle; ce phénomène est décrit comme l' effet AI .

Des exemples très médiatisés de l' IA comprennent les véhicules autonomes (comme les drones et les voitures auto-conduite ), le diagnostic médical, la création de l' art (comme la poésie), prouvant théorèmes mathématiques, jouer à des jeux (comme les échecs ou Go), les moteurs de recherche (tels que Recherche Google ), les assistants en ligne (tels que Siri ), reconnaissance d'images en images, filtrage de spam, prédire les retards de vol, la prévision des décisions judiciaires et le ciblage des publicités en ligne.

Avec des sites de médias sociaux dépassant TV comme source de nouvelles pour les jeunes et les organisations de presse de plus en plus dépendants des plates-formes de médias sociaux pour générer la distribution, les grands éditeurs utilisent désormais l'intelligence artificielle (IA) technologie pour publier des histoires plus efficacement et de générer des volumes plus élevés de trafic.

Soins de santé

Un bras chirurgicale sur le patient du côté système chirurgical da Vinci

AI est appliquée au problème de coût élevé des questions, où posologiques résultats suggèrent que l'IA pourrait économiser 16 milliards $. En 2016, une étude novatrice en Californie a révélé que la formule mathématique développée avec l'aide de l'IA déterminé correctement la dose précise de médicaments immunosuppresseurs pour donner aux patients d'organes.

X-ray d'une main, avec calcul automatique de l' âge osseux par un logiciel informatique

L' intelligence artificielle est par effraction dans l'industrie des soins de santé en aidant les médecins. Selon Bloomberg Technology, Microsoft a développé AI pour aider les médecins à trouver les bons traitements pour le cancer. Il y a une grande quantité de recherche et de médicaments mis au point relatif au cancer. Dans le détail, il y a plus de 800 médicaments et vaccins pour le traitement du cancer. Cela affecte négativement les médecins, parce qu'il ya trop d'options à choisir, rendant plus difficile de choisir les bons médicaments pour les patients. Microsoft travaille sur un projet pour développer une machine appelée « Hanover ». Son but est de mémoriser tous les papiers nécessaires pour le cancer et aider à prédire quelles combinaisons de médicaments seront plus efficaces pour chaque patient. Un projet qui est en cours d' élaboration au moment combat la leucémie myéloïde , un cancer mortel où le traitement n'a pas amélioré depuis des décennies. Une autre étude a été rapporté avoir constaté que l' intelligence artificielle était aussi bon que les médecins formés à l' identification des cancers de la peau. Une autre étude est en utilisant l' intelligence artificielle pour essayer de surveiller plusieurs patients à haut risque, et cela se fait en posant de nombreuses questions chaque patient sur la base des données acquises par le médecin en direct aux interactions avec les patients.

Selon CNN , une étude récente réalisée par les chirurgiens du Centre médical national des enfants à Washington a démontré avec succès la chirurgie avec un robot autonome. L'équipe a supervisé le robot pendant qu'il effectue la chirurgie des tissus mous, assemblant l'intestin de porc pendant la chirurgie ouverte, et de le faire mieux qu'un chirurgien humain, l'équipe revendiquée. IBM a créé son propre ordinateur d'intelligence artificielle, l' IBM Watson , qui a battu l' intelligence humaine (à certains niveaux). Watson a non seulement gagné au jeu télévisé Jeopardy! contre les anciens champions, mais a été déclaré un héros après le diagnostic avec succès une femme qui souffrait de leucémie.

Automobile

AI ont en progrès contribué à la croissance de l'industrie automobile à travers la création et l' évolution des véhicules d'auto-conduite. En 2016, il y a plus de 30 entreprises utilisant AI dans la création de voitures sans conducteur . Quelques entreprises impliquées avec AI comprennent Tesla , Google et d' Apple .

De nombreux composants contribuent au bon fonctionnement des voitures d'auto-conduite. Ces véhicules systèmes intègrent comme le freinage, changement de voie, la prévention des collisions, la navigation et la cartographie. Ensemble, ces systèmes, ainsi que des ordinateurs de haute performance, sont intégrés dans un seul véhicule complexe.

Les développements récents dans les automobiles autonomes ont fait l'innovation de camions auto-conduite possibles, mais ils sont encore en phase de test. Le gouvernement britannique a adopté une loi pour commencer à tester des pelotons de camions auto-conduite en 2018. pelotons de camions auto-conduite sont une flotte de camions auto-conduite suivant l'exemple d'un camion non auto-conduite, de sorte que les pelotons de camions ne sont pas encore entièrement autonome. Pendant ce temps, Daimler, une société automobile allemande, teste l'inspiration Freightliner qui est un camion semi-autonome qui ne sera utilisé sur la route.

Un facteur principal qui influence la capacité d'une automobile de conducteur inférieure à fonction de cartographie. En général, le véhicule serait pré-programmé avec une carte de la zone entraîné. Cette carte comprendrait des données sur les approximations de la lumière de la rue et les hauteurs de trottoir pour que le véhicule soit conscient de son environnement. Cependant, Google travaille sur un algorithme dans le but d'éliminer le besoin de cartes pré-programmées et au lieu, la création d'un dispositif qui serait en mesure de s'adapter à une variété de nouveaux environnements. Certaines voitures auto-conduite ne sont pas équipés de roues de direction ou des pédales de frein, donc il a également eu des recherches ont porté sur la création d'un algorithme qui est capable de maintenir un environnement sûr pour les passagers du véhicule grâce à la sensibilisation de la vitesse et les conditions de conduite.

Un autre facteur qui influence la capacité d'une automobile de conducteur est inférieure à la sécurité du passager. Pour une voiture sans conducteur, les ingénieurs doivent programmer pour gérer les situations à haut risque. Ces situations peuvent inclure une collision frontale avec les piétons. devrait être de prendre une décision qui permettrait d'éviter de heurter les piétons et de sauver les passagers dans la voiture objectif principal de la voiture. Mais il est possible que la voiture aurait besoin de prendre une décision qui mettrait quelqu'un en danger. En d'autres termes, la voiture devra décider de sauver les piétons ou les passagers. La programmation de la voiture dans ces situations est essentielle pour le succès de l'automobile moins-conducteur.

Finance et économie

Les institutions financières ont longtemps utilisé le réseau de neurones artificiels systèmes pour détecter les charges ou réclamations en dehors de la norme, ceux - ci aux fins d' enquête signalant humaine. L'utilisation de la grippe aviaire dans la banque remonte à 1987 lorsque la Banque Nationale du Pacifique de sécurité aux États - Unis mis en place un groupe de travail de prévention des fraudes pour contrer l'utilisation non autorisée de cartes de débit. Des programmes comme Kasisto et Moneystream utilisent l' IA dans les services financiers.

Les banques utilisent des systèmes d'intelligence artificielle aujourd'hui pour organiser des opérations, maintenir la tenue de livres, investir dans des actions, et gérer les propriétés. AI peut réagir aux changements du jour au lendemain ou lorsque les affaires ne se déroule pas. En Août 2001, les robots ont battu l' homme dans une simulation trading financier concurrence. Amnesty International a également réduit la fraude et la criminalité financière en surveillant les comportements des utilisateurs pour tout changement anormal ou anomalies.

L'utilisation de machines AI sur le marché dans des applications telles que le commerce en ligne et la prise de décision a changé les grandes théories économiques. Par exemple, AI à base d' achat et de vente des plates - formes ont changé la loi de l' offre et la demande en ce qu'il est maintenant possible d'estimer facilement la demande individualisée et les courbes d'offre et donc la tarification individualisée. De plus, les machines AI réduisent l' asymétrie d'information sur le marché et donc de rendre plus efficace les marchés tout en réduisant le volume des transactions. En outre, Amnesty International sur les marchés limite les conséquences du comportement sur les marchés qui font à nouveau les marchés plus efficaces. D' autres théories où l' impact AI a eu notamment dans le choix rationnel , anticipations rationnelles , la théorie des jeux , Lewis point tournant , optimisation du portefeuille et la pensée contrefactuelle .

Jeux vidéos

Dans les jeux vidéo, l' intelligence artificielle est couramment utilisée pour générer des comportements dynamiques dans un but personnages non joueurs (PNJ). En outre, bien compris des techniques d' IA sont couramment utilisés pour pathfinding . Certains chercheurs considèrent NPC AI dans les jeux comme un « problème résolu » pour la plupart des tâches de production. Jeux avec plus atypique AI comprennent le directeur AI de Left 4 Dead (2008) et la formation de pelotons neuroevolutionary dans Supreme Commander 2 (2010).

Militaire

Les dépenses militaires annuelles dans le monde entier sur la robotique est passé de 5,1 milliards $ en 2010 à 7,5 G $ US en 2015. drones militaires capables d'agir de manière autonome sont largement considérés comme un atout utile. En 2017, Vladimir Poutine a déclaré que « Celui qui devient le chef de file (intelligence artificielle) deviendra la règle du monde ». De nombreux chercheurs en intelligence artificielle cherchent à se distancer des applications militaires de l' IA.

Vérification

Pour la vérification des états financiers, AI rend audit continu possible. outils AI pourraient analyser de nombreux ensembles de différentes informations immédiatement. L'avantage potentiel serait le risque global d'audit sera réduit, le niveau d'assurance sera augmentée et la durée de l'audit sera réduite.

La publicité

Il est possible d'utiliser AI pour prédire ou généraliser le comportement des clients à partir de leurs empreintes numériques afin de les cibler avec des promotions personnalisées ou de construire automatiquement Personas clients. Un cas documenté signale que les entreprises de jeu en ligne utilisaient AI pour améliorer le ciblage des clients.

De plus, l'application de calcul de la personnalité des modèles AI peut aider à réduire le coût des campagnes publicitaires en ajoutant un ciblage psychologique pour le ciblage sociodémographique ou comportemental plus traditionnel.

Art

L'intelligence artificielle a inspiré de nombreuses applications créatives, y compris son utilisation pour produire de l'art visuel. L'exposition « Thinking Machines: Art et Design à l'ère informatique, 1959-1989 » au MoMA donne un bon aperçu des applications historiques de l'IA pour l'art, l'architecture et le design. Parmi ses récentes expositions mettant en valeur l'utilisation de l'intelligence artificielle pour produire de l'art comprennent l'avantage parrainé par Google et vente à la Fondation Gray Area à San Francisco, où les artistes ont expérimenté avec l'algorithme de deepdream et l'exposition « Unhuman: Art à l'ère de la grippe aviaire », qui a à Los Angeles et Francfort à l'automne 2017. au printemps 2018, l'Association des Computing Machinery a consacré un numéro de magazine spécial au sujet des ordinateurs et de l'art mettant en évidence le rôle de l'apprentissage de la machine dans les arts.

Philosophie et éthique

Il y a trois questions philosophiques liées à l'IA:

  1. Est l' intelligence artificielle générale possible? Une machine peut résoudre tout problème qu'un être humain peut résoudre en utilisant l' intelligence? Ou y at - il des limites strictes à ce qu'une machine peut accomplir?
  2. Sont des machines intelligentes dangereux? Comment pouvons-nous assurer que les machines se comportent de manière éthique et qu'ils sont utilisés sur le plan éthique?
  3. Une machine peut avoir un esprit , la conscience et les états mentaux exactement le même sens que les êtres humains font? Une machine peut être sensible , et méritent donc certains droits? Une machine peut intentionnellement causer des dommages?

Les limites de l'intelligence artificielle générale

une machine peut-il être intelligent? Peut-il « penser »?

"Convention polie" d'Alan Turing
Il ne faut pas décider si une machine peut « penser »; nous avons besoin de décider que si une machine peut agir aussi intelligemment en tant qu'être humain. Cette façon d' aborder les problèmes philosophiques liés à l' intelligence artificielle constitue la base du test de Turing .
La proposition Dartmouth
« Tous les aspects de l'apprentissage ou toute autre caractéristique de l'intelligence peut être décrit de façon si précise qu'une machine peut être fait pour simuler. » Cette conjecture a été imprimé dans la proposition de la Conférence de Dartmouth 1956, et représente la position de la plupart des chercheurs travaillant IA.
physique hypothèse du système de symbole de Newell et Simon
« Un système de symbole physique dispose des moyens nécessaires et suffisantes de l' action intelligente générale ». Newell et Simon soutiennent que l' intelligence se compose des opérations formelles sur les symboles. Hubert Dreyfus a fait valoir que, au contraire, l' expertise humaine dépend de l' instinct inconscient plutôt que la manipulation des symboles conscient et d'avoir une « sensation » de la situation plutôt que la connaissance symbolique explicite. (Voir la critique de Dreyfus de l' IA .)
arguments gödelienne
Gödel lui - même, John Lucas (en 1961) et Roger Penrose (dans un argument plus détaillé à partir de 1989) ont présenté des arguments très techniques que les mathématiciens humains peuvent toujours voir la vérité de leurs propres « déclarations Gödel » et donc avoir des capacités de calcul au - delà de la mécanique machines de Turing. Cependant, le consensus moderne dans la communauté scientifique et mathématique est que ces « arguments » gödelienne échouent.
Le cerveau artificiel arguments
Le cerveau peut être simulée par des machines et parce que les cerveaux sont intelligents, le cerveau simulé doit aussi être intelligent; ainsi les machines peuvent être intelligents. Hans Moravec , Ray Kurzweil et d' autres ont fait valoir qu'il est technologiquement possible de copier directement le cerveau dans le matériel et le logiciel et que cette simulation sera essentiellement identique à l'original.
L' effet AI
Les machines sont déjà intelligents, mais les observateurs ont échoué à le reconnaître. Lorsque Deep Blue a battu Garry Kasparov aux échecs, la machine a agi intelligemment. Cependant, les spectateurs escompte généralement le comportement d'un programme d'intelligence artificielle en faisant valoir qu'il n'est pas l' intelligence « réel » après tout; ainsi l' intelligence « vrai » est ce que les gens de comportement intelligents peuvent faire que les machines ne peut toujours pas. Ceci est connu comme l'IA Effet: « AI est ce qui n'a pas encore été fait. »

Dommage potentiel

L' utilisation généralisée de l' intelligence artificielle pourrait avoir des conséquences imprévues qui sont dangereuses ou indésirables. Des scientifiques de l' avenir de l' Institut de la vie , entre autres, ont décrit des objectifs de recherche à court terme pour voir comment l' IA influence l'économie, les lois et l' éthique qui sont impliqués dans l' IA et la façon de minimiser les risques de sécurité AI. À long terme, les scientifiques ont proposé de poursuivre l' optimisation de la fonction tout en minimisant les risques de sécurité qui viennent avec les nouvelles technologies.

risque existentiel

Physicien Stephen Hawking , Microsoft fondateur Bill Gates , et SpaceX fondateur Elon Musk ont exprimé des préoccupations au sujet de la possibilité que AI pourrait évoluer au point que les humains ne pouvaient pas contrôler, avec Hawking théoriser que cela pourrait « marquer la fin de la race humaine ».

Le développement de l'intelligence artificielle complète pourrait signifier la fin de la race humaine. Une fois que les humains développent l'intelligence artificielle, il prendra son envol sur son propre et se redessiner à un rythme sans cesse croissant. Les humains, qui sont limités par l'évolution biologique lente, ne pouvaient soutenir la concurrence et seraient remplacées.

Dans son livre Superintelligence , Nick Bostrom fournit un argument que l' intelligence artificielle constituera une menace pour l' humanité. Il fait valoir que suffisamment intelligente AI, si elle choisit des actions basées sur la réalisation d' un but, exposera convergent des comportements tels que l' acquisition de ressources ou se protéger d'être arrêté. Si cela les objectifs d'Amnesty International ne reflètent pas le humanité-exemple est une AI dit de calculer autant de chiffres de pi que possible, il pourrait nuire à l' humanité afin d'acquérir plus de ressources ou s'empêcher d'être arrêté, en fin de compte pour mieux atteindre son objectif.

Préoccupations au sujet des risques de l' intelligence artificielle a conduit à des dons de grande envergure et des investissements. Un groupe de titans de technologie de premier plan , y compris Peter Thiel , Amazon Web Services et Musk se sont engagés à 1 milliard $ OpenAI , une société à but non lucratif visant à responsable du développement AI champion. L'avis d'experts dans le domaine de l' intelligence artificielle est mixte, avec des fractions considérables à la fois concernés et peu soucieux par le risque d' une éventuelle AI surhumaine capable. En Janvier 2015, Elon Musk a fait don de dix millions de dollars pour l' avenir de la vie Institut pour financer la recherche sur la compréhension de la prise de décision AI. L'objectif de l'Institut est de « développer la sagesse avec laquelle nous gérons » la montée en puissance de la technologie. Musk finance également les entreprises en développement de l' intelligence artificielle , tels que Google DeepMind et Vicarious à « juste garder un oeil sur ce qui se passe avec l' intelligence artificielle. Je pense qu'il est potentiellement un résultat dangereux là - bas. »

Pour ce danger à réaliser, l'hypothétique AI devrait dominer ou hors penser l'humanité tout entière, qu'une minorité d'experts soutiennent est une possibilité assez loin dans l'avenir pour ne pas être la peine recherche. D'autres tournent autour de l'homme contre-arguments étant soit intrinsèquement ou convergeant précieux dans la perspective d'une intelligence artificielle.

Dévaluation de l'humanité

Joseph Weizenbaum a écrit que les applications IA ne peuvent pas, par définition, simuler avec succès une véritable empathie humaine et que l'utilisation de la technologie AI dans des domaines tels que le service à la clientèle ou la psychothérapie était profondément erronée. Weizenbaum a également pris la peine que les chercheurs d' Amnesty International (et certains philosophes) étaient prêts à voir l'esprit humain comme rien de plus qu'un programme informatique (une position est maintenant connu sous le nom computationalisme ). Pour Weizenbaum ces points donnent à penser que la recherche en IA dévalorise la vie humaine.

Diminution de la demande de main-d'œuvre humaine

La relation est compliquée entre l' automatisation et de l' emploi. Alors que l' automatisation élimine les anciens emplois, il crée aussi de nouveaux emplois grâce à des effets micro-économiques et macro-économiques. Contrairement à vagues précédentes d'automatisation, de nombreux emplois de la classe moyenne peuvent être éliminés par l' intelligence artificielle; The Economist affirme que « l'inquiétude que l' IA pourrait faire pour les emplois cols blancs ce que la vapeur a fait pour les cols bleus pendant la révolution industrielle » est « la peine de prendre au sérieux ». Les estimations du risque Subjective varient considérablement; par exemple, Michael Osborne et Carl Benedikt Frey estiment 47% des emplois aux États - Unis sont à « risque élevé » d'automatisation potentiel, alors qu'un rapport de l' OCDE classe seulement 9% des emplois aux États - Unis comme « risque élevé ». Offres d' emploi à portée de risque extrême de parajuristes jeûnes cuisiniers alimentaires, alors que la demande d'emploi est susceptible d'augmenter pour les professions liées aux soins de santé allant de personnel au clergé. Auteur Martin Ford et d' autres vont plus loin et affirment qu'un grand nombre d'emplois sont de routine, répétitive et (à une IA) prévisible; Ford prévient que ces emplois peuvent être automatisés dans les deux prochaines décennies, et que bon nombre des nouveaux emplois ne peut pas être « accessible aux personnes à capacité moyenne », même avec le recyclage. Les économistes soulignent que la technologie passé a eu tendance à augmenter plutôt que de réduire l' emploi total, mais reconnaître que « nous sommes en territoire inconnu » avec l' IA.

armes autonomes

À l'heure actuelle, 50 pays recherchent des robots champ de bataille, y compris les Etats-Unis, la Chine, la Russie et le Royaume-Uni. Beaucoup de gens préoccupés par le risque d'AI superintelligent veulent aussi limiter l'utilisation des soldats artificiels et des drones.

machines d'éthique

Les machines avec intelligence ont la possibilité d'utiliser leur intelligence pour prévenir les dommages et minimiser les risques; ils peuvent avoir la possibilité d'utiliser le raisonnement éthique pour mieux choisir leurs actions dans le monde. La recherche dans ce domaine comprend l' éthique de la machine , des agents moraux artificiels et amical AI .

agents moraux artificiels

Wendell Wallach a introduit le concept des agents moraux artificiels (AMA) dans son livre Les machines morales Pour Wallach, AMAs sont devenus une partie du paysage de la recherche de l' intelligence artificielle guidée par ses deux questions centrales qu'il identifie comme « Est -ce que l' humanité Voulez Ordinateurs Faire morale Les décisions » et "peut - bots (Ro) vraiment être moral". Pour Wallach la question ne soit pas centrée sur la question de savoir si les machines peuvent démontrer l'équivalent du comportement moral contrairement aux contraintes que la société peut placer sur le développement de AMAs.

l'éthique de la machine

Le domaine de l'éthique de la machine concerne les machines donnant des principes éthiques, ou une procédure de découvrir un moyen de résoudre les dilemmes éthiques qu'ils pourraient rencontrer, leur permettant de fonctionner de manière éthique et responsable par le biais de leur propre prise de décision éthique. Le terrain a été délimité à l'automne AAAI Symposium 2005 sur l'éthique machine: « Des recherches antérieures concernant la relation entre la technologie et de l'éthique a largement mis l'accent sur l'utilisation responsable et irresponsable de la technologie par des êtres humains, avec quelques personnes étant intéressé par la façon dont les êtres humains doivent traiter des machines. dans tous les cas, seuls les êtres humains se sont engagés dans le raisonnement éthique. Le temps est venu d'ajouter une dimension éthique à au moins certaines machines. La reconnaissance des ramifications éthiques de comportement impliquant des machines, ainsi que les développements récents et potentiels dans la machine autonomie, rend nécessaire. contrairement à piratage informatique, les questions de propriété du logiciel, les questions de confidentialité et d'autres sujets normalement attribués à l'éthique de l'ordinateur, l'éthique de la machine est concerné par le comportement des machines vers les utilisateurs humains et d'autres machines. la recherche en éthique de la machine est essentielle pour soulager préoccupations autonomes systèmes on pourrait soutenir que la notion de machines autonomes sans une telle une dimension est à la racine de toute crainte concernant l'intelligence de la machine. De plus, l'enquête sur l'éthique de la machine pourrait permettre la découverte de problèmes avec les théories éthiques actuelles, faire avancer notre réflexion sur l'éthique. » Éthique de la machine est parfois appelée la moralité de la machine, l'éthique de calcul ou morale de calcul. Une variété de perspectives de ce domaine naissant peut être trouvé dans l'édition recueillie « éthique machine » qui découle de l'automne 2005 AAAI Colloque sur l'éthique machine.

Malfaisante et amical AI

Le politologue Charles T. Rubin estime que l' IA ne peut être ni conçu ni garanti d'être bienveillant. Il fait valoir que « toute bienveillance suffisamment avancée peut être impossible de distinguer malevolence. » Les humains ne doivent pas présumer des machines ou robots nous traiteraient favorablement parce qu'il n'y a pas a priori des raisons de croire qu'ils seraient sympathiques à notre système de moralité, qui a évolué avec notre biologie particulière (qui ne partagerait pas AIs). Logiciel Hyper-intelligent peut décider de ne pas nécessairement soutenir l'existence de l' humanité et serait extrêmement difficile d'arrêter. Ce sujet a récemment commencé à discuter dans les publications académiques comme une véritable source de risques pour la civilisation, l' homme et la planète Terre.

Une proposition visant à traiter ce problème est de faire en sorte que le premier général intelligente AI est « amical AI » et sera alors en mesure de contrôler par la suite développé AIs. Certains se demandent si ce type de contrôle pourrait vraiment rester en place.

Leading AI chercheur Rodney Brooks écrit: « Je pense qu'il est une erreur à se soucier de nous développer AI malfaisante à tout moment dans les prochaines centaines d' années. Je pense que l'inquiétude découle d'une erreur fondamentale de ne pas distinguer la différence entre les réels progrès récents dans un aspect particulier de la grippe aviaire, et l'ampleur et de la complexité de la construction intelligence volition sensible « .

conscience de la machine, et de l'esprit sentience

Si un système AI reproduit tous les aspects clés de l' intelligence humaine, ce système sera aussi sensible -Est - il un esprit qui a des expériences conscientes ? Cette question est étroitement liée au problème philosophique quant à la nature de la conscience humaine, généralement appelé le problème difficile de la conscience .

La conscience

David Chalmers a identifié deux problèmes dans la compréhension de l'esprit, qu'il nomme les « durs » et les problèmes « faciles » de la conscience. Le problème est facile de comprendre comment le cerveau traite les signaux, rend le comportement des plans et des contrôles. Le problème est difficile d' expliquer comment cela se sent ou pourquoi il devrait se sentir comme quoi que ce soit. Human traitement de l' information est facile à expliquer, mais l' homme l' expérience subjective est difficile à expliquer.

Par exemple, pensez à ce qui se passe quand une personne reçoit un échantillon de couleur et identifie, en disant « il est rouge ». Le problème ne nécessite que facile à comprendre les rouages du cerveau qui permet à une personne de savoir que la palette de couleurs est rouge. Le problème est difficile que les gens savent aussi quelque chose d' autre, ils savent aussi ce qui ressemble rouge comme . (Considérez que peut connaître une personne aveugle - né que quelque chose est rouge sans savoir ce qui ressemble rouge comme.) Tout le monde connaît l' expérience subjective existe, parce qu'ils le font tous les jours (par exemple, tous les voyants rouges savoir à quoi ressemble comme). Le problème est difficile d' expliquer comment le cerveau crée, pourquoi il existe, et comment il est différent de connaissances et d' autres aspects du cerveau.

Computationalisme et fonctionnalisme

Computationalisme est la position dans la philosophie de l' esprit que l'esprit humain ou le cerveau humain (ou les deux) est un système de traitement de l' information et que la réflexion est une forme de calcul. Computationalisme fait valoir que la relation entre l' esprit et le corps est similaire ou identique à la relation entre le logiciel et le matériel et peut donc être une solution au problème de l' esprit-corps . Cette position philosophique a été inspiré par le travail des chercheurs d' Amnesty International et chercheurs en sciences cognitives dans les années 1960 et a été initialement proposé par les philosophes Jerry Fodor et Hilary Putnam .

hypothèse forte AI

La position philosophique que John Searle a nommé « forte AI » déclare: « L'ordinateur programmé de façon appropriée avec les bonnes entrées et sorties aurait donc un esprit exactement le même sens les êtres humains ont des esprits. » Searle compteurs cette affirmation avec sa chambre chinoise argument, qui nous demande de regarder à l' intérieur de l'ordinateur et essayer de trouver où l ' « esprit » pourrait être.

droits de Robot

Si une machine peut être créée qui a l' intelligence, pourrait - il aussi se sentir ? Si elle peut se sentir, at - il les mêmes droits que l' homme? Cette question, maintenant connue sous le nom « droits de robots », est en cours d' examen, par exemple, la Californie Institut pour l'avenir , bien que de nombreux critiques estiment que la discussion est prématurée. Certains critiques de transhumanisme font valoir que les droits de robots hypothétiques se coucher sur un spectre avec les droits des animaux et des droits de l' homme. Le sujet est profondément discuté dans le film documentaire 2010 Plug & Pray .

superintelligence

Y at - il des limites à la façon dont les machines ou intelligents hybrides homme-machine peut être? A superintelligence, hyperintelligence ou intelligence surhumaine est un agent hypothétique qui posséderait l' intelligence qui dépasse de loin celle des plus brillants esprit humain et le plus doué. Superintelligence peut également se référer à la forme ou le degré d'intelligence que possède un tel agent.

singularité technologique

Si la recherche en forte AI produit logiciel suffisamment intelligent, il pourrait être en mesure de s'améliorer et reprogrammer. Le logiciel amélioré serait encore mieux s'améliorer, ce qui conduit à l' auto-amélioration récursive . La nouvelle intelligence pourrait augmenter de façon exponentielle et ainsi dépasser considérablement les humains. L' auteur de science - fiction Vernor Vinge nommé ce scénario « singularité ». Singularité technologique est à l'accélération des progrès dans les technologies provoquera un effet d' emballement dans laquelle l' intelligence artificielle dépassera la capacité intellectuelle humaine et de contrôle, changeant ainsi radicalement la civilisation ou même fin. Étant donné que les capacités d'une telle intelligence peut être impossible à comprendre, la singularité technologique est un événement au - delà duquel les événements sont imprévisibles ou même insondable.

Ray Kurzweil a utilisé la loi de Moore (qui décrit l'amélioration exponentielle implacable dans la technologie numérique) pour calculer que les ordinateurs de bureau auront la même puissance de traitement que les cerveaux humains de l'année 2029, et prévoit que la singularité se produira en 2045.

transhumanisme

Designer Robot Hans Moravec , cybernéticien Kevin Warwick et inventeur Ray Kurzweil ont prédit que les humains et les machines vont fusionner à l'avenir en cyborgs qui sont plus capables et plus puissants que ce soit. Cette idée, appelée transhumanisme , qui a des racines dans Aldous Huxley et Robert Ettinger .

Edward Fredkin soutient que « l' intelligence artificielle est la prochaine étape dans l' évolution », une idée d' abord proposée par Samuel Butler « de Darwin parmi les machines » (1863), et développé par George Dyson dans son livre du même nom en 1998.

dans la fiction

Le mot « robot » lui - même a été inventé par Karel Čapek dans son jeu 1921 RUR , le titre de l'anglais « Universal Robots de Rossum »

Êtres artificiels capables de pensée sont apparus comme des dispositifs de contes depuis l' antiquité, et ont été un thème récurrent dans la science - fiction .

Une commune trope dans ces travaux a commencé avec Mary Shelley de Frankenstein , où une création humaine devient une menace pour ses maîtres. Cela comprend des œuvres comme Arthur C. Clarke et Stanley Kubrick 2001: A Space Odyssey ( les deux 1968), avec HAL 9000 , l'ordinateur meurtrier en charge de la Découverte Un vaisseau spatial, ainsi que The Terminator (1984) et The Matrix (1999 ). En revanche, les rares robots fidèles tels que Gort Le jour où la Terre Stood Still (1951) et évêque de Aliens (1986) sont moins importants dans la culture populaire.

Isaac Asimov introduire les trois lois de la robotique dans de nombreux livres et des histoires, notamment la série « Multivac » au sujet d' un ordinateur super intelligent du même nom. Les lois d'Asimov sont souvent élevés au cours des discussions simples d'éthique de la machine; alors que presque tous les chercheurs en intelligence artificielle sont familiers avec les lois d'Asimov par la culture populaire, ils considèrent généralement les lois inutiles pour de nombreuses raisons, dont l'une est leur ambiguïté.

Transhumanisme (la fusion de l' homme et les machines) est explorée dans le manga Ghost in the Shell et la série de science-fiction Dune . Dans les années 1980, l' artiste Hajime Sorayama série Robots sexy de ont été peints et publié au Japon représentant la forme humaine réelle organique avec des peaux métalliques musculaires réalistes et plus tard « les Gynoids » livre suivi qui a été utilisé par ou réalisateurs de films influencés , y compris George Lucas et d' autres créations. Sorayama n'a jamais considéré ces robots organiques pour faire partie réelle de la nature , mais toujours produit naturel de l'esprit humain, un fantasme existant dans l'esprit même si réalisé sous forme réelle.

Plusieurs travaux utilisent AI pour nous forcer à faire face à la question fondamentale de ce qui nous rend humain, nous montrant des êtres artificiels qui ont la capacité de se sentir , et donc à souffrir. Il apparaît dans Karel Čapek "de RUR ", les films " AI Intelligence artificielle " et " Ex Machina ", ainsi que le roman Do Androids Dream of Electric Sheep? , Par Philip K. Dick . Dick considère l'idée que notre compréhension de la subjectivité humaine est modifiée par la technologie créée avec l' intelligence artificielle.

Voir également

Notes d'explication

Références

manuels AI

Histoire de la grippe aviaire

autres sources

Pour en savoir plus

Liens externes