Intelligence artificielle -Artificial intelligence
Partie d'une série sur |
Intelligence artificielle |
---|
L'intelligence artificielle ( IA ) est l'intelligence démontrée par les machines , par opposition à l' intelligence naturelle dont font preuve les animaux, y compris les humains . La recherche en IA a été définie comme le domaine d'étude des agents intelligents , qui fait référence à tout système qui perçoit son environnement et entreprend des actions qui maximisent ses chances d'atteindre ses objectifs.
Le terme « intelligence artificielle » était auparavant utilisé pour décrire des machines qui imitent et affichent les compétences cognitives « humaines » associées à l' esprit humain , telles que « l'apprentissage » et la « résolution de problèmes ». Cette définition a depuis été rejetée par les grands chercheurs en IA qui décrivent désormais l'IA en termes de rationalité et d'action rationnelle, ce qui ne limite pas la façon dont l'intelligence peut être articulée.
Les applications d'intelligence artificielle comprennent les moteurs de recherche Web avancés (par exemple, Google ), les systèmes de recommandation (utilisés par YouTube , Amazon et Netflix ), la compréhension de la parole humaine (comme Siri et Alexa ), les voitures autonomes (par exemple Tesla ), la prise de décision automatisée et concourir au plus haut niveau dans les systèmes de jeu stratégiques (comme les échecs et le Go ). À mesure que les machines deviennent de plus en plus performantes, les tâches considérées comme nécessitant de l'"intelligence" sont souvent retirées de la définition de l'IA, un phénomène connu sous le nom d' effet IA . Par exemple, la reconnaissance optique de caractères est souvent exclue des choses considérées comme de l'IA, étant devenue une technologie de routine.
L'intelligence artificielle a été fondée en tant que discipline universitaire en 1956, et dans les années qui ont suivi, elle a connu plusieurs vagues d'optimisme, suivies de déception et de perte de financement (appelées « hiver de l'IA »), suivies de nouvelles approches, de succès et de financement renouvelé. . La recherche sur l'IA a essayé et rejeté de nombreuses approches différentes depuis sa création, notamment la simulation du cerveau, la modélisation de la résolution de problèmes humains , la logique formelle , de grandes bases de données de connaissances et l'imitation du comportement animal. Au cours des premières décennies du 21e siècle, l' apprentissage automatique hautement mathématique et statistique a dominé le domaine, et cette technique s'est avérée très efficace, aidant à résoudre de nombreux problèmes difficiles dans l'industrie et le milieu universitaire.
Les différents sous-domaines de la recherche en IA sont centrés sur des objectifs particuliers et l'utilisation d'outils particuliers. Les objectifs traditionnels de la recherche en IA comprennent le raisonnement , la représentation des connaissances , la planification , l'apprentissage , le traitement du langage naturel , la perception et la capacité de déplacer et de manipuler des objets. L'intelligence générale (la capacité à résoudre un problème arbitraire) fait partie des objectifs à long terme du domaine. Pour résoudre ces problèmes, les chercheurs en intelligence artificielle ont adapté et intégré un large éventail de techniques de résolution de problèmes, notamment la recherche et l'optimisation mathématique, la logique formelle, les réseaux de neurones artificiels et les méthodes basées sur les statistiques , les probabilités et l'économie . L'IA s'appuie également sur l'informatique , la psychologie , la linguistique , la philosophie et bien d'autres domaines.
Le domaine a été fondé sur l'hypothèse que l'intelligence humaine "peut être décrite avec une telle précision qu'une machine peut être conçue pour la simuler". Cela a soulevé des arguments philosophiques sur l'esprit et les conséquences éthiques de la création d'êtres artificiels dotés d'une intelligence de type humain; ces questions ont déjà été explorées par le mythe , la fiction et la philosophie depuis l'antiquité. Des informaticiens et des philosophes ont depuis suggéré que l'IA pourrait devenir un risque existentiel pour l'humanité si ses capacités rationnelles ne sont pas orientées vers des objectifs bénéfiques.
Histoire
Fictions et premiers concepts
Les êtres artificiels dotés d'intelligence sont apparus comme des dispositifs de narration dans l'Antiquité et ont été courants dans la fiction, comme dans Frankenstein de Mary Shelley ou RUR de Karel Čapek . Ces personnages et leurs destins ont soulevé bon nombre des mêmes problèmes que l' éthique de l'intelligence artificielle . .
L'étude du raisonnement mécanique ou « formel » a commencé avec les philosophes et les mathématiciens dans l'Antiquité. L'étude de la logique mathématique a conduit directement à la théorie du calcul d' Alan Turing , qui suggérait qu'une machine, en mélangeant des symboles aussi simples que "0" et "1", pouvait simuler n'importe quel acte concevable de déduction mathématique. Cette idée que les ordinateurs numériques peuvent simuler n'importe quel processus de raisonnement formel est connue sous le nom de thèse de Church-Turing .
La thèse de Church-Turing, ainsi que des découvertes concomitantes en neurobiologie , en théorie de l'information et en cybernétique , ont conduit les chercheurs à envisager la possibilité de construire un cerveau électronique. Le premier travail qui est maintenant généralement reconnu comme IA était la conception formelle de 1943 de McCullouch et Pitts pour les "neurones artificiels" complets de Turing .
Premières recherches
Dans les années 1950, deux visions sur la manière d'atteindre l'intelligence artificielle ont émergé. Une vision, connue sous le nom d' IA symbolique ou GOFAI , consistait à utiliser des ordinateurs pour créer une représentation symbolique du monde et des systèmes capables de raisonner sur le monde. Les partisans comprenaient Allen Newell , Herbert A. Simon et Marvin Minsky . Étroitement associée à cette approche était l'approche de «recherche heuristique» , qui assimilait l'intelligence à un problème d'exploration d'un espace de possibilités de réponses. La deuxième vision, connue sous le nom d' approche connexionniste , cherchait à atteindre l'intelligence par l'apprentissage. Les partisans de cette approche, notamment Frank Rosenblatt , ont cherché à connecter Perceptron de manière inspirée par les connexions des neurones. James Manyika et d'autres ont comparé les deux approches de l'esprit (IA symbolique) et du cerveau (connexionniste). Manyika soutient que les approches symboliques ont dominé la poussée de l'intelligence artificielle à cette époque, en partie en raison de son lien avec les traditions intellectuelles de Descarte , Boole , Gottlob Frege , Bertrand Russell et d'autres. Les approches connexionnistes basées sur la cybernétique ou les réseaux de neurones artificiels ont été repoussées au second plan mais ont acquis une nouvelle importance au cours des dernières décennies.
Le domaine de la recherche sur l'IA est né lors d' un atelier au Dartmouth College en 1956. Les participants sont devenus les fondateurs et les leaders de la recherche sur l'IA. Eux et leurs élèves produisirent des programmes que la presse qualifia d'"étonnants": des ordinateurs apprenaient des stratégies de jeu de dames , résolvaient des problèmes de mots en algèbre, prouvaient des théorèmes logiques et parlaient anglais. Au milieu des années 1960, la recherche aux États-Unis était fortement financée par le ministère de la Défense et des laboratoires avaient été créés dans le monde entier.
Les chercheurs des années 1960 et 1970 étaient convaincus que les approches symboliques finiraient par réussir à créer une machine dotée d'une intelligence artificielle générale et considéraient cela comme l'objectif de leur domaine. Herbert Simon a prédit que "les machines seront capables, d'ici vingt ans, de faire n'importe quel travail qu'un homme peut faire". Marvin Minsky a accepté, écrivant, "d'ici une génération ... le problème de la création de 'l'intelligence artificielle' sera en grande partie résolu".
Ils n'ont pas reconnu la difficulté de certaines des tâches restantes. Les progrès ont ralenti et en 1974, en réponse aux critiques de Sir James Lighthill et à la pression continue du Congrès américain pour financer des projets plus productifs , les gouvernements américain et britannique ont interrompu la recherche exploratoire en IA. Les années suivantes seront plus tard appelées un « hiver de l'IA », une période où l'obtention de financements pour des projets d'IA était difficile.
Des systèmes experts à l'apprentissage automatique
Au début des années 1980, la recherche sur l'IA a été relancée par le succès commercial des systèmes experts , une forme de programme d'IA qui simulait les connaissances et les compétences analytiques d'experts humains. En 1985, le marché de l'IA avait atteint plus d'un milliard de dollars. Dans le même temps, le projet informatique de cinquième génération du Japon a inspiré les gouvernements américain et britannique à rétablir le financement de la recherche universitaire . Cependant, à partir de l'effondrement du marché des machines Lisp en 1987, l'IA est à nouveau tombée dans le discrédit et un deuxième hiver plus long a commencé.
De nombreux chercheurs ont commencé à douter que l' approche symbolique serait capable d'imiter tous les processus de la cognition humaine, en particulier la perception , la robotique, l'apprentissage et la reconnaissance des formes . Un certain nombre de chercheurs ont commencé à se pencher sur des approches "sous-symboliques" de problèmes spécifiques d'IA. Les chercheurs en robotique , tels que Rodney Brooks , ont rejeté l'IA symbolique et se sont concentrés sur les problèmes d'ingénierie de base qui permettraient aux robots de se déplacer, de survivre et d'apprendre leur environnement. L'intérêt pour les réseaux de neurones et le « connexionnisme » a été ravivé par Geoffrey Hinton , David Rumelhart et d'autres au milieu des années 1980. Des outils informatiques souples ont été développés dans les années 80, tels que les réseaux de neurones , les systèmes flous , la théorie des systèmes de Gray , le calcul évolutionnaire et de nombreux outils tirés des statistiques ou de l'optimisation mathématique .
L'IA a progressivement restauré sa réputation à la fin des années 1990 et au début du 21e siècle en trouvant des solutions spécifiques à des problèmes spécifiques. La focalisation étroite a permis aux chercheurs de produire des résultats vérifiables, d'exploiter davantage de méthodes mathématiques et de collaborer avec d'autres domaines (tels que les statistiques , l'économie et les mathématiques ). En 2000, les solutions développées par les chercheurs en IA étaient largement utilisées, même si dans les années 1990, elles étaient rarement qualifiées d'"intelligence artificielle".
Des ordinateurs plus rapides , des améliorations algorithmiques et l'accès à de grandes quantités de données ont permis des avancées dans l'apprentissage automatique et la perception ; les méthodes d' apprentissage en profondeur gourmandes en données ont commencé à dominer les critères de précision vers 2012 . Selon Jack Clark de Bloomberg , 2015 a été une année charnière pour l'intelligence artificielle, le nombre de projets logiciels utilisant l'IA au sein de Google est passé d'une "utilisation sporadique" en 2012 à plus de 2 700 projets. Il attribue cela à une augmentation des réseaux de neurones abordables , due à une augmentation de l'infrastructure de cloud computing et à une augmentation des outils de recherche et des ensembles de données. Dans une enquête de 2017, une entreprise sur cinq a déclaré avoir "intégré l'IA dans certaines offres ou certains processus". Le volume de recherche sur l'IA (mesuré par le nombre total de publications) a augmenté de 50 % entre 2015 et 2019.
De nombreux chercheurs universitaires se sont inquiétés du fait que l'IA ne poursuivait plus l'objectif initial de créer des machines polyvalentes et entièrement intelligentes. Une grande partie de la recherche actuelle implique l'IA statistique, qui est massivement utilisée pour résoudre des problèmes spécifiques, même des techniques très efficaces telles que l'apprentissage en profondeur . Cette préoccupation a conduit au sous-domaine de l'intelligence artificielle générale (ou «AGI»), qui comptait plusieurs institutions bien financées dans les années 2010.
Buts
Le problème général de la simulation (ou de la création) de l'intelligence a été décomposé en sous-problèmes. Il s'agit de caractéristiques ou de capacités particulières que les chercheurs attendent d'un système intelligent. Les traits décrits ci-dessous ont reçu le plus d'attention.
Raisonnement, résolution de problèmes
Les premiers chercheurs ont développé des algorithmes qui imitaient le raisonnement étape par étape que les humains utilisent lorsqu'ils résolvent des énigmes ou font des déductions logiques. À la fin des années 1980 et dans les années 1990, la recherche sur l'IA avait développé des méthodes pour traiter les informations incertaines ou incomplètes, en utilisant des concepts de probabilité et d'économie .
Beaucoup de ces algorithmes se sont avérés insuffisants pour résoudre de gros problèmes de raisonnement car ils ont connu une "explosion combinatoire": ils sont devenus exponentiellement plus lents à mesure que les problèmes grandissaient. Même les humains utilisent rarement la déduction étape par étape que les premières recherches sur l'IA pourraient modéliser. Ils résolvent la plupart de leurs problèmes en utilisant des jugements rapides et intuitifs.
Représentation des connaissances
La représentation des connaissances et l'ingénierie des connaissances permettent aux programmes d'IA de répondre intelligemment aux questions et de faire des déductions sur des faits réels.
Une représentation de « ce qui existe » est une ontologie : l'ensemble des objets, relations, concepts et propriétés formellement décrits pour que les agents logiciels puissent les interpréter. Les ontologies les plus générales sont appelées ontologies supérieures , qui tentent de fournir une base pour toutes les autres connaissances et agissent comme médiateurs entre les ontologies de domaine qui couvrent des connaissances spécifiques sur un domaine de connaissances particulier (domaine d'intérêt ou domaine de préoccupation). Un programme vraiment intelligent aurait également besoin d'accéder à des connaissances de bon sens ; l'ensemble des faits qu'une personne moyenne connaît. La sémantique d'une ontologie est généralement représentée dans une logique de description, telle que le Web Ontology Language .
La recherche en IA a développé des outils pour représenter des domaines spécifiques, tels que des objets, des propriétés, des catégories et des relations entre objets ; situations, événements, états et temps; causes et effets; connaissance sur la connaissance (ce que nous savons sur ce que les autres savent) ;. raisonnement par défaut (les choses que les humains supposent être vraies jusqu'à ce qu'elles soient dites différemment et resteront vraies même lorsque d'autres faits changent); ainsi que d'autres domaines. Parmi les problèmes les plus difficiles de l'IA figurent : l'étendue des connaissances de bon sens (le nombre de faits atomiques que la personne moyenne connaît est énorme) ; et la forme sous-symbolique de la plupart des connaissances de sens commun (une grande partie de ce que les gens savent n'est pas représentée comme des "faits" ou des "déclarations" qu'ils pourraient exprimer verbalement).
Les représentations formelles des connaissances sont utilisées dans l'indexation et la récupération basées sur le contenu, l'interprétation de scènes, l'aide à la décision clinique, la découverte de connaissances (extraction d'inférences "intéressantes" et exploitables à partir de grandes bases de données) et d'autres domaines.
Planification
Un agent intelligent qui peut planifier fait une représentation de l'état du monde, fait des prédictions sur la façon dont ses actions vont le changer et fait des choix qui maximisent l' utilité (ou la « valeur ») des choix disponibles. Dans les problèmes de planification classiques, l'agent peut supposer qu'il s'agit du seul système agissant dans le monde, ce qui lui permet d'être certain des conséquences de ses actions. Cependant, si l'agent n'est pas le seul acteur, il faut alors que l'agent raisonne dans l'incertitude, réévalue continuellement son environnement et s'adapte. La planification multi-agents utilise la coopération et la concurrence de nombreux agents pour atteindre un objectif donné. Un tel comportement émergent est utilisé par les algorithmes évolutionnaires et l'intelligence en essaim .
Apprentissage
L'apprentissage automatique (ML), un concept fondamental de la recherche en IA depuis la création du domaine, est l'étude d'algorithmes informatiques qui s'améliorent automatiquement grâce à l'expérience.
L'apprentissage non supervisé trouve des modèles dans un flux d'entrées. L'apprentissage supervisé nécessite qu'un humain étiquette d'abord les données d'entrée et se présente sous deux formes principales : la classification et la régression numérique . La classification est utilisée pour déterminer à quelle catégorie quelque chose appartient - le programme voit un certain nombre d'exemples de choses de plusieurs catégories et apprendra à classer les nouvelles entrées. La régression est la tentative de produire une fonction qui décrit la relation entre les entrées et les sorties et prédit comment les sorties devraient changer à mesure que les entrées changent. Les classificateurs et les apprenants de régression peuvent être considérés comme des « approximateurs de fonction » essayant d'apprendre une fonction inconnue (éventuellement implicite) ; par exemple, un classificateur de spam peut être considéré comme apprenant une fonction qui fait correspondre le texte d'un e-mail à l'une des deux catégories, "spam" ou "pas de spam". Dans l' apprentissage par renforcement, l'agent est récompensé pour les bonnes réponses et puni pour les mauvaises. L'agent classe ses réponses pour former une stratégie d'opération dans son espace de problèmes. L' apprentissage par transfert consiste à appliquer les connaissances acquises à partir d'un problème à un nouveau problème.
La théorie de l'apprentissage informatique peut évaluer les apprenants en fonction de la complexité informatique , de la complexité de l'échantillon (la quantité de données requise) ou d'autres notions d' optimisation .
Traitement du langage naturel
Le traitement du langage naturel (NLP) permet aux machines de lire et de comprendre le langage humain. Un système de traitement du langage naturel suffisamment puissant permettrait des interfaces utilisateur en langage naturel et l'acquisition de connaissances directement à partir de sources écrites par l'homme, telles que les textes des fils de presse. Certaines applications simples de la PNL incluent la recherche d' informations , la réponse aux questions et la traduction automatique .
L'IA symbolique a utilisé une syntaxe formelle pour traduire la structure profonde des phrases en logique . Cela n'a pas produit d'applications utiles, en raison de l' indocilité de la logique et de l'étendue des connaissances de bon sens. Les techniques statistiques modernes incluent les fréquences de cooccurrence (la fréquence à laquelle un mot apparaît près d'un autre), la "recherche de mots-clés" (recherche d'un mot particulier pour récupérer des informations), l'apprentissage en profondeur basé sur les transformateurs (qui trouve des modèles dans le texte), etc. Ils ont atteint une précision acceptable au niveau de la page ou du paragraphe et, d'ici 2019, pourraient générer un texte cohérent.
Perception
La perception de la machine est la capacité d'utiliser les entrées de capteurs (tels que des caméras, des microphones, des signaux sans fil et des capteurs lidar , sonar, radar et tactiles actifs ) pour déduire des aspects du monde. Les applications incluent la reconnaissance vocale , la reconnaissance faciale et la reconnaissance d' objets . La vision par ordinateur est la capacité d'analyser les données visuelles.
Mouvement et manipulation
L'IA est largement utilisée en robotique. La localisation est la façon dont un robot connaît son emplacement et cartographie son environnement. Lorsqu'on leur donne un petit environnement statique et visible, c'est facile ; cependant, les environnements dynamiques, tels que (en endoscopie ) l'intérieur du corps respiratoire d'un patient, posent un plus grand défi.
La planification des mouvements est le processus de décomposition d'une tâche de mouvement en "primitives" telles que les mouvements articulaires individuels. Un tel mouvement implique souvent un mouvement conforme, un processus où le mouvement nécessite de maintenir un contact physique avec un objet. Les robots peuvent apprendre par expérience à se déplacer efficacement malgré la présence de frottements et de patinages.
Intelligence sociale
L'informatique affective est un parapluie interdisciplinaire qui comprend des systèmes qui reconnaissent, interprètent, traitent ou simulent les sentiments, les émotions et l'humeur humains . Par exemple, certains assistants virtuels sont programmés pour parler de manière conversationnelle ou même pour plaisanter avec humour ; cela les fait apparaître plus sensibles à la dynamique émotionnelle de l'interaction humaine, ou pour faciliter autrement l'interaction homme-ordinateur . Cependant, cela tend à donner aux utilisateurs naïfs une conception irréaliste de l'intelligence réelle des agents informatiques existants. Les succès modérés liés à l'informatique affective incluent l' analyse textuelle des sentiments et, plus récemment, l'analyse multimodale des sentiments ), dans laquelle l'IA classe les affects affichés par un sujet filmé.
Intelligence générale
Une machine dotée d'une intelligence générale peut résoudre une grande variété de problèmes avec une ampleur et une polyvalence similaires à l'intelligence humaine. Il existe plusieurs idées concurrentes sur la façon de développer l'intelligence artificielle générale. Hans Moravec et Marvin Minsky soutiennent que le travail dans différents domaines individuels peut être intégré dans un système multi-agent avancé ou une architecture cognitive avec une intelligence générale. Pedro Domingos espère qu'il existe un « algorithme principal » conceptuellement simple, mais mathématiquement difficile, qui pourrait conduire à l'IAG. D'autres croient que les caractéristiques anthropomorphiques comme un cerveau artificiel ou le développement simulé de l'enfant atteindront un jour un point critique où l'intelligence générale émergera .
Outils
Recherche et optimisation
De nombreux problèmes en IA peuvent être résolus théoriquement en recherchant intelligemment parmi de nombreuses solutions possibles : Le raisonnement peut être réduit à effectuer une recherche. Par exemple, la preuve logique peut être considérée comme la recherche d'un chemin qui mène des prémisses aux conclusions , où chaque étape est l'application d'une règle d'inférence . Les algorithmes de planification recherchent dans des arbres d'objectifs et de sous-objectifs, essayant de trouver un chemin vers un objectif cible, un processus appelé analyse des moyens et des fins . Les algorithmes robotiques pour déplacer les membres et saisir des objets utilisent des recherches locales dans l'espace de configuration .
De simples recherches exhaustives sont rarement suffisantes pour la plupart des problèmes du monde réel : l' espace de recherche (le nombre d'endroits à rechercher) atteint rapidement des nombres astronomiques . Le résultat est une recherche trop lente ou qui ne se termine jamais. La solution, pour de nombreux problèmes, est d'utiliser des « heuristiques » ou des « règles empiriques » qui priorisent les choix en faveur de ceux qui sont les plus susceptibles d'atteindre un objectif et de le faire en un nombre d'étapes plus court. Dans certaines méthodologies de recherche, l'heuristique peut également servir à éliminer certains choix peu susceptibles de mener à un but (ce que l'on appelle « l' élagage de l' arbre de recherche »). L'heuristique fournit au programme une "meilleure estimation" du chemin sur lequel se trouve la solution. L'heuristique limite la recherche de solutions à un échantillon de plus petite taille.
Un type de recherche très différent a pris de l'importance dans les années 1990, basé sur la théorie mathématique de l' optimisation . Pour de nombreux problèmes, il est possible de commencer la recherche avec une certaine forme d'estimation, puis d'affiner progressivement l'estimation jusqu'à ce qu'il n'y ait plus d'améliorations possibles. Ces algorithmes peuvent être visualisés comme de l' escalade à l'aveugle : nous commençons la recherche à un point aléatoire du paysage, puis, par sauts ou marches, nous continuons à déplacer notre supposition vers le haut, jusqu'à ce que nous atteignions le sommet. D' autres algorithmes d' optimisation associés incluent l' optimisation aléatoire , la recherche de faisceaux et les métaheuristiques comme le recuit simulé . Le calcul évolutionnaire utilise une forme de recherche d'optimisation. Par exemple, ils peuvent commencer avec une population d'organismes (les suppositions), puis leur permettre de muter et de se recombiner, en sélectionnant uniquement les plus aptes à survivre à chaque génération (en affinant les suppositions). Les algorithmes évolutionnaires classiques incluent les algorithmes génétiques , la programmation de l' expression génique et la programmation génétique . Alternativement, les processus de recherche distribués peuvent se coordonner via des algorithmes d'intelligence en essaim . Deux algorithmes d'essaims populaires utilisés dans la recherche sont l'optimisation des essaims de particules (inspirée du flocage d'oiseaux ) et l' optimisation des colonies de fourmis (inspirée des pistes de fourmis ).
Logique
La logique est utilisée pour la représentation des connaissances et la résolution de problèmes, mais elle peut également être appliquée à d'autres problèmes. Par exemple, l' algorithme satplan utilise la logique pour la planification et la programmation logique inductive est une méthode d' apprentissage .
Plusieurs formes différentes de logique sont utilisées dans la recherche en IA. La logique propositionnelle implique des fonctions de vérité telles que "ou" et "non". La logique du premier ordre ajoute des quantificateurs et des prédicats et peut exprimer des faits sur les objets, leurs propriétés et leurs relations les uns avec les autres. La logique floue attribue un "degré de vérité" (entre 0 et 1) à des déclarations vagues telles que "Alice est vieille" (ou riche, ou grande, ou affamée), qui sont trop imprécises linguistiquement pour être complètement vraies ou fausses. Les logiques par défaut , les logiques non monotones et la circonscription sont des formes de logique conçues pour aider au raisonnement par défaut et au problème de qualification . Plusieurs extensions de la logique ont été conçues pour gérer des domaines de connaissance spécifiques , tels que les logiques de description ; calcul de situation, calcul d' événement et calcul fluent (pour représenter les événements et le temps); calcul causal ; calcul de croyance (révision de croyance) ; et les logiques modales . Des logiques pour modéliser des déclarations contradictoires ou incohérentes survenant dans des systèmes multi-agents ont également été conçues, telles que des logiques paracohérentes .
Méthodes probabilistes pour raisonnement incertain
De nombreux problèmes d'IA (y compris dans le raisonnement, la planification, l'apprentissage, la perception et la robotique) obligent l'agent à opérer avec des informations incomplètes ou incertaines. Les chercheurs en IA ont conçu un certain nombre d'outils pour résoudre ces problèmes en utilisant des méthodes issues de la théorie des probabilités et de l'économie. Les réseaux bayésiens sont un outil très général qui peut être utilisé pour divers problèmes, notamment le raisonnement (à l'aide de l' algorithme d' inférence bayésien ), l'apprentissage (à l'aide de l' algorithme d'attente-maximisation ), la planification (à l'aide de réseaux de décision ) et la perception (à l'aide de réseaux bayésiens dynamiques ). Les algorithmes probabilistes peuvent également être utilisés pour filtrer, prédire, lisser et trouver des explications pour les flux de données, aidant les systèmes de perception à analyser les processus qui se produisent au fil du temps (par exemple, les modèles de Markov cachés ou les filtres de Kalman ).
Un concept clé de la science économique est " l'utilité ", une mesure de la valeur d'une chose pour un agent intelligent. Des outils mathématiques précis ont été développés pour analyser comment un agent peut faire des choix et planifier, en utilisant la théorie de la décision , l'analyse de la décision et la théorie de la valeur de l'information. Ces outils incluent des modèles tels que les processus décisionnels de Markov , les réseaux de décision dynamiques , la théorie des jeux et la conception de mécanismes .
Classificateurs et méthodes d'apprentissage statistique
Les applications d'IA les plus simples peuvent être divisées en deux types : les classificateurs ("si brillant alors diamant") et les contrôleurs ("si diamant alors ramasser"). Cependant, les contrôleurs classent également les conditions avant de déduire des actions, et par conséquent la classification constitue un élément central de nombreux systèmes d'IA. Les classificateurs sont des fonctions qui utilisent la correspondance de modèles pour déterminer la correspondance la plus proche. Ils peuvent être ajustés en fonction d'exemples, ce qui les rend très attrayants pour une utilisation en IA. Ces exemples sont connus sous le nom d'observations ou de modèles. Dans l'apprentissage supervisé, chaque modèle appartient à une certaine classe prédéfinie. Une classe est une décision qui doit être prise. Toutes les observations combinées avec leurs étiquettes de classe constituent un ensemble de données. Lorsqu'une nouvelle observation est reçue, cette observation est classée en fonction de l'expérience précédente.
Un classifieur peut être entraîné de différentes manières ; il existe de nombreuses approches statistiques et d'apprentissage automatique . L' arbre de décision est l'algorithme d'apprentissage automatique symbolique le plus simple et le plus largement utilisé. L' algorithme K-plus proche voisin était l'IA analogique la plus largement utilisée jusqu'au milieu des années 1990. Les méthodes de noyau telles que la machine à vecteurs de support (SVM) ont déplacé le k plus proche voisin dans les années 1990. Le classificateur naïf de Bayes serait "l'apprenant le plus utilisé" chez Google, en partie à cause de son évolutivité. Les réseaux de neurones sont également utilisés pour la classification.
Les performances du classifieur dépendent fortement des caractéristiques des données à classer, telles que la taille de l'ensemble de données, la distribution des échantillons entre les classes, la dimensionnalité et le niveau de bruit. Les classificateurs basés sur un modèle fonctionnent bien si le modèle supposé correspond extrêmement bien aux données réelles. Sinon, si aucun modèle correspondant n'est disponible, et si la précision (plutôt que la vitesse ou l'évolutivité) est la seule préoccupation, la sagesse conventionnelle est que les classificateurs discriminants (en particulier SVM) ont tendance à être plus précis que les classificateurs basés sur un modèle tels que "naïf Bayes" sur la plupart des ensembles de données pratiques.
Réseaux de neurones artificiels
Les réseaux de neurones se sont inspirés de l'architecture des neurones du cerveau humain. Un simple "neurone" N accepte les entrées d'autres neurones, chacun d'eux, lorsqu'il est activé (ou "activé"), émet un "vote" pondéré pour ou contre l'activation du neurone N lui-même. L'apprentissage nécessite un algorithme pour ajuster ces pondérations en fonction des données d'apprentissage ; un algorithme simple (surnommé « tirer ensemble, câbler ensemble ») consiste à augmenter le poids entre deux neurones connectés lorsque l'activation de l'un déclenche l'activation réussie de l'autre. Les neurones ont un spectre continu d'activation ; de plus, les neurones peuvent traiter les entrées de manière non linéaire plutôt que de peser des votes directs.
Les réseaux de neurones modernes modélisent des relations complexes entre les entrées et les sorties et trouvent des modèles dans les données. Ils peuvent apprendre des fonctions continues et même des opérations logiques numériques. Les réseaux de neurones peuvent être considérés comme un type d' optimisation mathématique - ils effectuent une descente de gradient sur une topologie multidimensionnelle qui a été créée en entraînant le réseau. La technique d'entraînement la plus courante est l' algorithme de rétropropagation . D'autres techniques d' apprentissage pour les réseaux de neurones sont l'apprentissage hebbien ("fire together, wire together"), le GMDH ou l'apprentissage compétitif .
Les principales catégories de réseaux sont les réseaux de neurones acycliques ou à réaction (où le signal passe dans une seule direction) et les réseaux de neurones récurrents (qui permettent une rétroaction et des mémoires à court terme des événements d'entrée précédents). Parmi les réseaux prédictifs les plus populaires figurent les perceptrons , les perceptrons multicouches et les réseaux à base radiale .
L'apprentissage en profondeur
L'apprentissage en profondeur utilise plusieurs couches de neurones entre les entrées et les sorties du réseau. Les multiples couches peuvent progressivement extraire des fonctionnalités de niveau supérieur à partir de l'entrée brute. Par exemple, dans le traitement d'image , les couches inférieures peuvent identifier les bords, tandis que les couches supérieures peuvent identifier les concepts pertinents pour un être humain, tels que les chiffres, les lettres ou les visages. L'apprentissage en profondeur a considérablement amélioré les performances des programmes dans de nombreux sous-domaines importants de l'intelligence artificielle, notamment la vision par ordinateur , la reconnaissance vocale , la classification des images et autres.
L'apprentissage en profondeur utilise souvent des réseaux de neurones convolutifs pour plusieurs ou toutes ses couches. Dans une couche convolutive, chaque neurone ne reçoit d'entrée que d'une zone restreinte de la couche précédente appelée champ récepteur du neurone . Cela peut réduire considérablement le nombre de connexions pondérées entre les neurones et créer une hiérarchie similaire à l'organisation du cortex visuel animal.
Dans un réseau neuronal récurrent, le signal se propagera à travers une couche plus d'une fois ; ainsi, un RNN est un exemple d'apprentissage en profondeur. Les RNN peuvent être formés par descente de gradient , mais les gradients à long terme qui sont rétropropagés peuvent "disparaître" (c'est-à-dire qu'ils peuvent tendre vers zéro) ou "exploser" (c'est-à-dire qu'ils peuvent tendre vers l'infini), connu sous le nom de problème de gradient de fuite . La technique de la mémoire à long court terme (LSTM) peut empêcher cela dans la plupart des cas.
Langages et matériel spécialisés
Des langages spécialisés pour l'intelligence artificielle ont été développés, tels que Lisp , Prolog , TensorFlow et bien d'autres. Le matériel développé pour l'IA comprend des accélérateurs d'IA et l'informatique neuromorphique .
Applications
L'IA est pertinente pour toute tâche intellectuelle. Les techniques modernes d'intelligence artificielle sont omniprésentes et trop nombreuses pour être énumérées ici. Souvent, lorsqu'une technique atteint l'usage courant, elle n'est plus considérée comme de l'intelligence artificielle ; ce phénomène est décrit comme l' effet AI .
Dans les années 2010, les applications d'IA étaient au cœur des domaines informatiques les plus prospères sur le plan commercial et sont devenues une caractéristique omniprésente de la vie quotidienne. L'IA est utilisée dans les moteurs de recherche (tels que Google Search ), le ciblage des publicités en ligne , les systèmes de recommandation (offerts par Netflix , YouTube ou Amazon ), la génération de trafic Internet , la publicité ciblée ( AdSense , Facebook ), les assistants virtuels (tels que Siri ou Alexa ) , véhicules autonomes (y compris les drones et les voitures autonomes ), traduction automatique de la langue ( Microsoft Translator , Google Translate ), reconnaissance faciale ( Apple 's Face ID ou Microsoft ' s DeepFace ), étiquetage d'image (utilisé par Facebook , Apple iPhoto et TikTok ) et filtrage anti- spam .
Il existe également des milliers d'applications d'IA réussies utilisées pour résoudre des problèmes pour des industries ou des institutions spécifiques. Quelques exemples sont le stockage d'énergie , les deepfakes , le diagnostic médical, la logistique militaire ou la gestion de la chaîne d'approvisionnement.
Le jeu est un test de la force de l'IA depuis les années 1950. Deep Blue est devenu le premier système informatique de jeu d'échecs à battre un champion du monde d'échecs en titre, Garry Kasparov , le 11 mai 1997. En 2011, in a Jeopardy ! match d'exposition de quiz , le système de réponse aux questions d' IBM , Watson , a vaincu les deux plus grands Jeopardy ! champions, Brad Rutter et Ken Jennings , par une marge significative. En mars 2016, AlphaGo a remporté 4 parties de Go sur 5 dans un match avec le champion de Go Lee Sedol , devenant ainsi le premier système de jeu de Go sur ordinateur à battre un joueur de Go professionnel sans handicap . D'autres programmes gèrent des jeux d'informations imparfaites ; comme pour le poker à un niveau surhumain, Pluribus et Cepheus . DeepMind dans les années 2010 a développé une "intelligence artificielle généralisée" qui pouvait apprendre par elle-même de nombreux jeux Atari divers .
En 2020, les systèmes de traitement du langage naturel tels que l'énorme GPT-3 (alors de loin le plus grand réseau de neurones artificiels) correspondaient aux performances humaines sur des références préexistantes, mais sans que le système n'atteigne une compréhension de bon sens du contenu des références. L' AlphaFold 2 (2020) de DeepMind a démontré la capacité d'approximer, en heures plutôt qu'en mois, la structure 3D d'une protéine. D'autres applications prédisent le résultat de décisions judiciaires, créent de l'art (comme la poésie ou la peinture) et prouvent des théorèmes mathématiques .
En 2019, l'OMPI a signalé que l'IA était la technologie émergente la plus prolifique en termes de nombre de demandes de brevets et de brevets délivrés, l' Internet des objets étant estimé être le plus important en termes de taille de marché. Elle a été suivie, toujours en taille de marché, par les technologies du big data, la robotique, l'IA, l'impression 3D et la cinquième génération de services mobiles (5G). Depuis l'émergence de l'IA dans les années 1950, 340 000 demandes de brevet liées à l'IA ont été déposées par des innovateurs et 1,6 million d'articles scientifiques ont été publiés par des chercheurs, la majorité de tous les dépôts de brevets liés à l'IA ayant été publiés depuis 2013. Les entreprises représentent 26 des 30 premières. Les demandeurs de brevet d'IA, les universités ou les organismes de recherche publics représentant les quatre autres. Le ratio articles scientifiques/inventions a considérablement diminué, passant de 8:1 en 2010 à 3:1 en 2016, ce qui est considéré comme révélateur d'un passage de la recherche théorique à l'utilisation des technologies d'IA dans les produits et services commerciaux. L' apprentissage automatique est la technique d'IA dominante divulguée dans les brevets et est incluse dans plus d'un tiers de toutes les inventions identifiées (134777 brevets d'apprentissage automatique déposés pour un total de 167038 brevets d'IA déposés en 2016), la vision par ordinateur étant l'application fonctionnelle la plus populaire. . Les brevets liés à l'IA ne divulguent pas seulement des techniques et des applications d'IA, ils font souvent également référence à un domaine d'application ou à une industrie. Vingt domaines d'application ont été identifiés en 2016 et comprenaient, par ordre d'importance : les télécommunications (15 %), les transports (15 %), les sciences de la vie et médicales (12 %), et les appareils personnels, l'informatique et l'interaction homme-machine (11 %). . Les autres secteurs comprenaient la banque, le divertissement, la sécurité, l'industrie et la fabrication, l'agriculture et les réseaux (y compris les réseaux sociaux, les villes intelligentes et l'Internet des objets). IBM possède le plus grand portefeuille de brevets d'IA avec 8 290 demandes de brevet, suivi de Microsoft avec 5 930 demandes de brevet.
Les aspects légaux
Les capacités de prise de décision de l'IA soulèvent les questions de la responsabilité légale et du statut du droit d'auteur des œuvres créées. Ces questions sont affinées dans diverses juridictions.
Philosophie
Définir l'intelligence artificielle
Penser contre agir : le test de Turing
Alan Turing écrivait en 1950 "Je propose de considérer la question 'les machines peuvent-elles penser'?" Il a conseillé de changer la question de savoir si une machine "pense" à "si oui ou non il est possible pour une machine de montrer un comportement intelligent". La seule chose visible est le comportement de la machine, donc peu importe si la machine est consciente , ou a un esprit , ou si l'intelligence est simplement une "simulation" et non "la chose réelle". Il a noté que nous ne savons pas non plus ces choses sur les autres, mais que nous étendons une "convention polie" qu'ils "pensent" réellement. Cette idée est à la base du test de Turing.
Agir humainement vs. agir intelligemment : agents intelligents
Le fondateur de l'IA, John McCarthy , a déclaré : "L'intelligence artificielle n'est pas, par définition, une simulation de l'intelligence humaine". Russell et Norvig sont d'accord et critiquent le test de Turing. Ils ont écrit : " Les textes d'ingénierie aéronautique ne définissent pas l'objectif de leur domaine comme étant de fabriquer " des machines qui volent si exactement comme des pigeons qu'elles peuvent tromper d'autres pigeons ". " D'autres chercheurs et analystes ne sont pas d'accord et ont soutenu que l'IA devrait simuler l'intelligence naturelle en étudiant psychologie ou neurobiologie .
Le paradigme de l'agent intelligent définit le comportement intelligent en général, sans référence aux êtres humains. Un agent intelligent est un système qui perçoit son environnement et prend des mesures qui maximisent ses chances de succès. Tout système qui a un comportement orienté vers un but peut être analysé comme un agent intelligent : quelque chose d'aussi simple qu'un thermostat, aussi complexe qu'un être humain, ainsi que de grands systèmes tels que des entreprises , des biomes ou des nations . Le paradigme de l'agent intelligent est devenu largement accepté au cours des années 1990 et sert actuellement de définition du domaine.
Le paradigme a d'autres avantages pour l'IA. Il fournit un moyen fiable et scientifique de tester les programmes ; les chercheurs peuvent directement comparer ou même combiner différentes approches à des problèmes isolés, en se demandant quel agent est le plus apte à maximiser une « fonction de but » donnée. Cela leur donne aussi un langage commun pour communiquer avec d'autres domaines – comme l'optimisation mathématique (qui se définit en termes de « buts ») ou l'économie (qui utilise la même définition d'un « agent rationnel »).
Évaluation des approches de l'IA
Aucune théorie ou paradigme unificateur établi n'a guidé la recherche sur l'IA pendant la majeure partie de son histoire. Le succès sans précédent du machine learning statistique dans les années 2010 a éclipsé toutes les autres approches (à tel point que certaines sources, notamment dans le monde des affaires, utilisent le terme « intelligence artificielle » pour signifier « machine learning avec réseaux de neurones »). Cette approche est principalement sous-symbolique , soignée , douce et étroite (voir ci-dessous). Les critiques soutiennent que ces questions devront peut-être être réexaminées par les futures générations de chercheurs en IA.
L'IA symbolique et ses limites
L'IA symbolique (ou « GOFAI ») simule le raisonnement conscient de haut niveau que les gens utilisent lorsqu'ils résolvent des énigmes, expriment un raisonnement juridique et font des mathématiques. Ils réussissaient très bien dans des tâches "intelligentes" telles que l'algèbre ou les tests de QI. Dans les années 1960, Newell et Simon ont proposé l'hypothèse des systèmes de symboles physiques : "Un système de symboles physiques a les moyens nécessaires et suffisants d'action intelligente générale."
Cependant, l'approche symbolique a lamentablement échoué sur de nombreuses tâches que les humains résolvent facilement, telles que l'apprentissage, la reconnaissance d'un objet ou le raisonnement de bon sens. Le paradoxe de Moravec est la découverte que les tâches "intelligentes" de haut niveau étaient faciles pour l'IA, mais que les tâches "instinctives" de bas niveau étaient extrêmement difficiles. Le philosophe Hubert Dreyfus soutenait depuis les années 1960 que l'expertise humaine dépend de l'instinct inconscient plutôt que de la manipulation consciente des symboles, et du fait d'avoir une « sensation » de la situation, plutôt que d'une connaissance symbolique explicite. Bien que ses arguments aient été ridiculisés et ignorés lorsqu'ils ont été présentés pour la première fois, la recherche sur l'IA a finalement été d'accord.
Le problème n'est pas résolu : le raisonnement sous-symbolique peut commettre bon nombre des mêmes erreurs impénétrables que l'intuition humaine, comme le biais algorithmique . Des critiques tels que Noam Chomsky soutiennent que la poursuite des recherches sur l'IA symbolique sera toujours nécessaire pour atteindre l'intelligence générale, en partie parce que l'IA sous-symbolique s'éloigne de l' IA explicable : il peut être difficile, voire impossible, de comprendre pourquoi un programme d'IA statistique moderne a créé une décision particulière.
Propre vs débraillé
"Neats" espère que le comportement intelligent est décrit à l'aide de principes simples et élégants (tels que la logique , l' optimisation ou les réseaux de neurones ). Les "Scruffies" s'attendent à ce que cela nécessite nécessairement de résoudre un grand nombre de problèmes sans rapport. Cette question a été activement discutée dans les années 70 et 80, mais dans les années 1990, des méthodes mathématiques et des normes scientifiques solides sont devenues la norme, une transition que Russell et Norvig ont qualifiée de "victoire des purs".
Informatique douce vs informatique dure
Trouver une solution prouvée correcte ou optimale est insoluble pour de nombreux problèmes importants. Le soft computing est un ensemble de techniques, comprenant des algorithmes génétiques , de la logique floue et des réseaux de neurones , qui tolèrent l'imprécision, l'incertitude, la vérité partielle et l'approximation. L'informatique logicielle a été introduite à la fin des années 80 et les programmes d'IA les plus réussis du 21e siècle sont des exemples d'informatique logicielle avec des réseaux de neurones .
IA étroite ou générale
Les chercheurs en IA sont divisés quant à savoir s'il faut poursuivre directement les objectifs de l'intelligence artificielle générale et de la superintelligence (IA générale) ou résoudre autant de problèmes spécifiques que possible (IA étroite) dans l'espoir que ces solutions mèneront indirectement aux objectifs à long terme du domaine Général l'intelligence est difficile à définir et difficile à mesurer, et l'IA moderne a connu des succès plus vérifiables en se concentrant sur des problèmes spécifiques avec des solutions spécifiques. Le sous-domaine expérimental de l'intelligence artificielle générale étudie exclusivement ce domaine.
Conscience, sensibilité et esprit de la machine
La philosophie de l'esprit ne sait pas si une machine peut avoir un esprit , une conscience et des états mentaux , au même sens que les êtres humains. Ce problème considère les expériences internes de la machine, plutôt que son comportement externe. La recherche traditionnelle sur l'IA considère que cette question n'est pas pertinente car elle n'affecte pas les objectifs du domaine. Stuart Russell et Peter Norvig observent que la plupart des chercheurs en IA "ne se soucient pas de la [philosophie de l'IA] - tant que le programme fonctionne, ils ne se soucient pas de savoir si vous l'appelez une simulation d'intelligence ou une intelligence réelle". Pourtant, la question est devenue centrale dans la philosophie de l'esprit. C'est aussi typiquement la question centrale en jeu dans l'intelligence artificielle dans la fiction .
Conscience
David Chalmers a identifié deux problèmes dans la compréhension de l'esprit, qu'il a nommés les problèmes "difficiles" et "faciles" de la conscience. Le problème facile est de comprendre comment le cerveau traite les signaux, élabore des plans et contrôle le comportement. Le problème difficile est d'expliquer comment cela se sent ou pourquoi cela devrait ressembler à quoi que ce soit. Le traitement humain de l' information est facile à expliquer, cependant, l'expérience subjective humaine est difficile à expliquer. Par exemple, il est facile d'imaginer une personne daltonienne qui a appris à identifier les objets rouges dans son champ de vision, mais on ne sait pas ce qui serait nécessaire pour que la personne sache à quoi ressemble le rouge .
Computationalisme et fonctionnalisme
Le calculalisme est la position dans la philosophie de l'esprit selon laquelle l'esprit humain est un système de traitement de l'information et que la pensée est une forme d'informatique. Le calculalisme soutient que la relation entre l'esprit et le corps est similaire ou identique à la relation entre le logiciel et le matériel et peut donc être une solution au problème corps-esprit . Cette position philosophique a été inspirée par les travaux des chercheurs en intelligence artificielle et des scientifiques cognitifs dans les années 1960 et a été initialement proposée par les philosophes Jerry Fodor et Hilary Putnam .
Le philosophe John Searle a qualifié cette position d '"IA forte" : "L'ordinateur programmé de manière appropriée avec les bonnes entrées et sorties aurait ainsi un esprit exactement dans le même sens que les êtres humains ont un esprit." Searle contredit cette affirmation avec son argument de la chambre chinoise, qui tente de montrer que, même si une machine simule parfaitement le comportement humain, il n'y a toujours aucune raison de supposer qu'elle a aussi un esprit.
Droits des robots
Si une machine a un esprit et une expérience subjective, alors elle peut aussi avoir une sensibilité (la capacité de ressentir), et si c'est le cas, alors elle pourrait aussi souffrir , et donc elle aurait droit à certains droits. Tout droit hypothétique des robots se situerait sur un spectre comprenant les droits des animaux et les droits de l'homme. Cette question a été considérée dans la fiction pendant des siècles et est maintenant examinée, par exemple, par l' Institute for the Future de Californie , cependant, les critiques soutiennent que la discussion est prématurée.
Avenir
Superintelligence
Une superintelligence, une hyperintelligence ou une intelligence surhumaine est un agent hypothétique qui posséderait une intelligence dépassant de loin celle de l'esprit humain le plus brillant et le plus doué. La superintelligence peut également faire référence à la forme ou au degré d'intelligence possédée par un tel agent.
Si la recherche sur l'intelligence artificielle générale produisait des logiciels suffisamment intelligents, ils pourraient peut-être se reprogrammer et s'améliorer. Le logiciel amélioré serait encore meilleur pour s'améliorer, conduisant à une auto-amélioration récursive . Son intelligence augmenterait de façon exponentielle dans une explosion d'intelligence et pourrait considérablement dépasser les humains. L'écrivain de science-fiction Vernor Vinge a nommé ce scénario la "singularité". Parce qu'il est difficile voire impossible de connaître les limites de l'intelligence ou les capacités des machines superintelligentes, la singularité technologique est un événement au-delà duquel les événements sont imprévisibles voire insondables.
Le concepteur de robots Hans Moravec , le cybernéticien Kevin Warwick et l'inventeur Ray Kurzweil ont prédit que les humains et les machines fusionneront à l'avenir en cyborgs plus capables et plus puissants que les deux. Cette idée, appelée transhumanisme, trouve ses racines chez Aldous Huxley et Robert Ettinger .
Edward Fredkin soutient que "l'intelligence artificielle est la prochaine étape de l'évolution", une idée proposée pour la première fois par " Darwin parmi les machines " de Samuel Butler dès 1863, et développée par George Dyson dans son livre du même nom en 1998.
Des risques
Chômage technologique
Dans le passé, la technologie a eu tendance à augmenter plutôt qu'à réduire l'emploi total, mais les économistes reconnaissent que "nous sommes en territoire inconnu" avec l'IA. Une enquête d'économistes a montré un désaccord quant à savoir si l'utilisation croissante des robots et de l'IA entraînera une augmentation substantielle du chômage de longue durée , mais ils conviennent généralement que cela pourrait être un avantage net si les gains de productivité sont redistribués . Les estimations subjectives du risque varient considérablement ; par exemple, Michael Osborne et Carl Benedikt Frey estiment que 47 % des emplois américains sont à « haut risque » d'automatisation potentielle, tandis qu'un rapport de l'OCDE classe seulement 9 % des emplois américains comme « à haut risque ».
Contrairement aux précédentes vagues d'automatisation, de nombreux emplois de la classe moyenne peuvent être éliminés par l'intelligence artificielle ; The Economist déclare que "l'inquiétude que l'IA pourrait faire aux cols blancs ce que la vapeur a fait aux cols bleus pendant la révolution industrielle" vaut "la peine d'être prise au sérieux". Les emplois à risque extrême vont des parajuristes aux cuisiniers de restauration rapide, tandis que la demande d'emplois est susceptible d'augmenter pour les professions liées aux soins allant des soins de santé personnels au clergé.
Mauvais acteurs et IA armée
L'IA fournit un certain nombre d'outils particulièrement utiles aux gouvernements autoritaires : les logiciels espions intelligents , la reconnaissance faciale et la reconnaissance vocale permettent une surveillance généralisée ; une telle surveillance permet à l'apprentissage automatique de classer les ennemis potentiels de l'État et peut les empêcher de se cacher ; les systèmes de recommandation peuvent cibler précisément la propagande et la désinformation pour un effet maximal ; les deepfakes aident à produire de la désinformation ; L'IA avancée peut rendre la prise de décision centralisée plus compétitive avec les systèmes libéraux et décentralisés tels que les marchés.
Les terroristes, les criminels et les États voyous peuvent utiliser d'autres formes d'IA militarisées telles que la guerre numérique avancée et les armes autonomes létales . En 2015, plus de cinquante pays faisaient des recherches sur les robots de champ de bataille.
L'IA d'apprentissage automatique est également capable de concevoir des dizaines de milliers de molécules toxiques en quelques heures.
Biais algorithmique
Les programmes d'IA peuvent devenir biaisés après avoir appris à partir de données du monde réel. Il n'est généralement pas introduit par les concepteurs du système mais est appris par le programme, et donc les programmeurs ignorent souvent que le biais existe. Un biais peut être introduit par inadvertance par la manière dont les données d'apprentissage sont sélectionnées. Elle peut aussi émerger de corrélations : l'IA est utilisée pour classer les individus en groupes puis faire des prédictions en supposant que l'individu ressemblera aux autres membres du groupe. Dans certains cas, cette hypothèse peut être injuste. COMPAS , un programme commercial largement utilisé par les tribunaux américains pour évaluer la probabilité qu'un accusé devienne un récidiviste , en est un exemple . ProPublica affirme que le niveau de risque de récidive attribué par COMPAS aux accusés noirs est beaucoup plus susceptible d'être surestimé que celui des accusés blancs, malgré le fait que le programme n'a pas été informé des races des accusés. D'autres exemples où le biais algorithmique peut conduire à des résultats injustes sont lorsque l'IA est utilisée pour la notation de crédit ou l'embauche .
Lors de sa conférence 2022 sur l'équité, la responsabilité et la transparence (ACM FAccT 2022), l' Association for Computing Machinery , à Séoul, en Corée du Sud, a présenté et publié des conclusions recommandant que jusqu'à ce qu'il soit démontré que les systèmes d'IA et de robotique sont exempts d'erreurs de biais, ils sont dangereux et l'utilisation de réseaux de neurones auto-apprenants formés sur de vastes sources non réglementées de données Internet erronées devrait être réduite.
Risque existentiel
L'IA superintelligente pourrait être capable de s'améliorer au point que les humains ne pourraient plus la contrôler. Cela pourrait, comme le dit le physicien Stephen Hawking , « signifier la fin de la race humaine ». Le philosophe Nick Bostrom soutient qu'une IA suffisamment intelligente si elle choisit des actions basées sur la réalisation d'un objectif, présentera un comportement convergent tel que l'acquisition de ressources ou la protection contre la fermeture. Si les objectifs de cette IA ne reflètent pas pleinement ceux de l'humanité, elle devra peut-être nuire à l'humanité pour acquérir plus de ressources ou s'empêcher d'être arrêtée, en fin de compte pour mieux atteindre son objectif. Il conclut que l'IA représente un risque pour l'humanité, aussi humbles ou « amicaux » que soient ses objectifs déclarés. Le politologue Charles T. Rubin soutient que "toute bienveillance suffisamment avancée peut être indiscernable de la malveillance". Les humains ne devraient pas supposer que des machines ou des robots nous traiteraient favorablement parce qu'il n'y a aucune raison a priori de croire qu'ils partageraient notre système de moralité.
L'opinion des experts et des initiés de l'industrie est mitigée, avec des fractions importantes à la fois concernées et non concernées par le risque d'une éventuelle IA aux capacités surhumaines. Stephen Hawking , le fondateur de Microsoft Bill Gates , le professeur d'histoire Yuval Noah Harari et le fondateur de SpaceX Elon Musk ont tous exprimé de sérieuses inquiétudes quant à l'avenir de l'IA. D'éminents titans de la technologie, dont Peter Thiel ( Amazon Web Services ) et Musk, ont engagé plus d'un milliard de dollars dans des entreprises à but non lucratif qui défendent le développement responsable de l'IA, telles que OpenAI et le Future of Life Institute . Mark Zuckerberg (PDG, Facebook) a déclaré que l'intelligence artificielle est utile dans sa forme actuelle et continuera à aider les humains. D'autres experts affirment que les risques sont suffisamment éloignés dans le futur pour ne pas valoir la peine d'être étudiés, ou que les humains seront précieux du point de vue d'une machine super intelligente. Rodney Brooks , en particulier, a déclaré que l'IA "malveillante" est encore à des siècles de distance.
Machines éthiques
Les IA conviviales sont des machines qui ont été conçues dès le départ pour minimiser les risques et faire des choix qui profitent aux humains. Eliezer Yudkowsky , qui a inventé le terme, soutient que le développement d'une IA conviviale devrait être une priorité de recherche plus élevée : cela peut nécessiter un investissement important et il doit être achevé avant que l'IA ne devienne un risque existentiel.
Les machines intelligentes ont le potentiel d'utiliser leur intelligence pour prendre des décisions éthiques. Le domaine de l'éthique des machines fournit aux machines des principes et des procédures éthiques pour résoudre les dilemmes éthiques. L'éthique de la machine est également appelée moralité de la machine , éthique computationnelle ou moralité computationnelle, et a été fondée lors d'un symposium AAAI en 2005.
D'autres approches incluent les "agents moraux artificiels" de Wendell Wallach et les trois principes de Stuart J. Russell pour développer des machines dont les avantages sont prouvés.
Régulation
La réglementation de l'intelligence artificielle est l'élaboration de politiques et de lois du secteur public pour promouvoir et réglementer l'intelligence artificielle (IA); elle est donc liée à la régulation plus large des algorithmes. Le paysage réglementaire et politique de l'IA est un problème émergent dans les juridictions du monde entier. Entre 2016 et 2020, plus de 30 pays ont adopté des stratégies dédiées à l'IA. La plupart des États membres de l'UE ont publié des stratégies nationales d'IA, tout comme le Canada, la Chine, l'Inde, le Japon, Maurice, la Fédération de Russie, l'Arabie saoudite, les Émirats arabes unis, les États-Unis et le Vietnam. D'autres étaient en train d'élaborer leur propre stratégie d'IA, notamment le Bangladesh, la Malaisie et la Tunisie. Le Partenariat mondial sur l'intelligence artificielle a été lancé en juin 2020, indiquant la nécessité de développer l'IA conformément aux droits de l'homme et aux valeurs démocratiques, afin de garantir la confiance du public dans la technologie. Henry Kissinger , Eric Schmidt et Daniel Huttenlocher ont publié une déclaration commune en novembre 2021 appelant à une commission gouvernementale pour réglementer l'IA.
Dans la fiction
Les êtres artificiels capables de penser sont apparus comme des dispositifs de narration depuis l'Antiquité et ont été un thème persistant dans la science-fiction .
Un trope commun dans ces œuvres a commencé avec Frankenstein de Mary Shelley , où une création humaine devient une menace pour ses maîtres. Cela inclut des œuvres telles que 2001 : A Space Odyssey d' Arthur C. Clarke et Stanley Kubrick (tous deux de 1968), avec HAL 9000 , l'ordinateur meurtrier responsable du vaisseau spatial Discovery One , ainsi que The Terminator (1984) et The Matrix (1999). ). En revanche, les rares robots fidèles tels que Gort de The Day the Earth Stood Still (1951) et Bishop de Aliens (1986) sont moins présents dans la culture populaire.
Isaac Asimov a introduit les trois lois de la robotique dans de nombreux livres et histoires, notamment la série "Multivac" sur un ordinateur super intelligent du même nom. Les lois d'Asimov sont souvent évoquées lors de discussions profanes sur l'éthique des machines; alors que presque tous les chercheurs en intelligence artificielle connaissent les lois d'Asimov à travers la culture populaire, ils considèrent généralement les lois comme inutiles pour de nombreuses raisons, dont l'une est leur ambiguïté.
Le transhumanisme (la fusion des humains et des machines) est exploré dans le manga Ghost in the Shell et la série de science-fiction Dune .
Plusieurs œuvres utilisent l'IA pour nous obliger à nous confronter à la question fondamentale de ce qui fait de nous des humains, nous montrant des êtres artificiels qui ont la capacité de ressentir , et donc de souffrir. Cela apparaît dans RUR de Karel Čapek , les films AI Artificial Intelligence et Ex Machina , ainsi que le roman Les androïdes rêvent-ils de moutons électriques ? , par Philip K. Dick . Dick considère l'idée que notre compréhension de la subjectivité humaine est altérée par la technologie créée avec l'intelligence artificielle.
Diplomatie scientifique
Guerre
Alors que la technologie et la recherche évoluent et que le monde entre dans la troisième révolution de la guerre après la poudre à canon et les armes nucléaires, la course aux armements de l'intelligence artificielle s'ensuit entre les États-Unis, la Chine et la Russie, trois pays avec les cinq budgets militaires les plus élevés au monde. L'intention d'être un leader mondial de la recherche sur l'IA d'ici 2030 a été déclarée par le dirigeant chinois Xi Jinping, et le président russe Poutine a déclaré que "Quiconque devient le leader dans ce domaine deviendra le dirigeant du monde". Si la Russie devenait le leader de la recherche sur l'IA, le président Poutine a déclaré l'intention de la Russie de partager certaines de leurs recherches avec le monde afin de ne pas monopoliser le domaine, comme leur partage actuel des technologies nucléaires, en maintenant des relations de diplomatie scientifique. Les États-Unis, la Chine et la Russie sont quelques exemples de pays qui ont pris position à l'égard de l'intelligence artificielle militaire dès 2014, ayant établi des programmes militaires pour développer des cyberarmes, contrôler des armes autonomes létales et des drones qui peuvent être utilisés pour surveillance .
Guerre russo-ukrainienne
Le président Poutine a annoncé que l'intelligence artificielle est l'avenir de toute l'humanité et reconnaît le pouvoir et les opportunités que le développement et le déploiement de la technologie d'IA d'armes létales autonomes peuvent détenir dans la guerre et la sécurité intérieure, ainsi que ses menaces. La prédiction du président Poutine selon laquelle les guerres futures seront menées à l'aide de l'IA a commencé à se concrétiser dans une certaine mesure après que la Russie a envahi l'Ukraine le 24 février 2022 . L'armée ukrainienne utilise les drones turcs Bayraktar TB2 qui nécessitent toujours une intervention humaine pour déployer des bombes à guidage laser, mais peuvent décoller, atterrir et naviguer de manière autonome. L' Ukraine utilise également des drones Switchblade fournis par les États-Unis et reçoit des informations collectées par les propres opérations de surveillance des États-Unis concernant le renseignement sur le champ de bataille et la sécurité nationale concernant la Russie. De même, la Russie peut utiliser l'IA pour aider à analyser les données du champ de bataille à partir de séquences de surveillance prises par des drones. Des rapports et des images montrent que l'armée russe a déployé des drones suicides KUB-BLA en Ukraine, avec des spéculations sur l'intention d'assassiner le président ukrainien Volodymyr Zelenskyy .
Règlement de guerre
Au fur et à mesure que la recherche dans le domaine de l'IA progresse, l'utilisation de l'IA est rejetée par la Campagne pour arrêter les robots tueurs et les leaders mondiaux de la technologie ont envoyé une pétition aux Nations Unies appelant à de nouvelles réglementations sur le développement et l'utilisation des technologies de l'IA en 2017, y compris une interdiction de l'utilisation d' armes létales autonomes en raison de préoccupations éthiques pour les populations civiles innocentes.
La cyber-sécurité
Avec les cyberattaques et la génération d'appareils en constante évolution, l'IA peut être utilisée pour la détection des menaces et une réponse plus efficace grâce à la hiérarchisation des risques. Avec cet outil, certains défis sont également présentés tels que la confidentialité, le consentement éclairé et l'utilisation responsable. Selon la CISA , le cyberespace est difficile à sécuriser pour les facteurs suivants : la capacité des acteurs malveillants à opérer de n'importe où dans le monde, les liens entre le cyberespace et les systèmes physiques, et la difficulté de réduire les vulnérabilités et les conséquences dans les cyber-réseaux complexes. Avec les progrès technologiques accrus du monde, le risque d'événements consécutifs à grande échelle augmente. Paradoxalement, la capacité de protéger l'information et de créer une ligne de communication entre la communauté scientifique et diplomatique se développe. Le rôle de la cybersécurité dans la diplomatie est devenu de plus en plus pertinent, créant le terme de cyberdiplomatie – qui n'est pas défini de manière uniforme et n'est pas synonyme de cyberdéfense . De nombreux pays ont développé des approches uniques de la diplomatie scientifique dans le cyberespace.
L'approche de la République tchèque
Cela remonte à 2011, lorsque l' Autorité de sécurité nationale tchèque (NSA) a été nommée autorité nationale pour le cyberagenda. Le rôle de la cyberdiplomatie s'est renforcé en 2017 lorsque le ministère tchèque des Affaires étrangères (MAE) a détecté une sérieuse cybercampagne dirigée contre ses propres réseaux informatiques. En 2016, trois cyber-diplomates ont été déployés à Washington, DC, Bruxelles et Tel-Aviv, dans le but d'établir une coopération internationale active axée sur l'engagement avec l' UE et l'OTAN . Le principal programme de ces efforts de diplomatie scientifique est de renforcer la recherche sur l'intelligence artificielle et la manière dont elle peut être utilisée dans la recherche, le développement et la confiance globale des consommateurs en matière de cybersécurité. CzechInvest est un acteur clé de la diplomatie scientifique et de la cybersécurité. Par exemple, en septembre 2018, ils ont organisé une mission au Canada en septembre 2018 avec un accent particulier sur l'intelligence artificielle. L'objectif principal de cette mission particulière était un effort de promotion au nom de Prague, visant à en faire un futur centre de connaissances pour l'industrie pour les entreprises canadiennes intéressées.
L'approche de l'Allemagne
La cybersécurité est reconnue comme une tâche gouvernementale, divisée en trois ministères de responsabilité : le ministère fédéral de l'Intérieur, le ministère fédéral de la Défense et le ministère fédéral des Affaires étrangères. Ces distinctions ont favorisé la création de diverses institutions, telles que l'Office national allemand de la sécurité de l'information, le Centre national de cyberdéfense, le Conseil national allemand de la cybersécurité et le Cyber and Information Domain Service. En 2018, une nouvelle stratégie pour l'intelligence artificielle a été établie par le gouvernement allemand, avec la création d'un réseau virtuel franco-allemand de recherche et d'innovation, offrant une opportunité d'expansion de la recherche dans la cybersécurité.
L'approche de l'Union européenne
L'adoption de la Stratégie de cybersécurité de l'Union européenne - Un document sur le cyberespace ouvert, sûr et sécurisé en 2013 par la Commission européenne a fait avancer les efforts de cybersécurité intégrés à la diplomatie scientifique et à l'intelligence artificielle. Les efforts sont considérables, car l'UE finance divers programmes et institutions dans le but d'amener la science à la diplomatie et d'amener la diplomatie à la science. Quelques exemples sont le programme de cybersécurité Competence Research Innovation (CONCORDIA), qui rassemble 14 États membres, Cybersecurity for Europe (CSE) - qui rassemble 43 partenaires impliquant 20 États membres. En outre, le réseau européen des centres de cybersécurité et centre de compétences pour l'innovation et les opérations (ECHO) rassemble 30 partenaires avec 15 États membres et SPARTA rassemble 44 partenaires impliquant 14 États membres. Ces efforts reflètent les objectifs généraux de l'UE, à savoir innover en matière de cybersécurité pour la défense et la protection, établir un cyberespace hautement intégré entre de nombreux pays et contribuer davantage à la sécurité de l'intelligence artificielle.
Guerre russo-ukrainienne
Avec l'invasion de l'Ukraine en 2022, il y a eu une augmentation des cyber-activités malveillantes contre les États-Unis, l'Ukraine et la Russie. Une utilisation documentée importante et rare de l'intelligence artificielle dans les conflits est au nom de l'Ukraine, utilisant un logiciel de reconnaissance faciale pour découvrir les assaillants russes et identifier les Ukrainiens tués dans la guerre en cours. Bien que ces personnalités gouvernementales ne se concentrent pas principalement sur la diplomatie scientifique et la cyberdiplomatie, d'autres institutions commentent l'utilisation de l'intelligence artificielle dans la cybersécurité avec cet accent. Par exemple, le Centre pour la sécurité et les technologies émergentes (CSET) de l'Université de Georgetown a le projet Cyber-AI, dont l'un des objectifs est d'attirer l'attention des décideurs sur le nombre croissant de recherches universitaires, qui exposent les conséquences d'exploitation de l'IA et de l'apprentissage automatique (ML ) algorithmes. Cette vulnérabilité peut être une explication plausible de la raison pour laquelle la Russie ne s'engage pas dans l'utilisation de l'IA dans les conflits, selon Andrew Lohn , chercheur principal au CSET. En plus d'être utilisée sur le champ de bataille, l'IA est utilisée par le Pentagone pour analyser les données de la guerre, en analysant pour renforcer la cybersécurité et le renseignement de guerre pour les États-Unis.
Sécurité électorale
À mesure que l'intelligence artificielle se développe et que la quantité écrasante de nouvelles présentées dans le cyberespace se développe, il devient extrêmement difficile pour un électeur de savoir quoi croire. Il existe de nombreux codes intelligents, appelés bots, écrits pour représenter les gens sur les réseaux sociaux dans le but de diffuser des informations manquantes. L'élection américaine de 2016 est victime de telles actions. Pendant la campagne d' Hillary Clinton et de Donald Trump , des robots intelligents artificiels de Russie diffusaient de fausses informations sur les candidats afin d'aider la campagne Trump. Les analystes ont conclu qu'environ 19 % des tweets Twitter centrés sur les élections de 2016 provenaient de bots. Ces dernières années, YouTube a également été utilisé pour diffuser des informations politiques. Bien qu'il n'y ait aucune preuve que la plate-forme tente de manipuler les opinions de ses téléspectateurs, l'algorithme d'IA de Youtube recommande des vidéos de variété similaire. Si une personne commence à rechercher des podcasts politiques de droite , l'algorithme de YouTube recommandera plus de vidéos de droite. Le soulèvement d'un programme appelé Deepfake , un logiciel utilisé pour reproduire le visage et les mots de quelqu'un, a également montré sa menace potentielle. En 2018, une vidéo Deepfake de Barack Obama a été publiée en disant des mots qu'il prétend n'avoir jamais dits. Alors que lors d'une élection nationale, un Deepfake sera rapidement démystifié, le logiciel a la capacité d'influencer fortement une élection locale plus petite . Cet outil recèle un fort potentiel de diffusion de fausses informations et est surveillé avec une grande attention. Bien qu'elle puisse être considérée comme un outil utilisé à des fins nuisibles, l'IA peut également contribuer à améliorer les campagnes électorales. Les robots IA peuvent être programmés pour cibler des articles contenant des informations erronées connues. Les robots peuvent alors indiquer ce qui est mal informé pour aider à faire la lumière sur la vérité. L'IA peut également être utilisée pour informer une personne de la position de chaque partie sur un certain sujet, comme les soins de santé ou le changement climatique . Les dirigeants politiques d'une nation ont une forte influence sur les affaires internationales. Ainsi, un dirigeant politique avec un manque d'intérêt pour l'avancement scientifique collaboratif international peut avoir un impact négatif sur la diplomatie scientifique de cette nation.
Avenir du travail
La reconnaissance faciale
L'utilisation de l'intelligence artificielle (IA) s'est subtilement développée pour faire partie de la vie quotidienne. Il est utilisé au quotidien dans les logiciels de reconnaissance faciale . C'est la première mesure de sécurité pour de nombreuses entreprises sous la forme d'une authentification biométrique. Ce moyen d'authentification permet même aux organisations les plus officielles telles que l'Internal Revenue Service des États-Unis de vérifier l'identité d'une personne via une base de données générée à partir du machine learning. À partir de l'année 2022, l'IRS des États-Unis exige que ceux qui ne subissent pas d'entretien en direct avec un agent effectuent une vérification biométrique de leur identité via l'outil de reconnaissance faciale d'ID.me.
L'IA et l'école
Au Japon et en Corée du Sud, des logiciels d'intelligence artificielle sont utilisés dans l'enseignement de la langue anglaise via la société Riiid. Riiid est une société d'éducation coréenne travaillant aux côtés du Japon pour donner aux étudiants les moyens d'apprendre et d'utiliser leurs compétences en communication en anglais en s'engageant avec l'intelligence artificielle dans un chat en direct. Riid n'est pas la seule entreprise à le faire. Une société américaine comme Duolingo est très connue pour son enseignement automatisé de 41 langues. Babbel , un programme d'apprentissage de la langue allemande utilise également l'intelligence artificielle dans son automatisation de l'enseignement, permettant aux étudiants européens d'acquérir des compétences de communication vitales nécessaires dans les contextes sociaux, économiques et diplomatiques. L'intelligence artificielle automatisera également les tâches de routine que les enseignants doivent effectuer, telles que la notation, la prise de présence et la gestion des demandes de renseignements courantes des étudiants. Cela permet à l'enseignant de poursuivre les complexités de l'enseignement qu'une machine automatisée ne peut pas gérer. Celles-ci incluent la création d'examens, l'explication de matériel complexe d'une manière qui profitera aux étudiants individuellement et la gestion des questions uniques des étudiants.
IA et médecine
Contrairement au cerveau humain, qui possède une intelligence généralisée, l'intelligence spécialisée de l'IA peut servir de moyen de soutien aux médecins à l'échelle internationale. Le domaine médical dispose d'une quantité variée et profonde de données dans lesquelles l'IA peut utiliser pour générer un diagnostic prédictif. Des chercheurs d'un hôpital d'Oxford ont développé une intelligence artificielle capable de diagnostiquer les scintigraphies cardiaques pour les maladies cardiaques et le cancer. Cette intelligence artificielle peut détecter de minuscules détails dans les scans que les médecins peuvent manquer. Ainsi, l'intelligence artificielle en médecine améliorera l'industrie, donnant aux médecins les moyens de diagnostiquer avec précision leurs patients à l'aide des outils disponibles. Les algorithmes d'intelligence artificielle seront également utilisés pour améliorer encore le diagnostic dans le temps, via une application d'apprentissage automatique appelée médecine de précision. De plus, l'application étroite de l'intelligence artificielle peut utiliser le " deep learning " afin d'améliorer l'analyse des images médicales. En imagerie radiologique, l'IA utilise des algorithmes d'apprentissage en profondeur pour identifier les lésions potentiellement cancéreuses, ce qui est un processus important aidant au diagnostic précoce.
L'IA en entreprise
L'analyse des données est une propriété fondamentale de l'intelligence artificielle qui lui permet d'être utilisée dans toutes les facettes de la vie, des résultats de recherche à la façon dont les gens achètent un produit. Selon NewVantage Partners, plus de 90 % des grandes entreprises investissent en permanence dans l'intelligence artificielle. Selon IBM, l'un des leaders mondiaux de la technologie, 45 % des répondants issus d'entreprises de plus de 1 000 employés ont adopté l'IA. Des données récentes montrent que le marché commercial de l'intelligence artificielle au cours de l'année 2020 était évalué à 51,08 milliards de dollars. Le marché commercial de l'intelligence artificielle devrait dépasser 640,3 milliards de dollars d'ici 2028. Pour prévenir les dommages, les organisations qui déploient l'IA doivent jouer un rôle central dans la création et le déploiement d'une IA fiable conformément aux principes d'une IA digne de confiance, et prendre leurs responsabilités. pour atténuer les risques.
Affaires et diplomatie
Avec l'essor exponentiel de la technologie artificielle et de la communication, la distribution de ses idéaux et de ses valeurs est devenue évidente dans la vie quotidienne. Les informations numériques sont diffusées via des applications de communication telles que Whatsapp, Facebook/Meta, Snapchat, Instagram et Twitter. Cependant, il est connu que ces sites relayent des informations spécifiques correspondant à l'analyse des données. Si un individu de droite effectuait une recherche sur Google, les algorithmes de Google cibleraient cet individu et transmettraient les données pertinentes à ce public cible. Le président américain Bill Clinton notait en 2000 : "Dans le nouveau siècle, la liberté se répandra par le téléphone portable et le modem câble. [...] Nous savons à quel point Internet a changé l'Amérique, et nous sommes déjà une société ouverte. Cependant, quand le secteur privé utilise l'intelligence artificielle pour collecter des données, on assiste à un basculement du pouvoir de l'État vers le secteur privé.Ce basculement du pouvoir, notamment dans les grandes entreprises technologiques, pourrait modifier profondément le fonctionnement de la diplomatie dans la société.L'essor du numérique et l'utilisation de technologies artificielles ont permis au secteur privé de recueillir d'immenses données sur le public, qui sont ensuite classées par race, lieu, âge, sexe, etc. Le New York Times calcule que "les dix plus grandes entreprises technologiques, qui sont devenues des gardiens dans le commerce, la finance, le divertissement et les communications, ont maintenant une capitalisation boursière combinée de plus de 10 000 milliards de dollars. En termes de produit intérieur brut, cela les classerait au troisième rang des économies mondiales. » Au-delà du lobbying général des membres du Congrès, des entreprises telles que Facebook/Meta ou Google utilisent les données collectées afin d'atteindre leurs publics cibles avec des informations ciblées.
IA et politique étrangère
Plusieurs nations à travers le monde utilisent l'intelligence artificielle pour les aider dans leurs décisions de politique étrangère. Le Département chinois des affaires de sécurité extérieure - qui relève du ministère des Affaires étrangères - utilise l'IA pour examiner presque tous ses projets d'investissement étrangers afin d'atténuer les risques. Le gouvernement chinois prévoit d'utiliser l'intelligence artificielle dans son plan de développement des infrastructures mondiales de 900 milliards de dollars, appelé "Initiative Ceinture et Route" pour l'atténuation des risques politiques, économiques et environnementaux.
Plus de 200 applications d'intelligence artificielle sont utilisées par plus de 46 agences des Nations Unies, dans des secteurs allant des soins de santé traitant de questions telles que la lutte contre le COVID-19 à l'agriculture intelligente, pour aider l'ONU dans les relations politiques et diplomatiques. Un exemple est l'utilisation de l'IA par le programme UN Global Pulse pour modéliser l'effet de la propagation du COVID-19 sur les personnes déplacées à l'intérieur du pays (PDI) et les camps de réfugiés afin de les aider à créer une politique de santé mondiale appropriée.
De nouveaux outils d'IA tels que la télédétection peuvent également être utilisés par les diplomates pour collecter et analyser des données et suivre en temps quasi réel des objets tels que les mouvements de troupes ou de réfugiés le long des frontières dans les zones de conflit violent.
L'intelligence artificielle peut être utilisée pour atténuer les pourparlers diplomatiques transnationaux vitaux afin d'éviter les erreurs de traduction causées par des traducteurs humains. Un exemple majeur est les réunions d'Anchorage de 2021 tenues entre les États-Unis et la Chine visant à stabiliser les relations étrangères, seulement pour qu'elles aient l'effet inverse, augmentant la tension et l'agressivité entre les deux nations, en raison d'erreurs de traduction causées par des traducteurs humains. Lors de la réunion, lorsque le conseiller à la sécurité nationale des États-Unis auprès du président Joe Biden, Jacob Jeremiah Sullivan, a déclaré : « Nous ne recherchons pas le conflit, mais nous accueillons une concurrence féroce et nous défendrons toujours nos principes, notre peuple et nos amis. ", il a été mal traduit en chinois par "nous ferons face à une concurrence entre nous et présenterons notre position de manière très claire", ajoutant un ton agressif au discours. La capacité de l'IA à traiter rapidement et efficacement le langage naturel et à traduire et translittérer en temps réel en fait un outil important pour la communication de politique étrangère entre les nations et empêche les erreurs de traduction involontaires.
Voir également
- IA en hausse
- Problème de contrôle de l'IA
- Course aux armements de l'intelligence artificielle
- Intelligence artificielle générale
- Algorithme de sélection de comportement
- Automatisation des processus métier
- Raisonnement par cas
- Sciences citoyennes
- Algorithme émergent
- Genre féminin des technologies d'IA
- Lexique de l'intelligence artificielle
- Automatisation des processus robotisés
- Intelligence synthétique
- Revenu de base universel
- IA faible
Notes d'explication
Citations
Références
- Attribution
- Cet article incorpore le texte d'un travail de contenu gratuit . Sous licence C-BY-SA 3.0 IGO Texte extrait du Rapport scientifique de l'UNESCO : la course contre la montre pour un développement plus intelligent. , Schneegans, S., T. Straza et J. Lewis (eds), UNESCO.
Manuels d'IA
Voici les quatre manuels d'IA les plus utilisés en 2008 :
- Luger, Georges ; Stubblefield, William (2004). Intelligence artificielle : structures et stratégies pour la résolution de problèmes complexes (5e éd.). Benjamin/Cummings. ISBN 978-0-8053-4780-7. Archivé de l'original le 26 juillet 2020 . Récupéré le 17 décembre 2019 .
- Nilsson, Nils (1998). Intelligence Artificielle : Une Nouvelle Synthèse . Morgan Kaufman. ISBN 978-1-55860-467-4. Archivé de l'original le 26 juillet 2020 . Récupéré le 18 novembre 2019 .
- Russel, Stuart J. ; Norvig, Peter (2003), Intelligence artificielle: une approche moderne (2e éd.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2.
- Poole, David ; Mackworth, Alan ; Goebel, Randy (1998). Intelligence computationnelle : une approche logique . New York : presse universitaire d'Oxford. ISBN 978-0-19-510270-3. Archivé de l'original le 26 juillet 2020 . Récupéré le 22 août 2020 .
Éditions ultérieures.
- Russel, Stuart J. ; Norvig, Peter (2009). Intelligence artificielle : une approche moderne (3e éd.). Upper Saddle River, New Jersey : Prentice Hall. ISBN 978-0-13-604259-4..
- Poole, David ; Mackworth, Alan (2017). Intelligence artificielle: fondements des agents informatiques (2e éd.). La presse de l'Universite de Cambridge. ISBN 978-1-107-19539-4.
Les deux manuels les plus utilisés en 2021. Open Syllabus : Explorer
- Russel, Stuart J. ; Norvig, Peter (2021). Intelligence artificielle : une approche moderne (4e éd.). Hoboken : Pearson. ISBN 9780134610993. RCAC 20190474 .
- Chevalier, Kévin ; Rich, Elaine (1er janvier 2010). Intelligence artificielle (3e éd.). Mc Graw Hill Inde. ISBN 9780070087705.
Histoire de l'IA
- Crevier, Daniel (1993). IA : la recherche tumultueuse de l'intelligence artificielle . New York, NY : BasicBooks. ISBN 0-465-02997-3..
- McCorduck, Pamela (2004), Machines Who Think (2e éd.), Natick, MA: AK Peters, Ltd., ISBN 1-56881-205-1.
- Newquist, HP (1994). Les fabricants de cerveaux : génie, ego et cupidité dans la quête des machines qui pensent . New York : Macmillan/SAMS. ISBN 978-0-672-30412-5.
- Nilsson, Nils (2009). La quête de l'intelligence artificielle : une histoire d'idées et de réalisations . New York : Cambridge University Press. ISBN 978-0-521-12293-1.
Autres ressources
- Werbos, PJ (1988), "Généralisation de la rétropropagation avec application à un modèle récurrent de marché du gaz" , Neural Networks , 1 (4): 339–356, doi : 10.1016/0893-6080(88)90007-X
- Gers, Félix A. ; Schraudolph, Nicol N.; Schraudolph, Jürgen (2002). "Apprentissage de la synchronisation précise avec les réseaux récurrents LSTM" (PDF) . Journal de recherche sur l'apprentissage automatique . 3 : 115–143 . Récupéré le 13 juin 2017 .
- Deng, L.; Yu, D. (2014). "Apprentissage en profondeur : méthodes et applications" (PDF) . Fondements et tendances du traitement du signal . 7 (3–4) : 1–199. doi : 10.1561/2000000039 . Archivé (PDF) de l'original le 14 mars 2016 . Récupéré le 18 octobre 2014 .
- Schulz, Hannes; Behnke, Sven (1er novembre 2012). "Apprentissage en profondeur" . KI – Künstliche Intelligenz . 26 (4): 357–363. doi : 10.1007/s13218-012-0198-z . ISSN 1610-1987 . S2CID 220523562 .
- En ligneFukushima, K. (2007). "Néocognitron" . Scholarpédia . 2 (1): 1717. Bibcode : 2007SchpJ...2.1717F . doi : 10.4249/scholarpedia.1717 .a été introduit par Kunihiko Fukushima en 1980.
- Habibi, Aghdam, Hamed (30 mai 2017). Guide des réseaux de neurones convolutifs : une application pratique à la détection et à la classification des panneaux de signalisation . Heravi, Elnaz Jahani. Cham, Suisse. ISBN 9783319575490. OCLC 987790957 .
- Ciresan, D.; Meier, U.; En ligneSchmidhuber, J. (2012). "Réseaux de neurones profonds multi-colonnes pour la classification d'images". Conférence IEEE 2012 sur la vision par ordinateur et la reconnaissance de formes . pages 3642–3649. arXiv : 1202.2745 . doi : 10.1109/cvpr.2012.6248110 . ISBN 978-1-4673-1228-8. S2CID 2161592 .
- "De ne pas fonctionner au réseau de neurones" . L'Économiste . 2016. Archivé de l'original le 31 décembre 2016 . Récupéré le 26 avril 2018 .
- Thompson, Derek (23 janvier 2014). "Quels emplois les robots occuperont-ils ?" . L'Atlantique . Archivé de l'original le 24 avril 2018 . Récupéré le 24 avril 2018 .
- Scassellati, Brian (2002). "Théorie de l'esprit pour un robot humanoïde". Robots autonomes . 12 (1): 13–24. doi : 10.1023/A:1013298507114 . S2CID 1979315 .
- Échantillon, Ian (14 mars 2017). « DeepMind de Google crée un programme d'IA qui peut apprendre comme un humain » . Le Gardien . Archivé de l'original le 26 avril 2018 . Récupéré le 26 avril 2018 .
- Heath, Nick (11 décembre 2020). "Qu'est-ce que l'IA ? Tout ce que vous devez savoir sur l'Intelligence Artificielle" . ZDNet . Récupéré le 1er mars 2021 .
- Quilles, Michael ; Burch, Neil; Johanson, Michael; Tammelin, Oskari (9 janvier 2015). "Le poker Heads-up limit hold'em est résolu" . Sciences . 347 (6218): 145–149. Bibcode : 2015Sci...347..145B . doi : 10.1126/science.1259433 . ISSN 0036-8075 . PMID 25574016 . S2CID 3796371 .
- Solly, Meilan (15 juillet 2019). "Cette IA joueuse de poker sait quand les tenir et quand les plier" . Smithsonien .
- "Intelligence artificielle : AlphaGo de Google bat le maître de Go Lee Se-dol" . Nouvelles de la BBC . 12 mars 2016. Archivé de l'original le 26 août 2016 . Récupéré le 1er octobre 2016 .
- Rowinski, Dan (15 janvier 2013). "Les assistants personnels virtuels et l'avenir de votre smartphone [Infographie]" . LireEcrire . Archivé de l'original le 22 décembre 2015.
- Manyika, James (2022). "Obtenir l'IA correctement : notes d'introduction sur l'IA et la société" . Dédale . 151 (2): 5–27. doi : 10.1162/daed_e_01897 . S2CID 248377878 . Récupéré le 5 mai 2022 .
- Markoff, John (16 février 2011). "L'ordinateur gagne sur 'Jeopardy!': Trivial, ce n'est pas" . Le New York Times . Archivé de l'original le 22 octobre 2014 . Récupéré le 25 octobre 2014 .
- Anadiotis, George (1er octobre 2020). « L'état de l'IA en 2020 : démocratisation, industrialisation et voie vers l'intelligence artificielle générale » . ZDNet . Récupéré le 1er mars 2021 .
- Goertzel, Ben; Lian, Ruit ; Arel, Itamar; de Garis, Hugo; Chen, Shuo (décembre 2010). "Une enquête mondiale sur les projets de cerveau artificiel, Partie II : architectures cognitives d'inspiration biologique". Neuroinformatique . 74 (1–3) : 30–49. doi : 10.1016/j.neucom.2010.08.012 .
- Robinson, AJ ; Fallside, F. (1987), "Le réseau de propagation d'erreur dynamique piloté par les services publics.", Rapport technique CUED/F-INFENG/TR.1 , Département d'ingénierie de l'Université de Cambridge
- Hochreiter, Sepp (1991). Untersuchungen zu dynamischen neuronalen Netzen (PDF) (thèse de diplôme). Munich : Institut f. Informatique, Technische Univ. Archivé de l'original (PDF) le 6 mars 2015 . Récupéré le 16 avril 2016 .
- Williams, RJ; Zipser, D. (1994), "Algorithmes d'apprentissage basés sur les gradients pour les réseaux récurrents et leur complexité de calcul", Rétro-propagation: théorie, architectures et applications , Hillsdale, NJ: Erlbaum
- Hochreiter, Sepp ; Schmidhuber, Jürgen (1997), "Long Short-Term Memory", Neural Computation , 9 (8): 1735–1780, doi : 10.1162/neco.1997.9.8.1735 , PMID 9377276 , S2CID 1915014
- Goodfellow, Ian ; Bengio, Yoshua ; Courville, Aaron (2016), Deep Learning , MIT Press., archivé de l'original le 16 avril 2016 , récupéré le 12 novembre 2017
- Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Sénior, A. ; Vanhoucke, V.; Nguyen, P.; Sainath, T.; En ligneKingsbury, B. (2012). "Réseaux de neurones profonds pour la modélisation acoustique dans la reconnaissance vocale - Les points de vue partagés de quatre groupes de recherche". Magazine de traitement du signal IEEE . 29 (6) : 82–97. Bibcode : 2012ISPM...29...82H . doi : 10.1109/msp.2012.2205597 . S2CID 206485943 .
- En ligneSchmidhuber, J. (2015). "Apprentissage en profondeur dans les réseaux de neurones : un aperçu". Réseaux de neurones . 61 : 85–117. arXiv : 1404.7828 . doi : 10.1016/j.neunet.2014.09.003 . PMID 25462637 . S2CID 11715509 .
- Linnainmaa, Seppo (1970). La représentation de l'erreur d'arrondi cumulée d'un algorithme sous la forme d'un développement de Taylor des erreurs d'arrondi locales (Thesis) (en finnois). Univ. Helsinki, 6–7.|
- Griewank, Andreas (2012). "Qui a inventé le mode inverse de différenciation ? Histoires d'optimisation". Documenta Matematica, Extra Volume ISMP : 389–400.
- Werbos, Paul (1974). Au-delà de la régression : nouveaux outils de prédiction et d'analyse dans les sciences du comportement (thèse de doctorat). Université Harvard .
- Werbos, Paul (1982). "Au-delà de la régression: nouveaux outils de prédiction et d'analyse dans les sciences du comportement" (PDF) . Modélisation et optimisation du système . Applications des progrès de l'analyse de sensibilité non linéaire. Berlin, Heidelberg : Springer. Archivé de l'original (PDF) le 14 avril 2016 . Récupéré le 16 avril 2016 .
- « Qu'est-ce que la « logique floue » ? Existe-t-il des ordinateurs intrinsèquement flous qui n'appliquent pas la logique binaire habituelle ? » . Scientifique américain . 21 octobre 1999 . Récupéré le 5 mai 2018 .
- Merkel, Daniel ; Middendorf, Martin (2013). "Intelligence d'essaim". Dans Burke, Edmund K. ; Kendall, Graham (éd.). Méthodologies de recherche : tutoriels d'introduction aux techniques d'optimisation et d'aide à la décision . Springer Science et médias d'affaires. ISBN 978-1-4614-6940-7.
- van der Walt, Christiaan; Bernard, Étienne (2006). "Caractéristiques des données qui déterminent les performances du classificateur" (PDF) . Archivé de l'original (PDF) le 25 mars 2009 . Récupéré le 5 août 2009 .
- Hutter, Marcus (2005). Intelligence Artificielle Universelle . Berlin : Springer. ISBN 978-3-540-22139-5.
- Howe, J. (novembre 1994). « L'intelligence artificielle à l'Université d'Édimbourg : une perspective » . Archivé de l'original le 15 mai 2007 . Récupéré le 30 août 2007 .
- Galvan, Jill (1er janvier 1997). "Entrer dans le collectif posthumain dans" Les androïdes rêvent-ils de moutons électriques de Philip K. Dick?". Études de science-fiction . 24 (3): 413–429. JSTOR 4240644 .
- McCauley, Lee (2007). "AI armageddon et les trois lois de la robotique". Éthique et technologies de l'information . 9 (2): 153–164. CiteSeerX 10.1.1.85.8904 . doi : 10.1007/s10676-007-9138-2 . S2CID 37272949 .
- Buttazzo, G. (juillet 2001). "Conscience artificielle : utopie ou possibilité réelle ?". Ordinateur . 34 (7): 24–30. doi : 10.1109/2.933500 .
- Anderson, Susan Leigh (2008). "Les "trois lois de la robotique" d'Asimov et la métaéthique de la machine". IA & Société . 22 (4): 477–493. doi : 10.1007/s00146-007-0094-5 . S2CID 1809459 .
- Yudkowsky, E (2008), "L'intelligence artificielle en tant que facteur positif et négatif du risque global" (PDF) , Risques catastrophiques mondiaux , Oxford University Press, 2008, Bibcode : 2008gcr..book..303Y
- McGaughey, E (2018), Les robots automatiseront-ils votre travail ? Plein emploi, revenu de base et démocratie économique , p. SSRN partie 2(3), SSRN 3044448 , archivé de l'original le 24 mai 2018 , récupéré le 12 janvier 2018
- IGM Chicago (30 juin 2017). "Robots et Intelligence Artificielle" . www.igmchicago.org . Archivé de l'original le 1er mai 2019 . Récupéré le 3 juillet 2019 .
- Lohr, Steve (2017). "Les robots prendront des emplois, mais pas aussi vite que certains le craignent, selon un nouveau rapport" . Le New York Times . Archivé de l'original le 14 janvier 2018 . Récupéré le 13 janvier 2018 .
- Frey, Carl Benedikt; Osborne, Michael A (1er janvier 2017). "L'avenir de l'emploi : quelle est la sensibilité des emplois à l'informatisation ?". Prévisions technologiques et changement social . 114 : 254–280. CiteSeerX 10.1.1.395.416 . doi : 10.1016/j.techfore.2016.08.019 . ISSN 0040-1625 .
- Arntz, Mélanie; Grégory, Terry; Zierahn, Ulrich (2016), « The risk of automation for jobs in OECD countries : A comparative analysis », Documents de travail de l'OCDE sur les affaires sociales, l'emploi et les migrations 189
- Morgenstern, Michael (9 mai 2015). "Automatisation et anxiété" . L'Économiste . Archivé de l'original le 12 janvier 2018 . Récupéré le 13 janvier 2018 .
- Mahdawi, Arwa (26 juin 2017). "Quels métiers existeront-ils encore dans 20 ans ? Lisez ceci pour préparer votre avenir" . Le Gardien . Archivé de l'original le 14 janvier 2018 . Récupéré le 13 janvier 2018 .
- Rubin, Charles (printemps 2003). "Intelligence Artificielle et Nature Humaine" . La Nouvelle Atlantide . 1 : 88–100. Archivé de l'original le 11 juin 2012.
- Bostrom, Nick (2014). Superintelligence : Chemins, Dangers, Stratégies . Presse universitaire d'Oxford.
- Brooks, Rodney (10 novembre 2014). "l'intelligence artificielle est un outil, pas une menace" . Archivé de l'original le 12 novembre 2014.
- Sainato, Michael (19 août 2015). "Stephen Hawking, Elon Musk et Bill Gates mettent en garde contre l'intelligence artificielle" . Observateur . Archivé de l'original le 30 octobre 2015 . Récupéré le 30 octobre 2015 .
- Harari, Yuval Noah (octobre 2018). "Pourquoi la technologie favorise la tyrannie" . L'Atlantique .
- Robitzski, Dan (5 septembre 2018). "Cinq experts partagent ce qui leur fait le plus peur dans l'IA" . Archivé de l'original le 8 décembre 2019 . Récupéré le 8 décembre 2019 .
- Goffrey, Andrew (2008). "Algorithme". Dans Fuller, Matthew (éd.). Les études logicielles : un lexique . Cambridge, Mass. : MIT Press. p. 15-20 . ISBN 978-1-4356-4787-9.
- Lipartito, Kenneth (6 janvier 2011), The Narrative and the Algorithm: Genres of Credit Reporting from the Nineteenth Century to Today (PDF) (Manuscrit non publié), doi : 10.2139/ssrn.1736283 , S2CID 166742927
- Goodman, Bryce; Flaxman, Seth (2017). "Règlements de l'UE sur la prise de décision algorithmique et un "droit à l'explication"". AI Magazine . 38 (3): 50. arXiv : 1606.08813 . doi : 10.1609/aimag.v38i3.2741 . S2CID 7373959 .
- CNA (12 janvier 2019). "Commentaire : mauvaise nouvelle. L'intelligence artificielle est biaisée" . CNA . Archivé de l'original le 12 janvier 2019 . Récupéré le 19 juin 2020 .
- Larson, Jeff; Angwin, Julia (23 mai 2016). "Comment nous avons analysé l'algorithme de récidive COMPAS" . ProPublica . Archivé de l'original le 29 avril 2019 . Récupéré le 19 juin 2020 .
- Müller, Vincent C.; Bostrom, Nick (2014). "Progrès futurs de l'intelligence artificielle : un sondage parmi les experts" (PDF) . L'IA compte . 1 (1): 9–11. doi : 10.1145/2639475.2639478 . S2CID 8510016 . Archivé (PDF) de l'original le 15 janvier 2016.
- Cellan-Jones, Rory (2 décembre 2014). "Stephen Hawking prévient que l'intelligence artificielle pourrait mettre fin à l'humanité" . Nouvelles de la BBC . Archivé de l'original le 30 octobre 2015 . Récupéré le 30 octobre 2015 .
- Rawlinson, Kevin (29 janvier 2015). "Bill Gates de Microsoft insiste sur le fait que l'IA est une menace" . Nouvelles de la BBC . Archivé de l'original le 29 janvier 2015 . Récupéré le 30 janvier 2015 .
- Holley, Peter (28 janvier 2015). "Bill Gates sur les dangers de l'intelligence artificielle : 'Je ne comprends pas pourquoi certaines personnes ne sont pas concernées'" . The Washington Post . ISSN 0190-8286 . Archivé de l'original le 30 octobre 2015 . Récupéré le 30 octobre 2015 .
- Gibbs, Samuel (27 octobre 2014). "Elon Musk : l'intelligence artificielle est notre plus grande menace existentielle" . Le Gardien . Archivé de l'original le 30 octobre 2015 . Récupéré le 30 octobre 2015 .
- Churm, Philip Andrew (14 mai 2019). "Yuval Noah Harari parle de politique, de technologie et de migration" . euronews . Archivé de l'original le 14 mai 2019 . Récupéré le 15 novembre 2020 .
- Bostrom, Nick (2015). « Que se passe-t-il lorsque nos ordinateurs deviennent plus intelligents que nous ? » . TED (conférence) . Archivé de l'original le 25 juillet 2020 . Récupéré le 30 janvier 2020 .
- Poste, Washington (2015). "Des titans de la technologie comme Elon Musk dépensent 1 milliard de dollars pour vous épargner des terminateurs" . Tribune de Chicago . Archivé de l'original le 7 juin 2016.
- Del Prado, Guia Marie (9 octobre 2015). "La mystérieuse société d'intelligence artificielle dans laquelle Elon Musk a investi développe des ordinateurs intelligents qui changent la donne" . Initié à la technologie . Archivé de l'original le 30 octobre 2015 . Récupéré le 30 octobre 2015 .
- FastCompany (15 janvier 2015). "Elon Musk fait don de 10 millions de dollars de son propre argent à la recherche sur l'intelligence artificielle" . Compagnie rapide . Archivé de l'original le 30 octobre 2015 . Récupéré le 30 octobre 2015 .
- Thibodeau, Patrick (25 mars 2019). "Mark Hurd, PDG d'Oracle, ne voit aucune raison de craindre l'IA ERP" . RechercheERP . Archivé de l'original le 6 mai 2019 . Récupéré le 6 mai 2019 .
- Bhardwaj, Prachi (24 mai 2018). "Mark Zuckerberg répond à la paranoïa d'Elon Musk à propos de l'IA : 'L'IA va... aider à assurer la sécurité de nos communautés.'" . Business Insider . Archivé de l'original le 6 mai 2019 . Récupéré le 6 mai 2019 .
- Geist, Edward Moore (9 août 2015). « L'intelligence artificielle est-elle vraiment une menace existentielle pour l'humanité ? . Bulletin des scientifiques atomiques . Archivé de l'original le 30 octobre 2015 . Récupéré le 30 octobre 2015 .
- Madrigal, Alexis C. (27 février 2015). "L'affaire contre les robots tueurs, d'un gars qui travaille en fait sur l'intelligence artificielle" . Fusion.net . Archivé de l'original le 4 février 2016 . Récupéré le 31 janvier 2016 .
- Lee, Timothy B. (22 août 2014). "L'intelligence artificielle va-t-elle détruire l'humanité ? Voici 5 raisons de ne pas s'inquiéter" . Voix . Archivé de l'original le 30 octobre 2015 . Récupéré le 30 octobre 2015 .
- Bibliothèque de droit du Congrès (États-Unis). Direction mondiale de la recherche juridique, organisme émetteur. (2019). Réglementation de l'intelligence artificielle dans certaines juridictions . RCAC 2019668143 . OCLC 1110727808 .
- Rapport de l'UNESCO sur la science : la course contre la montre pour un développement plus intelligent . Paris : Unesco. 11 juin 2021. ISBN 978-92-3-100450-6.
- Berry Hill, Jamie ; Heang, Kévin Kok; Clogher, Rob; Mc Bride, Keegan (2019). Hello, World : L'intelligence artificielle et son utilisation dans le secteur public (PDF) . Paris : Observatoire de l'innovation dans le secteur public de l'OCDE. Archivé (PDF) de l'original le 20 décembre 2019 . Récupéré le 9 août 2020 .
- Barfield, Woodrow; Pagallo, Ugo (2018). Manuel de recherche sur le droit de l'intelligence artificielle . Cheltenham, Royaume-Uni. ISBN 978-1-78643-904-8. OCLC 1039480085 .
- Iphofen, Ron; Kritikos, Mihalis (3 janvier 2019). « Réguler l'intelligence artificielle et la robotique : l'éthique par la conception dans une société numérique ». Sciences sociales contemporaines . 16 (2): 170–184. doi : 10.1080/21582041.2018.1563803 . ISSN 2158-2041 . S2CID 59298502 .
- Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Caroline (24 juillet 2018). "Intelligence Artificielle et Secteur Public – Applications et Défis" . Revue internationale d'administration publique . 42 (7): 596–615. doi : 10.1080/01900692.2018.1498103 . ISSN 0190-0692 . S2CID 158829602 . Archivé de l'original le 18 août 2020 . Récupéré le 22 août 2020 .
- Buiten, Miriam C (2019). « Vers une régulation intelligente de l'intelligence artificielle » . Journal européen de la réglementation des risques . 10 (1): 41–59. doi : 10.1017/err.2019.8 . ISSN 1867-299X .
- Wallach, Wendell (2010). Machines morales . Presse universitaire d'Oxford.
- Brown, Eileen (5 novembre 2019). "La moitié des Américains ne pensent pas que les deepfake news pourraient les cibler en ligne" . ZDNet . Archivé de l'original le 6 novembre 2019 . Récupéré le 3 décembre 2019 .
- Frangoul, Anmar (14 juin 2019). "Une entreprise californienne utilise l'IA pour changer notre façon de penser le stockage de l'énergie" . CNBC . Archivé de l'original le 25 juillet 2020 . Récupéré le 5 novembre 2019 .
- « The Economist explique : pourquoi les entreprises se lancent dans l'intelligence artificielle » . L'Économiste . 31 mars 2016. Archivé de l'original le 8 mai 2016 . Récupéré le 19 mai 2016 .
- Lohr, Steve (28 février 2016). "La promesse de l'intelligence artificielle se déroule par petites étapes" . Le New York Times . Archivé de l'original le 29 février 2016 . Récupéré le 29 février 2016 .
- Smith, Mark (22 juillet 2016). "Alors tu penses que tu as choisi de lire cet article ?" . Nouvelles de la BBC . Archivé de l'original le 25 juillet 2016.
- Aletras, N.; Tsarapatsanis, D.; Preotiuc-Pietro, D.; En ligneLampos, V. (2016). « Prédire les décisions judiciaires de la Cour européenne des droits de l'homme : une perspective de traitement automatique du langage naturel » . PeerJ Informatique . 2 : e93. doi : 10.7717/peerj-cs.93 .
- Cadena, César ; Carlone, Luca; Carrillo, Henri; Latif, Yasir; Scaramuzza, Davide; Neira, José; Reid, Ian; Leonard, John J. (décembre 2016). "Passé, présent et futur de la localisation et de la cartographie simultanées : vers l'ère de la perception robuste". Transactions IEEE sur la robotique . 32 (6): 1309-1332. arXiv : 1606.05830 . doi : 10.1109/TRO.2016.2624754 . S2CID 2596787 .
- Cambria, Erik; Blanc, Bebo (mai 2014). "Courbes sautantes de la PNL: un examen de la recherche sur le traitement du langage naturel [article de révision]". Magazine d'intelligence computationnelle de l'IEEE . 9 (2): 48–57. doi : 10.1109/MCI.2014.2307227 . S2CID 206451986 .
- Vincent, James (7 novembre 2019). "OpenAI a publié l'IA génératrice de texte qui, selon elle, était trop dangereuse pour être partagée" . La Verge . Archivé de l'original le 11 juin 2020 . Récupéré le 11 juin 2020 .
- Jordanie, Michigan ; Mitchell, TM (16 juillet 2015). "Apprentissage automatique : tendances, perspectives et perspectives". Sciences . 349 (6245): 255–260. Bibcode : 2015Sci...349..255J . doi : 10.1126/science.aaa8415 . PMID 26185243 . S2CID 677218 .
- Maschafilm (2010). "Contenu : Film Plug & Pray - Intelligence Artificielle - Robots -" . plugandpray-film.de . Archivé de l'original le 12 février 2016.
- Evans, Woody (2015). « Droits posthumains : dimensions des mondes transhumains » . Teknokultura . 12 (2). doi : 10.5209/rev_TK.2015.v12.n2.49072 .
- Waddell, Kaveh (2018). "Les chatbots sont entrés dans la vallée de l'étrange" . L'Atlantique . Archivé de l'original le 24 avril 2018 . Récupéré le 24 avril 2018 .
- Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv ; Hussain, Amir (septembre 2017). « Une revue de l'informatique affective : De l'analyse unimodale à la fusion multimodale » . Fusion d'informations . 37 : 98–125. doi : 10.1016/j.inffus.2017.02.003 . manche : 1893/25490 .
- "Les robots pourraient exiger des droits légaux" . Nouvelles de la BBC . 21 décembre 2006. Archivé de l'original le 15 octobre 2019 . Récupéré le 3 février 2011 .
- Horst, Steven (2005). "La théorie computationnelle de l'esprit" . L'Encyclopédie de Philosophie de Stanford .
- Omohundro, Steve (2008). La nature de l'intelligence artificielle auto-améliorante . présenté et distribué au Singularity Summit 2007, San Francisco, CA.
- Gué, Martin ; Colvin, Geoff (6 septembre 2015). "Les robots créeront-ils plus d'emplois qu'ils n'en détruiront ?" . Le Gardien . Archivé de l'original le 16 juin 2018 . Récupéré le 13 janvier 2018 .
- Livre blanc : sur l'intelligence artificielle – Une approche européenne de l'excellence et de la confiance (PDF) . Bruxelles : Commission européenne. 2020. Archivé (PDF) de l'original le 20 février 2020 . Récupéré le 20 février 2020 .
- Anderson, Michael; Anderson, Susan Leigh (2011). Éthique des machines . La presse de l'Universite de Cambridge.
- "Éthique des machines" . aaai.org . Archivé de l'original le 29 novembre 2014.
- Russel, Stuart (8 octobre 2019). Compatibilité humaine : l'intelligence artificielle et le problème du contrôle . États-Unis : Viking. ISBN 978-0-525-55861-3. OCLC 1083694322 .
- "L'IA est prête à dépasser la puissance du cerveau humain" . CNN . 9 août 2006. Archivé de l'original le 19 février 2008.
- "Les robots pourraient exiger des droits légaux" . Nouvelles de la BBC . 21 décembre 2006. Archivé de l'original le 15 octobre 2019 . Récupéré le 3 février 2011 .
- "Kismet" . Laboratoire d'intelligence artificielle du MIT, groupe de robotique humanoïde. Archivé de l'original le 17 octobre 2014 . Récupéré le 25 octobre 2014 .
- Smoliar, Stephen W.; Zhang, HongJiang (1994). "Indexation et récupération vidéo basées sur le contenu". IEEE multimédia . 1 (2): 62–72. doi : 10.1109/93.311653 . S2CID 32710913 .
- Neumann, Bernd; Möller, Ralf (janvier 2008). "Interprétation sur scène avec des logiques de description". Informatique Image et Vision . 26 (1): 82-101. doi : 10.1016/j.imavis.2007.08.013 .
- Kuperman, GJ; Reichley, RM; Bailey, TC (1er juillet 2006). "Utilisation des bases de connaissances commerciales pour l'aide à la décision clinique : opportunités, obstacles et recommandations" . Journal de l'Association américaine d'informatique médicale . 13 (4): 369–371. doi : 10.1197/jamia.M2055 . PMC 1513681 . PMID 16622160 .
- McGarry, Ken (1er décembre 2005). "Une enquête sur les mesures d'intérêt pour la découverte des connaissances". La Revue de l'Ingénierie des Connaissances . 20 (1): 39–61. doi : 10.1017/S0269888905000408 . S2CID 14987656 .
- Bertini, M; Del Bimbo, A; Torniai, C (2006). « Annotation automatique et récupération sémantique de séquences vidéo à l'aide d'ontologies multimédias ». MM '06 Actes de la 14e conférence internationale ACM sur le multimédia . 14e conférence internationale de l'ACM sur le multimédia. Santa Barbara : ACM. pages 679–682.
- Kahneman, Daniel (25 octobre 2011). Pensée, rapide et lente . Macmillan. ISBN 978-1-4299-6935-2. Récupéré le 8 avril 2012 .
- Turing, Alan (1948), "Machine Intelligence", dans Copeland, B. Jack (éd.), The Essential Turing: Les idées qui ont donné naissance à l'ère informatique , Oxford: Oxford University Press, p. 412, ISBN 978-0-19-825080-7
- Domingos, Pedro (22 septembre 2015). L'algorithme maître : comment la quête de la machine d'apprentissage ultime refaçonnera notre monde . Livres de base . ISBN 978-0465065707.
- Minsky, Marvin (1986), La société de l'esprit , Simon et Schuster
- Pinker, Steven (4 septembre 2007) [1994], The Language Instinct , Perennial Modern Classics , Harper, ISBN 978-0-06-133646-1
- Chalmers, David (1995). « Faire face au problème de la conscience » . Journal d'études sur la conscience . 2 (3): 200–219. Archivé de l'original le 8 mars 2005 . Récupéré le 11 octobre 2018 .
- Roberts, Jacob (2016). "Machines à penser : la recherche de l'intelligence artificielle" . Distillations . Vol. 2, non. 2. p. 14–23. Archivé de l'original le 19 août 2018 . Récupéré le 20 mars 2018 .
- Pennachin, C.; En ligneGoertzel, B. (2007). "Approches contemporaines de l'intelligence générale artificielle". Intelligence Artificielle Générale . Technologies cognitives. Berlin, Heidelberg : Springer. doi : 10.1007/978-3-540-68677-4_1 . ISBN 978-3-540-23733-4.
- "Demandez aux experts de l'IA : qu'est-ce qui motive les progrès actuels de l'IA ?" . McKinsey & Company . Archivé de l'original le 13 avril 2018 . Récupéré le 13 avril 2018 .
- Ransbotham, Sam; Kiron, David; Gerbert, Philipp; Reeves, Martin (6 septembre 2017). "Remodeler l'entreprise avec l'intelligence artificielle" . Examen de la gestion du MIT Sloan . Archivé de l'original le 19 mai 2018 . Récupéré le 2 mai 2018 .
- Lorica, Ben (18 décembre 2017). "L'état de l'adoption de l'IA" . O'Reilly Media . Archivé de l'original le 2 mai 2018 . Récupéré le 2 mai 2018 .
- "AlphaGo-Google DeepMind" . Archivé de l'original le 20 octobre 2021.
- Asada, M.; Hosoda, K.; Kuniyoshi, Y.; Ishiguro, H.; Inui, T.; Yoshikawa, Y.; Ogino, M.; En ligneYoshida, C. (2009). "Robotique développementale cognitive: une enquête". Transactions IEEE sur le développement mental autonome . 1 (1): 12–34. doi : 10.1109/tamd.2009.2021702 . S2CID 10168773 .
- Ashok83 (10 septembre 2019). "Comment l'IA entraîne des changements révolutionnaires dans la gestion des talents et la technologie RH" . Hackernoon. Archivé de l'original le 11 septembre 2019 . Récupéré le 14 février 2020 .
- Berlinski, David (2000). L'avènement de l'algorithme . Livres Harcourt. ISBN 978-0-15-601391-8. OCLC 46890682 . Archivé de l'original le 26 juillet 2020 . Récupéré le 22 août 2020 .
- Brooks, Rodney (1990). "Les éléphants ne jouent pas aux échecs" (PDF) . Robotique et systèmes autonomes . 6 (1–2) : 3–15. CiteSeerX 10.1.1.588.7539 . doi : 10.1016/S0921-8890(05)80025-9 . Archivé (PDF) de l'original le 9 août 2007.
- Butler, Samuel (13 juin 1863). "Darwin parmi les Machines" . Lettres à l'éditeur. La Presse . Christchurch, Nouvelle-Zélande. Archivé de l'original le 19 septembre 2008 . Récupéré le 16 octobre 2014 - via l'Université Victoria de Wellington.
- Clark, Jack (2015a). "Le groupe soutenu par Musk sonde les risques derrière l'intelligence artificielle" . Bloomberg.com . Archivé de l'original le 30 octobre 2015 . Récupéré le 30 octobre 2015 .
- Clark, Jack (2015b). "Pourquoi 2015 a été une année révolutionnaire dans le domaine de l'intelligence artificielle" . Bloomberg.com . Archivé de l'original le 23 novembre 2016 . Récupéré le 23 novembre 2016 .
- Dennett, Daniel (1991). La conscience expliquée . La Presse Pingouin. ISBN 978-0-7139-9037-9.
- Dreyfus, Hubert (1972). Ce que les ordinateurs ne peuvent pas faire . New York : MIT Press. ISBN 978-0-06-011082-6.
- Dreyfus, Hubert ; Dreyfus, Stuart (1986). Mind over Machine: Le pouvoir de l'intuition humaine et de l'expertise à l'ère de l'ordinateur . Oxford, Royaume-Uni : Blackwell. ISBN 978-0-02-908060-3. Archivé de l'original le 26 juillet 2020 . Récupéré le 22 août 2020 .
- Dyson, George (1998). Darwin parmi les Machines . Allan Lane Sciences. ISBN 978-0-7382-0030-9. Archivé de l'original le 26 juillet 2020 . Récupéré le 22 août 2020 .
- Edelson, Edward (1991). Le système nerveux . New York : Chelsea House. ISBN 978-0-7910-0464-7. Archivé de l'original le 26 juillet 2020 . Récupéré le 18 novembre 2019 .
- Fear, Nicholas (2007). Les dernières réponses aux questions les plus anciennes : une aventure philosophique avec les plus grands penseurs du monde . New York : Grove Press. ISBN 978-0-8021-1839-4.
- Haugeland, John (1985). Intelligence artificielle : l'idée même . Cambridge, Mass. : MIT Press. ISBN 978-0-262-08153-5.
- Hawkins, Jeff ; Blakeslee, Sandra (2005). Sur le Renseignement . New York : Livres de hibou. ISBN 978-0-8050-7853-4.
- Henderson, Mark (24 avril 2007). "Les droits de l'homme pour les robots ? On s'emballe" . Le Times en ligne . Londres. Archivé de l'original le 31 mai 2014 . Récupéré le 31 mai 2014 .
- Kahneman, Daniel ; Slovic, D.; Tversky, Amos (1982). Jugement sous incertitude : Heuristiques et biais . Sciences . Vol. 185. New York : Cambridge University Press. pages 1124–1131. Bibcode : 1974Sci...185.1124T . doi : 10.1126/science.185.4157.1124 . ISBN 978-0-521-28414-1. PMID 17835457 . S2CID 143452957 .
- Katz, Yarden (1er novembre 2012). "Noam Chomsky sur Où l'intelligence artificielle a mal tourné" . L'Atlantique . Archivé de l'original le 28 février 2019 . Récupéré le 26 octobre 2014 .
- Kurzweil, Ray (2005). La singularité est proche . Livres de pingouins. ISBN 978-0-670-03384-3.
- Langley, Pat (2011). "La science changeante de l'apprentissage automatique" . Apprentissage automatique . 82 (3): 275–279. doi : 10.1007/s10994-011-5242-y .
- Legg, Shane ; Hutter, Marcus (15 juin 2007). "Une Collection de Définitions d'Intelligence". arXiv : 0706.3639 [ cs.AI ].
- Lénat, Douglas ; Guha, RV (1989). Construire de grands systèmes basés sur la connaissance . Addison-Wesley. ISBN 978-0-201-51752-1.
- Lighthill, James (1973). "Intelligence Artificielle : Une Enquête Générale". Intelligence Artificielle : un symposium papier . Conseil de la recherche scientifique.
- Lombardo, P; Boehm, moi ; Nairz, K (2020). "RadioComics - Le Père Noël et l'avenir de la radiologie" . Eur J Radiol . 122 (1): 108771. doi : 10.1016/j.ejrad.2019.108771 . PMID 31835078 .
- Lungarella, M.; Metta, G.; Pfeifer, R.; En ligneSandini, G. (2003). « Robotique du développement : une enquête ». Sciences de la connexion . 15 (4): 151–190. CiteSeerX 10.1.1.83.7615 . doi : 10.1080/09540090310001655110 . S2CID 1452734 .
- Fabricant, Meg Houston (2006). "AI@50 : IA Passé, Présent, Futur" . Collège Dartmouth. Archivé de l'original le 3 janvier 2007 . Récupéré le 16 octobre 2008 .
- McCarthy, John ; Minsky, Marvin ; Rochester, Nathan ; Shannon, Claude (1955). "Une proposition pour le projet de recherche d'été de Dartmouth sur l'intelligence artificielle" . Archivé de l'original le 26 août 2007 . Récupéré le 30 août 2007 .
- Minsky, Marvin (1967). Calcul : machines finies et infinies . Falaises d'Englewood, New Jersey : Prentice-Hall. ISBN 978-0-13-165449-5. Archivé de l'original le 26 juillet 2020 . Récupéré le 18 novembre 2019 .
- Moravec, Hans (1988). Attention aux enfants . Presse universitaire de Harvard. ISBN 978-0-674-57616-2. Archivé de l'original le 26 juillet 2020 . Récupéré le 18 novembre 2019 .
- NRC (Conseil national de la recherche des États-Unis) (1999). "Développements en Intelligence Artificielle". Financer une révolution : soutien gouvernemental à la recherche en informatique . Presse de l'Académie nationale.
- Newell, Allen ; Simon, HA (1976). "L'informatique comme enquête empirique: symboles et recherche" . Communications de l'ACM . 19 (3): 113–126. doi : 10.1145/360018.360022 ..
- Nilsson, Nils (1983). "L'intelligence artificielle se prépare pour 2001" (PDF) . Revue IA . 1 (1). Archivé (PDF) de l'original le 17 août 2020 . Récupéré le 22 août 2020 .Discours présidentiel à l' Association pour l'avancement de l'intelligence artificielle .
- Oudeyer, PY. (2010). "Sur l'impact de la robotique dans les sciences comportementales et cognitives : de la navigation des insectes au développement cognitif humain" (PDF) . Transactions IEEE sur le développement mental autonome . 2 (1): 2–16. doi : 10.1109/tamd.2009.2039057 . S2CID 6362217 . Archivé (PDF) de l'original le 3 octobre 2018 . Récupéré le 4 juin 2013 .
- En ligneSchank, Roger C. (1991). "Où est l'IA". revue IA . Vol. 12, non. 4.
- Searle, John (1980). "Esprits, cerveaux et programmes" (PDF) . Sciences du comportement et du cerveau . 3 (3): 417–457. doi : 10.1017/S0140525X00005756 . S2CID 55303721 . Archivé (PDF) de l'original le 17 mars 2019 . Récupéré le 22 août 2020 .
- Searle, John (1999). Esprit, langage et société . New York : Livres de base. ISBN 978-0-465-04521-1. OCLC 231867665 . Archivé de l'original le 26 juillet 2020 . Récupéré le 22 août 2020 .
- Simon, HA (1965). La forme de l'automatisation pour les hommes et la gestion . New York : Harper & Row. Archivé de l'original le 26 juillet 2020 . Récupéré le 18 novembre 2019 .
-
Solomonoff, Ray (1956). Une machine d'inférence inductive (PDF) . Conférence de recherche d'été de Dartmouth sur l'intelligence artificielle. Archivé (PDF) de l'original le 26 avril 2011 . Récupéré le 22 mars 2011 - via std.com, copie numérisée en pdf de l'original.Plus tard publié sous le nom de
Solomonoff, Ray (1957). "Une machine d'inférence inductive". Compte rendu de la convention IRE . Vol. Section sur la théorie de l'information, partie 2. pp. 56–62. - Spadafora, Anthony (21 octobre 2016). "Stephen Hawking pense que l'IA pourrait être la dernière réalisation de l'humanité" . BetaNews . Archivé de l'original le 28 août 2017.
- Tao, Jianhua ; Tan, Tieniu (2005). Informatique affective et interaction intelligente . Informatique affective : un examen. Notes de cours en informatique. Vol. LNCS 3784. Springer. p. 981–995. doi : 10.1007/11573548 . ISBN 978-3-540-29621-8.
- Tecuci, Gheorghe (mars-avril 2012). "Intelligence artificielle". Examens interdisciplinaires de Wiley : Statistiques computationnelles . 4 (2): 168–180. doi : 10.1002/wics.200 . S2CID 196141190 .
- Thro, Ellen (1993). Robotique : le mariage des ordinateurs et des machines . New York : Faits au dossier. ISBN 978-0-8160-2628-9. Archivé de l'original le 26 juillet 2020 . Récupéré le 22 août 2020 .
- Turing, Alan (octobre 1950), "Machines informatiques et intelligence", Mind , LIX (236): 433–460, doi : 10.1093/mind/LIX.236.433 , ISSN 0026-4423.
- Vinge, Vernor (1993). "La singularité technologique à venir: comment survivre à l'ère post-humaine" . Vision 21 : Sciences et ingénierie interdisciplinaires à l'ère du cyberespace : 11. Bibcode : 1993vise.nasa...11V . Archivé de l'original le 1er janvier 2007 . Récupéré le 14 novembre 2011 .
- Wason, PC ; Shapiro, D. (1966). "Raisonnement" . Dans Foss, BM (éd.). Nouveaux horizons en psychologie . Harmondsworth : Pingouin. Archivé de l'original le 26 juillet 2020 . Récupéré le 18 novembre 2019 .
- Weng, J.; McClelland; Pentland, A.; Sporns, O. ; Stockman, I. ; Sur, M.; En ligneThelen, E. (2001). "Développement mental autonome par des robots et des animaux" (PDF) . Sciences . 291 (5504): 599–600. doi : 10.1126/science.291.5504.599 . PMID 11229402 . S2CID 54131797 . Archivé (PDF) de l'original le 4 septembre 2013 . Récupéré le 4 juin 2013 - via msu.edu.
Lectures complémentaires
- Auteur DH, "Pourquoi y a-t-il encore tant d'emplois ? L'histoire et l'avenir de l'automatisation du lieu de travail" (2015) 29(3) Journal of Economic Perspectives 3.
- Boden, Margaret , Mind As Machine , Oxford University Press , 2006.
- Cukier, Kenneth , « Prêt pour les robots ? Comment penser l'avenir de l'IA », Foreign Affairs , vol. 98, non. 4 (juillet/août 2019), p. 192–98. George Dyson , historien de l'informatique, écrit (dans ce qu'on pourrait appeler "la loi de Dyson") que "Tout système assez simple pour être compréhensible ne sera pas assez compliqué pour se comporter intelligemment, alors que tout système assez compliqué pour se comporter intelligemment sera trop compliqué pour comprendre." (p. 197.) L'informaticien Alex Pentland écrit : "Les algorithmes actuels d'apprentissage automatique de l'IA sont, à la base, tout simplement stupides. Ils fonctionnent, mais ils fonctionnent par la force brute." (p. 198.)
- Domingos, Pedro , "Nos doubles numériques : l'IA servira notre espèce, pas la contrôlera", Scientific American , vol. 319, non. 3 (septembre 2018), p. 88–93.
- Gopnik, Alison , « Rendre l'IA plus humaine : l'intelligence artificielle a connu un renouveau en commençant à intégrer ce que nous savons sur la façon dont les enfants apprennent », Scientific American , vol. 316, non. 6 (juin 2017), p. 60–65.
- Halpern, Sue, "The Human Costs of AI" (revue de Kate Crawford , Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence , Yale University Press, 2021, 327 pp.; Simon Chesterman , We, the Robots ?: Regulating Artificial Intelligence and the Limits of the Law , Cambridge University Press, 2021, 289 pp.; Keven Roose, Futureproof: 9 Rules for Humans in the Age of Automation , Random House, 217 pp.; Erik J. Larson, The Mythe de l'intelligence artificielle : Pourquoi les ordinateurs ne peuvent pas penser comme nous , Belknap Press / Harvard University Press, 312 pp.), The New York Review of Books , vol. LXVIII, n. 16 (21 octobre 2021), p. 29–31. "Les modèles de formation à l'IA peuvent reproduire des préjugés sociaux et culturels enracinés . [...] Les machines ne savent que ce qu'elles savent à partir des données qui leur ont été fournies. [p. 30.] [A] intelligence générale artificielle - intelligence basée sur la machine qui correspond le nôtre – dépasse la capacité de l'apprentissage automatique algorithmique ... "Votre cerveau est une pièce d'un système plus large qui comprend votre corps, votre environnement, d'autres humains et la culture dans son ensemble." [M]ême les machines qui maîtrisent les tâches pour lesquelles elles sont formées ne peuvent pas sauter de domaine. AIVA , par exemple, ne peut pas conduire une voiture même si elle peut écrire de la musique (et ne serait même pas capable de le faire sans Bach et Beethoven [et d'autres compositeurs sur lesquels AIVA est formé])." (p. 31.)
- Johnston, John (2008) The Allure of Machinic Life: Cybernetics, Artificial Life, and the New AI , MIT Press.
- Koch, Christof , « Proust parmi les machines », Scientific American , vol. 321, non. 6 (décembre 2019), p. 46–49. Christof Koch doute de la possibilité que des machines "intelligentes" atteignent la conscience , car "[m]ême les simulations cérébrales les plus sophistiquées sont peu susceptibles de produire des sentiments conscients ". (p. 48.) Selon Koch, "Que les machines puissent devenir sensibles [est important] pour des raisons éthiques . Si les ordinateurs expérimentent la vie à travers leurs propres sens, ils cessent d'être purement un moyen pour une fin déterminée par leur utilité pour .. Selon GNW [la théorie de l'espace de travail neuronal mondial ], ils se transforment de simples objets en sujets... avec un point de vue ... Une fois que les capacités cognitives des ordinateurs rivalisent avec celles de l'humanité, leur impulsion à faire pression pour des questions juridiques et politiques droits deviendront irrésistibles - le droit de ne pas être effacé, de ne pas voir sa mémoire effacée, de ne pas souffrir de douleur et de dégradation. L'alternative, incarnée par l'IIT [Integrated Information Theory], est que les ordinateurs ne resteront que des machines supersophistiquées, vides et fantomatiques. coquillages, dépourvus de ce que nous apprécions le plus : le sentiment de la vie elle-même." (p. 49.)
- Marcus, Gary , "Suis-je humain ? : Les chercheurs ont besoin de nouvelles façons de distinguer l'intelligence artificielle de l'intelligence naturelle", Scientific American , vol. 316, non. 3 (mars 2017), p. 58–63. Une pierre d'achoppement pour l'IA a été son incapacité à désambiguïser de manière fiable . Un exemple est le "problème de désambiguïsation des pronoms": une machine n'a aucun moyen de déterminer à qui ou à quoi un pronom dans une phrase se réfère. (p. 61.)
- E McGaughey, 'Les robots vont-ils automatiser votre travail ? Plein emploi, revenu de base et démocratie économique » (2018) SSRN, partie 2(3) Archivé le 24 mai 2018 sur la Wayback Machine .
- George Musser , « Imagination artificielle : comment les machines pourraient apprendre la créativité et le bon sens , entre autres qualités humaines », Scientific American , vol. 320, non. 5 (mai 2019), p. 58–63.
- Myers, Courtney Boyd éd. (2009). "The AI Report" Archivé le 29 juillet 2017 sur la Wayback Machine . Forbes juin 2009
- Raphaël, Bertram (1976). L'ordinateur pensant . WH Freeman et Cie ISBN 978-0716707233. Archivé de l'original le 26 juillet 2020 . Récupéré le 22 août 2020 .
- Scharre, Paul, « Killer Apps : Les vrais dangers d'une course aux armements IA », Affaires étrangères , vol. 98, non. 3 (mai/juin 2019), p. 135–44. "Les technologies d'IA d'aujourd'hui sont puissantes mais peu fiables. Les systèmes basés sur des règles ne peuvent pas faire face à des circonstances que leurs programmeurs n'avaient pas anticipées. Les systèmes d'apprentissage sont limités par les données sur lesquelles ils ont été formés. Les échecs de l'IA ont déjà conduit à des tragédies. bien qu'ils fonctionnent bien dans certaines circonstances, ont conduit des voitures sans avertissement dans des camions, des barrières en béton et des voitures garées. Dans la mauvaise situation, les systèmes d'IA passent de super intelligent à super stupide en un instant. Lorsqu'un ennemi essaie de manipuler et de pirater une IA système, les risques sont encore plus grands. (p. 140.)
- Serenko, Alexandre (2010). "Le développement d'un classement des revues d'IA basé sur l'approche des préférences révélées" (PDF) . Journal d'Informétrie . 4 (4): 447–59. doi : 10.1016/j.joi.2010.04.001 . Archivé (PDF) de l'original le 4 octobre 2013 . Récupéré le 24 août 2013 .
- Serenko, Alexandre; Michel Dohan (2011). "Comparaison des méthodes de classement des revues d'enquête d'experts et d'impact de citation: exemple du domaine de l'intelligence artificielle" (PDF) . Journal d'Informétrie . 5 (4): 629–649. doi : 10.1016/j.joi.2011.06.002 . Archivé (PDF) de l'original le 4 octobre 2013 . Récupéré le 12 septembre 2013 .
- Tom Simonite (29 décembre 2014). "2014 dans l'informatique : percées dans l'intelligence artificielle" . Examen de la technologie MIT .
- Sun, R. & Bookman, L. (eds.), Architectures computationnelles : intégration des processus neuronaux et symboliques . Éditeurs académiques Kluwer, Needham, MA. 1994.
- Taylor, Paul, "Insanely Complicated, Hopelessly Inadequate" (revue de Brian Cantwell Smith , The Promise of Artificial Intelligence: Reckoning and Judgment , MIT, 2019, ISBN 978-0262043045 , 157 pp.; Gary Marcus et Ernest Davis, Rebooting AI: Building Artificial Intelligence We Can Trust , Ballantine, 2019, ISBN 978-1524748258 , 304 pp.; Judea Pearl et Dana Mackenzie, The Book of Why: The New Science of Cause and Effect , Penguin, 2019, ISBN 978-0141982410 , 418 pp .), London Review of Books , vol. 43, non. 2 (21 janvier 2021), p. 37–39. Paul Taylor écrit (p. 39) : « Il y a peut-être une limite à ce qu'un ordinateur peut faire sans savoir qu'il manipule des représentations imparfaites d'une réalité extérieure.
- Tooze, Adam , "La démocratie et ses mécontentements", The New York Review of Books , vol. LXVI, non. 10 (6 juin 2019), p. 52–53, 56–57. "La démocratie n'a pas de réponse claire au fonctionnement aveugle du pouvoir bureaucratique et technologique . Nous assistons en effet à son extension sous la forme de l'intelligence artificielle et de la robotique. De même, après des décennies de terribles avertissements, le problème environnemental reste fondamentalement sans réponse.... L'excès bureaucratique et la catastrophe environnementale sont précisément le genre de défis existentiels lents que les démocraties gèrent très mal... Enfin, il y a la menace du jour : les entreprises et les technologies qu'elles promeuvent." (pp. 56–57.)
Liens externes
- "Intelligence Artificielle" . Encyclopédie Internet de Philosophie .
- Thomasson, Richmond. "Logique et Intelligence Artificielle" . À Zalta, Edward N. (éd.). Encyclopédie de philosophie de Stanford .
- Intelligence Artificielle . Discussion sur BBC Radio 4 avec John Agar, Alison Adam et Igor Aleksander ( In Our Time , 8 décembre 2005).