L'informatique - Computing

Simulation par ordinateur
La simulation par ordinateur, l'une des principales méthodologies de calcul croisé.

L'informatique est toute activité orientée vers un objectif nécessitant, bénéficiant ou créant des machines informatiques. Il comprend l'étude et l'expérimentation de processus algorithmiques et le développement de matériels et de logiciels . Il a des aspects scientifiques , techniques , mathématiques, technologiques et sociaux. Les principales disciplines informatiques comprennent l'ingénierie informatique , l' informatique , la cybersécurité , la science des données , les systèmes d' information , les technologies de l'information et le génie logiciel .

Premier ordinateur complet de Turing à tube à vide
ENIAC, le premier calculateur numérique électronique polyvalent programmable
La framboise pi
Le Raspberry Pi , un ordinateur monocarte moderne développé pour la promotion de l'enseignement de l' informatique de base et de l'ingénierie dans les écoles et dans les pays en développement.

Définitions

Les programmes d'études informatiques de l' ACM 2005 et 2020 définissent l'« informatique » comme suit :

"D'une manière générale, nous pouvons définir l'informatique comme toute activité orientée vers un objectif nécessitant, bénéficiant de ou créant des ordinateurs. Ainsi, l'informatique comprend la conception et la construction de systèmes matériels et logiciels pour un large éventail d'objectifs ; le traitement, la structuration et la gestion divers types d'informations ; faire des études scientifiques à l'aide d'ordinateurs ; faire en sorte que les systèmes informatiques se comportent intelligemment ; créer et utiliser des médias de communication et de divertissement ; trouver et rassembler des informations pertinentes pour un objectif particulier, etc. La liste est pratiquement infinie et les possibilités sont vastes ."

ACM définit également sept sous-disciplines du domaine informatique :

Cependant, Computing Curricula 2005 reconnaît également que le sens de « informatique » dépend du contexte :

L'informatique a également d'autres significations plus spécifiques, selon le contexte dans lequel le terme est utilisé. Par exemple, un spécialiste des systèmes d'information verra l'informatique quelque peu différemment d'un ingénieur logiciel. Quel que soit le contexte, bien faire de l'informatique peut être compliqué et difficile. Parce que la société a besoin que les gens fassent bien l'informatique, nous devons penser à l'informatique non seulement comme une profession mais aussi comme une discipline.

Le mécanisme d'Anticythère
Le mécanisme d'Anticythère , datant entre 150 et 100 avant JC, était un des premiers ordinateurs analogiques .

Le terme « informatique » a parfois été défini de manière étroite, comme dans un rapport de l' ACM de 1989 sur l' informatique en tant que discipline :

La discipline de l'informatique est l'étude systématique des processus algorithmiques qui décrivent et transforment l'information : leur théorie, leur analyse, leur conception, leur efficacité, leur mise en œuvre et leur application. La question fondamentale sous-jacente à toute informatique est « Qu'est-ce qui peut être (efficacement) automatisé ? »

Le terme « informatique » est aussi synonyme de comptage et de calcul. Autrefois, il était utilisé en référence à l'action effectuée par les machines à calculer mécaniques , et avant cela, aux ordinateurs humains .

Histoire

L'histoire de l'informatique est plus longue que l' histoire du matériel informatique et de la technologie informatique moderne et comprend l'histoire des méthodes destinées à la plume et au papier ou à la craie et à l'ardoise, avec ou sans l'aide de tableaux.

L'informatique est intimement liée à la représentation des nombres . Mais bien avant que des abstractions comme le nombre n'apparaissent, il existait des concepts mathématiques au service de la civilisation. Ces concepts incluent la correspondance un à un (la base du comptage), la comparaison avec une norme (utilisée pour la mesure) et le triangle rectangle 3-4-5 (un dispositif pour assurer un angle droit ).

Le premier outil connu pour être utilisé dans le calcul était le boulier , et on pensait qu'il avait été inventé à Babylone vers 2400 av. Son style d'utilisation original était par des lignes tracées dans le sable avec des cailloux. Les abaci, de conception plus moderne, sont encore utilisés aujourd'hui comme outils de calcul. Ce fut la première aide au calcul connue - précédant les méthodes grecques de 2 000 ans{{ ordinateur |reason=Quelles méthodes grecques ?|date=mars 2018}}.

La première idée enregistrée d'utiliser l'électronique numérique pour l'informatique était l'article de 1931 "L'utilisation des thyratrons pour le comptage automatique à grande vitesse des phénomènes physiques" par CE Wynn-Williams . L'article de Claude Shannon de 1938 " A Symbolic Analysis of Relay and Switching Circuits " a ensuite introduit l'idée d'utiliser l'électronique pour les opérations algébriques booléennes .

Le concept de transistor à effet de champ a été proposé par Julius Edgar Lilienfeld en 1925. John Bardeen et Walter Brattain , alors qu'ils travaillaient sous la direction de William Shockley aux Bell Labs , ont construit le premier transistor fonctionnel , le transistor à contact ponctuel , en 1947 . En 1953, l' Université de Manchester a construit le premier ordinateur à transistors , appelé Transistor Computer . Cependant, les premiers transistors à jonction étaient des dispositifs relativement volumineux qui étaient difficiles à fabriquer en série, ce qui les limitait à un certain nombre d'applications spécialisées. Le transistor à effet de champ métal-oxyde-silicium (MOSFET, ou transistor MOS) a été inventé par Mohamed Atalla et Dawon Kahng aux Bell Labs en 1959. C'était le premier transistor vraiment compact qui pouvait être miniaturisé et produit en série pour une large gamme d'utilisations. Le MOSFET a permis de construire des puces de circuits intégrés à haute densité , conduisant à ce que l'on appelle la révolution informatique ou la révolution des micro - ordinateurs .

Ordinateur

Un ordinateur est une machine qui manipule des données selon un ensemble d'instructions appelé programme informatique. Le programme a une forme exécutable que l'ordinateur peut utiliser directement pour exécuter les instructions. Le même programme sous sa forme de code source lisible par l'homme, permet à un programmeur d'étudier et de développer une séquence d'étapes connue sous le nom d'algorithme. Étant donné que les instructions peuvent être exécutées dans différents types d'ordinateurs, un seul ensemble d'instructions source est converti en instructions machine en fonction du type de CPU.

Le processus d' exécution exécute les instructions dans un programme informatique. Les instructions expriment les calculs effectués par l'ordinateur. Ils déclenchent des séquences d'actions simples sur la machine d'exécution. Ces actions produisent des effets selon la sémantique des instructions.

Matériel informatique

Le matériel informatique comprend les parties physiques d'un ordinateur, y compris l'unité centrale de traitement , la mémoire et les entrées/sorties . Les sujets importants dans le domaine du matériel informatique sont la logique de calcul et l'architecture informatique .

Logiciel

Un logiciel informatique, ou simplement un « logiciel », est un ensemble de programmes informatiques et de données connexes qui fournissent des instructions pour dire à un ordinateur quoi faire et comment le faire. Le logiciel fait référence à un ou plusieurs programmes informatiques et données conservés dans le stockage de l'ordinateur à certaines fins. En d'autres termes, un logiciel est un ensemble de programmes, de procédures, d'algorithmes et de leur documentation concernant le fonctionnement d'un système de traitement de données. Le logiciel de programme remplit la fonction du programme qu'il met en œuvre, soit en fournissant directement des instructions au matériel informatique, soit en servant d'entrée à un autre logiciel. Le terme a été inventé pour contraster avec l'ancien terme matériel (qui signifie périphériques physiques). Contrairement au matériel, le logiciel est intangible. Le logiciel est également parfois utilisé dans un sens plus étroit, c'est-à-dire uniquement un logiciel d'application.

Logiciel système

Le logiciel système, ou logiciel système, est un logiciel informatique conçu pour faire fonctionner et contrôler le matériel informatique et pour fournir une plate-forme pour l'exécution du logiciel d'application. Le logiciel système comprend les systèmes d'exploitation , les logiciels utilitaires , les pilotes de périphérique , les systèmes de fenêtres et le micrologiciel . Les outils de développement fréquemment utilisés tels que les compilateurs , les éditeurs de liens et les débogueurs sont classés comme logiciels système.

Logiciel d'application

Un logiciel d'application, également appelé « application » ou « application », est un logiciel informatique conçu pour aider l'utilisateur à effectuer des tâches spécifiques. Les exemples incluent les logiciels d'entreprise , les logiciels de comptabilité , les suites bureautiques , les logiciels graphiques et les lecteurs multimédias . De nombreux programmes d'application traitent principalement des documents . Les applications peuvent être regroupées avec l'ordinateur et son logiciel système, ou peuvent être publiées séparément. Certains utilisateurs sont satisfaits des applications fournies et n'ont jamais besoin d'installer d'applications supplémentaires. Le logiciel d'application est opposé au logiciel système et au middleware , qui gèrent et intègrent les capacités d'un ordinateur, mais ne les appliquent généralement pas directement dans l'exécution de tâches qui profitent à l'utilisateur. Le logiciel système sert l'application, qui à son tour sert l'utilisateur. Le logiciel d'application applique la puissance d'une plate-forme informatique ou d'un logiciel système particulier à un objectif particulier. Certaines applications telles que Microsoft Office sont disponibles dans des versions pour plusieurs plates-formes différentes ; d'autres ont des exigences plus strictes et sont ainsi appelées, par exemple, une application de géographie pour Windows ou une application Android pour l' éducation ou les jeux Linux . Parfois, une nouvelle application populaire apparaît qui ne s'exécute que sur une seule plate-forme, ce qui augmente la désirabilité de cette plate-forme. C'est ce qu'on appelle une application qui tue .

Réseau informatique

Un réseau informatique, souvent simplement appelé réseau, est un ensemble de composants matériels et d'ordinateurs interconnectés par des canaux de communication qui permettent le partage de ressources et d'informations. Lorsqu'au moins un processus dans un appareil est capable d'envoyer/recevoir des données vers/depuis au moins un processus résidant dans un appareil distant, alors les deux appareils sont dits être dans un réseau.

Les réseaux peuvent être classés selon une grande variété de caractéristiques telles que le support utilisé pour transporter les données, le protocole de communication utilisé, l'échelle, la topologie et la portée organisationnelle.

Les protocoles de communication définissent les règles et les formats de données pour l'échange d'informations dans un réseau informatique et constituent la base de la programmation réseau . Les protocoles de communication bien connus incluent Ethernet , une norme de couche matérielle et de liaison qui est omniprésente dans les réseaux locaux , et Internet Protocol Suite , qui définit un ensemble de protocoles pour l'interconnexion de réseaux, c'est-à-dire pour la communication de données entre plusieurs réseaux, ainsi que l'hôte- transfert de données vers l'hôte et formats de transmission de données spécifiques à l'application.

Les réseaux informatiques sont parfois considérés comme une sous-discipline du génie électrique , des télécommunications , de l' informatique , des technologies de l'information ou du génie informatique , car ils reposent sur l'application théorique et pratique de ces disciplines.

l'Internet

Internet est un système mondial de réseaux informatiques interconnectés qui utilisent la suite standard de protocole Internet (TCP/IP) pour servir des milliards d'utilisateurs qui se composent de millions de réseaux privés, publics, universitaires, commerciaux et gouvernementaux, de portée locale à mondiale, qui sont reliés par un large éventail de technologies de réseaux électroniques, sans fil et optiques. Internet transporte une vaste gamme de ressources et de services d' information , tels que les documents hypertextes interconnectés du World Wide Web et l' infrastructure de prise en charge du courrier électronique .

Programmation informatique

La programmation informatique en général est le processus d'écriture, de test, de débogage et de maintenance du code source et de la documentation des programmes informatiques . Ce code source est écrit dans un langage de programmation , qui est un langage artificiel souvent plus contraignant ou exigeant que les langages naturels , mais facilement traduit par l'ordinateur. Le but de la programmation est d'invoquer le comportement souhaité (personnalisation) à partir de la machine. Le processus d'écriture du code source de haute qualité exige une connaissance des deux domaines de l'application et le domaine informatique. Le logiciel de la plus haute qualité est ainsi développé par une équipe de divers experts du domaine, chacun étant un spécialiste dans un domaine de développement. Mais le terme programmeur peut s'appliquer à une gamme de qualité de programme, du pirate informatique au contributeur open source au professionnel. Et un seul programmeur pourrait faire la plupart ou la totalité de la programmation informatique nécessaire pour générer la preuve de concept pour lancer une nouvelle application « killer » .

Programmeur

Un programmeur, un programmeur informatique ou un codeur est une personne qui écrit un logiciel informatique . Le terme programmeur informatique peut désigner un spécialiste dans un domaine de la programmation informatique ou un généraliste qui écrit du code pour de nombreux types de logiciels. Celui qui pratique ou professe une approche formelle de la programmation peut également être connu sous le nom d'analyste programmeur. Le langage informatique principal d'un programmeur ( C , C++ , Java , Lisp , Python , etc.) est souvent préfixé aux titres ci-dessus, et ceux qui travaillent dans un environnement Web préfixent souvent leurs titres avec web . Le terme programmeur peut être utilisé pour désigner un développeur de logiciels , un ingénieur logiciel , un informaticien ou un analyste logiciel . Cependant, les membres de ces professions possèdent généralement d'autres compétences en génie logiciel , au-delà de la programmation.

Industrie informatique

L'industrie informatique est constituée de l'ensemble des entreprises impliquées dans le développement de logiciels , la conception de matériel informatique et d' infrastructures de réseaux informatiques , la fabrication de composants informatiques et la fourniture de services informatiques , y compris l' administration et la maintenance de systèmes .

Industrie du logiciel

L'industrie du logiciel comprend les entreprises engagées dans le développement , la maintenance et la publication de logiciels . L'industrie comprend également des services logiciels , tels que la formation , la documentation et le conseil .

Sous-disciplines de l'informatique

Ingénierie informatique

Le génie informatique est une discipline qui intègre plusieurs domaines du génie électrique et de l' informatique nécessaires au développement de matériel informatique et de logiciels. Les ingénieurs informaticiens ont généralement une formation en génie électronique (ou génie électrique ), en conception de logiciels et en intégration matériel-logiciel au lieu de se limiter au génie logiciel ou au génie électronique. Les ingénieurs informaticiens sont impliqués dans de nombreux aspects matériels et logiciels de l'informatique, de la conception de microprocesseurs individuels , d' ordinateurs personnels et de superordinateurs à la conception de circuits . Ce domaine de l'ingénierie se concentre non seulement sur la conception du matériel dans son propre domaine, mais aussi sur les interactions entre le matériel et le monde qui l'entoure.

Génie logiciel

Le génie logiciel (SE) est l'application d'une approche systématique, disciplinée et quantifiable à la conception, au développement, à l'exploitation et à la maintenance de logiciels , ainsi qu'à l'étude de ces approches ; c'est-à-dire l'application de l' ingénierie au logiciel. En termes simples, c'est l'acte d'utiliser des idées pour concevoir, modéliser et mettre à l'échelle une solution à un problème. La première référence à ce terme est la Conférence de l'OTAN sur le génie logiciel de 1968 et visait à susciter une réflexion sur la « crise du logiciel » perçue à l'époque. Le développement de logiciels , un terme très utilisé et plus générique, ne recouvre pas nécessairement le paradigme de l'ingénierie. Les concepts généralement acceptés du génie logiciel en tant que discipline d'ingénierie ont été spécifiés dans le Guide to the Software Engineering Body of Knowledge (SWEBOK). Le SWEBOK est devenu une norme internationalement acceptée ISO/IEC TR 19759:2015.

L'informatique

L'informatique ou l'informatique (en abrégé CS ou Comp Sci) est l' approche scientifique et pratique du calcul et de ses applications. Un informaticien spécialisé dans la théorie du calcul et la conception de systèmes informatiques.

Ses sous-domaines peuvent être divisés en techniques pratiques pour sa mise en œuvre et son application dans les systèmes informatiques et les domaines purement théoriques. Certains, comme la théorie de la complexité computationnelle , qui étudie les propriétés fondamentales des problèmes informatiques , sont très abstraits, tandis que d'autres, comme l'infographie , mettent l'accent sur les applications du monde réel. D'autres encore se concentrent sur les défis de la mise en œuvre des calculs. Par exemple, la théorie des langages de programmation étudie les approches de description des calculs, tandis que l'étude de la programmation informatique elle-même étudie divers aspects de l'utilisation des langages de programmation et des systèmes complexes , et l'interaction homme-machine se concentre sur les défis à relever pour rendre les ordinateurs et les calculs utiles, utilisables. , et universellement accessible aux humains .

La cyber-sécurité

Science des données

Systèmes d'information

Les "systèmes d'information (SI)" sont l'étude des réseaux complémentaires de matériel et de logiciels (voir technologies de l'information ) que les personnes et les organisations utilisent pour collecter, filtrer, traiter, créer et diffuser des données . Le site Web des carrières en informatique de l' ACM indique

"La majorité des programmes IS [diplôme] sont situés dans des écoles de commerce; cependant, ils peuvent avoir des noms différents tels que systèmes d'information de gestion, systèmes d'information informatiques ou systèmes d'information d'entreprise. Tous les diplômes IS combinent des sujets commerciaux et informatiques, mais l'accent entre les problèmes techniques et organisationnels varient selon les programmes. Par exemple, les programmes diffèrent considérablement dans la quantité de programmation requise. "

L'étude relie les affaires et l' informatique en utilisant les fondements théoriques de l' information et du calcul pour étudier divers modèles commerciaux et processus algorithmiques associés au sein d'une discipline informatique.

Le domaine des systèmes d'information informatiques (SIC) étudie les ordinateurs et les processus algorithmiques, y compris leurs principes, leurs conceptions logicielles et matérielles, leurs applications et leur impact sur la société, tandis que les SI mettent l'accent sur la fonctionnalité plutôt que sur la conception.

Informatique

Les technologies de l'information (TI) sont l'application d' ordinateurs et d' équipements de télécommunications pour stocker, récupérer, transmettre et manipuler des données, souvent dans le contexte d'une entreprise ou d'une autre entreprise. Le terme est couramment utilisé comme synonyme d'ordinateurs et de réseaux informatiques, mais il englobe également d'autres technologies de diffusion de l'information telles que la télévision et les téléphones. Plusieurs industries sont associées aux technologies de l'information, telles que le matériel informatique , les logiciels , l' électronique , les semi - conducteurs , Internet , les équipements de télécommunications , le commerce électronique et les services informatiques .

Recherche et technologies émergentes

L'informatique basée sur l'ADN et l'informatique quantique sont des domaines de recherche active à la fois matérielle et logicielle (comme le développement d' algorithmes quantiques ). L'infrastructure potentielle pour les technologies futures comprend l'origami d'ADN sur la photolithographie et les antennes quantiques pour le transfert d'informations entre les pièges à ions. En 2011, les chercheurs avaient intriqué 14 qubits . Les circuits numériques rapides (y compris ceux basés sur les jonctions Josephson et la technologie quantique rapide à flux unique ) sont de plus en plus réalisables avec la découverte des supraconducteurs à l'échelle nanométrique .

Les dispositifs à fibre optique et photoniques (optiques), qui ont déjà été utilisés pour transporter des données sur de longues distances, ont commencé à être utilisés par les centres de données, aux côtés de composants CPU et de mémoire à semi-conducteur. Cela permet la séparation de la RAM de la CPU par des interconnexions optiques. IBM a créé un circuit intégré avec un traitement de l'information à la fois électronique et optique dans une seule puce. C'est ce qu'on appelle la « nanophotonique intégrée CMOS » ou (CINP). L'un des avantages des interconnexions optiques est que les cartes mères qui nécessitaient auparavant un certain type de système sur puce (SoC) peuvent désormais déplacer la mémoire et les contrôleurs réseau auparavant dédiés des cartes mères, répartissant les contrôleurs sur le rack. Cela permet la standardisation des interconnexions de fond de panier et des cartes mères pour plusieurs types de SoC, ce qui permet des mises à niveau plus rapides des processeurs.

Un autre domaine de recherche est la spintronique . La spintronique peut fournir une puissance de calcul et un stockage, sans accumulation de chaleur. Des recherches sont en cours sur les puces hybrides, qui combinent photonique et spintronique. Des recherches sont également en cours sur la combinaison de la plasmonique , de la photonique et de l'électronique.

Cloud computing

Le cloud computing est un modèle qui permet l'utilisation de ressources informatiques, telles que des serveurs ou des applications, sans nécessiter beaucoup d'interaction entre le propriétaire de ces ressources et l'utilisateur qui les utilise. Il est généralement proposé en tant que service, ce qui en fait un autre exemple de logiciel en tant que service , de plates - formes en tant que service et d' infrastructure en tant que service en fonction de la fonctionnalité offerte. Les principales caractéristiques comprennent l'accès à la demande, un large accès au réseau et la capacité d'évolutivité rapide. Il permet aux utilisateurs individuels ou aux petites entreprises de bénéficier d' économies d'échelle .

Un domaine d'intérêt dans ce domaine est son potentiel pour soutenir l'efficacité énergétique. Permettre à des milliers d'instances de calcul de se produire sur une seule machine au lieu de milliers de machines individuelles pourrait aider à économiser de l'énergie. Cela pourrait également faciliter la transition vers davantage d'énergies renouvelables, car il suffirait d'alimenter un parc de serveurs avec un ensemble de panneaux solaires ou d'éoliennes plutôt que des millions de foyers.

Avec l'informatique centralisée, le domaine pose plusieurs défis, notamment en matière de sécurité et de confidentialité. La législation actuelle ne protège pas suffisamment les utilisateurs contre les entreprises qui traitent mal leurs données sur les serveurs de l'entreprise. Cela suggère un potentiel pour de nouvelles réglementations législatives sur le cloud computing et les entreprises technologiques.

L'informatique quantique

L'informatique quantique est un domaine de recherche qui rassemble les disciplines de l'informatique, de la théorie de l'information et de la physique quantique. L'idée que l'information soit une partie fondamentale de la physique est relativement nouvelle, mais il semble y avoir un lien étroit entre la théorie de l'information et la mécanique quantique. Alors que l'informatique traditionnelle fonctionne sur un système binaire de uns et de zéros, l'informatique quantique utilise des qubits . Les qubits sont capables d'être en superposition, ce qui signifie qu'ils sont dans les deux états, un et zéro, simultanément. Cela signifie que le qubit n'est pas quelque part entre 1 et 0, mais en fait, la valeur du qubit changera en fonction du moment où vous le mesurez. Ce trait des qubits s'appelle l'intrication quantique et est l'idée centrale de l'informatique quantique et c'est ce qui permet aux ordinateurs quantiques de faire les équations à grande échelle pour lesquelles ils sont utilisés. L'informatique quantique est souvent utilisée pour la recherche scientifique où un ordinateur normal n'a pas assez de puissance de calcul pour effectuer les calculs nécessaires. Un bon exemple serait la modélisation moléculaire . Les grosses molécules sont beaucoup trop complexes pour que les ordinateurs modernes puissent calculer ce qui leur arrive au cours d'une réaction, mais la puissance des ordinateurs quantiques pourrait ouvrir la porte à une meilleure compréhension de ces molécules.

Voir également

Les références

Liens externes