Ère de l'information - Information Age

Un ordinateur portable se connecte à Internet pour afficher les informations de Wikipédia ; le partage d'informations entre les systèmes informatiques est une caractéristique de l'ère de l'information.

L' ère de l' information (également connu sous le nom Âge ordinateur , ère numérique , ou les nouveaux médias Âge ) est une période historique qui a débuté au milieu du 20e siècle, caractérisé par un rapide epochal passage de l'industrie traditionnelle établie par la révolution industrielle à une économie principalement basé sur la technologie de l'information . Le début de l'ère de l'information peut être associé au développement de la technologie des transistors .

Selon le Réseau d'administration publique des Nations Unies , l'ère de l'information a été formée en capitalisant sur les progrès de la microminiaturisation informatique , ce qui conduirait à une information modernisée et à des processus de communication sur une utilisation plus large au sein de la société devenant la force motrice de l'évolution sociale .

Aperçu des premiers développements

Extension de la bibliothèque et loi de Moore

L'expansion de la bibliothèque a été calculée en 1945 par Fremont Rider pour doubler sa capacité tous les 16 ans lorsqu'un espace suffisant était disponible. Il a préconisé de remplacer les œuvres imprimées volumineuses et délabrées par des photographies analogiques microformes miniaturisées , qui pourraient être dupliquées à la demande pour les usagers de la bibliothèque et d'autres institutions.

Rider n'a pas prévu, cependant, la technologie numérique qui suivrait des décennies plus tard pour remplacer la microforme analogique par des supports d' imagerie , de stockage et de transmission numériques , grâce auxquels de vastes augmentations de la rapidité de croissance de l'information seraient rendues possibles grâce à des technologies numériques automatisées et potentiellement sans perte . . En conséquence, la loi de Moore , formulée vers 1965, calculerait que le nombre de transistors dans un circuit intégré dense doublerait environ tous les deux ans.

Au début des années 1980, parallèlement à l'amélioration de la puissance de calcul , la prolifération des ordinateurs personnels plus petits et moins chers a permis un accès immédiat à l'information et la possibilité de partager et de stocker celles-ci pour un nombre croissant de travailleurs. La connectivité entre les ordinateurs au sein des organisations a permis aux employés à différents niveaux d'accéder à de plus grandes quantités d'informations.

Stockage de l'information et loi de Kryder

Hilbert & Lopez (2011). La capacité technologique du monde à stocker, communiquer et calculer l'information. Sciences, 332(6025), 60-65. https://science.sciencemag.org/content/sci/332/6025/60.full.pdf

Le monde est la capacité technologique à stocker des informations est passé de 2,6 ( de façon optimale comprimé ) exaoctets (EB) en 1986 à 15,8 EB en 1993; plus de 54,5 EB en 2000 ; et à 295 EB (compressés de manière optimale) en 2007. C'est l'équivalent informatif de moins d'un CD-ROM de 730 mégaoctets (Mo) par personne en 1986 (539 Mo par personne) ; environ quatre CD-ROM par personne en 1993; douze CD-ROM par personne en l'an 2000 ; et près de soixante et un CD-ROM par personne en 2007. On estime que la capacité mondiale de stockage d'informations a atteint 5 zettaoctets en 2014, l'équivalent informationnel de 4 500 piles de livres imprimés de la terre au soleil .

La quantité de données numériques stockées semble croître de manière approximativement exponentielle , ce qui rappelle la loi de Moore . En tant que telle, la loi de Kryder prescrit que la quantité d'espace de stockage disponible semble croître de manière approximativement exponentielle.

Transmission d'informations

La capacité technologique mondiale de recevoir des informations via des réseaux de diffusion unidirectionnels était de 432 exaoctets d'informations ( compressées de manière optimale ) en 1986 ; 715 exaoctets (compressés de manière optimale) en 1993 ; 1,2 zettaoctets (compressés de manière optimale) en 2000 ; et 1,9 zettaoctet en 2007, l'équivalent informationnel de 174 journaux par personne et par jour.

La capacité effective du monde à échanger des informations via des réseaux de télécommunications bidirectionnels était de 281 pétaoctets d'informations (compressées de manière optimale) en 1986 ; 471 pétaoctets en 1993 ; 2,2 exaoctets (compressés de manière optimale) en 2000 ; et 65 exaoctets (compressés de manière optimale) en 2007, l'équivalent d'informations de 6 journaux par personne et par jour. Dans les années 1990, la propagation d' Internet a provoqué une augmentation soudaine de l'accès et de la capacité de partager des informations dans les entreprises et les foyers du monde entier. La technologie se développait si rapidement qu'un ordinateur coûtant 3 000 $ en 1997 coûterait 2 000 $ deux ans plus tard et 1 000 $ l'année suivante.

Calcul

La capacité technologique mondiale à calculer des informations avec des ordinateurs polyvalents guidés par l'homme est passée de 3,0 × 10 8 MIPS en 1986 à 4,4 × 10 9 MIPS en 1993 ; à 2,9 × 10 11 MIPS en 2000 ; à 6,4 × 10 12 MIPS en 2007. Un article publié dans la revue Trends in Ecology and Evolution en 2016 a rapporté que :

[ La technologie numérique ] a largement dépassé les capacités cognitives de tout être humain et l'a fait une décennie plus tôt que prévu. En termes de capacité, il existe deux mesures d'importance : le nombre d'opérations qu'un système peut effectuer et la quantité d'informations qui peuvent être stockées. Le nombre d' opérations synaptiques par seconde dans un cerveau humain a été estimé entre 10^15 et 10^17. Bien que ce nombre soit impressionnant, même en 2007, les ordinateurs à usage général de l'humanité étaient capables d'exécuter bien plus de 10^18 instructions par seconde. Les estimations suggèrent que la capacité de stockage d'un cerveau humain individuel est d'environ 10^12 octets. Sur une base par habitant, cela correspond au stockage numérique actuel (5x10^21 octets pour 7,2x10^9 personnes).

Différentes conceptualisations de scène

Trois étapes de l'ère de l'information

Il existe différentes conceptualisations de l'ère de l'information. Certains se concentrent sur l'évolution de l'information au cours des âges, en distinguant l'âge de l'information primaire et l'âge de l'information secondaire. L' information à l' ère de l' information primaire était traitée par les journaux , la radio et la télévision . L'ère de l'information secondaire a été développée par Internet , les télévisions par satellite et les téléphones portables . L'âge de l'information tertiaire a été émergé par les médias de l'âge de l'information primaire interconnectés avec les médias de l'âge de l'information secondaire tels qu'ils sont actuellement vécus.

LongWavesThreeParadigms.jpg

D'autres le classent en termes d' ondes longues de Schumpeter ou d' ondes de Kondratiev bien établies . Ici, les auteurs distinguent trois méta- paradigmes à long terme différents, chacun avec des ondes longues différentes. Le premier portait sur la transformation de la matière, notamment la pierre , le bronze et le fer . La seconde, souvent appelée révolution industrielle , était consacrée à la transformation de l'énergie, notamment l' eau , la vapeur , l' électricité et l' énergie de combustion . Enfin, le métaparadigme le plus récent vise à transformer l' information . Il a commencé avec la prolifération de la communication et des données stockées et est maintenant entré dans l'ère des algorithmes , qui vise à créer des processus automatisés pour convertir les informations existantes en connaissances exploitables.

Économie

Finalement, les technologies de l'information et de la communication (TIC) , c'est-à-dire les ordinateurs , les machines informatisées , les fibres optiques , les satellites de communication , Internet et d'autres outils TIC, sont devenues une partie importante de l' économie mondiale , car le développement des micro - ordinateurs a considérablement modifié de nombreuses entreprises et industries. . Nicholas Negroponte a capturé l'essence de ces changements dans son livre de 1995, Being Digital , dans lequel il discute des similitudes et des différences entre les produits faits d' atomes et les produits faits de bits . Essentiellement, une copie d'un produit fait de morceaux peut être faite à moindre coût et rapidement, puis expédiée rapidement à travers le pays ou dans le monde à très faible coût.

Emplois et répartition des revenus

L'ère de l'information a affecté la main - d'œuvre de plusieurs manières, par exemple en obligeant les travailleurs à être compétitifs sur un marché du travail mondial . L'une des préoccupations les plus évidentes est le remplacement du travail humain par des ordinateurs capables de faire leur travail plus rapidement et plus efficacement, créant ainsi une situation dans laquelle les individus qui effectuent des tâches qui peuvent être facilement automatisées sont obligés de trouver un emploi où leur travail n'est pas aussi jetable. Cela crée particulièrement un problème pour ceux des villes industrielles , où les solutions impliquent généralement de réduire le temps de travail , ce qui est souvent très résistant. Ainsi, les personnes qui perdent leur emploi peuvent être poussées à rejoindre des « travailleurs de l'esprit » (par exemple, ingénieurs , médecins , avocats , enseignants , professeurs , scientifiques , cadres , journalistes , consultants ), capables de rivaliser avec succès sur le marché mondial. et reçoivent des salaires (relativement) élevés.

Parallèlement à l'automatisation, les emplois traditionnellement associés à la classe moyenne (par exemple la chaîne de montage , l'informatique , la gestion et la supervision ) ont également commencé à disparaître en raison de l' externalisation . Incapables de rivaliser avec ceux des pays en développement , les travailleurs de la production et des services dans les sociétés post-industrielles (c'est-à-dire développées) perdent leur emploi à cause de l'externalisation, acceptent des réductions de salaire ou se contentent d' emplois de service peu qualifiés et peu rémunérés . Dans le passé, le sort économique des individus était lié à celui de leur nation. Par exemple, les travailleurs aux États-Unis étaient autrefois bien payés par rapport à ceux d'autres pays. Avec l'avènement de l'ère de l'information et les améliorations de la communication, ce n'est plus le cas, car les travailleurs doivent désormais rivaliser sur un marché du travail mondial , où les salaires dépendent moins du succès ou de l'échec des économies individuelles.

En effectuant une main - d'œuvre mondialisée , Internet a tout aussi bien permis d'augmenter les opportunités dans les pays en développement , permettant aux travailleurs de ces endroits de fournir des services en personne, concurrençant ainsi directement leurs homologues d'autres pays. Cet avantage concurrentiel se traduit par des opportunités accrues et des salaires plus élevés.

Automatisation, productivité et gain de travail

L'ère de l'information a affecté la main-d'œuvre dans la mesure où l' automatisation et l'informatisation ont entraîné une productivité plus élevée associée à une perte nette d' emplois dans le secteur manufacturier . Aux États-Unis, par exemple, de janvier 1972 à août 2010, le nombre de personnes employées dans des emplois manufacturiers est passé de 17 500 000 à 11 500 000 alors que la valeur manufacturière augmentait de 270 %.

Même s'il apparaissait initialement que les pertes d'emplois dans le secteur industriel pouvaient être partiellement compensées par la croissance rapide des emplois en technologie de l'information , la récession de mars 2001 laissait présager une forte baisse du nombre d'emplois dans le secteur. Cette tendance à la baisse des emplois se poursuivrait jusqu'en 2003, et les données ont montré que, dans l'ensemble, la technologie crée plus d'emplois qu'elle n'en détruit, même à court terme.

Industrie à forte intensité d'information

L'industrie est devenue plus intensive en information tout en étant moins intensive en main - d'œuvre et en capital . Cela a laissé des implications importantes pour la main - d'œuvre , car les travailleurs sont devenus de plus en plus productifs à mesure que la valeur de leur travail diminue. Pour le système du capitalisme lui-même, la valeur du travail diminue, la valeur du capital augmente.

Dans le modèle classique , les investissements dans le capital humain et financier sont d'importants prédicteurs de la performance d'une nouvelle entreprise . Cependant, comme l'ont démontré Mark Zuckerberg et Facebook , il semble désormais possible pour un groupe de personnes relativement inexpérimentées avec un capital limité de réussir à grande échelle.

Nouveautés

Une visualisation des différents itinéraires à travers une portion d'Internet.

L'ère de l'information a été rendue possible par la technologie développée lors de la révolution numérique , qui a elle-même été rendue possible en s'appuyant sur les développements de la révolution technologique .

Transistors

Le début de l'ère de l'information peut être associé au développement de la technologie des transistors . Le concept de transistor à effet de champ a été théorisé pour la première fois par Julius Edgar Lilienfeld en 1925. Le premier transistor pratique était le transistor à contact ponctuel , inventé par les ingénieurs Walter Houser Brattain et John Bardeen alors qu'ils travaillaient pour William Shockley aux Bell Labs en 1947. Ce fut une percée qui a jeté les bases de la technologie moderne. L'équipe de recherche de Shockley a également inventé le transistor à jonction bipolaire en 1952. Le type de transistor le plus largement utilisé est le transistor à effet de champ métal-oxyde-semiconducteur (MOSFET), inventé par Mohamed M. Atalla et Dawon Kahng aux Bell Labs en 1960. Le Le procédé de fabrication complémentaire MOS (CMOS) a été développé par Frank Wanlass et Chih-Tang Sah en 1963.

Des ordinateurs

Avant l'avènement de l' électronique , les ordinateurs mécaniques , comme le moteur analytique en 1837, étaient conçus pour fournir des calculs mathématiques de routine et des capacités de prise de décision simples. Les besoins militaires pendant la Seconde Guerre mondiale ont conduit au développement des premiers ordinateurs électroniques, basés sur des tubes à vide , notamment le Z3 , l' Atanasoff-Berry Computer , l' ordinateur Colossus et l' ENIAC .

L'invention du transistor a permis l'ère des ordinateurs centraux (années 1950-1970), caractérisée par l' IBM 360 . Ces grands ordinateurs de la taille d'une pièce fournissaient des calculs et des manipulations de données beaucoup plus rapides qu'il n'était humainement possible, mais étaient coûteux à acheter et à entretenir. Ils étaient donc initialement limités à quelques institutions scientifiques, grandes entreprises et agences gouvernementales.

Le circuit intégré (CI) au germanium a été inventé par Jack Kilby chez Texas Instruments en 1958. Le circuit intégré au silicium a ensuite été inventé en 1959 par Robert Noyce chez Fairchild Semiconductor , en utilisant le procédé planaire développé par Jean Hoerni , qui à son tour s'appuyait sur Mohamed La méthode de passivation de surface du silicium d' Atalla a été développée aux Bell Labs en 1957. Suite à l'invention du transistor MOS par Mohamed Atalla et Dawon Kahng aux Bell Labs en 1959, le circuit intégré MOS a été développé par Fred Heiman et Steven Hofstein chez RCA en 1962. Le circuit intégré MOS à grille de silicium a ensuite été développé par Federico Faggin chez Fairchild Semiconductor en 1968. Avec l'avènement du transistor MOS et du circuit intégré MOS, la technologie des transistors s'est rapidement améliorée et le rapport puissance de calcul/taille a considérablement augmenté, donnant un accès direct à ordinateurs à des groupes de personnes de plus en plus restreints.

Le premier microprocesseur commercial à puce unique lancé en 1971, l' Intel 4004 , qui a été développé par Federico Faggin à l'aide de sa technologie MOS IC à grille de silicium, avec Marcian Hoff , Masatoshi Shima et Stan Mazor .

Parallèlement aux machines d'arcade électroniques et aux consoles de jeux vidéo domestiques dans les années 1970, le développement d' ordinateurs personnels comme le Commodore PET et l' Apple II (tous deux en 1977) a permis aux individus d'accéder à l'ordinateur. Mais le partage des données entre les ordinateurs individuels était soit inexistant, soit en grande partie manuel , utilisant d'abord des cartes perforées et des bandes magnétiques , puis des disquettes .

Données

Les premiers développements pour le stockage des données se sont d'abord basés sur la photographie, à commencer par la microphotographie en 1851 puis la microforme dans les années 1920, avec la possibilité de stocker des documents sur pellicule, ce qui les rend beaucoup plus compacts. Les premières théories de l'information et les codes de Hamming ont été développés vers 1950, mais attendaient que les innovations techniques en matière de transmission et de stockage de données soient pleinement utilisées.

La mémoire à noyau magnétique a été développée à partir des recherches de Frederick W. Viehe en 1947 et d' An Wang à l'Université Harvard en 1949. Avec l'avènement du transistor MOS, la mémoire à semi-conducteur MOS a été développée par John Schmidt chez Fairchild Semiconductor en 1964. En 1967, Dawon Kahng et Simon Sze des Bell Labs ont décrit en 1967 comment la grille flottante d'un dispositif semi-conducteur MOS pouvait être utilisée pour la cellule d'une ROM reprogrammable. Suite à l'invention de la mémoire flash par Fujio Masuoka chez Toshiba en 1980, Toshiba a commercialisé la mémoire flash NAND en 1987.

Alors que les câbles transmettant des données numériques aux terminaux informatiques et périphériques connectés aux ordinateurs centraux étaient courants et que des systèmes spéciaux de partage de messages menant au courrier électronique ont été développés pour la première fois dans les années 1960, la mise en réseau indépendante d'ordinateur à ordinateur a commencé avec ARPANET en 1969. Cela s'est étendu pour devenir Internet (inventé en 1974), puis le World Wide Web en 1991.

La mise à l'échelle des MOSFET , la miniaturisation rapide des MOSFET à un rythme prédit par la loi de Moore , a conduit à des ordinateurs de plus en plus petits et plus puissants, au point où ils pouvaient être transportés. Au cours des années 1980-1990, les ordinateurs portables ont été développés comme une forme d'ordinateur portable et les assistants numériques personnels (PDA) pouvaient être utilisés en position debout ou en marchant. Les téléavertisseurs , largement utilisés dans les années 1980, ont été largement remplacés par les téléphones mobiles à partir de la fin des années 1990, offrant des fonctionnalités de réseau mobile à certains ordinateurs. Désormais courante, cette technologie est étendue aux appareils photo numériques et autres appareils portables. À partir de la fin des années 1990, les tablettes puis les smartphones ont combiné et étendu ces capacités d'informatique, de mobilité et de partage d'informations.

La vidéo sur Internet a été popularisée par YouTube , une plate-forme vidéo en ligne fondée par Chad Hurley , Jawed Karim et Steve Chen en 2005, qui a permis la diffusion vidéo en continu de contenu généré par les utilisateurs MPEG-4 AVC (H.264) à partir de n'importe où sur le World Wide Web. .

Le papier électronique , qui a ses origines dans les années 1970, permet à l'information numérique d'apparaître sous forme de documents papier.

Optique

La communication optique a joué un rôle important dans les réseaux de communication . La communication optique a fourni la base matérielle de la technologie Internet , jetant les bases de la révolution numérique et de l'ère de l'information.

En 1953, Bram van Heel a démontré la transmission d'images à travers des faisceaux de fibres optiques avec un revêtement transparent. La même année, Harold Hopkins et Narinder Singh Kapany de l' Imperial College ont réussi à fabriquer des faisceaux de transmission d'images avec plus de 10 000 fibres optiques, puis à transmettre des images à travers un faisceau de 75 cm de long qui combinait plusieurs milliers de fibres.

Les capteurs d'image métal-oxyde-semiconducteur (MOS) , qui ont commencé à apparaître à la fin des années 1960, ont conduit à la transition de l'imagerie analogique à l'imagerie numérique , et des caméras analogiques aux caméras numériques , au cours des années 1980-1990. Les capteurs d'image les plus courants sont le capteur à dispositif à couplage de charge (CCD) et le capteur à pixels actifs CMOS (MOS complémentaire) (capteur CMOS).

Voir également

Les références

Lectures complémentaires

Liens externes