La loi de Moore - Moore's law

se référer à la légende
Un tracé semi-log du transistor compte pour les microprocesseurs par rapport aux dates d'introduction, doublant presque tous les deux ans.

La loi de Moore est l'observation que le nombre de transistors dans un circuit intégré dense (CI) double environ tous les deux ans. La loi de Moore est une observation et une projection d'une tendance historique. Plutôt qu'une loi de la physique , il s'agit d'une relation empirique liée aux acquis de l'expérience en production.

L'observation porte le nom de Gordon Moore , le co-fondateur de Fairchild Semiconductor et d' Intel (et ancien PDG de cette dernière), qui a avancé en 1965 un doublement chaque année du nombre de composants par circuit intégré, et a projeté que ce taux de croissance serait continuer pendant au moins une autre décennie. En 1975, en prévision de la prochaine décennie, il a révisé les prévisions pour doubler tous les deux ans, un taux de croissance annuel composé (TCAC) de 41 %. Bien que Moore n'ait pas utilisé de preuves empiriques pour prévoir que la tendance historique se poursuivrait, sa prédiction s'est maintenue depuis 1975 et est depuis devenue connue sous le nom de « loi ».

La prédiction de Moore a été utilisée dans l' industrie des semi - conducteurs pour guider la planification à long terme et pour fixer des objectifs pour la recherche et le développement , fonctionnant ainsi dans une certaine mesure comme une prophétie auto-réalisatrice . Les progrès de l'électronique numérique , tels que la réduction des prix des microprocesseurs ajustés en fonction de la qualité , l'augmentation de la capacité de mémoire ( RAM et flash ), l'amélioration des capteurs , et même le nombre et la taille des pixels dans les appareils photo numériques , sont fortement liés à la loi de Moore. . Ces changements progressifs dans l'électronique numérique ont été une force motrice du changement technologique et social, de la productivité et de la croissance économique.

Les experts de l'industrie ne sont pas parvenus à un consensus sur le moment exact où la loi de Moore cessera de s'appliquer. Les architectes de microprocesseurs rapportent que l'avancement des semi-conducteurs a ralenti dans l'ensemble de l'industrie depuis environ 2010, en deçà du rythme prévu par la loi de Moore. Cependant, depuis 2018, les principaux fabricants de semi-conducteurs ont développé des processus de fabrication de circuits intégrés dans la production de masse qui sont censés suivre le rythme de la loi de Moore.

Histoire

photo de profil de Gordon Moore
Gordon Moore en 2004

En 1959, Douglas Engelbart a discuté de la réduction d'échelle projetée de la taille des circuits intégrés (CI) dans l'article « La microélectronique et l'art de la similitude ». Engelbart a présenté ses idées à la Conférence internationale des circuits à semi-conducteurs de 1960 , où Moore était présent dans le public.

La même année, Mohamed Atalla et Dawon Kahng ont inventé le MOSFET (transistor à effet de champ métal-oxyde-semiconducteur), également connu sous le nom de transistor MOS, aux Bell Labs . Le MOSFET a été le premier transistor vraiment compact qui pouvait être miniaturisé et produit en série pour un large éventail d'utilisations, avec sa haute évolutivité et sa faible consommation d'énergie résultant en une densité de transistor plus élevée et permettant de construire des puces IC haute densité . Au début des années 1960, Gordon E. Moore a reconnu que les caractéristiques électriques et d'échelle idéales des dispositifs MOSFET conduiraient à une augmentation rapide des niveaux d'intégration et à une croissance sans précédent des applications électroniques .

En 1965, Gordon Moore, qui travaillait à l'époque en tant que directeur de la recherche et du développement chez Fairchild Semiconductor , a été invité à contribuer au numéro du trente-cinquième anniversaire du magazine Electronics avec une prédiction sur l'avenir de l'industrie des composants semi-conducteurs au cours de la dix prochaines années. Sa réponse fut un bref article intitulé "Cramming more components on integrated circuits". Dans son éditorial, il a émis l'hypothèse qu'en 1975, il serait possible de contenir jusqu'à 65 000 composants sur un seul semi-conducteur d'un quart de pouce carré.

La complexité des coûts minimaux des composants a augmenté à un rythme d'environ un facteur de deux par an. Il est certain qu'à court terme, ce taux devrait se maintenir, voire augmenter. À plus long terme, le taux d'augmentation est un peu plus incertain, même s'il n'y a aucune raison de croire qu'il ne restera pas presque constant pendant au moins 10 ans.

Moore a avancé une relation log-linéaire entre la complexité de l'appareil (densité de circuit plus élevée à un coût réduit) et le temps. Dans une interview de 2015, Moore a noté à propos de l'article de 1965 : "... Je viens de faire une extrapolation folle en disant que cela va continuer à doubler chaque année pendant les 10 prochaines années."

En 1974, Robert H. Dennard chez IBM a reconnu la technologie de mise à l'échelle MOSFET rapide et a formulé ce qui est devenu connu sous le nom de mise à l'échelle de Dennard , qui décrit que lorsque les transistors MOS deviennent plus petits, leur densité de puissance reste constante de sorte que la consommation d'énergie reste proportionnelle à la surface. La mise à l'échelle et la miniaturisation des MOSFET ont été les principaux moteurs de la loi de Moore. Les preuves de l'industrie des semi-conducteurs montrent que cette relation inverse entre la densité de puissance et la densité surfacique s'est rompue au milieu des années 2000.

Lors de la réunion internationale des dispositifs électroniques de l'IEEE de 1975 , Moore a révisé son taux de prévision, prédisant que la complexité des semi-conducteurs continuerait de doubler chaque année jusqu'en 1980 environ, après quoi elle diminuerait jusqu'à un taux de doublement environ tous les deux ans. Il a décrit plusieurs facteurs contribuant à ce comportement exponentiel :

  • L'avènement de la technologie métal-oxyde-semiconducteur (MOS)
  • Le taux exponentiel d'augmentation de la taille des puces, couplé à une diminution des densités défectueuses, avec pour résultat que les fabricants de semi-conducteurs pourraient travailler avec de plus grandes surfaces sans perdre les rendements de réduction
  • Dimensions minimales plus fines
  • Ce que Moore a appelé "l'intelligence des circuits et des appareils"

Peu de temps après 1975, le professeur de Caltech Carver Mead a popularisé le terme « loi de Moore ». La loi de Moore a fini par être largement acceptée comme un objectif pour l'industrie des semi-conducteurs, et elle a été citée par les fabricants de semi-conducteurs concurrents alors qu'ils s'efforçaient d'augmenter la puissance de traitement. Moore considérait sa loi éponyme comme surprenante et optimiste : « La loi de Moore est une violation de la loi de Murphy . Tout va de mieux en mieux. L'observation a même été considérée comme une prophétie auto-réalisatrice .

La période de doublement est souvent mal citée comme étant de 18 mois en raison d'une prédiction du collègue de Moore, le cadre d'Intel David House. En 1975, House a noté que la loi révisée de Moore consistant à doubler le nombre de transistors tous les 2 ans impliquait à son tour que les performances des puces informatiques doubleraient à peu près tous les 18 mois (sans augmentation de la consommation d'énergie). La loi de Moore est étroitement liée à la mise à l'échelle des MOSFET, car la mise à l'échelle et la miniaturisation rapides des MOSFET sont la principale force motrice de la loi de Moore. Mathématiquement, la loi de Moore a prédit que le nombre de transistors doublerait tous les 2 ans en raison de la réduction des dimensions des transistors et d'autres améliorations. En raison de la diminution des dimensions, la mise à l'échelle de Dennard a prédit que la consommation d'énergie par unité de surface resterait constante. En combinant ces effets, David House a déduit que les performances des puces informatiques doubleraient à peu près tous les 18 mois. Également en raison de la mise à l'échelle de Dennard, cette performance accrue ne s'accompagnerait pas d'une puissance accrue, c'est-à-dire que l'efficacité énergétique des puces informatiques à base de silicium double environ tous les 18 mois. La mise à l'échelle de Dennard a pris fin dans les années 2000. Koomey a montré plus tard qu'un taux similaire d'amélioration de l'efficacité était antérieur aux puces de silicium et à la loi de Moore, pour des technologies telles que les tubes à vide.

Grand premier ordinateur portable à côté d'un smartphone moderne
Un ordinateur portable Osborne Executive , de 1982, avec un processeur Zilog Z80 4 MHz, et un iPhone d' Apple 2007 avec un processeur ARM11 412 MHz ; l'Executive a 100 fois le poids, près de 500 fois le volume, environ 10 fois le coût ajusté en fonction de l'inflation et 1/103e de la fréquence d'horloge du smartphone .

Les architectes de microprocesseurs rapportent que depuis environ 2010, l'avancement des semi-conducteurs a ralenti dans l'ensemble de l'industrie en dessous du rythme prédit par la loi de Moore. Brian Krzanich , l'ancien PDG d'Intel, a cité la révision de Moore en 1975 comme un précédent pour la décélération actuelle, qui résulte de défis techniques et est "une partie naturelle de l'histoire de la loi de Moore". Le taux d'amélioration des dimensions physiques connu sous le nom de mise à l'échelle de Dennard a également pris fin au milieu des années 2000. En conséquence, une grande partie de l'industrie des semi-conducteurs s'est concentrée sur les besoins des principales applications informatiques plutôt que sur la mise à l'échelle des semi-conducteurs. Néanmoins, les principaux fabricants de semi-conducteurs TSMC et Samsung Electronics ont prétendu suivre le rythme de la loi de Moore avec des nœuds de 10 nm et 7 nm en production de masse et des nœuds de 5 nm en production à risque.

La deuxième loi de Moore

Alors que le coût de la puissance informatique pour le consommateur diminue, le coût pour les producteurs de se conformer à la loi de Moore suit une tendance opposée : les coûts de R&D, de fabrication et de test ont augmenté régulièrement avec chaque nouvelle génération de puces. L'augmentation des coûts de fabrication est une considération importante pour le maintien de la loi de Moore. Cela a conduit à la formulation de la deuxième loi de Moore , également appelée loi de Rock, selon laquelle le coût en capital d'une usine de semi-conducteurs augmente également de manière exponentielle au fil du temps.

Principaux facteurs favorables

Un graphique semi-logarithmique des dimensions des règles de conception flash NAND en nanomètres par rapport aux dates d'introduction.  La régression linéaire descendante indique une diminution exponentielle des dimensions des entités au fil du temps.
La tendance de mise à l' échelle MOSFET pour le flash NAND mémoire permet le doublement des MOSFET à grille flottante des composants fabriqués dans la même zone de la tranche , en moins de 18 mois.

De nombreuses innovations de scientifiques et d'ingénieurs ont soutenu la loi de Moore depuis le début de l'ère IC. Certaines des innovations clés sont énumérées ci-dessous, comme exemples de percées qui ont fait progresser la technologie de fabrication de circuits intégrés et de dispositifs semi - conducteurs , permettant au nombre de transistors d'augmenter de plus de sept ordres de grandeur en moins de cinq décennies.

Les feuilles de route de la technologie de l'industrie informatique prévoyaient en 2001 que la loi de Moore continuerait pour plusieurs générations de puces semi-conductrices.

Tendances récentes

tracé animé montrant la densité électronique et le courant lorsque la tension de grille varie
Une simulation de la densité électronique en tant que tension de grille (Vg) varie dans un MOSFET à nanofils . La tension de seuil est d'environ 0,45 V. Les MOSFET à nanofils se situent vers la fin de la feuille de route ITRS pour la mise à l'échelle des dispositifs en dessous de 10 nm de longueur de grille.

L'un des principaux défis de l'ingénierie des futurs transistors nanométriques est la conception des grilles. À mesure que la dimension de l'appareil diminue, le contrôle du flux de courant dans le canal mince devient plus difficile. Les transistors nanométriques modernes prennent généralement la forme de MOSFET multigrilles , le FinFET étant le transistor nanométrique le plus courant. Le FinFET a un diélectrique de grille sur trois côtés du canal. En comparaison, le porte-tout autour de MOSFET ( GAAFET la structure) comporte encore un meilleur contrôle de grille.

  • Une porte-tout autour MOSFET (GAAFET) a été démontrée en 1988, par un Toshiba équipe de recherche dirigée par Fujio Masuoka , qui a démontré une GAAFET nanofil verticale qu'il a appelé un "transistor à grille entourant" (SGT). Masuoka, mieux connu comme l'inventeur de la mémoire flash , a ensuite quitté Toshiba et a fondé Unisantis Electronics en 2004 pour rechercher la technologie des portes environnantes avec l' Université de Tohoku .
  • En 2006, une équipe de chercheurs coréens du Korea Advanced Institute of Science and Technology (KAIST) et du National Nano Fab Center a développé un transistor de 3 nm , le plus petit dispositif nanoélectronique au monde à l'époque, basé sur la technologie FinFET.
  • En 2010, des chercheurs du Tyndall National Institute de Cork, en Irlande, ont annoncé un transistor sans jonction. Une grille de contrôle enroulée autour d'un nanofil de silicium peut contrôler le passage des électrons sans utiliser de jonctions ni de dopage. Ils prétendent que ceux-ci peuvent être produits à l'échelle de 10 nanomètres en utilisant les techniques de fabrication existantes.
  • En 2011, des chercheurs de l'Université de Pittsburgh ont annoncé le développement d'un transistor à un seul électron de 1,5 nanomètre de diamètre, fabriqué à partir de matériaux à base d'oxyde. Trois « fils » convergent vers un « îlot » central pouvant abriter un ou deux électrons. Les électrons passent d'un fil à un autre à travers l'île. Les conditions sur le troisième fil entraînent des propriétés conductrices distinctes, notamment la capacité du transistor à agir comme une mémoire à semi-conducteurs. Les transistors à nanofils pourraient stimuler la création d'ordinateurs microscopiques.
  • En 2012, une équipe de recherche de l' Université de Nouvelle-Galles du Sud a annoncé le développement du premier transistor fonctionnel composé d'un seul atome placé précisément dans un cristal de silicium (pas seulement choisi dans un grand échantillon de transistors aléatoires). La loi de Moore prévoyait que cette étape serait atteinte pour les circuits intégrés en laboratoire d'ici 2020.
  • En 2015, IBM a présenté des puces de nœuds de 7 nm avec des transistors silicium-germanium produits à l'aide d' EUVL . La société pense que cette densité de transistors serait quatre fois supérieure à celle des puces actuelles de 14 nm .
  • Samsung et TSMC prévoient de fabriquer des  nœuds GAAFET 3 nm d'ici 2021-2022. Notez que les noms de nœud, tels que 3  nm, n'ont aucun rapport avec la taille physique des éléments du périphérique (transistors).
  • Une équipe de recherche de Toshiba comprenant T. Imoto, M. Matsui et C. Takubo a développé un processus de liaison de plaquettes « System Block Module » pour la fabrication de boîtiers de circuits intégrés tridimensionnels (3D IC) en 2001. En avril 2007, Toshiba a lancé huit couche 3D IC, la puce de mémoire flash NAND intégrée THGAM de 16 Go qui a été fabriquée avec huit puces flash NAND de 2 Go empilées . En septembre 2007, Hynix a présenté un circuit intégré 3D à 24 couches, une puce de mémoire flash de 16 Go qui a été fabriquée avec 24 puces flash NAND empilées à l'aide d'un processus de collage de plaquettes.    
  • La V-NAND , également connue sous le nom de 3D NAND, permet d'empiler verticalement des cellules de mémoire flash à l'aide de la technologie flash à piège de charge présentée à l'origine par John Szedon en 1967, augmentant considérablement le nombre de transistors sur une puce de mémoire flash. La 3D NAND a été annoncée pour la première fois par Toshiba en 2007. La V-NAND a été commercialisée pour la première fois par Samsung Electronics en 2013.
  • En 2008, des chercheurs de HP Labs ont annoncé un memristor fonctionnel , un quatrième élément de circuit passif de base dont l'existence n'avait été théorisée que précédemment. Les propriétés uniques du memristor permettent la création de dispositifs électroniques plus petits et plus performants.
  • En 2014, des bio-ingénieurs de l'Université de Stanford ont développé un circuit modelé sur le cerveau humain. Seize puces "Neurocore" simulent un million de neurones et des milliards de connexions synaptiques, prétendument 9 000 fois plus rapides et plus écoénergétiques qu'un PC classique.
  • En 2015, Intel et Micron ont annoncé 3D XPoint , une mémoire non volatile prétendument nettement plus rapide avec une densité similaire à celle de la NAND. La production, qui devait débuter en 2016, a été retardée jusqu'au second semestre 2017.
  • En 2017, Samsung a combiné sa technologie V-NAND avec l'empilement de circuits intégrés eUFS 3D pour produire une  puce de mémoire flash de 512 Go, avec huit matrices V-NAND à 64 couches empilées. En 2019, Samsung a produit une puce flash de 1 To avec huit matrices V-NAND à 96 couches empilées, ainsi qu'une technologie de cellule à quatre niveaux (QLC) ( 4 bits par transistor), équivalant à 2 billions de transistors, le nombre de transistors le plus élevé de n'importe quelle puce IC.  
  • En 2020, Samsung Electronics prévoit de produire le nœud 5 nm , en utilisant les technologies FinFET et EUV .
  • En mai 2021, IBM annonce la création de la première puce informatique de 2 nm , dont les parties seraient censées être plus petites que l'ADN humain.

Les architectes de microprocesseurs rapportent que l'avancement des semi-conducteurs a ralenti dans l'ensemble de l'industrie depuis environ 2010, en deçà du rythme prévu par la loi de Moore. Brian Krzanich, l'ancien PDG d'Intel, a annoncé : "Notre cadence aujourd'hui est plus proche de deux ans et demi que de deux." Intel a déclaré en 2015 que les améliorations des dispositifs MOSFET avaient ralenti, commençant à la largeur de caractéristique de 22 nm vers 2012 et se poursuivant à 14 nm .

Les limites physiques de la mise à l'échelle des transistors ont été atteintes en raison des fuites source-drain, des métaux de grille limités et des options limitées pour le matériau des canaux. D'autres approches sont à l'étude, qui ne reposent pas sur une mise à l'échelle physique. Ceux-ci incluent l'état de spin de la spintronique électronique , les jonctions tunnel et le confinement avancé des matériaux des canaux via la géométrie des nanofils. Les options de logique et de mémoire basées sur le spin sont activement développées dans les laboratoires.

Recherche de matériaux alternatifs

La grande majorité des transistors actuels sur circuits intégrés sont composés principalement de silicium dopé et de ses alliages. Au fur et à mesure que le silicium est fabriqué en transistors nanométriques uniques, les effets de canal court modifient négativement les propriétés matérielles souhaitées du silicium en tant que transistor fonctionnel. Vous trouverez ci-dessous plusieurs substituts sans silicium dans la fabrication de petits transistors nanométriques.

Un matériau proposé est l'arséniure d'indium et de gallium , ou InGaAs. Par rapport à leurs homologues au silicium et au germanium, les transistors InGaAs sont plus prometteurs pour les futures applications logiques à haute vitesse et à faible consommation. En raison des caractéristiques intrinsèques des semi - conducteurs composés III-V , des transistors à puits quantique et à effet tunnel basés sur InGaAs ont été proposés comme alternatives aux conceptions MOSFET plus traditionnelles.

  • Au début des années 2000, les processus de dépôt de couche atomique à film à κ élevé et à double motif de pas ont été inventés par Gurtej Singh Sandhu de Micron Technology , étendant la loi de Moore pour la technologie CMOS planaire à une classe de 30 nm et moins.
  • En 2009, Intel a annoncé le développement de transistors à puits quantiques InGaAs de 80 nanomètres . Les dispositifs à puits quantiques contiennent un matériau pris en sandwich entre deux couches de matériau avec une bande interdite plus large. Bien qu'ils soient le double de la taille des principaux transistors en silicium pur à l'époque, la société a indiqué qu'ils étaient aussi performants tout en consommant moins d'énergie.
  • En 2011, des chercheurs d'Intel ont démontré des transistors InGaAs à trois grilles 3D avec des caractéristiques de fuite améliorées par rapport aux conceptions planaires traditionnelles. La société affirme que leur conception a atteint la meilleure électrostatique de tous les transistors semi-conducteurs composés III-V. Lors de la Conférence internationale sur les circuits à semi-conducteurs de 2015 , Intel a mentionné l'utilisation de composés III-V basés sur une telle architecture pour leur nœud de 7 nanomètres.
  • En 2011, des chercheurs de l' Université du Texas à Austin ont développé un transistor à effet de champ à effet tunnel InGaAs capable de courants de fonctionnement plus élevés que les conceptions précédentes. Les premières conceptions de TFET III-V ont été démontrées en 2009 par une équipe conjointe de l'Université Cornell et de l'Université d' État de Pennsylvanie .
  • En 2012, une équipe des laboratoires de technologie des microsystèmes du MIT a développé un transistor de 22 nm basé sur InGaAs qui, à l'époque, était le plus petit transistor sans silicium jamais construit. L'équipe a utilisé des techniques actuellement utilisées dans la fabrication de dispositifs en silicium et vise de meilleures performances électriques et une réduction à l' échelle de 10 nanomètres .

La recherche en informatique biologique montre que le matériel biologique a une densité d'informations et une efficacité énergétique supérieures à celles de l'informatique à base de silicium.

se référer à la légende
Image de microscopie à sonde à balayage du graphène dans sa structure en treillis hexagonal

Diverses formes de graphène sont à l'étude pour l' électronique du graphène , par exemple les transistors à nanoruban de graphène se sont montrés très prometteurs depuis son apparition dans des publications en 2008. (Le graphène en vrac a une bande interdite de zéro et ne peut donc pas être utilisé dans les transistors en raison de sa conductivité constante, un incapacité à s'éteindre. Les bords en zigzag des nanorubans introduisent des états d'énergie localisés dans les bandes de conduction et de valence et donc une bande interdite qui permet la commutation lorsqu'il est fabriqué comme un transistor. À titre d'exemple, un GNR typique d'une largeur de 10 nm a une bande interdite souhaitable d'énergie de 0,4 eV.) Des recherches supplémentaires devront cependant être effectuées sur des couches de graphène inférieures à 50 nm, car sa valeur de résistivité augmente et donc la mobilité des électrons diminue.

Prévisions et feuilles de route

En avril 2005, Gordon Moore a déclaré dans une interview que la projection ne peut pas être maintenue indéfiniment : « Elle ne peut pas continuer éternellement. Il a également noté que les transistors finiraient par atteindre les limites de la miniaturisation au niveau atomique :

En termes de taille [des transistors] vous pouvez voir que nous approchons de la taille des atomes qui est une barrière fondamentale, mais il faudra deux ou trois générations avant d'en arriver là - mais c'est aussi loin que nous l'avons jamais pu voir. Il nous reste encore 10 à 20 ans avant d'atteindre une limite fondamentale. D'ici là, ils seront capables de fabriquer des puces plus grosses et d'avoir des budgets de transistors de plusieurs milliards.

En 2016, la feuille de route technologique internationale pour les semi - conducteurs , après avoir utilisé la loi de Moore pour piloter l'industrie depuis 1998, a produit sa feuille de route finale. Elle n'a plus centré son plan de recherche et développement sur la loi de Moore. Au lieu de cela, il a décrit ce que l'on pourrait appeler la stratégie More than Moore dans laquelle les besoins des applications conduisent le développement de puces, plutôt que de se concentrer sur la mise à l'échelle des semi-conducteurs. Les pilotes d'application vont des smartphones à l'IA en passant par les centres de données.

L'IEEE a lancé une initiative de feuille de route en 2016, « Rebooting Computing », nommée International Roadmap for Devices and Systems (IRDS).

La plupart des prévisionnistes, y compris Gordon Moore, s'attendent à ce que la loi de Moore prenne fin vers 2025. Bien que la loi de Moore atteindra une limite physique, de nombreux prévisionnistes sont optimistes quant à la poursuite des progrès technologiques dans divers autres domaines, notamment les nouvelles architectures de puces, l'informatique quantique, et l'IA et l'apprentissage automatique.

Conséquences

L'électronique numérique a contribué à la croissance économique mondiale à la fin du XXe et au début du XXIe siècle. La principale force motrice de la croissance économique est la croissance de la productivité et la loi de Moore prend en compte la productivité. Moore (1995) s'attendait à ce que « le rythme du progrès technologique soit contrôlé à partir des réalités financières ». L'inverse pourrait se produire et s'est produit vers la fin des années 90, cependant, les économistes déclarant que « la croissance de la productivité est l'indicateur économique clé de l'innovation ». La loi de Moore décrit une force motrice du changement technologique et social, de la productivité et de la croissance économique.

Une accélération du taux de progrès des semi-conducteurs a contribué à une forte augmentation de la croissance de la productivité aux États-Unis, qui a atteint 3,4 % par an en 1997-2004, dépassant les 1,6 % par an pendant les années 1972-1996 et 2005-2013. Comme le note l'économiste Richard G. Anderson, « De nombreuses études ont retracé la cause de l'accélération de la productivité aux innovations technologiques dans la production de semi-conducteurs qui ont fortement réduit les prix de ces composants et des produits qui les contiennent (ainsi qu'augmentant les capacités de ces produits)."

La principale implication négative de la loi de Moore est que l' obsolescence pousse la société contre les limites de la croissance . Au fur et à mesure que les technologies continuent de « s'améliorer », elles rendent les technologies précédentes obsolètes. Dans les situations où la sécurité et la survie du matériel ou des données sont primordiales, ou dans lesquelles les ressources sont limitées, l'obsolescence rapide pose souvent des obstacles au bon fonctionnement ou à la continuité des opérations.

En raison de l'empreinte intensive des ressources et des matériaux toxiques utilisés dans la production d'ordinateurs, l'obsolescence entraîne de graves impacts environnementaux nocifs . Les Américains jettent 400 000 téléphones portables chaque jour, mais ce niveau élevé d'obsolescence apparaît aux entreprises comme une opportunité de générer des ventes régulières de nouveaux équipements coûteux, au lieu de conserver un appareil plus longtemps, ce qui conduit l'industrie à utiliser l' obsolescence programmée comme centre de profit .

Graphique log-log comparant la longueur de la porte à la taille du nœud
Tendance de la longueur de la grille des transistors Intel – la mise à l'échelle des transistors a considérablement ralenti aux nœuds avancés (plus petits)

Une autre source d'amélioration des performances réside dans les techniques de microarchitecture exploitant la croissance du nombre de transistors disponibles. L'exécution dans le désordre et la mise en cache et la prélecture sur puce réduisent le goulot d'étranglement de la latence de la mémoire au détriment de l'utilisation de plus de transistors et de l'augmentation de la complexité du processeur. Ces augmentations sont décrites empiriquement par la règle de Pollack , qui stipule que les augmentations de performances dues aux techniques de microarchitecture se rapprochent de la racine carrée de la complexité (nombre de transistors ou surface) d'un processeur.

Pendant des années, les fabricants de processeurs ont augmenté les fréquences d'horloge et le parallélisme au niveau des instructions , de sorte que le code monothread s'exécutait plus rapidement sur les processeurs plus récents sans aucune modification. Désormais, pour gérer la dissipation de puissance du processeur, les fabricants de processeurs privilégient les conceptions de puces multicœurs , et le logiciel doit être écrit de manière multithread pour tirer pleinement parti du matériel. De nombreux paradigmes de développement multithread introduisent une surcharge et ne verront pas d'augmentation linéaire de la vitesse par rapport au nombre de processeurs. Cela est particulièrement vrai lors de l'accès à des ressources partagées ou dépendantes, en raison de conflits de verrouillage . Cet effet devient plus perceptible à mesure que le nombre de processeurs augmente. Il existe des cas où une augmentation d'environ 45 % des transistors du processeur s'est traduite par une augmentation d'environ 10 à 20 % de la puissance de traitement.

D'autre part, les fabricants ajoutent des unités de traitement spécialisées pour gérer des fonctionnalités telles que les graphiques, la vidéo et la cryptographie. Par exemple, l'extension Parallel JavaScript d'Intel ajoute non seulement la prise en charge de plusieurs cœurs, mais également des autres fonctionnalités de traitement non générales de leurs puces, dans le cadre de la migration des scripts côté client vers HTML5 .

La loi de Moore a considérablement affecté les performances d'autres technologies : Michael S. Malone a parlé d'une guerre de Moore à la suite du succès apparent du choc et de la crainte au début de la guerre en Irak . Les progrès dans le développement des armes guidées dépendent de la technologie électronique. Les améliorations de la densité des circuits et du fonctionnement à faible puissance associées à la loi de Moore ont également contribué au développement de technologies telles que les téléphones mobiles et l' impression 3D .

Autres formulations et observations similaires

Plusieurs mesures de la technologie numérique s'améliorent à des taux exponentiels liés à la loi de Moore, notamment la taille, le coût, la densité et la vitesse des composants. Moore n'a écrit que sur la densité des composants, "un composant étant un transistor, une résistance, une diode ou un condensateur", à un coût minimum.

Transistors par circuit intégré – La formulation la plus populaire consiste à doubler le nombre de transistors sur les circuits intégrés tous les deux ans. À la fin des années 1970, la loi de Moore est devenue connue comme la limite du nombre de transistors sur les puces les plus complexes. Le graphique du haut montre que cette tendance se vérifie aujourd'hui. En 2017, le processeur disponible dans le commerce possédant le plus grand nombre de transistors est le Centriq à 48 cœurs avec plus de 18 milliards de transistors.

Densité au coût minimum par transistor - C'est la formulation donnée dans l'article de Moore en 1965. Il ne s'agit pas seulement de la densité de transistors qui peut être atteinte, mais de la densité de transistors pour laquelle le coût par transistor est le plus bas. Au fur et à mesure que de plus en plus de transistors sont placés sur une puce, le coût de fabrication de chaque transistor diminue, mais le risque que la puce ne fonctionne pas en raison d'un défaut augmente. En 1965, Moore a examiné la densité de transistors à laquelle le coût est minimisé, et a observé que, comme les transistors ont été rendus plus petits grâce aux progrès de la photolithographie , ce nombre augmenterait à « un taux d'environ un facteur de deux par an ».

Mise à l'échelle de Dennard - Cela postule que la consommation d'énergie diminuerait proportionnellement à la surface (la tension et le courant étant proportionnels à la longueur) des transistors. Combiné avec la loi de Moore, les performances par watt augmenteraient à peu près au même rythme que la densité des transistors, doublant tous les 1 à 2 ans. Selon Dennard, les dimensions des transistors seraient réduites de 30 % (0,7 x) à chaque génération de technologie, réduisant ainsi leur surface de 50 %. Cela réduirait le retard de 30 % (0,7x) et augmenterait donc la fréquence de fonctionnement d'environ 40 % (1,4x). Enfin, pour maintenir un champ électrique constant, la tension serait réduite de 30 %, l'énergie de 65 % et la puissance (à la fréquence 1,4x) de 50 %. Par conséquent, dans chaque génération de technologie, la densité de transistors doublerait, le circuit devient 40% plus rapide, tandis que la consommation d'énergie (avec deux fois le nombre de transistors) reste la même. Le détartrage de Dennard a pris fin en 2005-2010, en raison de courants de fuite.

La croissance exponentielle des transistors du processeur prédite par Moore ne se traduit pas toujours par des performances pratiques du processeur exponentiellement supérieures. Depuis 2005-2007 environ, la mise à l'échelle de Dennard a pris fin, donc même si la loi de Moore s'est poursuivie pendant plusieurs années après cela, elle n'a pas produit de dividendes en termes d'amélioration des performances. La principale raison invoquée pour la panne est qu'à de petites tailles, les fuites de courant posent des problèmes plus importants et provoquent également un échauffement de la puce, ce qui crée une menace d' emballement thermique et, par conséquent, augmente encore les coûts énergétiques.

L'effondrement de la mise à l'échelle de Dennard a incité à se concentrer davantage sur les processeurs multicœurs, mais les gains offerts par le passage à plus de cœurs sont inférieurs aux gains qui seraient obtenus si la mise à l'échelle de Dennard s'était poursuivie. Autre changement par rapport à la mise à l'échelle de Dennard, les microprocesseurs Intel ont adopté en 2012 un FinFET à trois portes non planaire à 22 nm qui est plus rapide et consomme moins d'énergie qu'un transistor planaire conventionnel. Le taux d'amélioration des performances des microprocesseurs monocœur a considérablement ralenti. La performance monocœur s'améliorait de 52 % par an en 1986-2003 et de 23 % par an en 2003-2011, mais a ralenti à seulement 7 % par an en 2011-2018.

Prix ​​du matériel informatique corrigé de la qualité – Le prix des technologies de l'information (TI), des ordinateurs et des équipements périphériques, corrigé de la qualité et de l'inflation, a baissé de 16 % par an en moyenne au cours des cinq décennies de 1959 à 2009. Le rythme s'est toutefois accéléré pour atteindre 23 % par an en 1995-1999 déclenchée par une innovation informatique plus rapide, et plus tard, ralentie à 2 % par an en 2010-2013.

Alors que l' amélioration du prix du microprocesseur ajusté en fonction de la qualité se poursuit, le taux d'amélioration varie également et n'est pas linéaire sur une échelle logarithmique. L'amélioration des prix des microprocesseurs s'est accélérée à la fin des années 90, atteignant 60 % par an (diminution de moitié tous les neuf mois) contre le taux d'amélioration typique de 30 % (diminution de moitié tous les deux ans) au cours des années précédentes et ultérieures. Les microprocesseurs des ordinateurs portables en particulier se sont améliorés de 25 à 35 % par an en 2004-2010, et ont ralenti à 15 à 25 % par an en 2010-2013.

Le nombre de transistors par puce ne peut pas expliquer entièrement les prix des microprocesseurs ajustés en fonction de la qualité. L'article de Moore de 1995 ne limite pas la loi de Moore à une stricte linéarité ou au nombre de transistors : « La définition de la « loi de Moore » en est venue à se référer à presque tout ce qui concerne l'industrie des semi-conducteurs qui, sur un tracé semi-logarithmique, se rapproche d'une ligne droite. J'hésite de revoir ses origines et, ce faisant, de restreindre sa définition.

Densité surfacique du disque dur – Une prédiction similaire (parfois appelée loi de Kryder ) a été faite en 2005 pour la densité surfacique du disque dur . La prédiction a ensuite été considérée comme trop optimiste. Plusieurs décennies de progrès rapides de la densité surfacique ont ralenti vers 2010, de 30 à 100 % par an à 10 à 15 % par an, en raison du bruit lié à la plus petite taille de grain du support de disque, à la stabilité thermique et à l'inscriptibilité en utilisant les champs magnétiques disponibles.

Capacité de la fibre optique – Le nombre de bits par seconde pouvant être envoyés sur une fibre optique augmente de façon exponentielle, plus rapidement que la loi de Moore. La loi de Keck , en l'honneur de Donald Keck .

Capacité du réseau – Selon Gerry/Gerald Butters, l'ancien chef du groupe de réseautage optique de Lucent aux Bell Labs, il existe une autre version, appelée Butters' Law of Photonics, une formulation qui est délibérément parallèle à la loi de Moore. La loi de Butters dit que la quantité de données sortant d'une fibre optique double tous les neuf mois. Ainsi, le coût de transmission d'un bit sur un réseau optique diminue de moitié tous les neuf mois. La disponibilité du multiplexage par répartition en longueur d' onde (parfois appelé WDM) a multiplié par 100 la capacité pouvant être placée sur une seule fibre. Les réseaux optiques et le multiplexage par répartition en longueur d'onde dense (DWDM) réduisent rapidement le coût de réseautage, et de nouveaux progrès semblent assurés. En conséquence, le prix de gros du trafic de données s'est effondré dans la bulle Internet . La loi de Nielsen dit que la bande passante disponible pour les utilisateurs augmente de 50 % par an.

Pixels par dollar – De même, Barry Hendy de Kodak Australia a tracé les pixels par dollar comme mesure de base de la valeur d'un appareil photo numérique, démontrant la linéarité historique (sur une échelle logarithmique) de ce marché et la possibilité de prédire la tendance future du numérique. prix de la caméra, écrans LCD et LED et résolution.

Le grand compensateur de la loi de Moore (TGMLC) , également connu sous le nom de loi de Wirth, est généralement appelé ballonnement logiciel et est le principe selon lequel les générations successives de logiciels informatiques augmentent en taille et en complexité, compensant ainsi les gains de performances prédits par la loi de Moore. Dans un article paru en 2008 dans InfoWorld , Randall C. Kennedy, ancien d'Intel, introduit ce terme en utilisant les versions successives de Microsoft Office entre 2000 et 2007 comme prémisse. Malgré les gains de performances de calcul au cours de cette période selon la loi de Moore, Office 2007 a effectué la même tâche à la moitié de la vitesse sur un ordinateur prototype de l'année 2007 par rapport à Office 2000 sur un ordinateur de l'année 2000.

Extension de la bibliothèque - a été calculé en 1945 par Fremont Rider pour doubler sa capacité tous les 16 ans, si suffisamment d'espace était disponible. Il a préconisé de remplacer les œuvres imprimées volumineuses et délabrées par des photographies analogiques microformes miniaturisées , qui pourraient être dupliquées à la demande pour les usagers des bibliothèques ou d'autres institutions. Il n'avait pas prévu la technologie numérique qui suivrait des décennies plus tard pour remplacer la microforme analogique par des supports d'imagerie, de stockage et de transmission numériques. Les technologies numériques automatisées et potentiellement sans perte ont permis une augmentation considérable de la rapidité de la croissance de l'information à une époque que l'on appelle parfois maintenant l'ère de l' information .

Courbe de Carlson - est un terme inventé par The Economist pour décrire l'équivalent biotechnologique de la loi de Moore, et est nommé d'après l'auteur Rob Carlson. Carlson a prédit avec précision que le temps de doublement des technologies de séquençage de l'ADN (mesuré par le coût et les performances) serait au moins aussi rapide que la loi de Moore. Les courbes de Carlson illustrent les diminutions rapides (dans certains cas hyperexponentielles) des coûts et les augmentations des performances d'une variété de technologies, y compris le séquençage de l'ADN, la synthèse de l'ADN et une gamme d'outils physiques et informatiques utilisés dans l'expression des protéines et dans la détermination des structures des protéines. .

La loi d'Eroom - est une observation sur le développement de médicaments pharmaceutiques qui a été délibérément écrite comme la loi de Moore orthographiée à l'envers afin de la contraster avec les progrès exponentiels d'autres formes de technologie (telles que les transistors) au fil du temps. Il indique que le coût de développement d'un nouveau médicament double à peu près tous les neuf ans.

Les effets de la courbe d'expérience indiquent que chaque doublement de la production cumulée de pratiquement n'importe quel produit ou service s'accompagne d'une réduction en pourcentage environ constante du coût unitaire. La première description qualitative documentée reconnue de ce phénomène date de 1885. Une courbe de puissance a été utilisée pour décrire ce phénomène dans une discussion de 1936 sur le coût des avions.

La loi d'Edholm – Phil Edholm a observé que la bande passante des réseaux de télécommunications (y compris Internet ) double tous les 18 mois. Les bandes passantes des réseaux de communication en lignesont passées de bits par seconde à des térabits par seconde . L'augmentation rapide de la bande passante en ligne est en grande partie due à la même mise à l'échelle MOSFET qui permet la loi de Moore, car les réseaux de télécommunications sont construits à partir de MOSFET.

La loi de Haitz prédit que la luminosité des LED augmente à mesure que leur coût de fabrication diminue.

La loi de Swanson est l'observation que le prix des modules solaires photovoltaïques a tendance à baisser de 20 % pour chaque doublement du volume cumulé expédié. Aux taux actuels, les coûts baissent de 75 % environ tous les 10 ans.

Voir également

Remarques

Les références

Lectures complémentaires

  • Brock, David C. (éd.) (2006). Comprendre la loi de Moore : quatre décennies d'innovation . Philadelphie : Fondation du patrimoine chimique. ISBN  0-941901-41-6 . OCLC  66463488 .
  • Mody, Cyrus (2016). Le bras long de la loi de Moore : microélectronique et science américaine . Cambridge, Mass. : The MIT Press. ISBN 978-0262035491.
  • Thackray, Arnold; David C. Brock et Rachel Jones (2015). La loi de Moore : la vie de Gordon Moore, le révolutionnaire tranquille de la Silicon Valley . New York : livres de base.
  • Tuomi, Ilkka (2002). La vie et la mort de la loi de Moore . Premier lundi 7(11), novembre 2002. https://doi.org/10.5210/fm.v7i11.1000

Liens externes