Accueil / Actualités / Insolite / L’informatique, le défi des chiffres !

L’informatique, le défi des chiffres !

L’informatique et l’astronomie ont un point commun, les chiffres. Les unités de mesure usuelles sont très vite mises à rude épreuve et cèdent leur place aux millions et milliards. En 40 ans les progrès ont été faramineux.

Le progrès technologique en informatique s’accompagne d’un ballet de chiffres sans cesse en augmentation, à tel point que l’unité de base, le célèbre 1, est vite dépassée par les événements et se voit remplacer par million ou milliard, des quantités qui mettent au défi l’imagination tant il est difficile, voire impossible, de réellement se les représenter.  Chaque semaine au travers de GinjFo, nous abordons des capacités de stockage, des puissances de calcul ou encore le nombre de transistors contenus sur une puce où le milliard est l’unité de base, utilisé de façon naturelle et pourtant, il n’y a pas si longtemps les choses étaient bien différentes.

En 1971, Intel sortait son premier microprocesseur, le 4004, équipé de seulement 2300 transistors et en 2011 le futur Ivy Bridge comportera 2,9 milliards de transistors ! En quarante ans, l’évolution est tout de même impressionnante et tient son salut dans la miniaturisation. La surface de gravure ne cesse de devenir plus fine et nous sommes désormais à l’échelle du milliardième de mètre.

Les choses ne vont pas s’arrêter en si bon chemin. En 1969, l’ordinateur qui équipait Apollo 11 tournait à 1 Mhz soit une puissance inférieure à un smartphone d’aujourd’hui. D’ici dix ans, la future architecture exascale des supercalculateurs atteindra des milliards de milliards d’opérations par seconde… Arriverons-nous un jour à une limite infranchissable ?

À propos Jérôme Gianoli

Journaliste issu d’une formation scientifique. Aime l'innovation, la High Tech et le développement durable. Soucieux du respect de la vie privée.

Laisser une réponse

Votre adresse email ne sera pas publiéeLes champs requis sont surlignés *

*