Citation :
Bonjour ! Grâce à une connaissance encyclopédique et, accessoirement, à une requête habile sur Google, je tente de vous répondre:
Un bit étant une unité plutôt maigrichonne (2 valeurs possibles), le principe d'utiliser un "tupple" de bits comme unité informatique s'est très vite imposé comme évidence. Mais quel tupple ? un quartet (16 valeurs différentes) ? un octet (256 valeurs différentes) ? Plus ?
En fait, c'est l'architecture matérielle des premiers ordinateurs qui en a décidé, et plus particulièrement la taille de leurs registres. L'informatique "grand public" a commencé d'exploser à l'heure des processeurs 8 bits. A cette époque, les ordinateurs géraient leurs opérations internes par "bouchées" de 8 bits (en anglais, morsure = "bite" ) puisque leurs registres internes, là où sont stockées les données en cours de traitement, avaient une "largeur" de 8 bits. L'équivalence 1 morsure (bite) = 8 bits s'est donc figée dans l'inconscient collectif. Et pour atténuer la source de confusion bite / bit, le terme s'est transformé en "byte". Comme vous le comprenez, un "byte" est donc, en théorie, un tupple de bits correspondant à la capacité de traitement d'un processeur. Ce n'est que le poids de l'histoire qui a associé ce byte a un tupple de 8 bits, comme cela se vérifiait à l'époque de l'IBM PC, alors qu'aujourd'hui, nos processeurs "mâchent" par bouchées de 64 bits.
|