Perché non abbiamo CPU a 128 bit

click fraud protection

Siamo passati da 8 bit, a 16 bit, a 32 bit e abbiamo terminato le cose a 64 bit. Ecco perché non esistono CPU a 128 bit.

Tra le parole del vocabolario informatico, bit è sicuramente una delle più conosciute. Intere generazioni di console per videogiochi e i loro stili artistici pixelati sono definiti da bit (come 8 bit e 16 bit) e molte applicazioni offrono sia versioni a 32 bit che a 64 bit.

Se guardi quella storia, puoi vedere che la nostra capacità di gestire i bit è aumentata nel corso degli anni. Tuttavia, mentre i chip a 64 bit sono stati introdotti per la prima volta negli anni '90 e sono diventati mainstream negli anni 2000, noi non hanno ancora CPU a 128 bit. Sebbene 128 possa sembrare un passo naturale dopo 64, non è niente Ma.

Cos'è un po'?

Prima di parlare del motivo per cui non esistono CPU a 128 bit, dobbiamo parlare di cosa sia un bit. Essenzialmente, si riferisce alle capacità della CPU. Formato dalle parole binario e cifra, è l'unità più piccola dell'informatica e il punto di partenza di tutta la programmazione. Un bit può essere definito solo come 1 o 0 (quindi binario), sebbene questi numeri possano essere interpretati come vero o falso, acceso o spento e persino come segno più o segno meno.

Di per sé, un singolo bit non è molto utile, ma usare più bit è una storia diversa perché una combinazione di uno e zero può essere definita come qualcosa, come un numero, una lettera o un altro carattere. Per l'elaborazione a 128 bit, siamo interessati solo agli interi (numeri che non hanno un punto decimale) e più bit ci sono, più numeri può definire un processore. Utilizza una formula 2^x piuttosto semplice, dove x indica il numero di bit presenti. Nell'elaborazione a 4 bit, il numero intero più grande su cui puoi contare è 15, che è uno inferiore al 16 fornito dalla formula, ma i programmatori iniziano a contare da 0 e non da 1.

Se 4 bit possono memorizzare solo 16 numeri interi diversi, potrebbe non sembrare che passare a 8 o 32 o anche 128 bit sarebbe un grosso problema. Ma qui abbiamo a che fare con numeri esponenziali, il che significa che le cose iniziano lentamente ma poi decollano molto rapidamente. Per dimostrarlo, ecco una piccola tabella che mostra i più grandi numeri interi che puoi calcolare in binario da 1 a 128 bit.

Morso

Numero intero massimo

1 bit

1

2 bit

3

4 bit

15

8 bit

255

16 bit

65,535

32 bit

4,294,967,295

64 bit

18,446,744,073,709,551,615

128 bit

340,282,366,920,938,463,463,374,607,431,768,211,455

Quindi ora probabilmente puoi capire perché raddoppiando la quantità di bit si ottiene la capacità di gestire numeri che non solo raddoppiano in termini di dimensioni ma sono ordini di grandezza più grandi. Tuttavia, anche se l'elaborazione a 128 bit ci consentirebbe di lavorare su numeri molto più grandi rispetto all'elaborazione a 64 bit, continuiamo a non utilizzarla.

Come siamo passati da 1 bit a 64 bit

Fonte: AMD

È abbastanza chiaro il motivo per cui le CPU sono passate da 1 bit a più bit: volevamo che i nostri computer facessero più cose. Non c'è molto che puoi fare con uno, due o quattro bit, ma al limite degli 8 bit, le macchine arcade, le console di gioco e i computer domestici sono diventati fattibili. Nel corso del tempo, i processori sono diventati più economici da produrre e fisicamente più piccoli, quindi aggiungere l'hardware necessario per aumentare il numero di bit che la CPU poteva gestire è stata una mossa abbastanza naturale.

La natura esponenziale dei bit diventa evidente molto rapidamente quando si confrontano le console a 16 bit come SNES e Sega Genesis con i loro predecessori a 8 bit, principalmente il NES. Super Mario Bros 3 era uno dei giochi per NES più complessi in termini di meccanica e grafica, ed era completamente sminuito Il mondo di SuperMario, che è stato rilasciato solo due anni dopo (anche se anche qui i miglioramenti nella tecnologia GPU sono stati un fattore chiave).

Non abbiamo ancora CPU a 128 bit, anche se sono passati quasi tre decenni da quando i primi chip a 64 bit sono arrivati ​​sul mercato.

Ma non si tratta solo di videogiochi; praticamente tutto stava migliorando con più bit. Passare da 256 numeri a 8 bit a 65.356 numeri a 16 bit significava monitorare il tempo in modo più preciso, mostrare più colori sui display e gestire file più grandi. Che tu stia utilizzando un personal computer IBM, dotato di CPU Intel 8088 a 8 bit, o costruendo un server per un'azienda pronta per essere online, più bit sono semplicemente migliori.

L'industria è passata piuttosto rapidamente dai sistemi a 16 bit a quelli a 32 bit e, infine, a 64 bit, che sono diventati mainstream tra la fine degli anni '90 e l'inizio degli anni 2000. Alcune delle prime CPU a 64 bit più importanti furono trovate nel Nintendo 64 e nei computer alimentati da Athlon 64 e Opteron di AMD CPU. Dal punto di vista software, la tecnologia a 64 bit ha iniziato presto a ricevere il supporto mainstream da sistemi operativi come Linux e Windows 2000. Tuttavia, non tutti i tentativi di elaborazione a 64 bit hanno avuto successo; Le CPU dei server Itanium di Intel sono state un fallimento di alto profilo e lo sono alcuni dei peggiori processori di sempre dell'azienda.

Oggi le CPU a 64 bit sono ovunque, dagli smartphone ai PC ai server. I chip con meno bit vengono ancora realizzati e possono essere desiderabili per applicazioni specifiche che non gestiscono numeri più grandi, ma sono piuttosto di nicchia. Eppure, non abbiamo ancora CPU a 128 bit, anche se sono passati quasi tre decenni da quando i primi chip a 64 bit sono arrivati ​​sul mercato.

L'informatica a 128 bit è alla ricerca di un problema da risolvere

Potresti pensare che 128 bit non sia praticabile perché è difficile o addirittura impossibile da realizzare, ma in realtà non è così. Molte parti di processori, CPU e altro sono a 128 bit o più, come i bus di memoria sulle GPU e i SIMD sulle CPU che abilitano le istruzioni AVX. Stiamo parlando specificamente della capacità di gestire numeri interi a 128 bit e, anche se nei laboratori di ricerca sono stati creati prototipi di CPU a 128 bit, nessuna azienda ha effettivamente lanciato una CPU a 128 bit. La risposta potrebbe essere deludente: una CPU a 128 bit non è molto utile.

Una CPU a 64 bit può gestire oltre 18 quintilioni di numeri univoci, da 0 a 18.446.744.073.709.551.615. Al contrario, una CPU a 128 bit sarebbe in grado di gestire oltre 340 undecillioni di numeri, e ti garantisco che non hai mai visto "undecillion" in tutta la tua vita. Trovare un utilizzo per calcolare numeri con così tanti zeri è piuttosto impegnativo, anche se ne stai utilizzando uno i bit per firmare l'intero, che avrebbe il suo intervallo da meno 170 undecillion a positivo 170 undecillion.

Gli unici casi d'uso significativi per gli interi a 128 bit sono gli indirizzi IPv6, identificatori univoci universali (o UUID) utilizzati per creare ID univoci per gli utenti (Minecraft è un caso d'uso di alto profilo per UUID) e file system come ZFS. Il fatto è che le CPU a 128 bit non sono necessarie per gestire queste attività, che sono state in grado di esistere perfettamente su hardware a 64 bit. In definitiva, il motivo principale per cui non abbiamo CPU a 128 bit è che non c'è richiesta di un ecosistema hardware-software a 128 bit. L'industria potrebbe certamente farcela se volesse, ma semplicemente non ce la fa.

La porta è leggermente aperta per i 128 bit

Fonte: Siemens

Sebbene le CPU a 128 bit non siano una cosa oggi, e sembra che nessuna azienda ne rilascerà una presto, non arriverei al punto di dire che le CPU a 128 bit non esisteranno mai. La specifica per RISC-VISA lascia la possibilità di un futuro a 128 bit architettura sul tavolo ma non descrive nei dettagli cosa sarebbe effettivamente, presumibilmente perché semplicemente non c'era un bisogno urgente di progettarlo.

Anche trecentoquaranta undecilioni, il numero più grande che è possibile creare con 128 bit, non sono altrettanto poiché ci sono atomi nell'universo, che è considerato il numero più grande che abbia qualsiasi mondo reale significato. Se mai volessi simulare una buona parte dell'universo fino al livello atomico, allora forse una CPU a 128 bit sarebbe davvero utile per questo. Oltre a ciò, è difficile dire a cosa verrebbe utilizzata una CPU a 128 bit, ma molti anni fa ci chiedevamo anche a cosa potresti volere un terabyte di RAM.