Wir gingen von 8-Bit über 16-Bit zu 32-Bit und beendeten die Sache bei 64-Bit. Aus diesem Grund gibt es keine 128-Bit-CPUs.
Unter den Wörtern des Computervokabulars ist Bit sicherlich eines der bekanntesten. Ganze Generationen von Videospielkonsolen und ihre pixeligen Grafikstile werden durch Bits definiert (z. B. 8-Bit und 16-Bit) und viele Anwendungen bieten sowohl 32-Bit- als auch 64-Bit-Versionen an.
Wenn Sie sich diese Geschichte ansehen, können Sie sehen, dass unsere Fähigkeit, mit Bits umzugehen, im Laufe der Jahre zugenommen hat. Während 64-Bit-Chips erstmals in den 90er Jahren eingeführt wurden und in den 2000er Jahren zum Mainstream wurden, haben wir Ich habe immer noch keine 128-Bit-CPUs. Obwohl 128 nach 64 wie ein natürlicher Schritt erscheinen mag, ist es alles Aber.
Was ist überhaupt ein bisschen?
Bevor wir darüber sprechen, warum es keine 128-Bit-CPUs gibt, müssen wir darüber sprechen, was ein Bit überhaupt ist. Im Wesentlichen bezieht es sich auf die Fähigkeiten der CPU. Es setzt sich aus den Wörtern „Binär“ und „Ziffer“ zusammen und ist die kleinste Einheit in der Informatik und der Ausgangspunkt aller Programmierungen. Ein Bit kann nur als 1 oder 0 (also binär) definiert werden, obwohl diese Zahlen als wahr oder falsch, ein oder aus und sogar als Pluszeichen oder Minuszeichen interpretiert werden können.
Ein einzelnes Bit allein ist nicht sehr nützlich, aber die Verwendung mehrerer Bits ist eine andere Sache, da eine Kombination aus Einsen und Nullen als etwas definiert werden kann, beispielsweise als Zahl, Buchstabe oder anderes Zeichen. Beim 128-Bit-Computing sind wir nur an Ganzzahlen (Zahlen ohne Dezimalpunkt) interessiert, und je mehr Bits vorhanden sind, desto mehr Zahlen kann ein Prozessor definieren. Es verwendet eine ziemlich einfache 2^x-Formel, wobei x die Anzahl der Bits angibt. Beim 4-Bit-Computing ist die größte Ganzzahl, bis zu der Sie zählen können, 15, was eins niedriger ist als die 16, die Ihnen die Formel gibt, aber Programmierer beginnen mit dem Zählen bei 0 und nicht bei 1.
Wenn 4-Bit nur 16 verschiedene Ganzzahlen speichern kann, scheint es nicht so, als wäre die Umstellung auf 8-, 32- oder sogar 128-Bit eine allzu große Sache. Aber wir haben es hier mit exponentiellen Zahlen zu tun, das heißt, die Dinge beginnen langsam, nehmen dann aber sehr schnell Fahrt auf. Um dies zu veranschaulichen, finden Sie hier eine kleine Tabelle mit den größten Ganzzahlen, die Sie binär von 1 bis 128 Bit berechnen können.
Bisschen |
Maximale Ganzzahl |
---|---|
1-Bit |
1 |
2-Bit |
3 |
4-Bit |
15 |
8 Bit |
255 |
16-Bit |
65,535 |
32-Bit |
4,294,967,295 |
64-Bit |
18,446,744,073,709,551,615 |
128-Bit |
340,282,366,920,938,463,463,374,607,431,768,211,455 |
Jetzt können Sie wahrscheinlich verstehen, warum die Verdoppelung der Bitanzahl dazu führt, dass Zahlen verarbeitet werden können, deren Größe sich nicht nur verdoppelt, sondern um Größenordnungen größer ist. Doch obwohl wir mit der 128-Bit-Berechnung viel größere Zahlen bearbeiten könnten als mit der 64-Bit-Berechnung, nutzen wir sie immer noch nicht.
Wie wir von 1-Bit auf 64-Bit umgestiegen sind
Quelle: AMD
Es ist ziemlich klar, warum CPUs von 1-Bit-Prozessoren auf mehr Bits umgestiegen sind: Wir wollten, dass unsere Computer mehr Aufgaben erledigen. Mit einem, zwei oder vier Bits kann man nicht viel machen, aber mit der 8-Bit-Marke wurden Arcade-Automaten, Spielekonsolen und Heimcomputer machbar. Mit der Zeit wurden Prozessoren immer billiger in der Herstellung und kleiner, daher war es ein ganz natürlicher Schritt, die erforderliche Hardware hinzuzufügen, um die Anzahl der Bits zu erhöhen, die die CPU verarbeiten konnte.
Die exponentielle Natur von Bits wird sehr schnell deutlich, wenn man 16-Bit-Konsolen wie das SNES und das Sega Genesis mit ihren 8-Bit-Vorgängern, hauptsächlich dem NES, vergleicht. Super Mario Bros. 3 war eines der komplexesten Spiele des NES in Bezug auf Mechanik und Grafik und wurde völlig in den Schatten gestellt Super Mario Welt, das nur zwei Jahre später veröffentlicht wurde (obwohl auch Verbesserungen in der GPU-Technologie hier ein entscheidender Faktor waren).
Wir haben immer noch keine 128-Bit-CPUs, obwohl es fast drei Jahrzehnte her ist, seit die ersten 64-Bit-Chips auf den Markt kamen.
Es geht jedoch nicht nur um Videospiele; Mit mehr Bits wurde so ziemlich alles besser. Der Wechsel von 256 Zahlen in 8-Bit zu 65.356 Zahlen in 16-Bit bedeutete eine genauere Zeiterfassung, die Anzeige von mehr Farben auf Displays und die Bearbeitung größerer Dateien. Ganz gleich, ob Sie den Personal Computer von IBM verwenden, der von der 8-Bit-8088-CPU von Intel angetrieben wird, oder einen Server für ein Unternehmen bauen, das bereit ist, online zu gehen, mehr Bits sind einfach besser.
Die Branche entwickelte sich recht schnell von der 16-Bit- zur 32-Bit- und schließlich zur 64-Bit-Technik, die in den späten 90er- und frühen 2000er-Jahren zum Mainstream wurde. Einige der wichtigsten frühen 64-Bit-CPUs befanden sich im Nintendo 64 und in Computern mit AMDs Athlon 64 und Opteron CPUs. Auf der Softwareseite erhielt 64-Bit schon früh allgemeine Unterstützung von Betriebssystemen wie Linux und Windows 2000er Jahre. Allerdings waren nicht alle Versuche mit 64-Bit-Computing erfolgreich; Intels Itanium-Server-CPUs waren und sind ein öffentlichkeitswirksamer Fehlschlag einige der schlechtesten Prozessoren des Unternehmens überhaupt.
Heutzutage sind 64-Bit-CPUs überall zu finden, von Smartphones über PCs bis hin zu Servern. Chips mit weniger Bits werden immer noch hergestellt und können für bestimmte Anwendungen, die keine größeren Zahlen verarbeiten, wünschenswert sein, sind aber eher eine Nische. Dennoch haben wir immer noch keine 128-Bit-CPUs, obwohl es fast drei Jahrzehnte her ist, seit die ersten 64-Bit-Chips auf den Markt kamen.
128-Bit-Computing sucht nach einem Problem, das es zu lösen gilt
Man denkt vielleicht, dass 128-Bit nicht realisierbar ist, weil es schwierig oder sogar unmöglich ist, aber das ist tatsächlich nicht der Fall. Viele Teile in Prozessoren, CPUs und anderen Bereichen sind 128-Bit oder größer, wie Speicherbusse auf GPUs und SIMDs auf CPUs, die AVX-Anweisungen ermöglichen. Konkret geht es um die Fähigkeit, 128-Bit-Ganzzahlen zu verarbeiten, und obwohl 128-Bit-CPU-Prototypen in Forschungslabors erstellt wurden, hat noch kein Unternehmen tatsächlich eine 128-Bit-CPU auf den Markt gebracht. Die Antwort könnte enttäuschend sein: Eine 128-Bit-CPU ist einfach nicht sehr nützlich.
Eine 64-Bit-CPU kann über 18 Billionen eindeutige Zahlen von 0 bis 18.446.744.073.709.551.615 verarbeiten. Im Gegensatz dazu wäre eine 128-Bit-CPU in der Lage, über 340 Undecillion-Zahlen zu verarbeiten, und ich garantiere Ihnen, dass Sie „Undecillion“ in Ihrem ganzen Leben noch nie gesehen haben. Es ist eine ziemliche Herausforderung, eine Verwendung für die Berechnung von Zahlen mit so vielen Nullen zu finden, selbst wenn Sie eine davon verwenden die Bits zum Vorzeichen der Ganzzahl, deren Bereich von minus 170 undezillion bis positiv 170 liegen würde undecillion.
Die einzigen wesentlichen Anwendungsfälle für 128-Bit-Ganzzahlen sind IPv6-Adressen, universell eindeutige Identifikatoren (oder UUID), die zum Erstellen eindeutiger IDs für Benutzer verwendet werden (Minecraft ist ein hochkarätiger Anwendungsfall für UUID) und Dateisysteme wie ZFS. Die Sache ist, dass 128-Bit-CPUs nicht notwendig sind, um diese Aufgaben zu bewältigen, die auf 64-Bit-Hardware problemlos funktionieren konnten. Letztendlich ist der Hauptgrund dafür, dass wir keine 128-Bit-CPUs haben, dass es keine Nachfrage nach einem 128-Bit-Hardware-Software-Ökosystem gibt. Die Industrie könnte es sicherlich schaffen, wenn sie wollte, aber sie schafft es einfach nicht.
Die Tür ist für 128-Bit leicht geöffnet
Quelle: Siemens
Auch wenn 128-Bit-CPUs heutzutage keine Rolle mehr spielen und es den Anschein hat, dass kein Unternehmen in absehbarer Zeit eine solche veröffentlichen wird, würde ich nicht so weit gehen zu sagen, dass es niemals 128-Bit-CPUs geben wird. Die Spezifikation für die RISC-V ISA lässt die Möglichkeit eines zukünftigen 128-Bit die Architektur auf dem Tisch, beschreibt aber nicht, wie es eigentlich aussehen würde, vermutlich weil es einfach keinen dringenden Bedarf gab, es zu entwerfen.
Dreihundertvierzig Undezillionen, die größtmögliche Zahl, die mit 128 Bit erzeugt werden kann, sind auch nicht annähernd so viel Da es im Universum Atome gibt, gilt dies als die größte Zahl, die es in der realen Welt gibt Bedeutung. Wenn Sie jemals einen guten Teil des Universums bis auf die atomare Ebene simulieren wollten, dann wäre eine 128-Bit-CPU vielleicht wirklich nützlich dafür. Darüber hinaus ist es schwer zu sagen, wofür eine 128-Bit-CPU verwendet werden würde, aber vor vielen Jahren haben wir uns auch gefragt, wofür man sich ein Terabyte RAM wünschen könnte.