Unterschied zwischen bit un gb

Unterschied zwischen bit un gb

Dieser Artikel erläutert das Byte in der Informationstechnik. Für weitere Bedeutungen siehe Byte (Begriffsklärung).

Das Byte ([baɪt]; wohl gebildet zu „Bit“)[1] ist eine Maßeinheit der Digitaltechnik und der Informatik, welches meist für eine Folge aus 8 Bit steht.

Historisch gesehen war ein Byte die Anzahl der Bits zur Kodierung eines einzelnen Schriftzeichens im jeweiligen Computersystem und daher das kleinste adressierbare Element in vielen Rechnerarchitekturen.

Um ausdrücklich auf eine Anzahl von 8 Bit hinzuweisen, wird auch die Bezeichnung Oktett (in Frankreich octet) verwendet – die früher dafür ebenfalls gängige Bezeichnung Oktade ist hingegen nicht mehr geläufig.

Was genau ein Byte bezeichnet, wird je nach Anwendungsgebiet etwas unterschiedlich definiert. Der Begriff kann stehen für:

  • eine Maßeinheit für eine Datenmenge von 8 Bit mit dem Einheitenzeichen „B“,[2] wobei es nicht auf die Ordnung der einzelnen Bits ankommt.
    Das Einheitszeichen sollte nicht mit dem zur Einheit Bel gehörenden Einheitszeichen „B“ verwechselt werden.
  • eine geordnete Zusammenstellung (n-Tupel) von 8 Bit, deren formale ISO-konforme Bezeichnung Oktett ist (1 Byte = 8 Bit). Ein Oktett wird manchmal in zwei Hälften (Nibbles) zu je 4 Bit zerlegt, wobei jedes Nibble durch eine hexadezimale Ziffer darstellbar ist. Ein Oktett kann also durch zwei Hexadezimalziffern dargestellt werden.
  • die kleinste, meist per Adressbus adressierbare, Datenmenge eines bestimmten technischen Systems. Die Anzahl an Bits pro Zeichen ist dabei fast immer eine natürliche Zahl. Beispiele:
    • bei Telex: 1 Zeichen = 5 Bit
    • bei Rechnern der Familien PDP: 1 Zeichen = log 2 ⁡ ( 50 ) {\displaystyle \log _{2}(50)}   Bit = zirka 5,644 Bit (Radix-50-Code). Ergibt gegenüber 6 Bit eine Ersparnis von wenigen Bits pro Zeichenkette, die beispielsweise für Steuerungszwecke genutzt werden können. Allerdings gehen die Byte-Grenzen mitten durch die Bits, was die Analyse von Inhalten erschweren kann.
    • bei IBM 1401: 1 Zeichen = 6 Bit
    • bei ASCII: 1 Zeichen = 7 Bit
    • bei IBM-PC: 1 Zeichen = 8 Bit = 1 Oktett
    • bei Nixdorf 820: 1 Zeichen = 12 Bit
    • bei Rechnersystemen der Typen UNIVAC 1100/2200 und OS2200 Series: 1 Zeichen = 9 Bit (ASCII-Code) beziehungsweise 6 Bit (FIELDATA-Code)
    • bei Rechnern der Familie PDP-10: 1 Zeichen = 1…36 Bit, Bytelänge frei wählbar
  • einen Datentyp in Programmiersprachen. Die Anzahl an Bits pro Byte kann je nach Programmiersprache und Plattform variieren (meistens 8 Bit).
  • ISO-C99 definiert 1 Byte als eine zusammenhängende Folge von mindestens 8 Bit.[3]

Bei den meisten heutigen Rechnern fallen diese Definitionen (kleinste adressierbare Einheit, Datentyp in Programmiersprachen, C-Datentyp) zu einer einzigen zusammen und sind dann von identischer Größe.

Der Begriff „Byte“ wird aufgrund der großen Verbreitung von Systemen, die auf acht Bit (beziehungsweise Zweierpotenzvielfache davon) basieren, für die Bezeichnung einer 8 Bit breiten Größe verwendet, die in formaler Sprache (entsprechend ISO-Normen) aber korrekt Oktett (aus englisch octet) heißt. Als Maßeinheit bei Größenangaben wird in der deutschen Sprache der Begriff „Byte“ (im Sinne von 8 bit) verwendet. Bei der Übertragung kann ein Byte parallel (alle Bits gleichzeitig) oder seriell (alle Bits nacheinander) übertragen werden. Zur Sicherung der Richtigkeit werden oft Prüfbits angefügt. Bei der Übertragung größerer Mengen sind weitere Kommunikationsprotokolle möglich. So werden bei 32-Bit-Rechnern oft 32 Bits (vier Byte) gemeinsam in einem Schritt übertragen, auch wenn nur ein 8-Bit-Tupel übertragen werden muss. Das ermöglicht eine Vereinfachung der zur Berechnung erforderlichen Algorithmen und einen kleineren Befehlssatz des Computers.

Wie bei anderen Maßeinheiten gibt es neben dem ausgeschriebenen Namen der Maßeinheiten jeweils auch ein Einheitenkürzel. Bei Bit und Byte sind dies:

Kürzel ausgeschriebener Name
bit (selten „b“) Bit
B (selten „byte“) Byte

Der ausgeschriebene Name unterliegt grundsätzlich der normalen Deklination. Aufgrund der großen Ähnlichkeit der Kürzel mit den ausgeschriebenen Einheitennamen sowie entsprechender Pluralformen in der englischen Sprache werden jedoch gelegentlich auch die Einheitenkürzel „bit“ und „byte“ mit Plural-s versehen.

Das Bit ist ein Kofferwort aus den englischen Wörtern binary und digit,[4] heißt also „zweiwertige Ziffer“ – Null oder Eins. Dessen Bestandteile lassen sich auf die lateinischen Wörter digitus (Finger), den bzw. die man seit der Antike zum Zählen verwendet (vgl. Plautus: computare digitis), und lateinisch (genauer neulateinisch) binarius (zweifach), vergleiche lateinisch bis (zweimal), zurückführen.

Das Byte ist zudem ein Kunstwort und wurde wohl aus dem englischen bit[1] (deutsch „[das] Bisschen“ oder „Häppchen“) und bite (zu deutsch: „[der] Bissen“ oder „Happen“) gebildet.[5] Verwendet wurde es, um eine Speichermenge oder Datenmenge zu kennzeichnen, die ausreicht, um ein Zeichen darzustellen. Der Begriff wurde im Juni 1956 von Werner Buchholz in einer frühen Designphase des IBM-7030-Stretch-Computers geprägt,[6][7][8] wobei die Schreibweise von bite zu byte geändert wurde, um zu vermeiden, dass es sich versehentlich zu bit ändere.[9] Im Original beschrieb es eine wählbare Breite von ein bis sechs Bits (damit konnten 2 6 = 64 {\displaystyle 2^{6}=64}   Zustände, z. B. Zeichen, dargestellt werden) und stellte die kleinste direkt adressierbare Speichereinheit eines entsprechenden Computers dar.[10][11][12] Im August 1956 wurde die Definition auf ein bis acht Bits aufgeweitet (damit konnten dann 2 8 = 256 {\displaystyle 2^{8}=256}   Zeichen dargestellt werden).[12][13][14] So konnte man die Buchstaben und gängige Sonderzeichen zum Beispiel in Quelltexten von Programmen oder anderen Texten speichern (also verschiedene Zeichen).

In den 1960er Jahren wurde der sich in seiner Verwendung schnell ausbreitende ASCII definiert, welcher sieben Bits zur Kodierung eines Zeichens verwendet (das sind 2 7 = 128 {\displaystyle 2^{7}=128}   Zeichen). Später wurden durch Nutzung des meist sowieso vorhandenen achten (höchstwertigen) Bits erweiterte, auf dem ASCII basierende Zeichensätze entwickelt, die auch die häufigsten internationalen Diakritika abbilden können, wie zum Beispiel die Codepage 437. In diesen erweiterten Zeichensätzen entspricht jedes Zeichen exakt einem Byte mit acht Bit, wobei die ersten 128 Zeichen exakt dem ASCII entsprechen.

In den 1960er und 1970er Jahren war in Westeuropa auch die Bezeichnung Oktade geläufig, wenn speziell 8 Bit gemeint waren. Diese Bezeichnung geht möglicherweise auf den niederländischen Hersteller Philips zurück, in dessen Unterlagen zu Mainframe-Computern sich die Bezeichnung Oktade (bzw. englisch oktad[s]) regelmäßig findet.[15][16]

Seit Anfang der 1970er Jahre gibt es 4-Bit-Mikroprozessoren, deren 4-Bit-Datenwörter (auch Nibbles genannt) mit hexadezimalen Ziffern dargestellt werden können. 8-Bit-Prozessoren wurden schon kurz nach der Erfindung der Programmiersprachen C und Pascal eingeführt, also Anfang der 1970er Jahre, und waren in Heimcomputern bis in die 1980er Jahre im Einsatz (bei eingebetteten Systemen auch heute noch), deren 8-Bit-Datenwörter (respektive Bytes) mit genau zwei hexadezimalen Ziffern dargestellt werden können. Seitdem hat sich die Breite der Datenwörter von Hardware von 4 über 8, 16, 32 bis heute zu 64 und 128 Bit hin immer wieder verdoppelt.

Zur Unterscheidung der ursprünglichen Bedeutung als kleinste adressierbare Informationseinheit und der Bedeutung als 8-Bit-Tupel wird in der Fachliteratur (abhängig vom Fachgebiet) korrekterweise auch der Begriff Oktett für letzteres benutzt, um eine klare Trennung zu erzielen.

In der elektronischen Datenverarbeitung bezeichnet man die kleinstmögliche Speichereinheit als Bit. Ein Bit kann zwei mögliche Zustände annehmen, die meist als „Null“ und „Eins“ bezeichnet werden. In vielen Programmiersprachen wird für ein einzelnes Bit der Datentyp „boolean“ (respektive „Boolean“ oder „BOOLEAN“) verwendet. Aus technischen Gründen erfolgt die tatsächliche Abbildung eines Boolean aber meist in Form eines Datenwortes („WORD“).

Acht solcher Bits werden zu einer Einheit – sozusagen einem Datenpäckchen – zusammengefasst und allgemein Byte genannt. Die offizielle ISO-konforme Bezeichnung lautet dagegen Oktett: 1 Oktett = 1 Byte = 8 Bit. Viele Programmiersprachen unterstützen einen Datentyp mit dem Namen „byte“ (respektive „Byte“ oder „BYTE“), wobei zu beachten ist, dass dieser je nach Definition als ganze Zahl, als Bitmenge, als Element eines Zeichensatzes oder bei typunsicheren Programmiersprachen sogar gleichzeitig für mehrere dieser Datentypen verwendet werden kann, sodass keine Zuweisungskompatibilität mehr gegeben ist.

Das Byte ist die Standardeinheit, um Speicherkapazitäten oder Datenmengen zu bezeichnen. Dazu gehören Dateigrößen, die Kapazität von permanenten Speichermedien (Festplattenlaufwerke, CDs, DVDs, Blu-ray Discs, Disketten, USB-Massenspeichergeräte usw.) und die Kapazität von vielen flüchtigen Speichern (zum Beispiel Arbeitsspeicher). Übertragungsraten (zum Beispiel die maximale Geschwindigkeit eines Internet-Anschlusses) gibt man dagegen üblicherweise auf der Basis von Bits an.

Hauptartikel: Vorsätze für Maßeinheiten

Für Datenspeicher mit binärer Adressierung ergeben sich technisch Speicherkapazitäten basierend auf Zweierpotenzen (2n Byte). Da es bis 1996 keine speziellen Einheitenvorsätze für Zweierpotenzen gab, war es üblich, die eigentlich dezimalen SI-Präfixe im Zusammenhang mit Speicherkapazitäten zur Bezeichnung von Zweierpotenzen zu verwenden (mit Faktor 210 = 1024 statt 1000). Heutzutage sollten die Präfixe nur noch in Verbindung mit der dezimalen Angabe der Speichergrößen benutzt werden. Ein Beispiel:

  • 1 Kilobyte (kB) = 1000 Byte, 1 Megabyte (MB) = 1000 Kilobyte = 1000 × 1000 Byte = 1.000.000 Byte und so weiter

Bei Hard Drive Disks, SSD-Laufwerken und anderen Speichermedien ist dies weit verbreitet, während die Größe von Arbeitsspeicher (RAM), Grafikspeicher und Prozessor-Cache nur binär angegeben werden kann, da die entsprechenden Systeme technisch binär arbeiten. Auch Microsoft Windows zeigt noch heute die SI-Präfixe an, obwohl es Größenangaben mit Zweierpotenzen berechnet.

Vereinzelt kommen auch Mischformen vor, etwa bei der Speicherkapazität einer 3,5-Zoll-Diskette (1984):

  • Angezeigt: 1,44 MB ⇒ Aber es sind: 1440 KiB = 1440 × 1024 Byte = 1.474.560 Byte.

Zu den heute empfohlenen, aber außerhalb der Unix-Welt (inkl. davon abgeleiteten Unix-artigen Systemen) nur wenig verwendeten Vorsätzen für binäre Größenangaben siehe nachfolgenden Abschnitt Binär- oder IEC-Präfixe.

Binär- oder IEC-Präfixe

Hauptartikel: Binär- oder IEC-Präfixe

Um Mehrdeutigkeiten zu vermeiden, schlug die IEC 1996 neue Einheitenvorsätze vor, die nur in der binären Bedeutung verwendet werden sollten.[17] Dabei wird eine den SI-Präfixen ähnlich lautende Vorsilbe ergänzt um die Silbe „bi“, die klarstellt, dass es sich um binäre Vielfache handelt. Ein Beispiel:

  • 1 Kibibyte (KiB) = 1024 Byte, 1 Mebibyte (MiB) = 1024 × 1024 Byte = 1.048.576 Byte.

Das für die SI-Präfixe zuständige Internationale Büro für Maß und Gewicht (BIPM) empfiehlt diese Schreibweise,[18] auch wenn es nicht für Byte zuständig ist, da dies keine SI-Einheit ist. Dessen ungeachtet haben sich viele Standardisierungsorganisationen dieser Empfehlung angeschlossen.

Unter Unix-artigen Systemen finden sich oft die abweichenden einsilbigen großgeschriebenen Vorsätze als Abkürzungen, also z. B. K für KiB und M für MiB.

Vergleich

Vor allem weil die Speicher-Kapazitäten der Hersteller meist nur mit SI-Präfix angegeben sind, kann es gerade in Verbindung mit Microsoft-Systemen zu Verwirrung kommen. Denn Microsoft rechnet für Datengrößen immer mit Zweierpotenzen, gibt diese dann aber mit Hilfe der SI-Präfixe an. So wird also ein 128-GB-Speichermedium als 119,2 GB angezeigt, obwohl es laut IEC 119,2 GiB lauten müsste. Hinzu kommt die Verwirrung der Benutzer, dass laut Microsoft 120 GB (eigentlich 120 GiB) nicht auf ein mit 128 GB beworbenes Speichermedium passen und ein Fehler ausgegeben wird. Vergleich:

  • (128 GB = 128.000.000.000 Byte) < (120 GiB = 128.849.018.880 Byte = 120 × 1024 × 1024 × 1024 Byte)

Für größere Dezimal- und Binärpräfixe wird die Unterscheidung größer, da die nominelle Differenz größer wird. Von einem Präfix zum Nächsten wird das Verhältnis von Binär zu Dezimal um einen Faktor 2 10 / 10 3 {\displaystyle 2^{10}/10^{3}}   größer. So beträgt sie zwischen KiB und kB 2,4 %, zwischen TiB und TB hingegen bereits 10,0 % (Prozentangaben auf 1 Nachkommastelle gerundet). Eine anschauliche Übersicht über die möglichen Einheitenvorsätze und deren Bedeutungen bietet die Vergleichstabelle.

Kapazitätsangaben bei Speichermedien

Die Hersteller von Massenspeichermedien, wie Festplatten, DVD-Rohlingen und USB-Speicher-Sticks, verwenden die Dezimal-Präfixe, wie es bei internationalen Maßeinheiten üblich ist, um die Speicherkapazität ihrer Produkte anzugeben. Daraus ergibt sich beispielsweise das Problem, dass ein mit „4,7 GB“ gekennzeichneter DVD-Rohling von Software, die entgegen dem oben genannten Standard (nämlich bei „GB“ die Zehnerpotenzen zu verwenden) die Zweierpotenzen verwendet (so handhabt es zum Beispiel der Windows-Explorer), mit dem abweichenden Wert von „4,38 GB“ (richtig wäre hier „4,38 GiB“ anzuzeigen) angezeigt wird, obwohl rund 4,7 Gigabyte (4.700.000.000 Byte) gemeint sind. Ebenso wird eine mit „1 TB“ spezifizierte Festplatte mit der scheinbar deutlich kleineren Kapazität von etwa „931 GB“ oder „0,9 TB“ erkannt (auch hier sollte eigentlich „931 GiB“, beziehungsweise „0,9 TiB“ angezeigt werden), obwohl jeweils rund 1,0 Terabyte (1.000.000.000.000 Byte) gemeint sind. Andererseits enthält ein mit „700 MB“ gekennzeichneter CD-Rohling tatsächlich 700 MiB (734.003.200 Byte), also etwa 734 MB (und sollte somit streng genommen mit „700 MiB“ ausgezeichnet werden).

Die Umrechnung von Größe von Datenmengen in SI-Einheiten stellt seit mehr als 30 Jahren keinerlei Probleme mehr dar. Bei visueller Darstellung auf dem Bildschirm ist der Unterschied im Rechenaufwand irrelevant, ob man durch 1000 (Division) oder 1024 (Arithmetisches Schieben) teilt. Für die weitere Umwandlung in eine Dezimal-Zeichenkette sind ohnehin Divisionen durch 10 notwendig oder man müsste „2C9 MB free“ anzeigen. Massenspeicher mit vorgeschalter komplexer Firmware lassen sich in praktisch beliebig fein abgestufter Größe herstellen, dort hat sich die Herstellung in glatten, gut vermarktbaren Größen durchgesetzt. RAM-Hauptspeicher und Cache-Speicher von CPUs, auf die in ihrer ziemlich ursprünglichen Form zugegriffen wird, werden als glatte Werte mit Binärpräfixen angegeben, SI-Präfixe wären hier hochgradig unpraktisch. Für Kunden ist dessen genaue Größe meist irrelevant, da er mit diesen Größen selten direkt in Kontakt kommt.

Apples macOS benutzt ab Version Mac OS X Snow Leopard (10.6)[19] einheitlich Dezimalpräfixe nur in dezimaler Bedeutung. KDE folgt dem IEC-Standard und lässt dem Anwender die Wahl zwischen binärer und dezimaler Angabe. Für Linux-Distributionen mit anderen Desktopumgebungen, wie zum Beispiel Ubuntu ab Version 11.04,[20] gibt es klare Richtlinien, wie Anwendungen Datenmengen angeben sollen; hier findet man beide Angaben, wobei die Binärpräfixe überwiegen.

Unix-Shells nutzen normalerweise Datenblöcke als Einheit. Optional wird auch eine lesbarere Darstellungsform, human readable bezeichnet, angeboten, normalerweise die binäre Einheit, wobei jedoch abweichend von der IEC-Vorgabe nur die Vorsätze der Maßeinheiten in Großbuchstaben als Einheit angegeben werden, also K für KiB, M für MiB usw. Es gibt jedoch auch oft die Möglichkeit, SI-Einheiten zu wählen, dann in der korrekten, jedoch großgeschriebenen Einheit, also KB, MB usw.

Vergleichstabelle

Dezimalpräfixe   Unterschied
gerundet
  Binärpräfixe gemäß IEC
Name Symbol Anzahl Bytes[G 1] Name Symbol Anzahl Bytes
Kilobyte kB[G 2] 1 000 = 1030 2,4 % Kibibyte KiB[G 3] 1 024 = 210
Megabyte MB 1 000 000 = 1060 4,9 % Mebibyte MiB 1 048 576 = 220
Gigabyte GB 1 000 000 000 = 1090 7,4 % Gibibyte GiB 1 073 741 824 = 230
Terabyte TB 1 000 000 000 000 = 1012 10,0 % Tebibyte TiB 1 099 511 627 776 = 240
Petabyte PB 1 000 000 000 000 000 = 1015 12,6 % Pebibyte PiB 1 125 899 906 842 624 = 250
Exabyte EB 1 000 000 000 000 000 000 = 1018 15,3 % Exbibyte EiB 1 152 921 504 606 846 976 = 260
Zettabyte ZB 1 000 000 000 000 000 000 000 = 1021 18,1 % Zebibyte ZiB 1 180 591 620 717 411 303 424 = 270
Yottabyte YB 1 000 000 000 000 000 000 000 000 = 1024 20,9 % Yobibyte YiB 1 208 925 819 614 629 174 706 176 = 280
  1. SI-Präfixe sind nur für SI-Einheiten standardisiert; Byte ist keine SI-Einheit
  2. wird meistens mit „KB“ abgekürzt
  3. wird oft (standardwidrig) mit „KB“ abgekürzt, mitunter um den Unterschied zu „kB“ zu kennzeichnen
  • Bytemaschine
  • Zettabyte-Ära

 Wiktionary: Byte – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

  • Prefixes for binary multiples. (englisch)
  • „Byte“ From MathWorld (englisch)
  • Konrad Lischka: Warum Festplatten plötzlich schrumpfen. Spiegel Online, 9. Februar 2009 (Reihe „Technikärgernis“).
  • UnitJuggler Konvertieren zwischen den verschiedenen Bytegrößen
  • Beispielhafte Umrechnung eines Bytes in das Dezimalsystem
  1. ↑ a b Byte – Duden, Bibliographisches Institut, 2016
  2. IEC 60027-2, Ed. 3.0, (2005–2008): Letter symbols to be used in electrical technology – Part 2: Telecommunications and electronics.
  3. Rationale for International Standard – Programming Languages – C. (PDF; 898 kB) April 2003, S. 11, abgerufen am 28. November 2009 (englisch). 
  4. Bit (Einheit in der EDV) – Duden, Bibliographisches Institut, 2016
  5. bite (Memento des Originals vom 19. November 2016 im Internet Archive)   Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.duden.de (englisch-deutsch) – Duden, Langenscheidt, 2015
  6. Werner Buchholz: 7. The Shift Matrix. In: The Link System. IBM, 11. Juni 1956, S. 5–6, Stretch Memo No. 39G. Archiviert vom Original: „[…] Most important, from the point of view of editing, will be the ability to handle any characters or digits, from 1 to 6 bits long.
    Figure 2 shows the Shift Matrix to be used to convert a 60-bit word, coming from Memory in parallel, into characters, or „bytes“ as we have called them, to be sent to the Adder serially. The 60 bits are dumped into magnetic cores on six different levels. Thus, if a 1 comes out of position 9, it appears in all six cores underneath. Pulsing any diagonal line will send the six bits stored along that line to the Adder. The Adder may accept all or only some of the bits.
    Assume that it is desired to operate on 4 bit decimal digits, starting at the right. The 0-diagonal is pulsed first, sending out the six bits 0 to 5, of which the Adder accepts only the first four (0-3). Bits 4 and 5 are ignored. Next, the 4 diagonal is pulsed. This sends out bits 4 to 9, of which the last two are again ignored, and so on.
    It is just as easy to use all six bits in alphanumeric work, or to handle bytes of only one bit for logical analysis, or to offset the bytes by any number of bits. All this can be done by pulling the appropriate shift diagonals. An analogous matrix arrangement is used to change from serial to parallel operation at the output of the adder. […]“
  7. Werner Buchholz: 5. Input-Output. In: Memory Word Length. IBM, 31. Juli 1956, S. 2, Stretch Memo No. 40. Archiviert vom Original: „[…] 60 is a multiple of 1, 2, 3, 4, 5, and 6. Hence bytes of length from 1 to 6 bits can be packed efficiently into a 60-bit word without having to split a byte between one word and the next. If longer bytes were needed, 60 bits would, of course, no longer be ideal. With present applications, 1, 4, and 6 bits are the really important cases.
    With 64-bit words, it would often be necessary to make some compromises, such as leaving 4 bits unused in a word when dealing with 6-bit bytes at the input and output. However, the LINK Computer can be equipped to edit out these gaps and to permit handling of bytes which are split between words. […]“
  8. Robert William Bemer: Why is a byte 8 bits? Or is it? In: Computer History Vignettes. 8. August 2000, archiviert vom Original am 3. April 2017; abgerufen am 15. September 2018: „[…] I came to work for IBM, and saw all the confusion caused by the 64-character limitation. Especially when we started to think about word processing, which would require both upper and lower case. […] I even made a proposal (in view of STRETCH, the very first computer I know of with an 8-bit byte) that would extend the number of punch card character codes to 256 […] So some folks started thinking about 7-bit characters, but this was ridiculous. With IBM's STRETCH computer as background, handling 64-character words divisible into groups of 8 (I designed the character set for it, under the guidance of Dr. Werner Buchholz, the man who DID coin the term „byte“ for an 8-bit grouping). […] It seemed reasonable to make a universal 8-bit character set, handling up to 256. In those days my mantra was „powers of 2 are magic“. And so the group I headed developed and justified such a proposal […] The IBM 360 used 8-bit characters, although not ASCII directly. Thus Buchholz’s „byte“ caught on everywhere. I myself did not like the name for many reasons. The design had 8 bits moving around in parallel. But then came a new IBM part, with 9 bits for self-checking, both inside the CPU and in the tape drives. I exposed this 9-bit byte to the press in 1973. But long before that, when I headed software operations for Cie. Bull in France in 1965–1966, I insisted that „byte“ be deprecated in favor of „octet“. […] It is justified by new communications methods that can carry 16, 32, 64, and even 128 bits in parallel. But some foolish people now refer to a „16-bit byte“ because of this parallel transfer, which is visible in the UNICODE set. I’m not sure, but maybe this should be called a „hextet“. […]“ 
  9. Peter Fenwick: Introduction to Computer Data Representation. In: books.google.de. S. 231, abgerufen am 2. November 2017. 
  10. Gerrit Anne Blaauw, Frederick Phillips Brooks, Jr., Werner Buchholz: Processing Data in Bits and Pieces. In: IRE Transactions on Electronic Computers. Juni 1959, S. 121.
  11. Gerrit Anne Blaauw, Frederick Phillips Brooks, Jr., Werner Buchholz: 4: Natural Data Units. In: Werner Buchholz (Hrsg.): Planning a Computer System – Project Stretch. McGraw-Hill Book Company / The Maple Press Company, York PA., 1962, S. 39–40. Archiviert vom Original: „[…] Terms used here to describe the structure imposed by the machine design, in addition to bit, are listed below.
    Byte denotes a group of bits used to encode a character, or the number of bits transmitted in parallel to and from input-output units. A term other than character is used here because a given character may be represented in different applications by more than one code, and different codes may use different numbers of bits (i. e., different byte sizes). In input-output transmission the grouping of bits may be completely arbitrary and have no relation to actual characters. (The term is coined from bite, but respelled to avoid accidental mutation to bit.)
    A word consists of the number of data bits transmitted in parallel from or to memory in one memory cycle. Word size is thus defined as a structural property of the memory. (The term catena was coined for this purpose by the designers of the Bull Gamma 60 computer.)
    Block refers to the number of words transmitted to or from an input-output unit in response to a single input-output instruction. Block size is a structural property of an input-output unit; it may have been fixed by the design or left to be varied by the program. […]“
  12. ↑ a b Werner Buchholz: The Word „Byte“ Comes of Age.... In: Byte Magazine. 2, Nr. 2, Februar 1977, S. 144. „[…] The first reference found in the files was contained in an internal memo written in June 1956 during the early days of developing Stretch. A byte was described as consisting of any number of parallel bits from one to six. Thus a byte was assumed to have a length appropriate for the occasion. Its first use was in the context of the input-output equipment of the 1950s, which handled six bits at a time. The possibility of going to 8 bit bytes was considered in August 1956 and incorporated in the design of Stretch shortly thereafter. The first published reference to the term occurred in 1959 in a paper „Processing Data in Bits and Pieces“ by G A Blaauw, F P Brooks Jr and W Buchholz in the IRE Transactions on Electronic Computers, June 1959, pages 121. The notions of that paper were elaborated in Chapter 4 of Planning a Computer System (Project Stretch), edited by W Buchholz, McGraw-Hill Book Company (1962). The rationale for coining the term was explained there on pages 40 as follows:
    Byte denotes a group of bits used to encode a character, or the number of bits transmitted in parallel to and from input-output units. A term other than character is used here because a given character may be represented in different applications by more than one code, and different codes may use different numbers of bits (ie, different byte sizes). In input-output transmission the grouping of bits may be completely arbitrary and have no relation to actual characters. (The term is coined from bite, but respelled to avoid accidental mutation to bit.)
    System/360 took over many of the Stretch concepts, including the basic byte and word sizes, which are powers of 2. For economy, however, the byte size was fixed at the 8 bit maximum, and addressing at the bit level was replaced by byte addressing. […] Since then the term byte has generally meant 8 bits, and it has thus passed into the general vocabulary. […]“
  13. Werner Buchholz: 2. Input-Output Byte Size. In: Memory Word Length and Indexing. IBM, 19. September 1956, S. 1, Stretch Memo No. 45. Archiviert vom Original: „[…] The maximum input-output byte size for serial operation will now be 8 bits, not counting any error detection and correction bits. Thus, the Exchange will operate on an 8-bit byte basis, and any input-output units with less than 8 bits per byte will leave the remaining bits blank. The resultant gaps can be edited out later by programming […]“
  14. Robert William Bemer: A proposal for a generalized card code of 256 characters. In: Communications of the ACM. 2, Nr. 9, 1959, S. 19–23. doi:10.1145/368424.368435.
  15. Philips Data Systems’ product range – April 1971. (PDF) (Nicht mehr online verfügbar.) Philips, 1971, archiviert vom Original am 4. März 2016; abgerufen am 3. August 2015.   Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.intact-reunies.nl 
  16. R. H. Williams: British Commercial Computer Digest: Pergamon Computer Data Series. Pergamon Press, 1969, S. 308 (englisch). 
  17. Vgl. internationale Norm IEC 60027-2:2005, 3. Auflage. Letter symbols to be used in electrical technology – Part 2: Telecommunications and electronics veröffentlicht. Mittlerweile übernommen durch die weltweite IEC-Norm IEC 80000-13:2008 (bzw. DIN EN 80000-13:2009-01)
  18. Le Système international d’unités. 9e édition, 2019 (die sogenannte „SI-Broschüre“), Kapitel 3, S. 31 (französisch) und S. 143 (englisch) – Randnotiz.
  19. Eric Schäfer: Dateigrößen: Snow Leopard zählt anders. In: Mac Life. 28. August 2009, abgerufen am 28. August 2009. 
  20. UnitsPolicy. Ubuntu, abgerufen am 24. April 2010 (englisch). 

Abgerufen von „https://de.wikipedia.org/w/index.php?title=Byte&oldid=221459497“


Page 2

Unter 32-Bit-Architektur versteht man in der EDV eine Prozessorarchitektur, deren Verarbeitungsbreite 32 Bit beträgt. Prozessoren, die eine 32-Bit-Architektur verwenden, werden häufig auch als „32-Bit-Prozessoren“ bezeichnet. Analog dazu werden auch Computerprogramme, die auf eine solche Architektur ausgelegt sind, mit dem Attribut 32-Bit versehen (z. B. „32-Bit-Betriebssystem“).[1]

Unterschied zwischen bit un gb

32-Bit-Prozessor

  • von Digital beziehungsweise später Compaq die VAX-Architektur (32-Bit ab 1977 im VAX-11 Superminicomputer)
  • von National Semiconductor die NS32000-Serie (ab 1977)
  • von Intel, AMD und Anderen gebaute Prozessoren der x86-Familie (ab 1978, volle 32-Bit-Architektur mit i386 ab 1985, seit 2003 mit x64 auch 64 Bit)
  • von Motorola die 68000er-Familie (ab 1979, volle 32-Bit-Architektur mit 68020 ab 1984)
  • von MIPS (später SGI) die MIPS-Architektur (32 Bit ab 1985 und als 64 Bit ab 1991)
  • von ARM die Arm-Architektur, lizenziert an zahlreiche Prozessorhersteller (32-Bit ab 1985 und 64-Bit ab 2013)
  • von Sun Microsystems die SPARC-Serie (32 Bit ab 1987 und als 64-Bit UltraSPARC ab 1995)
  • von Apple/IBM/Motorola die PowerPC-Serie (32-Bit und 64 Bit, beide ab 1992)
  • von Infineon die TriCore-Architektur (ab 1999)
  • von Atmel die AVR32-Architektur (ab 2006)
  • DLX-Mikroprozessor: hypothetische 32-Bit-Architektur

… sowie diverse weitere Designs.

Vereinfacht dargestellt bedeutet 32 Bit, dass die Prozessoren durch ihr ALU-Design so ausgelegt sind, dass zwei 32-Bit-Zahlen (also 4 Byte) gleichzeitig verarbeitet werden können (beispielsweise zwei 4-Byte-Zahlen addieren).[2] Das schließt die externe und interne Gestaltung von Datenbus und die Breite des Registersatzes mit ein. Dies gilt analog für die gängigen Adressierungs-Arten, wobei die Bitbreite der Recheneinheit sich grundsätzlich von der der Adresseinheit[3] unterscheiden kann (wie etwa auch bei 64-Bit-CPUs).

Die Vorteile von höherbittigen CPUs liegen in der einfacheren Berechnung größerer Integer-Werte (durch die breitere ALU), was zum Beispiel Vorteile bei Verschlüsselungsalgorithmen, grafischen Berechnungen (zum Beispiel Festkommaarithmetik für Computerspiele), 32-Bit-Dateisystemen oder Multimediaformaten (MPEG-2, MP3) mit sich bringt. Auch bringt die Erweiterung zu 32 Bit die Möglichkeit mit, bis zu 4 Gigabyte Arbeitsspeicher zu arbeiten, was zum Vergleich zu 16-Bit, welches nur 16 Megabyte verarbeiten kann, eine enorme Verbesserung darstellte.[4]

Ohne speziell angepasste Betriebssysteme kann allerdings in der Regel kein großer Vorteil aus dem Wechsel von 16-Bit- auf 32-Bit-CPUs gezogen werden.

Ähnlich wie bei SIMD- oder AltiVec-Erweiterungen ist also auch für 32-Bit-Systeme gewöhnlich speziell angepasste Software nötig.[5]

Allerdings verfügt nicht jedes System mit 32 Bit breitem Datenpfad auch über einen 32 Bit breiten Adresspfad, also einen 4-GiB-Adressraum. Bei älteren IBM-Großrechnern (System/360 und System/370) wurden nur 24 Bit zur Adressierung verwendet (16-MiB-Adressraum).[6] Da das überzählige Byte von Betriebssystem und Anwendungsprogrammen für Flagbits genutzt wurde, war der Übergang zur 31-Bit-Adressierung (2-GiB-Adressraum) mit nur noch einem Flagbit komplex. In einigen Systemen ist der Adresspfad schmaler oder größer als 32 Bit. Seit dem Pentium Pro können z. B. die x86er CPUs mit 36 Bit adressieren, was einem Adressraum von 64 GiB entspricht (Physikalische Adresserweiterung).

Unter der Programmiersprache C schlägt sich die Anzahl der Bits insbesondere bei der Größe der Datentypen void*, int und manchmal auch bei long, sowie deren vorzeichenlosen Pendants, nieder. Mit der Verbreitung von 32-Bit-Architekturen hat man hierbei in der Regel die drei Typen gleichermaßen auf die Breite von 32 Bit gesetzt, so dass Daten von Int-Typ, Long-Typ und Zeiger-Typ gleich sind. Dieses nennt man abgekürzt ILP32. Zur Abwärtskompatibilität mit der 16-Bit-Architektur, die meist als IP16 ausgeführt wurde, hatte man teils auch den Int-Typ bei 16-Bit gelassen, genannt LP32, oder den Long-Typ auf doppelte Breite von 64-Bit gesetzt, genannt IP32.[7] Die ersten Versionen von DOS/Windows und Mac-OS arbeiteten mit jener LP32 und 16-Bit „int“, während frühe Ultrix-Versionen mit IP32 und 64-Bit „long“ arbeiteten. Derlei Programmiermodelle haben sich jedoch nicht durchgesetzt – alle heutigen unixartigen 32-Bit-Betriebssysteme drücken die 32-Bit-Architektur in einem ILP32-Typenmodell aus.

Der "long long" Datentyp in C wurde erst im Zuge der Standardisierung für C99 (ab 1995) eingeführt um den Wildwuchs vorheriger Definitionen zu ersetzen.[8] Er hatte sich im Unix-Umfeld eingebürgert um Software gleichzeitig für ILP32 und LP64 der aufkommenden 64-Bit-Architekturen zu schreiben, womit "long" und "pointer" jeweils die gleiche Größe haben, und die 64-Bit Arithmetik gleichermaßen verfügbar ist. Der zugehörige 64-Bit Large File Support, um auch in ILP32 Systemen noch große Dateien verarbeiten zu können, wurde in Single UNIX Specification Version 2 (UNIX 98) eingeführt,[9] basierend auf dem herstellerübergreifenden „Large File Summit“ von 1996.[10]

32-Bit-Datenmodelle[11]
Daten-
modell
short
(integer)
int
(integer)
long
(integer)
pointer
(integer)
long long
(integer)
Beispiel Betriebssystem/Compiler[12]
LP32 0000 16 16 32 32 Apple MacIntosh für Motorola 68k, Microsoft API für Intel x86
ILP32 0000 16 32 32 32 IBM 370, VAX Unix, ältere Workstations (VAX hat long-long nur für DEC/Alpha 64-Bit[13])
ILP32 LL64 16 32 32 32 64 Microsoft Win32, Amdahl, Convex, Unix Systeme ab 1990
IP32 0000 16 32 64 32 64 Ultrix (1982–1995), 64-Bit long-long alias nur mit späteren GNU C
  • 4-GB-Grenze, Arbeitsspeicher
  1. Harry Phillips: New Perspectives on Microsoft Windows Vista for Power Users. Cengage Learning, 2008, ISBN 978-1-4239-0603-2, S. 16 (englisch, eingeschränkte Vorschau in der Google-Buchsuche). 
  2. Grundlagen der Informatik: ALU und Speicher (PDF, ≈ 200 kB) – bei der TH-Nürnberg (veröffentlicht [oder zuletzt hochgeladen] am 28. November 2002)
  3. … auch Adresswerk (oder englisch address unit und kurz AU) genannt, siehe auch Adresseinheit (AU) & Busschnittstelle (BIU) (bei TecChannel, am 18. Oktober 1999)
  4. Das 4GB Problem – WB Wiki. Abgerufen am 2. Juli 2018. 
  5. Axel Vahldiek: Kompatibilitätsprobleme: Umstieg von 32 auf 64 Bit. Abgerufen am 2. Juli 2018. 
  6. chessprogramming – IBM 360. Abgerufen am 2. Juli 2018. 
  7. IBM Knowledge Center. Abgerufen am 2. Juli 2018 (amerikanisches Englisch). 
  8. Rationale for International Standard — Programming Languages — C. (PDF) The Open Group, April 2003, abgerufen am 13. Mai 2020. 
  9. unix.org
  10. Adding Large File Support to the Single UNIX® Specification. The Open Group, 14. August 1996, abgerufen am 13. Mai 2020. 
  11. Sergey Vasiliev: The forgotten problems of 64-bit programs development. 14. August 2014, abgerufen am 13. Mai 2020 (englisch). 
  12. Das Datenmodell ist eine Eigenschaft des Compilers unter dem entsprechenden Target-Betriebssystems, nicht des Betriebssystems allein.
  13. h30266.www3.hpe.com

 

nach Wortbreite

1-Bit-Architektur • Bit-Slice-Architektur • 4-Bit-Architektur • 8-Bit-Architektur • 16-Bit-Architektur • 32-Bit-Architektur • 64-Bit-Architektur

nach Befehlssatzaufbau

CISC • EPIC • NISC • RISC • VLIW • Mikroarchitektur

mit Optimierung für Einsatzzweck

(Haupt-)Prozessor • Grafikprozessor • GPGPU • Streamprozessor • Soundprozessor • Gleitkommaeinheit • Netzwerkprozessor • Physikbeschleuniger • Vektorprozessor • TensorFlow Processing Unit

Abgerufen von „https://de.wikipedia.org/w/index.php?title=32-Bit-Architektur&oldid=216995037“