バイトとは何ですか? 定義と意味

click fraud protection

バイトは8ビットとして定義され、8ビットは単一の文字をエンコードするために必要な量であるため、通常はメモリのアドレス可能な最小単位です。 8ビットとして定義されているバイトは、2の累乗であり、256個の値(0〜255)を一度にエンコードできることを意味します。 このメモリの単位は、メガバイトやギガバイトなどのより大きな単位の基礎です。

Technipagesはバイトを説明します

バイトは、ISOおよびIEC規格によって8ビットとして公式に定義されています。 バイトは、歴史的に、コンピューターで1文字のテキストをエンコードするために必要なビット数でしたが、その定義は緩すぎましたが、多くのシステムでは異なる長さのバイトを使用していました。 ASCII初期のテキスト標準はその文字を7ビットでエンコードし、CおよびC ++のさまざまな実装では8、9、16、32、または36ビットを使用します。これらの言語での定義は「少なくとも8ビット」であるためです。

バイトは、KB、MB、GBなどの倍数の標準SI単位(それぞれ1,000、100万、10億バイト)が前に付けられることが多い記号Bで示されます。 これらの倍数がバイトに関して正確に何を意味するかについては、継続的な混乱があります。この混乱は、コンピューターが動作し、 データをバイナリで保存するため、1000キログラムはバイナリ構造にうまく適合しません。これは、最も近い2の累乗ではないためです。 1024. キビ(1024)、メビ(1024 ^ 2)、ギビ(1024 ^ 3)を公式に定義する試みがなされました– KiB、MiB、 それぞれのGiB(スケールはyottまたはyobiに続きます– 1000 ^ 8対1024 ^ 8) バイト。 これらのユニットは、一部の技術環境ではある程度の使用法が見られますが、その使用法は理解されていません。

バイトの一般的な使用法

  • テラバイトのハードドライブを購入しました。
  • 私のダウンロード速度は毎秒10メガバイトです。
  • 1バイトは、歴史的に1文字をエンコードするために必要なビット数として定義されています。

バイトの一般的な誤用

  • 私は8バイトのピザを食べました。
  • この巨大なダウンロードは私のデータプランから1バイトを奪いました。