中央線に乗って考える

好きなモノとか、欲しいモノとか、日々のこととか

移転しました。

約0.5秒後に自動的にリダイレクトします。

ビットとバイトの違いが覚えられない・・・。

覚えられないので、ちゃんと調べてみました。

 

情報量の最小単位「bit」ビット。

onかoffや、真か偽、1か0などの、2進数での1桁分。

bitの語源は、binary digit(2進数字)を省略したものと定義されています。

 

binary(バイナリ:2つ、二元、二進)
digit(デジット:数字、指、桁)

 

1bitは、0か1の2通りの情報を持てる。
2bitは、00、01、10、11の4通りの情報を持てる。
3bitは、000、001、010、011、100、101、110、111の8通りの情報を持てる。

 

すなわち変数をnとすると、nbitは、2n通りの情報を持つことが出来ます。

3bitは23=8、4bitは24=16、5bitは25=32、6bitは26=64、7bitは27=128、8bitは28=256。

 

ビットマップ画像

ピクセル(画素)の集合体で画像を表現するビットマップ画像。
1つのピクセルに白か黒どちらかの色が入るという情報を持つことで、モノクロ画像ができるのが、1ビットの画像です。

 

1つのピクセルに4ビットの情報を持つと16色が表現でき、8ビットで256色、16ビットで65,536色。

 

ちなみに、8ビットカラー256色のうち、MacintoshとWindowsで異なる40色を除いた216色をWEBセーフカラーといいます。

 

 

 

ひと塊の情報「Byte」バイト。

語源は、IBMの人がbite( 噛むという意味/1噛みの意味・1つの情報として咀嚼する)をもじってつくられた造語という説が有力そうです。

 

一般的には8bit=1byteとなっています。

 

一般的でないものもあります。(歴史的には5ビットから12ビットまで存在したと言われています。)
大小のアルファベットや数字、英文でよく使われる約物などは、7bitの128通りで表現できますし。(これをASCIIコードといいます。)

 

1バイト=8ビットが、なぜ一般的なのか?

初期のコンピューター市場を席巻したIBM System/360アーキテクチャが8bit-byteを採用していたことや、1980年代以降8ビットマイクロプロセッサを用いたマイクロコンピュータが爆発的に普及したこともあり、一般的には1バイトは8ビットであると認識されるようになったそうです。

 

改めて、「Byte」とはなにか?

アルファベットや数字の1文字を特定するための情報と言ってしまってもいいのかもしれない。

 

まあ、日本語のようにひらがな、カタカナ、漢字まである文字では、1文字を特定するのに2バイト必要です。これを2バイト文字といいます。

 

ハードディスクなど記録媒体は、Byte(バイト)が使われていますし、データの容量として認識しているのは、bit(ビット)よりByte(バイト)です。

 

データ量の単位としては、ビットは小文字の「b」をもちいて、バイトは大文字「B」で表現します。

 

 

通信速度Mbpsとは?

メガ ビット パー セコンド。【1秒間に◯メガビットのデータが流れます】という単位です。ここでは、何故かビットが使われます。

 

まあ、バイトを使った表現「MB/sec」もありますが。

 

既記のビットとバイトの関係と同様なので、
8Mbps=1MB/secで、100Mbps=12.5MB/secです。

 

そして、「高速無線LANルーター 1300Mbps」というものは、1秒間に162.5MBものデータを送受信できるということですね。

 

 

最後に

やはり、ビットとバイトは混同しやすい。

通信速度も高速化しているので、そろそろバイトに統一してもいいのではないでしょうか?