U/LビットとG/Lビット

イーサネット関係の教科書を読み始めた。

先ず出てくるのは、MACアドレスの話。

OUIが24ビットなのか、22ビットなのか、

説明文が理解できず。

 

イーサネットの送信が、1バイト毎であり、かつ、

下位のビットから順に送り出されていくため、

最初のオクテットの最後8ビット目の

I/G(Indivisual/Group)ビット

が先頭になって、0であればユニキャストを意味する、

という説明までは、分かった気がする。

 

問題は、次の7ビット目の

U/L(Unique/Local)ビット

の事で、これが0ならユニーク、1ならユーザが割り当てた

ローカル運用との事だが、このビットの説明、

検索すると、

G/L(Global/Local)ビット

と表記されているものが多数あり、それぞれの流派の

源が良く分からない。

しかも、両者は決して交わらない。なぜ表現が違っているか

の解説が見当たらないのである。

 

あと、この事に疑問を持った人も皆無っぽい。少なくとも検索から

はそう見て取れる。

 

この疑問は、OUIを取得した時のコードが、どういう形で、

登録されているのかという疑問から来る。

運用で予約されている、1オクテット目第7、8ビット目が

決まらないのならば、そんな中途半端な位置が不定の登録値は

どうなってんだろう?

 

ごくごく、ナイーブに考えてみて、そりゃ仮に両方「0」にすんじゃね?

 

なら、MACアドレスの第1オクテットの2文字目は、「0」「4」「8」「C」

の4パターンしかない筈だと思った。

この事を明示したページが一つだけ見つかったので多分この理解でいいのかも。

 

あと、「Google Patents」というところに、ある文書があって、その記述に、

U/L(Universal/Local)ビットを参照し、【略】。なお、U/LビットはG/Lビットと表記されてもよく、ユニバーサルアドレスはグローバルアドレスと表記されてもよい。

というくだりが見つかった。今の所唯一。

追記 2024.5.2Thu.「情報処理教科書 ネットワークスペシャリスト 20xx年版」には、

❝とも呼ばれる❞的に短く両方の表現を載せているようだ。