画像や色が見えるワケ
「色」は、目に入った「光の状態(種類や強度)」を検測し、その結果を(図形と色)の形で報告してきたモノでした。
光がどのようにして(色の画像)として認識されるのか? 手短かに振り返ります。
(カメラ構造)
人の目は、カメラ構造と呼ばれ、辺りの景色を(目のレンズを通して)一旦網膜内の小画面(フィルムに相当)を作り、この画面について(画素分割をして、光の強さや色など)詳細な検測や判定を行っています。
(画像の構成)
TV画像の原理は(縦横のグラフ桝目を使った)画素単位のデータ収集で説明されますが、私達の目は(円形視野で中心が詳しい)特性から、上図のような「レーダー方式)が基本だろう・・と思われます。
(データの掃引)
各画素のデータを集めるために、(一般の矩形画像ではまず(右横へ)1直線のデータを集め(水平掃引)ると、引き続いて1段下のデータを集めに行き(下への移動は垂直同期)・・これを繰り返します。
一般のレーダでは、中心から半径方向へのデータ集めを行い、これを円周方向に繰り返す(PPI)掃引方式がが採用されています。
(目のレーダー)
目の場合は、総てがリアルタイム(即時)なので、従来よりも(桁々違いの)超高速性が要求されます。
円周方向の掃引は(PPI方式を採らず)視野の円周端(方向)にセンサーを並べて、データ信号は並列に受信をして、桁違いの処理速度を実現した、と思います。
(センサーの種類と総数)
目の(網膜)には、高感度に光を捉え、光全域の明暗によって(線や輪郭を作る)桿体センサーと、広範な光の分布域(可視光範囲外)を調べて(輪郭内を色付けして形を目立たせる)錐体センサーが分布しています。
このデータの掃引は(桿体センサー、Lセンサー、Mセンサー、Sセンサー)画面の順に繰り返し行われ(ベンハムのコマ)ます。
(桿体センサー)
桿体センサーは、約1億2千万個、光の有無のみの単純(1ビットの白黒データ)とだけしか理解されず(何う働くのか?)全く分らなかったのですが、
桿体センサーは、目に入る総ての(可視光範囲の光レベル)を測定し、明暗画像を作り(瞼や虹彩に指示をして)危険入力を防ぎ、網膜への入力光の強さを調整します。 ←さらに(錐体センサーの動作基点を与えています)。な・・ 実に昼夜共に働く(視覚の本命)だったのです。
(桿体のデータ収集)
桿体センサーは、画素単位で120個程度になり(白黒でも)写真のような詳細な(明暗)情報を作ります。
この膨大なデータ収集のために、画素範囲を更に細分した(補助番地)を付けて、 初回は(補助A)画面、次回の掃引では(補助B)画面・・のように(細分位置を指定した)データ集めを行います。
←(補助番地方式)では(画面の完成・順応に)時間が掛りますが、掃引を重ねるほど、詳しい正確な画面が得られるコトになります。
(錐体センサー)
錐体センサーは、その長さ形状から(Lセンサー(4百万個)、Mセンサー(2百万個)、Sセンサー(ン十万個と少ない)の3種類にに分けられます。(旧色彩では、赤.緑.青色センサーと考えたが、違いました。)
(等色関数でも扱っていますが、結局何も分っていません)← 色別の詳細は次回(明日)に廻します。