画像や色が見えるワケ 


 (画像や色が見えるワケ)

「色」は、目に入った「光の状態(種類や強度)」を検測し、その結果を(図形と色)の形で報告してきたモノでした。
 光がどのようにして(色の画像)として認識されるのか? 手短かに振り返ります。

 (カメラ構造)
 人の目は、カメラ構造と呼ばれ、辺りの景色を(目のレンズを通して)一旦網膜内の小画面(フィルムに相当)を作り、この画面について(画素分割をして、光の強さや色など)詳細な検測や判定を行っています。

 (画像の構成)
 TV画像の原理は(縦横のグラフ桝目を使った)画素単位のデータ収集で説明されますが、私達の目は(円形視野で中心が詳しい)特性から、上図のような「レーダー方式)が基本だろう・・と思われます。

 (データの掃引)
 各画素のデータを集めるために、(一般の矩形画像ではまず(右横へ)1直線のデータを集め(水平掃引)ると、引き続いて1段下のデータを集めに行き(下への移動は垂直同期)・・これを繰り返します。
 一般のレーダでは、中心から半径方向へのデータ集めを行い、これを円周方向に繰り返す(PPI)掃引方式がが採用されています。
 
(目のレーダー)
 目の場合は、総てがリアルタイム(即時)なので、従来よりも(桁々違いの)超高速性が要求されます。
 円周方向の掃引は(PPI方式を採らず)視野の円周端(方向)にセンサーを並べて、データ信号は並列に受信をして、桁違いの処理速度を実現した、と思います。

 (センサーの種類と総数)
 目の(網膜)には、高感度に光を捉え、光全域の明暗によって(線や輪郭を作る)桿体センサーと、広範な光の分布域(可視光範囲外)を調べて(輪郭内を色付けして形を目立たせる)錐体センサーが分布しています。
 このデータの掃引は(桿体センサー、Lセンサー、Mセンサー、Sセンサー)画面の順に繰り返し行われ(ベンハムのコマ)ます。

 (桿体センサー)
  桿体センサーは、約1億2千万個、光の有無のみの単純(1ビットの白黒データ)とだけしか理解されず(何う働くのか?)全く分らなかったのですが、
 桿体センサーは、目に入る総ての(可視光範囲の光レベル)を測定し、明暗画像を作り(瞼や虹彩に指示をして)危険入力を防ぎ、網膜への入力光の強さを調整します。 ←さらに(錐体センサーの動作基点を与えています)。な・・ 実に昼夜共に働く(視覚の本命)だったのです。


 (桿体のデータ収集)
 桿体センサーは、画素単位で120個程度になり(白黒でも)写真のような詳細な(明暗)情報を作ります。
 この膨大なデータ収集のために、画素範囲を更に細分した(補助番地)を付けて、 初回は(補助A)画面、次回の掃引では(補助B)画面・・のように(細分位置を指定した)データ集めを行います。
 ←(補助番地方式)では(画面の完成・順応に)時間が掛りますが、掃引を重ねるほど、詳しい正確な画面が得られるコトになります。

 (錐体センサー)
 錐体センサーは、その長さ形状から(Lセンサー(4百万個)、Mセンサー(2百万個)、Sセンサー(ン十万個と少ない)の3種類にに分けられます。(旧色彩では、赤.緑.青色センサーと考えたが、違いました。)

 (等色関数でも扱っていますが、結局何も分っていません)← 色別の詳細は次回(明日)に廻します。