センサー感度と色ーⅡ
レーダー画像の話が出て、ヤヤコシくなりましたが・・、(要するに)画素内のセンサーがどれだけ感光したか?、と言うことなので、 センサーの働きを整理して置きます
(センサーの種類と数)
まづ、目の網膜には、桿体センサー(約1億2千万個)が明暗用に働き、L錐体(400万個)、M錐体(200万個)、およびS錐体が(数十万個)が、色彩関連のデータ集めをしているようです。
(桿体センサー)
桿体センサーは(Lod)のように円筒形で細長く、視野の画像データは円板状に(時系列)に積み重ねたようになっています。
桿体の総数が非常に多く(100万画素として1画素当たり120個になります)
全画素のデータの集積値は、光の強さを(絶対値)で表します。
(高解像度とデータ収集)
画素単位のデータ収集(掃引)では、桿体センサーは一度には到底読み切れないので、画素範囲内を120分割して、夫々に(abcd・・)の補助番号を付けておき、桿体データの掃引の度毎に(今回は、aデータ次回はbデータ・・)のように補助番号を指定したデータ集めをします。
(蓄積データを合成)
a.b.c画面として集めた画面は、まばらな白黒データですが、これを全部重ねると、緻密な諧調(120レベル)の(アナログ写真データ)になります。
← つまり、桿体センサーは、データを白黒情報で扱っていますが、情報を蓄積合成することで(時間は掛りますが)色彩(※)より遙かに詳しい(明暗や輪郭の)高解像度の画像が作れるのです。
※ 色彩の検出が(画素単位)なら(100万画素程度)で、デジカメよりも解像度は低い.
(Sセンサー)
Sセンサーの波長域は(500nm)より短波長の(青色の波長域に)対応しています。
青色光は(色温度が高く)昼間の太陽光にありますが、夜間や雨天などにはありません。サ したがってこのセンサーの出力は、(昼と夜の切替)すなわち、桿体が描いた背景画像の上に錐体の色画像を上塗理するスイッチの役割をする、と思われます。
← 鳥や飛行機など、空中の画像を識別するとき、桿体センサーのみの方がヨイ。
← 青色光の強さでは、太陽光の有無や方向を指示するコトになります。
(Lセンサー)
Lセンサーは、データを蓄積して最新の分布レベルの状態を測ります。掃引時にM値と比較した(差分)データを送り出して、から自分の値はクリアします。
(Mセンサー)
Mセンサーは、Lセンサーからの(差分値を集積)すると(頭脳が認識する)原画が出来ますが、これを(反転データ、補色 ※)で表示しています。
※ ←(Lセンサー値と比較すると(差分)だけを求めると計算が速いためです)。
← Mの値は(L−M)の形(※)なので(他の領域では反転動作(相対的にレベル低下)のように見えます。
以上が、4種の感度センサーの働きですが・・、
(データの組立)
いま、ある画素位置の色は「1組(3つ)のデータ値」で与えられます。
まず、1つのデータ値に対して、その値に応じた軸の高さの(面)が決まるので、3枚の面の交点で1つの位置が決まり 、この位置に対応した色が決定されます。
(色立体が実際にあるのでナク、3センサーの頭が、色レベルを指示して光るのでこれを同時に見て合成色に感じるのです)
(色の範囲と色立方体)
色は個々の座標位置によって異なっていて、座標値は(色の違い)を表すことになります。 色は、3軸座標の中心付近に集まり配置が決まっています。(実際のデータは、不揃いで(散開集団)のようになります)
座標値を少しずつ変えて、全てのデータ値を埋めたとすると、右端図のような立方体の範囲が現れます