センサー感度と色の話


 センサー感度と色のはなし
  レーダー画像の話が出て、ヤヤコシくなりましたが・・、(要するに)画素内のセンサーがどれだけ感光したか?、と言うことなので、 センサーについて整理して置きます
 ←(詳しくは、7月末から8月にかけて、を参照して下さい)

 (センサーの種類と数)
 まづ、目の網膜には、桿体センサー(約1億2千万個)が明暗用に働き、L錐体(400万個)、M錐体(200万個)、およびS錐体が(数十万個)が、色彩関連のデータ集めをしているようです。

 (桿体センサー)
 桿体センサーは(Lod)のように円筒形で細長く、視野の画像データは円板状に(時系列)に積み重ねたようになっています。
 桿体の総数が非常に多く(100万画素として1画素当たり120個になります)全画素のデータの集積値は、光の強さそのもの(絶対値)を表します。

 (高解像度とデータ収集)
 画素単位のデータ収集(掃引)では、桿体センサーは一度には到底読み切れないので、画素範囲内を120分割して、夫々に(abcd・・)の補助番号を付けておき、桿体データの掃引の度毎に(今回は、aデータ次回はbデータ・・)のように補助番号を指定したデータ集めをします。

 (蓄積データを合成)
 a.b.c画面として集めた画面は、まばらな白黒データですが、これを全部重ねると、緻密な諧調(120レベル)の(アナログ写真データ)になります。
 ← つまり、桿体センサーは、データを白黒情報で扱っていますが、情報を蓄積合成することで(時間は掛りますが)色彩(※)より遙かに詳しい(明暗や輪郭の)高解像度の画像が作れるのです。
 ※ 色彩の検出が(画素単位)なら(100万画素程度)で、デジカメよりも解像度は低い.

(Sセンサー)
 Sセンサーの波長域は(500nm)より短波長の(青色の波長域に)対応しています。
青色光は(色温度が高く)昼間の太陽光にありますが、夜間や雨天などにはありません。
 したがってこのセンサーの出力は、(昼と夜の切替)すなわち、桿体が描いた背景画像の上に錐体の色画像を上塗理するスイッチの役割をする、と思われます。
 ← 鳥や飛行機など、空中の画像を識別するとき、桿体センサーのみの方がヨイ。
 ← 青色光の強さでは、太陽の方向を指示するコトになります。

 (Lセンサー)
 Lセンサーの感度は、Mセンサーより長波長側に広く、LとMの感度差から、可視光範囲の分布傾斜度が分るので、赤外域の実際の分布の程度が推計出来るコトになります。
 (Mセンサー)
 可視光線範囲(凸型)の入力なので、他の領域とは反転動作(相対的にレベル低下)のように見えます

 (右上図の説明)
 *、(左図)では、青色光は低レベルから感度があり(暗い空は青い)が、あるレベル以上は(L.Mが入り)急に(白背景=空色)になります。
 *、(右図)では、感度レベルが低い(夜間など)は、赤色の感度(標識灯)のみですが、赤色光のレベル上昇で(Mが入り)黄色に変化します。
 *、(中図)では、緑光の分布は水平なので、夜空を青暗く感じます、レベル上昇で(一時L感度が入り茜色)になりますが、やがてM感度が入り、通常の3色になります。
 ← 三色光の、レベと色変化は、昨日の最後の図「筆者の実験」を見て下さい

 (データの組立)
色は、3軸座標の中心付近に集まり配置が決まっています。
 いま、ある画素位置の色が「1組(3つ)のデータ値」で与えられたとした場合、
 まず、直交3軸座標(L.M.S)に於いて、1つのデータ値に対して、その値に応じた軸の高さの(面)が求められるので、 3枚の面の交点で1つの位置が決まります。 
(1組のデータ値)から1点が決まり、その位置に対応した色が決定されます。

 (色の範囲と色立方体) 
 色は個々の座標位置によって異なっていて、座標値は(色の違い)を表すことになります。 
 座標値を少しずつ変えて、全てのデータ値を埋めたとすると、右端図のような立方体の範囲が現れます(実際のデータは、不揃いで(散開集団)のようになります)