画像と(色)認識 


 画像と(色)認識    
 これは、大変なテーマで、膨大な内容になります。 ここは(問題の要点のみなので)→ 詳細は、これまでの講義を参照して下さい。(図面は2010.4.10)
(3色画像の作成)
 網膜には、多数の棹体センサーや錐体のセンサーが分布しています、目はこれを多数(百万コ)の小さな桝目領域に分割(画素という)し、画素内の(複数の)センサーデータは、画素単位で纏められます。
 目のシステムは、画素データを(種類別に)、一定のリズムで(レーダー方式で掃引)収集を行い、神経系を通じて、順次頭脳に送ります。
 この信号は、頭脳で再び組立て直されて、頭脳用の(原画、←網膜映像のコピー)になります。頭脳はそれ等を更に(解析・警戒・保存・・など)利用を広げて行きます。
(センサーの感度レベル))
 錐体センサーには(LMS)の3種があり、専ら(昼間の色彩用)とされていますが、都会の夜空の青色や、夜間の赤色の標識灯、火星や他の星の色など、かなりの暗さまで動作するようです。
 棹体は、高感度なので夜間動作、とされますが、高分解能で(色の比ではない)昼間も働いているようです。
(棹体の明暗データ)
 棹体の総数は、膨大で(1億2千万コ)もあり、夜間の暗視状態から→白昼の太陽光照射まで、実に広範囲(3億倍―26Lv程度)もの(光の強度の変化)に対応しています。
 明るさは、昼夜で大きく変わるので、その場に応じて(強度基準)を移動して、一定の明暗範囲(数Lv程度)を観察する仕組みのようです。
(錐体センサーと3色画像)
 センサーの感度図は、従来の(比視感度→出力方式)は止めて、分りよい(入力感度方式)に改めたいですネ。
 3種のセンサー(L・M・S)は夫々の受け持ち波長範囲が決まっています(感度特性)。 データ収集は、 最強レベルから〜数Lv下の(弱いレベル)までの範囲を、(移動平均方式)で集計し(+〜0〜−)のデータ形式の、3枚の(赤・緑・青)の色画像(写真フィルムのように)が作られます。
(旧三原色との違い)
 旧来の三原色は、可視光線の波長帯域を(いきなり3分割)して、3センサーの(帯域出力)を、そのまま(赤・緑・青)色に割当て(R〇〇,G〇〇,B〇〇)と(色を決定)します。 つまり、センサー出力=原色(赤緑青)光の強さ、と一意に決められ、帯域内の分布状況や、帯域相互の関連など・・一切関係はありません。
(色立体方式)
 新色彩では 、3つのセンサー出力レベルは、夫々一定の処理を受け、(+〜0〜−)の(色の要素)のデータとなって(RC,GM、BY)の直交3軸に割り振られます。
 従ってデータの配置は(座標中心=色の基点)となり、多くの色が、ここから立体的に広がるため、全データがあれば(色の立方体)を作ることになります。
(旧色彩の色明度)
 旧来の色彩学では、「光が無いのが(黒色)で、→次第に色(光)を強くすると(明度)が増える」、となっています・・が、それから先(実際には白色が混入する)の説明が有りません。(さらに、色(光)を強くすると色(光)が無くなる?)
 新色彩の色立方体の解析では、色の配置は、黒から→(赤・緑・青)色へと並びます。 赤と緑の光を合わせた場合(黄色光)になります、黄色光に青色光を重ねると、ベクトル加算なので、方向は青色方向で、光レベルが上がり(白の位置)にきます ←(この話は立体のカラーBoxで追跡して下さい)。