新色彩の色扱い 


 新色彩の色扱い
 ★★ 昨日の掲載分でしたが、記事が手違いで消えました。(ダブりになる人に・・)この記事は、今日の日付にします(ゴメンナサイ)。★★

 (センサーの働きと色種別)
 人の目は、明暗向きの棹体センサー (高感度で、夜の暗所でも物の存在や危険を感知 出来る) と、昼間の光に夜色識別の錐体センサー・・ の2本建てになっています。
 * 棹体センサーの範囲は、従来の可視光線範囲(780〜380nm)よりも(広く、感度も高い(時間的に光を蓄積し光の粒が検出できて、錐体の30倍程度もある)と言われています。
 * 錐体センサーは、色識別の種類や精度を上るために、一度に見る明暗範囲を絞り、光の強さに合わせて基準レベルを移動する手法で色のコントラストを広げています。 ←色の明暗識別を8ビット(256段階)とすると、(256∧3乗=1680万色 にもなります)

 (センサーデータと色の出力)
 新色彩の立方体で、色を作り出す大元は(L・M・S)のセンサー出力ですが・・ (色)を軸目盛りに、直ちに割り振るコトは・・ しません。
 これまで、色の基本とされる(R・G・B)などの色は(相互に関連・干渉する)ので、(直交関係→要素の独立)とは、思えないからです。
 そこで色を構成する要素を (l・m・s) と別に考えることにし、・・ (LMS)との関連を別に探ることにしました。 これによって、 (l・m・s) は、色出力として最適な用件を求めることが出来ます。

 (データ割り振りと色配置)
 色のための基礎情報として集められた(LMS)データは、システムによる改変や調整を受けて・・ 最終的には色軸用のデータとして出力されます。
 この値を3軸に割り振って色を決め、始めて画像として組立てられるのです。 ←これがシステムの(原画像)」になります。

 (システムの原画像)
 私達は(網膜に映った外景)を見ることは出来ません。 頭脳がシステムとしての処理を行い・・送り返してきた画像データを、網膜で再組立てを行って見ているのです。
 これはシステムが外界の状況を始めて画像化した(現況報告)なので、さらに色々の解析を加えて利用(保存なども)して行きます。
 処理の速度が早く(掃引速度に完全同期で(1/30)秒程度の遅れなので(現象とほぼ同時に観察)しているとに思っています。

☆☆ これからは実際の色配置の話になるので、「カラーBox(以前に工作で作った物)を探しておいて下さい(詳細な政策記事は、本講義の2011年3月上旬にあります)