人の目は動画ビデオ

 
 人の目は動画ビデオ

 (ナゼ色が見えるのか?)
(光が色の原因?)
 「ナゼ色があり、色がどのように見えるのか?・・」など色にに対する基本的な疑問は、大昔から、人類全体のナゾとされてきました。 これまでの色彩学では、物の表面に(色素)分布して居て、これが光を受けたとき、三原色光を選別反射するので色が出来る、としてきました。 光科学が色彩に導入(ニュートンの分光実験など)されてからは、「光がナケレバ何も見えない」として「色の原因は光」に変更されました。

(光・色料・感覚の共同作業)
 しかし、光源の光は全体を照らすので、色傾向は換わりますが、個々の物体の表面には、夫々固有の色があるので(明暗や色形)は(物体色が決める)とした方が良さそうです。
 「色」は、光や絵の具のような物ではなく、(見える・感じる)という感覚の世界です。(色料・光か?)と対立的にではなく、色を見る機構(人の目)と光・色の三者があって(協同してこそ)初めて色が見えたのです。

(視覚の基本は明暗)
 これまでの色彩学は、いきなり三原色があって、すべての色は三原色光の合成で作られる・・としてきました。 しかし、目の構造(高感度・高分解能・多数の桿体センサー)や(視覚のシステム)から見て、視覚の主目的は(危険や物体の検知)なので「モノクロ型の明暗情報」が本命で「色彩」は補助的感覚(明所に限る)と考えます。

(人の目はカメラ眼方式)
 昆虫などは、明暗のセンサーを直接操作して、光の方向を探りますが、私たちの目は、カメラ眼{ 外の景色を、レンズを通して網膜(フィルム面)の小画像にして、それを検測する)方式 }、になっています。(魚などもこの方式らしいですが、人の場合、頭脳による後処理が優れているとされています・・←(鳥や魚の動態視力は、人より格段に優れています)

(画像方式)
 パルスのエコー電波が、時間順に返ってくる(一次元の並びを)、レーダーでは地図のように(二次元平面状に)見せてきました。 実際のレーダーでは、立体的な解析も行っています。
 筆者は、レーダ画像を「連続(早送り)描画をして、雨雲の移動や積算雨量が見える」ような工夫をしました。
 以上のように、画像データの収集や表示の方式など(詳細な技術に捉われず)、新しい方式の基本や可能性について・・しっかりマスターして下さいネ

(動画方式)
 私達は、目前の景色を「動画」として捉えています。 テレビや映画の動画は、よく似た画像を多数を高速に切替えて描画するもので、莫大な(情処理能力)が必要です。 現在の最高レベルの電子技術でも「動画処理」は大変重く、実際の「アニメ」は、別の時間に作成した絵を見せています。)
 ←(現在のテレビ・ビデオの画像処理で、実際には、モザイクが出たり、チラついたり、時間遅れが出たり・・、技術的な限度を超過した状態です。

(人の目の特殊レーダー)
 私たちの目は、目前の景色を、(テレビなどより遙かに広い範囲を、十分な解像度やキレイナ色で、チラつかない「完全な動画」として捉え・扱って居り。 ←(技術的には、全く桁違いの情報処理能力です)
 自然は(ソロバンや電卓を使わナイ)ので、私達がまだまだ知らない、巧妙な処理方法があるように思われます。

(人の目の動画)
 ビデオ編集の経験者ならご存知ですが、動画では、絵柄が殆ど変らない画面が連続して、実際の画面変化はごく少しです。 だから全画面を入れ替えるより。画面の変化部分(線上で状で変化も少ない)だけを描き足す方法が可能なら、情報量は飛躍的に縮小出来る筈です。「新動画方式」の可能性も考えてみることにします。