23、色の秘密


* 色の秘密
   ≪10年ほど前に「色の秘密」と題した文庫本があり、著者の熱意にオドロキ感心しましたが(残念ながら)秘密の扉は開きませんでした。 ここ10年以上「色彩工学関係」の書籍は、発行されていないようですが(一体どうなってるの?・・)≫

(色帯域と傾斜度)
 人の目は、LMS感度曲線が(第1図)のようになるよう、(虹彩絞り)などで光レベルを調節して(LMS感度出力の違い)から色の判定を行います。
 旧色彩では(上図左)のような(三原色)を考えたが、(色光帯域)は存在せず、(可視光範囲の分布傾斜)が、光の色温度で大きく緩やかに違って居ました(上左方の図)。


(光レベルと色変化)
(右)上)は、低温度(赤色)光のレベルが上がると、赤い色が見え始めるが、次第に緑域に掛って黄色くなり、更に青色域にも掛ると、白背景で全色が見えるコトになります。
(中二段目) 太陽光のレベルが上昇する場合、はじめ青暗い夜空ですが、急速に赤.緑.青域に掛かって、黄色から昼間の空色へと変化します。

(LMSは色の要素)
 旧色彩では、センサーがいきなり(三原色光を捉える)と考えたので(RGB軸)でしたが、現在では(LMS)軸です。
 ←(この三者は夫々が独立して(色の要素として働くモノで、三者の組合せが色になる)と考えるのです。
 実際には(光が強いほど白く薄く)なります。 白い光が(弱まると→色が見え→無色(0)になり→さらに→対極で補色になる)を知らないです。
このLMSの値を、直交三軸に配置することで、「色の立方体が出来上がります」 ←(この結果から原因要素を推定するのです)

(8頂点原色と立体放射)
 立方体の8つの頂点の色は、夫々が互いに混合し合って中心は灰色です。これを背景色(無色)とすると、全ての色が立体中心から放射状に拡がることになり、全ての色が補色の関係になります。

(4種類の色諧調)
 立方体の(8)頂点の色を原色とすると、(互いに対抗する)頂点を結ぶ4組の(色軸)があり、夫々がローカル色体系を構成してその中心になっています。 総ての色が4種類の色諧調(の合成)で表されるコトになります。
 これまで多くの人が考えてきた(三原色+白黒)などの色相環とは違って、人の目(色の識別・判定)の基本は「4軸8原色の色立方体」であり、人の色感覚は[(三色)ではなく、4軸8種の色諧調(色度)を一度に見分ける]だったのです。

※ 色彩(色配置)の基本は、立体放射状に拡がる色空間(中心0→色彩度)と、これを囲む色相(8極色体系)の2つ、(円板色相環などは根拠がナイデタラメ)です

22、センサーの構造と働き


(眼球の構造)
 眼球基本構造は、まず前面のレンズが外の光を集めて、これを奥のスクリーン(網膜)に写し出すようになっています。 他には、光の量を調節する絞りやピント、網幕の信号を集める神経(伝達系)など・・があります

(網膜面はセンサーが分布)
 網膜面は数多くの、(LMSのセンサーが)敷き詰めたように拡がった構造をしています。
 各センサーは、(画素単位のネット)や画素相互のネットなど・、神経(伝達系)で頭脳(システム)に繋がっています。

(センサーの構造と働き)
 各センサーの頭部は球形で、偏光フィルターや光路を曲げるプリズム(レンズ)で、中間部がスクリーン、右先端が(レベル変化対応も)円錐型の光量枡になっています。
 ←(このときの(映写位置までの距離は波長や屈折率で決まる)ので、実際には長さが違う(LMS)3種のセンサーに分かれています)

(網膜フィルムはネガスライド)
 (レンズ)からの光は、まずセンサー頭部で分光(偏光屈折)され、すぐ後ろのスクリーンに映し出されます。 そこで感光し(反射物質に変化して鏡になる)ので(次の掃引まで)外部光を反射し、その位置(色)で光り続けます。
 だから網膜のセンサー全体では、外の景色を写し撮った(小画面)になります。

移動平均
 光の波長やレベルは、写真フラッシュのように(散発・断続的)で揃わないので、 光強度のデータ収集は、一定の(帯域幅や掃引時間内の)の分布値を計測して、この値の移動平均値(画面平均値と画素単位の偏差値)の計算を行い使用しています。
 このため、光の強度の偏差(+−両極性)データに代わったのです。

(ブリュッケ現象とLMセンサー)
 ブリュッケ現象は、光の強度よって色(範囲)が変化・移動{Lセンサ(赤色→黄色へ)、Mセンサ(黄色→緑色へ)}するコトですが(初心者には伏せられいました)。
 LMセンサーの錐体は、夫々が自分の位置の光量(光強度)を集積して(次回掃引まで)その値(※)を保持します、そのため網膜画面は外の景色を写した小画面(色に)なります。
 
(Sセンサー)
 Sセンサーは(数も少ない)ので昼夜の判定(スイッチ)で、(明暗調節)と思われます。

(桿体センサー)
 桿体センサーは常(昼夜共)に明暗信号として視野画像の背景として動作し、夜間は月や星の画像になり昼間は(空色の背景)や輪郭や色の(精細な)質感として働きます。

21、グラフの見方


*グラフの見方

≪ 人の目が、どのように(色やモノを)眺めているか?・・の話をしてきました。貴方が(分かり難い)と感じるなら、大抵は「光に対する認識を間違えているから(失礼!)です≫

(光の波長表示)
 光は一体何者だろうか?・・と、研究されるようなって、光が物理現象(電磁波の一種)が明らかになり、手始めに取り掛かったのが「光の速度(30万キロ/秒)」でした。
 光の波長は(μm)以下で驚いた(当時の電波の波長は数キロメートル)ので、それから「光関係の説明はすべて波長表示」(しか知らない)になっています。
「グラフの表示や読み取り」を間違うと(トンデモナイ誤りを惹き起こす)ので注意をして下さい)

(光の領域図)
(第1図A、左上)は、広範な電磁波の波長域を示したモノですが、上行並びは(紫外線・・無線通信波など)の波長数を、指数表示(例えばテレビ放送電波はメートル単位(10の0乗など)、したものですが
 その下のスペクトル(色並び)は「波長の数値並(nm)び表示」で(上図の拡大ではありません。 ←(総ての書籍が同じ間違いで、正しい表示は皆無デス)

(音程と周期律)
 左下の(A図)は、ドレミファ音階と五線図ですが、音の周波数は、(例えば(ド)の基音は(261.6Hz)ですが、
一音階上の(レ)音は(293.7Hz)で(1.123倍)です。 だから(レミファソ・・)と6音階上がって上の(ド)音の周波数は(1.123)の6乗で丁度2倍の(523Hz)の音になります。
 このように物理(波)の現象には、倍の調波や周期に関わるモノが多く、色の場合も、赤色端から青色側へ2倍の周期律が見られます。

(光関係の波長表示)
 波(光)のエネルギー(は波長でナク周波数に比例するので)に関係する表示は(周波数のドレミファ型式)にすべきですが、世界中の色彩学者は皆んなが間違えているのです。
← (どの図でも)上図のように、赤色域は間延びして広くなり、青色域が縮んで見難くなっているので、必ず(端で2倍比)に修正をして見て下さい

(電磁波(光)の輻射強度)
右の図は、波長別の輻射(反射)強度などを示した図ですが、
どれも、どれも(波長並び)なので(長波長側が間延び)して、引き摺っています。
次に光の輻射の強度ですが、(太陽光輻射)以外は、強度レベルの数値がそのままです、私達の感覚(明るさ)や感度レベルなど・・、(頭打ちの)指数型表示が正しいモノが多くあります。

(熱擾乱光の分布)
 先日(10.27)にも説明しましたが、熱擾乱光の(色温度)分布曲線(上段中)は、横長に広く分布する光の素子が多数重なった(横棒を上に積み重ねた)モノで、 従来の、縦棒の光分布が横に並ぶのとは違うので(誤らないよう)注意をして下さい。

18、センサーの働き 


センサーの働き
≪ 人の目レーダーが、詳細い話になりましたが(ナゼ色や形が見えるのか?)の大筋を見失わないようにして下さい ≫

* 外の景色は、人の目(カメラ構造)で撮影されて、網膜にネガ写真として保存されます。
* 目はこの小写真を(特殊レーダー方式で)画像データとして読み取り、一定の処理(比較や判定・保存など)を加えてから、最終的には元の網膜に(色画面配置)返します。
* だから私達は(外の景色は直接見えない)で、頭脳コンピュータが処理した後の(判定定結果の色や形)を見ているのです。

(桿体センサー)
 網膜には、桿体細胞(センサー)が1億2千万個があり、常時(昼夜とも)可視光範囲の光の強度(絶対レベル)を測って、精密な明暗を(120諧調のアナログデータ)を示します。またこれが 錐体センサー(色感度)基準値を与えます。

(錐体センサー)
 L(400万個)、M(200万個)、S(数十万個)の3種類があり、色の判定らしいがこれまで(詳細不明)でしたLMS感度は夫々が独自の要素を測って(L.M.S)感度のデータを作って送り出しています。

(LMS感度)
(旧色彩では、RGBセンサーと呼んで、直接(三原色の原因)としましたが、三原色光が存在しないので、現在はLMSに名前を変更しました)。
(現在筆者は)LMSは、お互いに独立した(相互干渉しない)感度なので・・電磁気基本の三要素(運動(ネルギー)・磁気・電気)だとして、実際の感度は(電磁波の偏光程度から読み取れる)と考えています。

(センサーの構造)
 三センサーの構造はどれも同じ、頭部は球形で(偏光用フィルターと光路を波長別に屈折させるプリズム)、後部はこの光を受けて感光するフィルム膜と感光度を測る錘型の枡が並んでいます。
 LMSの長さは夫々が波長に対応していて
 (Sセンサーは、400〜500nmの(青色光は太陽光の存在を示す)、
 (Mセンサーは、550nm辺りを中心に可視光の平均的な強度を求める、
 (Lセンサーは、Mセンサー感度の少し長波長側の帯域感度を測っていて、M感度との差から入射光の分布傾斜度を知ることが出来ます。

(センサー感度の色変換)
 LMSの感度は、移動平均や基点の規制(色や明暗の順応)を受けて、夫々のデータ組が直交3軸に沿って配置され(色)になります。←(殆どの色は、LとM感度から作られますが、Sセンサは数も少なく(色感度ではナク)昼夜の切り替え動作と思われます。

17、人の目レーダーの特殊技術 

 *人の目レーダーの特種技術

(現行の動画技術)
 昔の画像処理は専ら人の芸術的感覚に基づくモノでしたが、近年(50年ほど?)の電子技術の発達で、(パソコンなどで)家庭でも画像が簡単に処理されるようになりました。
 が、現在の動画は(30枚/秒)程度の画像を連続映写するので、莫大な情報量を扱うことになり・・即時の画像処理は(事実上殆ど困難)な作業です。 ←(アニメなどは、別の時間と場所で制作したものを、一気に纏めて見せているものです。)

(人の目は動画)
 しかし私達の目が見る「動画」の(精度や速度は桁外れに優秀)で、現行の電子技術では(足元にも)及びません。
 ← 人の目動画には、人智を超えた秘策が潜んでいる・・としか思えないのです。
(雲を掴むような話ですが・・何とかして自然が創った「別種の動画技法」を、探ってみようと言うコトです。

(画像圧縮技術)
 元はFAX画像の情報量を減らして、伝送速度を上げようとして発達した技術です。データ圧縮の最も分かり易い例を見て行きましょう。
 先日の(A)の文字の(グラフ枡目の伝送)について見てみて行きましょう。 画面が
 第1行    (始め、 、 、 、黒、黒、 、 、 、 、終り)
 第2行    (始め、 、 、黒、 、 、黒、 、 、 、終り)
  ・       ・ ・ ・ ・ ・ ・ ・ ・ ・        だったとします。
 この画面データを順次伝送するなら
 第1行    (始め、白、白、白、黒、黒、白、白、白、白・・ ・・終わり)
 第2行    (始め、白、白、黒、白、白、黒、白、白、白・・ ・・終わり)
 と送るのが正しいのですが、
     第1行(始め、白3、黒2、白4・・ ・・終わり
     第2行(始め、白2、黒1、白2、黒1、白3・・ )と白黒交代の数字だけを送っても元の画像は再現出来ます。

(人工レーダーはパルスの繰返し)
 現行の機械式のレーダーは、レーダの発信局がパルス状の電波を発射してから、山彦のように帰って来る電波を待ち受けて受信し、それをディスプレイに表示し、次にアンテナの方向を僅かにズラせて電波を発射して・・また帰り電波を待ち受ける・・を繰り返します。
 が 画像の分解能のため、アンテナ方向の変更を小幅にすると、全周するのには長時間を要します。

(受信端の並列動作)
 そこで、人の目レーダーの場合、パルスの発信局は目の中心ですが、信号受信用のセンサーは網膜画像の周辺にグルリと円形に配置するコトにします。 つまり1つのセンサーは中心から自分への(半径状の通路の)画像信号を調べることに専念するのです。
 だから1度のパルスで、全センサーが(並列に)一斉に受信動作を行い(アンテナ周回時間は不要)なので、極端な時間短縮になります。

(データの精度)
従来の人工レーダーは、画面中心付近は近距離で強過ぎて(却って事故の原因で)、また遠距離は分解能が悪くなるのが宿命でした。が 前項の方式では、網膜の外周付近の方が逆に精度が高く鮮明に見えるのです。

(桿体センサーの超精密画像)
 私達の目(視野)は、百万画素(分解能で1000*1000)程度ですが、桿体センサーは一億2千万個もあり、一画素当たり(120個)にもなります、そこで画素内のセンサーを場所別に分割した(サブアドレス)を付けて、掃引の周回毎にこの(サブ番号)を指定することにしました。
 この方式によって、白黒データが(120)諧調の精密アナログデータに作り変えられるのです。
 実際の実行方法としては、パルス電波の発信位置を眼球中心部の(黄斑の範囲内で)動かすことで、半径の通路と信号が比例的にズレることで実現しています。

(掃引周回の取り纏め)
 カラー画像の作成は、原理的に色別に夫々の画像を作ることになっていますが、全アドレスを周回する掃引作業は大変な労度なので、一度の周回アドレス指定で(白黒・赤・緑・青)と纏めてデータ授受を行って、次のアドレスに移るようにすることで、1度の掃引で全色データが集められます。←(ベンハムの独楽は、この原理で色が見えるのです)

(待受け受信)
 目の感度センサーの感光部が、外部からの光を受けたとき、波長に対応する部分が光を反射する物質に変質して光ります、そのため網膜(フィルム)面が外の景色を(写し撮った)たようになりますが、(実の所)この小画面は、色や明暗の数値を反転した負値(−)の(ネガフィルム)なのです(※)。
※ システムは、各画素毎に、新しい光データの貯まり具合を測るのですが、毎回計測するのは大変なので、前回のデータ値を反転して新しい光の入力をを待受けます。
 大抵の場所で前回と同じ光量なので差引き(+−0)の答えが返されるので、計測の手間を大幅に縮小出来ます。
 ←(私達が、目を瞑り外部光を(0)にすると、補色が見える理由です)。

16、人の目レーダーは動画 


 * 人の目レーダーは動画 

 ≪ 人の目は、辺りの景色を網膜フィルムに写し撮り、その小画像を(レーダー原理)で観測していました。 レーダーの原理は簡単ですが、人の目レーダーの実際の動作になると・・大変な違いがあるようす。≫

(気象レーダーと比較)
 * 画面数(気象レーダーは、1画面2〜10(積層)分程度ですが、目は1秒間に(30枚)以上です
* 画面密度(分解能) (200X200=4万画素。 最新高級カメラでも、2000〜4000万画素です)
* 色種(雨風の強度を(8〜16色程度)で示します。 精密カラービデオで(256の3乗)1680万色。
* さらに、機械レーダは決められた動作のみですが、目は自身の動作を状況に合わせて変化させます
 以上のように人の目は、現行レーダーとは格段に違った精密な(情報処理の技法や能力)を持っているようです。

(動画の原理)
 私達はこれまで、目前の景色を何となく眺めて、1枚の(静止画面)が大きく拡がったように思っていました。が 実際の目は、(物の形や色の変化など)の動きを即時に捉える(動画機能)を持つモノでした。
 現在の「映画や(ビデオなど)の動画」の原理は、子供の頃に遊んだ(パラパラマンガ)と同じで、 顔や手足など動く部分を僅かずつ描き替えた画面(やフィルム)を(連続的に素早く見せる(30枚以上/秒)ことで、恰も画面の人物などが動いたように思わせる、のです。

(動画の情報量)
 目が見る画像1枚の情報量は、百万画素*白黒(120レベル、カラー(8色*4=24)として、150億(Bit)にもなり、さらにこの画面を(1秒間30枚以上)を要するので・・・、現在の電子(画像処理)技術を以てしても、到底扱い得ない(トンデモナイ)莫大な情報量になります。
 しかし実際に、私達の目は、ビデオ以上に詳細で、色もキレイナ、躓きもない動画像を、見せてくれているのです。
 従って人の目は、私達がこれまで知らなかった(人知を超えた)全く新しい別種類の動画法を持っているとしか思えないのです。
 そのために、旧来の、多数の静止画を並べる方式を超えて、人の動画がどのように実現されたのだろうか?・・、という視点(※)から、視覚や画像を根本から見直すことが求められます。
 ※ ←(雲を掴むような話ですが、何とかその糸口を探ってみようと思うのです)

(輪郭抽出と線画)
 ビデオやムービーなど動画の画面は、同じ内容の画面が連続で並んだモノです、(注意深く観察すると画面は少しずつ変化しているのですが殆ど分かりません)。
 いまこの画面を(A0、A1、A2、・・)と名付けて、画面の変化を調べることにします。
(A1-A0=A1')(A2-A1=A2')(・・ と前画面と次画面の差は、画面のデッサン(鉛筆画)や輪郭を描いた線画になります。

(線画を集積)
 私達の目は、次々と送られてくる線画を(何枚も重ね蓄積)して1枚の画面を作り上げるのです。 だから画面の開始時点(気付かない)や画面内容が大きく切替わると、全画面完成まで少し時間が掛かります(明暗や色順応など)。
 ← データ収集は、掃引時の瞬時の値ですがこれを移動平均法で平滑にして画面平均値からの偏差値に作り変えて、色として判定をします。

15、立体感覚と定位

 立体感覚と定位

(画面の安定)
 人の目は、前方の景色を(レーダー方式で)円形画像として捉える、とお話をしました。
 カメラで写真を撮る場合、シャッターを押すと手元が動いてブレ写真になるように、人の目の場合、体の動きで何時も景色がブレ廻っていては、実用になりません。

(三半器官)
 眼球のすぐ奥には、三半器官と呼ばれる装置があって、体(頭)の動きや向きを検知して、目が見た画像を(その都度修正をして)安定した画像が見えるようになって居ます。
 筆者は、この三半器官が、単に体の姿勢だけでなく、全ての位置関係(東西南北、上下移動など)を掌握・整理をしている、と考えます。

(目のセンサー感度)
 (LMS)3種のセンサー感度が重なり(3原色の構想)は間違いでした。 では「LMSは一体何を測っているのか?」となるのですが・・、電波感度で(相互干渉せず)違いを生む要因は、一寸見当が付きません。
 そこで、筆者は電磁波の基本の(ウジデンの法則)を考えました。 ←(ここからは、少し難しいので(憶えなくてヨイ)話としてお聞き下さい)


(電磁気の現象)
 電波は発信源から目的地に伝わるとき(色々の所を通過し)電波は(ある程度) 減衰しますが(偏波面は変わらない)性質があります。
 太陽からの電磁波(光)は、地上の空気や他の物質を通る時の減衰は波長によって異なり(これが色の原因ですが)、この時の電磁波(電気と磁気)への作用は、物質の状態によって違う(※)ので、物質通過の経路の違いが(色)変化の原因になります。
 ※ ←(例えば (光が水面を通るとき、その場所や時間によって電気や磁気の影響(減衰度)が違うので、これを調べれば・・色の違いが出せます
 ← 上の図面は、地震波の進行(P)波と横波(S)波で、伝搬速度に違いがあるので検知出来るコトを示しています。
 ←(Sを光の強度(運動力・進行方向)、Lを(電気力)、Mを(磁気強度)と見ますが)、偏光程度を測るための基準値(垂直方向、磁気方向、明暗差(東西)方向)を三半器官から貰って、修正します。
 ← このセンサーデータは、取集時に移動平均法で、四六時中(常時)修正を行っています。
 ← 人も鳥と同じように、地球上の方位角のチェックを行い、周辺の(空間)景色を、地球儀を押し潰した(平面円板)の形で保存していると思われます。

※ 本項の要点は、光が物質を通過するとき、電磁気的な変化を受けますが、この違いを偏光で調べようとするものです。

(鳥の目センサー)
 鳥や虫・魚などの帰巣本能は、人の感覚器官より遥かに優れたモノだ、と思われます。 両眼を左右に持つ鳥は、一度に全方位を観察することが出来ますが、人の目は前方の景色を円形に(方向の異なる)一部だけしか見えないので、三半器官の情報で整理し、多数画面を張り合わせて球形の空間模様を作って保存しているようです。