画像データの集計 


 画素データの集計

 (画素データ)
 人は目前の視野範囲を、百万画素 (1000X1000コ)程度に分割して、物の形や色を見ているようです ←(目の分解能や錐体センサーの数から)。
 網膜のセンサーの分布密度が (上の図中ほど) に示されています。 L(赤)センサーが、M(緑)センサーより多く分布し、S(青)センサーはごく僅かです。 棹体センサーが遥かに多く分布とのことですが、(透明明構造?なのか)この写真では見えません。
 なお画素は、データの管理単位(神経の系統)であって。具体的な視野範囲の(境界線や仕切り)ではないようです。
 (画像データの集め方)
 まず目前の視野範囲を、適当な大きさ(画素単位)に分割します。 だから(画素は一定の範囲)のことで、その範囲内には、棹体センサーの明暗信号や錐体センサーからの(信号データ)が居ます。
 これらは、別々(L・M・S・棹)に集計され、「画面全体の平均値」と「個々の偏差データ」にされます、
 ← 実際には、個々のデータ入力の都度、移動平均と言う手段で、いきなり(偏差値と平均値を)出します ←(この方が手順が単純です)。
 後ほど、色として使うときは、偏差値データから色を再現し、明度基準は、棹体センサーからのデータを利用します。
* 画面データは、画面位置を指定して順次集めれば、再生時には、順序に従って再生すると正しく復元できます。1画面の全データを集めることを「掃引」と呼びます。(具体的なデータ収集法等については、2011.2月頃の本講を参照して下さい)
(棹体センサー)
 棹体センサーは 、明暗(白黒)のみのようですが、総数(1億2線万コ)なので、1画素に100コ程度分布することになります。 このままでは莫大なデータ量になるので、画素範囲の白黒データを集計して(数値データ)として扱う・・ と思われます。
 個々のセンサー感度は非常に高く(感光した光粒が数えられる)ようです。 感光したセンサーは一定時間データを保持しているので、弱い光(夜の星など)でも同じ位置なら、蓄積されて見えるようになります
(錐体センサー)
 3種の錐体センサーは「色センサー」とされていますが・・ 、、電磁波の波長分布を調べていて、「直接色データ」 の出力はしないようです。 → 具体的には、(L-M’)(S-M’)(M→M’)の形で、M’は空気や光源の色・・で演算して、感度出力を出すようです。
 色データは明るい時で強力なので、一画面の掃引ごとに集計とクリアを繰り返し行います。
 → (Sセンサーは数が少なく(地上と空を)見分けるためのようで、詳かい物の形ではナイようす)