フォト
無料ブログはココログ

« 桜町バスターミナル | トップページ | 【YouTube】OAGの調整 »

2019年9月12日 (木)

CMOS カメラって、どうなってんだっけ?

どうなってんだっけ...

CMOSイメージセンサーは、入射した光子量に応じて発電してるようなモノなんだと思うけど(すげぇ小さな太陽電池を並べてるような...違う?)、パソコンのアプリケーションとのやりとりって、どうなってるんだっけ?

制御するための関数だかAPIだかがあるんだと思うけど、それって、多分、Gain, Exp を指定して、データ取得依頼したら、Exp値分の時間経過後に、取得した各ピクセルごとの電気量を配列として返してくるって感じなんぢゃないかな?と思う(違う?)

もし、こうなってるんだったら、その関数だかAPIだかを拡張して、異なる設定値で2回繰り返すってのは難しいんだろうか?

 

Cmos

 

え?何したいかって?

On Axis Guide

 

Cmos2_20190912060201

実際には、

撮影側は数十秒とかになるだろうから、何回かに分割して取得したものを蓄積した結果を返して(実際にはCMOSから得た値を加算する)、

ガイド側は途中で割り込んで短時間の蓄積結果を都度返す

の繰り返しって感じになりそうだけど、これって、撮影用ソフトウェアだけの問題で済むのかな?

 

Cmos3

カメラの出力をタイムシェアリングする方式だと、撮影中はガイド用データが途切れちゃうな... 継続してガイド用データを送りつつ撮影するのなら、オートガイドの露出時間単位で撮影したデータを蓄積して長時間露出結果を作るとともに、数秒露出のデータをコピーしたものを仮想カメラ出力してオートガイド用アプリケーションで利用できるように撮影用アプリケーションがやってくれればいいのか。

 

そもそも前提が間違ってるんだっけ? APTがやってくれないかな... (もうある?)

 

« 桜町バスターミナル | トップページ | 【YouTube】OAGの調整 »

パソコン・インターネット」カテゴリの記事

撮影機材」カテゴリの記事

天体写真」カテゴリの記事

コメント

また面白そうなことを!
ちなみに、昔使っていたビットランの冷却CCDカメラのインターバルトラッキング機能がこれに近いですかね。露光・ガイドを交互に繰り返しながらスタッキングしてくれるという。

それそれ!
インターバルトラッキングって名前からすると、カメラの出力を 1:n の割合でタイムシェアリングしてるんぢゃないか?と思いますが(違う?)、その場合、オートガイド側が非連続になっちゃいますよね...
なので、短時間露出を繰り返して撮影する方式として、データを複写して2系統に分け、一方は累積して撮影データ、他方は都度利用してオートガイドに使うって方式が出来ないかなぁ~?と妄想してみました。

APT 実装してくれないかな...

CMOSって、全てのセンサでできるか判らないのですが、非破壊読み出し(読みだしても、電荷を残しておく)が出来る筈なんですよ。
https://www.jstage.jst.go.jp/article/itetaikai/02ann/0/02ann_0_108/_article/-char/ja/

で、当然、CMOSは画素ごとに部分読み出しができるので、撮像した画像から、星をいくつか指定して、その星付近の数画素のみ、部分非破壊読み出ししてくれれば、オンチップ・セルフガイドが実現する筈なんですよねー。
Z社とかQ社とか天文専用冷却CMOSカメラを標榜するなら、それくらいの機能実装してくれると嬉しいなぁ。


ちなみに、20年ほど昔のスターライト社のインターライントランスファCCD(IT-CCD)を使った冷却CCDは、インターレース読み出し(https://www.toa.co.jp/miru2/column/column6.htm)を利用して、オンチップセルフガイドを実現していました。
この場合、V方向の画素数が半分になるのですが、ス社のカメラでは、露出の途中から、偶数列と奇数列の役割を交替して(そうすると実質の露出時間半分なんだけど・・)たみたい。
ただ、当時のKodakのABG付きFFT-CCD(ST7のABG付きとかピークQE26%しかなかった)に比べてIT-CCDの方が感度が高かった(たぶんQE45%ほど)ので、実際に使ってる人の話だと感度が悪いとは感じないとのことでした。

残念ながら?その後、プログレッシブCCDが主流になってしまったので、ス社のカメラでもオンチップセルフガイドが出来るカメラはなくなっちゃった?です。

ちょっと解りにくかったので、自己レスです。
>露出の途中から、偶数列と奇数列の役割を交替して(そうすると実質の露出時間半分なんだけど・・)たみたい

要するに、インターレース読み出しの偶数列と奇数列のどちらかを、長時間露光の撮影列、もう一方を、ガイド用の短時間(数秒?)読み出し列として、使用していたようです。
・・が、片側だけを何度も繰り返し読み出しってできるのかなぁ・・と思ったりしますが、CCDってTDIとか読み出し制御はいろいろできるので、多分、できたんでしょうね ^^;

CMOS側で非破壊読み出し(こんな用語があったとは!)出来たら、1つのカメラでUSB端子を2つ付けて、異なる Exp で取り出せるって事ですかぁ~(Gainは一緒でも)。
なんか、割と簡単に実装できそうですよね...

冷却CMOSカメラメーカー、攻めまくってるようなので、これも実現してくれるといいですよねぇ~。

ガイドカメラもオフアキも要らない素敵な世界が待ってるはずなのに...

どうもー
私も同じようなイメージで、スタック制御とは別に同時にストリーミングできないものかと考えたことがあります。
ノイズの影響とか大きくなりそうな気もしますが。
そうなると、もはや民生品ではなく天文専用のセンサー素子に制御チップってことになるんでしょうね。高そう~(^^;
光学的にフィルターを作り、撮影に使わない周波数の光だけを集めてガイドに用いるなんて方法もあるようですね。

おおお、先生も考えられましたか~
カメラ側で実装してもいいし、撮影アプリケーション側で実装してもいいかなぁ?と思います。
簡単なのは、アプリケーションかなぁ?と。

SharpCap に LiveStack 機能ってのがあって、リアルタイムにコンポジットした画像を表示した機能だと思うのですが
(使った事ない)、それを流用すれば、簡単に実装出来そうな気がします。

カメラ側からのデータ取得は、オートガイドの時間間隔(数秒)にしておいて、アプリケーションで Live Stack した像を撮影画像として記録すれば済みそうです(撮影時間がオートガイド時間の n 倍しか指定できないけど、それは大きな問題とは思えないし)。

先生、実装してください (^o^) 特許は先生が出願していいよ(上から目線)。


コメントを書く

(ウェブ上には掲載しません)

« 桜町バスターミナル | トップページ | 【YouTube】OAGの調整 »