Hallo,
auch auf die Gefahr hin, daß ich mich als aktiver Sonnenfotograf jetzt völlig blamiere, muß ich hier mal eine Frage einstellen, die eigentlich in den Technikbereich gehört. Da es sich jedoch speziell um Sonnenfotografie dreht, dachte ich, daß die Frage hier besser aufgehoben ist. (Der Admin möge es verschieben und mir verzeihen, wenn er anderer Meinung ist.)
Die ATT steht vor der Tür und ich möchte mir eine Astro-CCD zuzulegen. Momentan bin ich jedoch etwas verwirrt und je mehr ich zu dem Thema lese um so verwirrter werde ich, da die hier oft gezeigten Ergebnisse nicht damit zusammenpassen. Momentan liebäugel ich mit einer CCD mit einer Pixelgröße von 4,6my.
Wenn man zum Thema Astrofotografie und CCD recherchiert, stößt man immer wieder auf eine Formel zur optimalen Pixelgröße (206,2 x Pixelgröße / Brennweite = Bogensek. pro Pixel)
Wenn ich ein Seeing von 2" zugrunde lege und die Formel etwas umstelle, komme ich auf 206,2/2*Pixelgröße=Brennweite ...oder noch kürzer 103,1*Pixelgröße=Brennweite.
Für meine EOS350D (6,4my Pixelgröße) würde ich nach obiger Rechnung auf eine optimale Brennweite von 659mm kommen. Wenn ich aber meine Aufnahmen, die mit 600mm(ohne Barlow), 1200mm (2xBarlow) bzw. 2400mm (4xBarlow) gemacht wurden, vergleiche, sind auf den Bildern mit 1200mm mehr Details zu erkennen, als auf den Bildern mit 600mm. Das gleiche gilt oft, aber nicht immer, auch für 2,4m versus 1,2m (wobei hier das Auflösungsvermögen meines 80er ED's warscheinlich der limitierende Faktor ist).
Wenn ich mir WL-Fotos z.B. von Gerhard anschaue, zeigt sich ja auch detailliert die Granulation. Dafür muß die Auflösung unter einer Bogensekunde liegen.
Wie paßt das alles zusammen? Trotzen die Sonnenbeobachter der Physik oder gilt die obige Rechnung nur für Langzeitbelichtung?
Wie läßt sich die (theoretisch) optimale Vergrößerung in Hinblick auf Öffnung, Pixelgröße und Wellenlänge (393,4nm und 540nm) bestimmen?
Gruß Stefan