Beiträge von tbstein

    Hallo Thomas,
    war eigentlich aus einer Laune heraus, bzw. da mein Aufbau derzeit nur Indoor-Action erlaubt. Interessant ist es schon, inwiefern die Stackingsoftware mit diesen Effekten umgeht. Einfaches Addieren oder Mittelwertbildung kann diese Bildfehler leider nicht eliminieren. Medianbildung entfernt zwar die Cosmics, aber verschlechtert leider das Signal/Rauchverhältnis auf etwa 80% der einfachen Mittelwertbildung und erzeugt nur halb- oder ganzzahlige Zwischenwerte des Ausgangsbildes. Besser ist hier das Kappa-Sigma-Klipping. Dann wird zwar auch der Mittelwert gebildet, aber Werte, welche außerhalb definierter Grenzen (angegeben in Vielfachen des Sigma-Wertes) liegen, werden durch den Mittelwert ersetzt, also auch die Cosmics. Hier ist das SN besser als beim Median, aber schlechter als bei der einfachen Mittelwertbildung. Die beste Option ist aber anscheinend das Weighted Averaging (im THELI implementiert), wobei die Rauschstatistik für jeden Pixel ausgewertet wird und daraus eine Wichtung der Pixel und Bildinhalte erfolgt. Schlechte Pixel und Regionen werden einfach geringer gewichtet und das Bild quasi nochmal mit den definierten Wichtungen und definierten PSFs generiert, sodass hier das Signal/Rauschverhältnis sogar leicht besser als bei der Mittelwertbildung ist, nur ohne Artefakte und Cosmics.
    Gruß Tino

    Hallo allerseits,
    vielleicht renne ich ja offene Türen ein, aber ich möchte nochmal mein Verständnis der Problematik kundtun.
    Vielleicht als erstens nochmal vorab die mathematische Definition des Signal-Rauschverhältnisses ohne irgendeinen technischen Bezug:


    Signal = ist klar,
    Rauschen = (Standardabweichung = Wurzel aus (Varianz = Quadratische Abweichung vom Erwartungswert)).
    SN = Signal/Rauschen


    Was passiert, wenn man bspw. 2 Bilder summiert (oder coaddiert bzw. stackt):
    Gesamtsignal = Signal Bild1 + Signal Bild2 >>> einfache lineare Addition
    Rauschen = Wurzel aus ((Rauschen1)^2 + (Rauschen2)^2) >>> skalare Addition, da die idealerweise unabhängigen Rauschanteile senkrecht zueinander stehen
    Hier als praktische Beispiel 2 Bilder mit gleichem Signal (100ADU) und gleichwertigem aber nicht korrelierten Rauschen (10ADU):
    SN(1+2) = (100 + 100) / sqrt(10^2+10^2) = 200/14,14 = 14,14
    Das Einzelbild hat SN = 10 und das Summenbild SN = 14,14.
    Daher kommt die Regel, dass die Summenbildung bzw. das Stacking das SN mit dem Faktor: Wurzel aus (Bildanzahl) verbessert.
    Bei doppelter Belichtungszeit des Einzelbildes (20s) steigt das SN linear auf 20, aber nur wenn man davon ausgeht, dass das Rauschen konstant bleibt. Dies ist aber ein Sonderfall für kleine Signale, welche sich in der Größenordnung des Gesamtrauschens befinden (Schwache Sterne nahe der Grenzgröße).
    Dh. für schwache Signale nahe der Grenzgröße ist daher fakt, dass die Summe zweier Bilder (bspw. jeweils 10s belichtet) nicht einem 20s Einzelbild entspricht, sondern man braucht für das gleiche SN bei 20s Belichtung 4 Bilder a 10s, also netto 40s Belichtungszeit. Dieses Prinzip wird auch nicht durch eine Erhöhung der ISO (Verstärkung) abgeändert. Der Vergleich 1 Bild a 20s mit ISO100 mit der Summe zweier Bilder a 10s bei ISO200 ist meines Erachtens irreführend. Strenggenommen gilt das aber nur für den Sonderfall schwaches Signal.
    Bei hohem Signal (helle Bildbereiche) ist aber das Schrotrauschen dominant. Dieses skaliert mit der Wurzel des Signals. Dh das SN bei doppelt langer Belichtung wird nur mit Wurzel(2), und nicht mit den erwarteten 2, steigen. Hier fällt die "Ineffektivität" des Stackings nicht so auf.


    Gruß Tino

    Hier nochmal der größennormierte Crop (jeweils 8,2mm x 8,2mm, mit 512x512px) der beiden CCDs:

    Links KAF-3200ME, Rechts E2V CCD97


    Hier sieht man besser, dass auf dem KAF mehr los ist, aber zumindest sind die zusätzlichen Cosmics schwächer.
    Gruß Tino

    Hallo Stefan,
    danke für den Hinweis, ich habe mir das THELI im Internet mal angeschaut und die gewichtete Addition (entsprichte dem Kappa-Sigma-Clipping) ist anscheinend gut implementiert und meines Wissens das Optimum. Leider habe ich kein generisches Linux in Verwendung, sondern nur in ner Virtual Box. Dereizeit verwende ich normalerweise AstroImageJ, welches auch gute Dienste leistet. Dort kann man auch Outlier entfernen lassen, aber das ist nicht das Selbe, wie das Kappa-SigmaClipping bei der gewichteten Addition.
    Um vielleicht auch nochmal ne Einordnung der Magnitude der oben dargestellten Cosmics zu geben.
    Bei 1800s Einzelbelichtungszeit liegt die Grenzgröße grob bei 21-22mag, die hellsten Sterne ohne Ausbrennen liegen dann bei 16mag. Der Großteil der Cosmics entsprechen auf dem E2V-Sensor (0,67cm^2) 44 Fehlern mit 18-20mag. Die Spots haben leider auch die gleiche laterale Größe, wie ein gemeiner Stern. Also schon nicht ganz unproblematisch.
    Gruß Tino

    Hallo Ralf,
    soweit ich gelesen habe habe, stammen die Myonen aus Stoßkaskaden von ultrahochenergetischen Protonen mit Luftmolekülen der Atmosphäre. Diese sind zumeist nicht vom Sonnenwind, sondern kosmologischen Ursprungs und recht isotrop verteilt. Die Zenitbevorzugung ist wohl eigentlich der erhöhten Wechselwirkungswahrscheinlichkeit beim längeren Weg schräg durch die Atmosphäre geschuldet.
    Bezüglich des Vergleichs der Sensoren habe ich diese Parameter in die Berechnung einbezogen:
    Sensor1. E2V CCD97 ___ 512x512Pixel a 16um = 8,192mm x 8,192mm
    Sensor2. Kodak KAF-3200ME ___ 2184x1472Pixel a 6,8um = 14,85mm x 10,00mm
    Der untere letzte Vergleich der 512x512 Crops ist etwas irreführend, da das beim KAF nur 12,1mm^2 entspricht, wogegen der E2V bei dieser Cropgröße 67mm^2 hat, also etwa Faktor 6 mehr Fläche. Interessant ist auch, dass die Größe der Spots mit jeweils einigen wenigen beeinflussten Pixeln recht unabhängig von der Pixelgröße ist. Es sind halt mikroskopische Wechselwirkungen auf jeweils einzelne Pixel mit Überlaufen, oder mit dem (eigentlich photounempfindlichen) hinteren Substrat.
    Gruß Tino

    Hallo Jörn, hallo Stefan,
    danke für eure Rückmeldung. Ich habe mich zur Ursachenforschung haupsächlich mit dem Artikel http://snap.lbl.gov/ccdweb/groom.pdf vom Don Groom befasst. Entspricht inhaltlich dem oben angegebenen SPIE-Talk, ist aber noch etwas detaillierter ausgeschmückt. Die Pärchenbildung ist mir übrigens auch schon aufgefallen, eine richtige Erklärung dazu habe ich aber auch nicht. Sollten aber sicherlich auch Sekundärelektronen sein. Interessant ist, dass man gegen die Myonen wohl garnichts machen kann (außer in einen Bergwerksschacht ziehen), wohl aber gegen die Sekundärelektronen. Diese Sekundärelektronen entstehen ja hauptsächlich durch die Wechselwirkung hochenergetischer radioaktiver Strahlung (Gamma- bzw. Betastrahlung), welche durch Spuren radioaktiver Isotope in den Konstruktionsmaterialien der Kamera und den optischen Komponenten in der Nähe verursacht wird. Hier kann man beispielsweise auf die Verwendung unbdenklicher Materialien und u.u auch auch eine Bleifolie als Schirmung achten. Wie sinnvoll das ist, soll erstmal dahingestellt sein.
    Ich habe oben übrigens versucht die Rate der natürlichen Cosmics mit den in der Literatur angegebenen zu vergleichen, und die gemessenen 2,2events/cm^2/min für die erste Kamera passen ziemlich gut. Die Myonen kommen übrigens recht definiert aus dem Zenit, sodass hier die Sensororientierung (senkrecht, waagerecht) bspw einen Faktor 1,5 ausmacht. So sollten auch bei senkrechte Sensor mehr gerade Strichspuren im Verhältnis zu den Spots entstehen, als bei waagerechter Orientierung.
    Die Cosmics sind aber nicht nur von akademischen Interesse, sondern sie sind ein schwerwiegender und begrenzender Faktor für Langzeitbelichtungen jenseits der 10min-Marke. So sind dann in einem 10min Frame pro cm^2 etwa 22 Bildfehler, welche die Bildqualität schon merklich beieinflussen können. Zwar kann man beim Stacking zur Entfernung dieser Bildfehler statt der einfachen Mittelung oder Summation das Median-Stacking verwenden, aber dieses hat leider einen negativen Einfluss auf den Signal-Rauschabstand (SNR nur etwa 80% vom idealen (Summen)Stacking). Besser ist hier zwar das Stacking mit Kappa-Sigma-Klipping, welches die Artefakte auch ausmaskiert, aber auch hier verschenkt man SNR.
    Gruß Tino

    Hallo Andreas,
    natürlich alles nur Theorie. Ich glaube mal, dass nur sehr wenige Menschen an einem modernen Großteleskop die Okulare stecken dürfen. Aber siehe hier: http://www.perezmedia.net/beltofvenus/archives/001579.html .
    Hatte auch einen Rechenfehler:
    Seeing 0,5" ergibt 13mag + 13,6mag = 26,5mag ohne Himmelshintergrund.
    Seeing 2" ergibt 13mag + 10,5mag = 23,5mag ohne Himmelshintergrund.
    Seeing 3" ergibt 13mag + 9,5mag = 22,5mag ohne Himmelshintergrund.
    Das Begrenzende ist dann jeweils immer der Himmelshintergrund. Vielleicht realistisch 22mag.
    Die ideale Austrittspupille von 0,7mm erfordert dann aber eine Vergrößerung von 10000/0,7 also etwa 13000fach. Die Sterne werden dann schon sinnlos groß, bei kleinerer Vergrößerung wirft man aber Licht weg. Bei gerade noch sinnvollen 1000fach ist die AP schon 10mm, sodass nur noch 1/200 des Lichts ins Auge passen, also umgerechnet 6mag weniger.
    Gruß Tino

    Hallo Andreas,
    vielleicht eine kleine Abschätzung:
    Ausgangspunkt:
    Grenzgröße für d=100mm Teleskop unter normalem Himmel (FST6m) und normalem Seeing (3") lt. Internet etwa 13mag


    Großteleskop d=10000mm unter normalem Himmel (FST6m) und bestem Seeing (0,5"):
    Lichtsammelleistung aufgrund der Apertur: (10000/100)^2 abzüglich Obstruktion 30% = 7000
    Faktor aufgrund des besseren Seeings: (3/0,5)^2 = 36
    Insgesamt: 36 * 7000 = 252000 ergibt ln(252000)/ln(2,5)= 13,6mag Differenz
    Also visulle Grenzgröße ohne Hintergrund 23,6mag, mit FST6 Himmelshintergrund vielleicht 21-22mag, also schon ein bischen tiefer als deine 19mag. Alles bei idealer Vergrößerung mit 0,7mm Austrittspupille.


    Gruß Tino

    Hallo allerseits,
    beim Erstellen von langbelichteten Darks sind mir bei meinen derzeit verwendeten 2 Kameras einige Unterschiede bezüglich der auftretenden Cosmics aufgefallen.


    Die erste Kamera ist eine IXONEM+ DU897D EMCCD mit einem E2V CCD97 Sensor, welche als EMCCD oder wahlweise als normale Frame-Transfer-CCD betrieben werden kann. Der Sensor kann bis auf maximal -95°C gekühlt werden kann. Normalerweise verwende ich sie aber bei -85°C.
    Das nachfolgende Bild zeigt die Summation von 10x3600s + 10x1800s + 40x180s Dark-Frames, in Summe also 18h Belichtungszeit.



    Zu erkennen sind hier die unterschiedlichen Typen der Cosmics. Es gibt Spots (hochenergetische Myonen), Worms (Sekundärelektronen) und Straights (hochenergetische Myonen). Thermisches Rauschen und Hotpixel sind hier kein Problem.
    Ich habe die Darks mal statistisch ausgewertet, wobei als Schwellwert 100Elektronen gesetzt sind. Hierauf sind insgesamt 1611 Events zu sehen was einer Gesamtrate von 2,2(+-0,5) Events/Minute/cm^2 entspricht. 3 Events (große runde Blobs, alle auf 5Uhr) sind richtig hochenergetisch, mit jeweils aufkommuliert etwa 500ke-. Der Rest liegt bei <5ke- und beeinflusst durchschnittlich 3-4 Pixel.



    Die zweite Kamera ist eine Sensovation CoolSamba HR-320 mit einem Kodak KAF-3200ME Sensor, welcher im Vakuum maximal bis auf -48°C gekühlt werden kann. Normalerweise verwende ich sie aber bei -35°C.


    Das nachfolgende Bild zeigt die Summation von 40 x 1800s Dark-Frames, also 20h Belichtungszeit. Hier war ein Darkabzug notwendig, da selbst bei -35° vereinzelt einige Hotpixel stören.



    Dieses Bild ist ein 512x512 Crop des obigen Summenbildes, was einen besseren Vergleich mit der ersten Kamera ermöglicht (Bild nochmal rechts).



    Auch hier sind die unterschiedlichen Typen der Cosmics zu erkennen, wobei die Worms (hochenergetische Sekundärelektronen, hauptsächlich durch Beta- oder Gamma-Strahlung) bei der HR-320 gehäuft auftreten.
    Auch hier habe ich die Darks statistisch ausgewertet, mit Schwellwert 100Elektronen. Hierauf sind insgesamt 14762 Events zu sehen, was einer Gesamtrate von 8,1(+-0,5) Events/Minute/cm^2 entspricht. Also liegt etwa Faktor 3 zwischen den beiden.
    Die erhöhte Rate Worms beim KAF-Sensor ist möglichweise durch radioaktive Kalium-Isotope im Deckglas (vermutlich BK7) oder durch radioaktive Isotope im ITO(Indium-Zinn-Oxid) für die spezielle transparente Pixel-Kontaktierung verursacht.
    Wie relevant das für reale Langzeitbelichtungen ist, ist natürlich die Frage. Interessant ist´s allemal.


    Viele Grüße Tino

    Hallo Enrico,
    es gibt für normale Kameraobjektive zwei wichtige zusätzliche Parameter, welche im Gegensatz zu beispielweise einfachen FH-Objektiven erfüllt sein müssen. Erstens muss das Feld für das vergleichsweise riesige Vollformat korrigiert sein und zweitens müssen die Kameraobkjektive für Objektabstände von "relativ" nah bis unendlich funktionieren. Die FH-Objektive sind idealerweise nur für unendlich ausgelegt.
    Hierfür braucht man schonmal doppeltsoviele Linsenelemente, dass es einigermaßen funktioniert. Beugungsbegrenzt über das gesamte Feld ist bei Offenblende <4 nahezu unmöglich.
    Gruß Tino

    Hallo Carsten,
    die Widerstände sind für pull-down und müssen nur verwendet werden, wenn die Mikrocontrollerpins dies nicht bereits eingestellt haben. Bist du dir übrigens sicher, dass der HC05 5V-tolerante Eingänge oder Pegelwandler hat? In der Beschreibung muss diesbezüglich eine entsprechende Beschaltung vorgesehen werden.
    Gruß Tino

    Hi Gerrit,
    der ERN180 ist es geworden, da es ein gutes Angebot auf ebay gab. Waren etliche im Angebot und hab dann auch gleich 2 Stk. geschnäppert, für 105€ je Stk. Einen ERN480 hab ich auch, mit mutwillig gekürztem Kabel aus dem Elektroschrott gefischt, sollte aber trotzdem gehen. Ist ein Stück kleiner und hat nur die Mini-Durchgangsbohrung.
    Was ich bis jetzt noch nicht final realisiert habe, ist ein "Rs232-Tunnel", welcher optisches Guiding mit Überschreiben der Encoder-Korrektur ermöglicht.
    Gruß Tino

    Hallo Andreas,
    ja - niedrigerer ISO bei längeren Belichtungen ist wohl korrekt. Es kommt natürlich trotzdem darauf an was man genau möchte. Wenn man nur auf die Grenzgröße schaut, ist die Dynamik relativ egal. Wenn man aber das Bild ohne ausgebrannte Strukturen möchte, sollte man auf die Dynamik achten.
    Zur Bestimmung der Grenzgröße verwende ich immer Aladin und dann den USNO Katalog. Der geht recht tief, aber man muss die Magnitudenangaben umrechnen.
    Gruß Tino

    Und noch ein Nachtrag:
    Um die doch relativ kleinen Unterschiede in den Magnituden zu relativieren, muss man sich veranschaulichen, dass man um eine 0,2mag Differenz (ergibt linear 2,5^0,2=1,2) durch Stacking auszugleichen, die Anzahl der Belichtungen auf 1,2^2=1,44 erhöht werden muss. Also müsste man netto 1,44mal solange Belichten. 0,5mag ist dann schon der Faktor 2,5.
    Gruß Tino

    Noch als Nachtrag:
    Sensortemperatur 20°C >>> 40°C
    ThermalNoise 0,2e-/s auf etwa 1,8e-/s


    Fall 3a) 180s Belichtungszeit:
    ISO100 Grenzgröße(==>)SN3=17,5mag; DynamicRange=6,4mag
    ISO200 Grenzgröße(==>)SN3=17,8mag; DynamicRange=5,9mag
    ISO400 Grenzgröße(==>)SN3=17,8mag; DynamicRange=5,3mag
    ISO800 Grenzgröße(==>)SN3=17,9mag; DynamicRange=4,4mag
    ISO1600 Grenzgröße(==>)SN3=17,9mag; DynamicRange=3,6mag


    Die Grenzgröße geht um 0,4mag runter und der DynamicRange bei höheren ISO-Werten auch.


    Gruß Tino

    Hallo Andreas,
    die Randbedingungen wären zusammengefasst also:
    C925 (==>) f/6,5; 1100DA; Pixel=5,1um; ThermalSignal=0,2e-/s(==>)20°C; QE(skaliert da RGB)=20,00%; Apertur=0,235m; Obstruktion=33,00%; Gesamttransmission=0,540; Spotgröße=22um(==>)3"seeing; SkyBrightness=20mag/"^2
    Kameradaten von: http://www.sensorgen.info/CanonEOS-1100D.html
    ISO100 FW=32000e-; ReadNoise=19e-
    ISO200 FW=19000e-; ReadNoise=12e-
    ISO400 FW=9500e-; ReadNoise=6e-
    ISO800 FW=4800e-; ReadNoise=4,5e-
    ISO1600 FW=2300e-; ReadNoise=3e-


    Fall 1) 10s Belichtungszeit:
    ISO100 Grenzgröße(==>)SN3=14,9mag; DynamicRange=6,8mag
    ISO200 Grenzgröße(==>)SN3=15,3mag; DynamicRange=6,6mag
    ISO400 Grenzgröße(==>)SN3=15,8mag; DynamicRange=6,4mag
    ISO800 Grenzgröße(==>)SN3=16mag; DynamicRange=5,9mag
    ISO1600 Grenzgröße(==>)SN3=16,2mag; DynamicRange=5,3mag


    Fall 2) 60s Belichtungszeit:
    ISO100 Grenzgröße(==>)SN3=16,7mag; DynamicRange=6,7mag
    ISO200 Grenzgröße(==>)SN3=17,1mag; DynamicRange=6,5mag
    ISO400 Grenzgröße(==>)SN3=17,5mag; DynamicRange=6,1mag
    ISO800 Grenzgröße(==>)SN3=17,6mag; DynamicRange=5,5mag
    ISO1600 Grenzgröße(==>)SN3=17,6mag; DynamicRange=4,7mag


    Fall 3) 180s Belichtungszeit:
    ISO100 Grenzgröße(==>)SN3=17,8mag; DynamicRange=6,6mag
    ISO200 Grenzgröße(==>)SN3=18,1mag; DynamicRange=6,3mag
    ISO400 Grenzgröße(==>)SN3=18,3mag; DynamicRange=5,7mag
    ISO800 Grenzgröße(==>)SN3=18,3mag; DynamicRange=5,0mag
    ISO1600 Grenzgröße(==>)SN3=18,3mag; DynamicRange=4,2mag


    Ohne Gewähr, aber zumindest sagt das die Simulation. Kannst ja an deinen Daten mal prüfen, ob die Grenzgröße ungefähr hinkommt. Hängt aber sehr stark von der Spotgröße ab, wie weiter oben schon erwähnt.
    Also bei 180s ist ISO200 ok. Bei 60s solltens besser ISO400 sein und bei 10s ISO800. Für noch kürzere Belichtungen ISO maximal auf 1600. Besser wirds dann nich.
    Gruß Tino

    Hallo Gerrit,
    zu sehen gibt es eigentlich nicht viel, außer eine subprofessionelle mechanische Anbindung des Encoders an die G11. Ich kann aber mal ein paar Bilder machen.
    Vielleicht ein paar kurze Bemerkungen zum prinzipiellen Aufbau und der Funktionsweise.
    Aufbau:
    1. Mikrocontrollerboard STM32F3 Discovery (72MHz MPU + 4 x 5MHz 12bit-ADCs)
    2. DS3231 RTC als Schrittmacher für das Board und die ADCs (1kHz Rechtecksignal)
    3. Heidenhain ERN180 5000-Strich SinusEncoder mit d50mm Bohrung für Welle
    Kurze Funktionsweise:
    Der cos- und sin-Kanal des Encoders wird durch die getriggerten ADCs zeitgenau mit 12bit-Auflösung (alles mit DMA, da es möglichst schnell und direkt erfolgen muss) und 1kHz gemessen und aus diesen dann mit einer tan2-Funktion der Drehwinkel berechnet. Dies erfolgt zwischen den Strichen jeweils durch diese Berechnung, sodass man eine Auflösung von <0,5" erreicht. Über die absolute Genauigkeit lässt sich natürlich streiten, aber ich denke, dass sie über den Zeitraum einer Belichtung (3min) schon <1" ist. Der gemessene Drehwinkel wird dann mit einem errechneten Drehwinkel verglichen und daraus werden dann die Korrektursignale für den Autoguider generiert.
    Alles noch ziemlich experimentell, aber der PE der Montierung mit +-6" lässt sich recht reproduzierbar messen und passt auch gut mit dem am Stern gemessenen.


    Gruß Tino

    Hallo allerseits,
    ich habe zum Erzeugen eines stabilen Timerimpulses noch einen Vorschlag und zwar gibt es recht stabile RTC-Module , wie bspw. "DS3231 AT24C32 IIC Precision RTC Real Time Clock Memory Module For Arduino" für läppische 7€, welchen ich selbst auch schon verwendet habe. Diese sind temperaturkompensiert und mit:
    Accuracy ±2ppm from 0°C to +40°C
    Accuracy ±3.5ppm from -40°C to +85°C
    angegeben. Besser gehts mit Quarz eigentlich nicht und das sollte für die Montierung ausreichen. Ich habe damit übrigens einen STM32 Mikrokontrollerboard getaktet, welcher einen Sinusencoder an meiner Losmandy G11 ausliest und sozusagen wie ein TDM (TelescopeDriveMaster) die Achsbewegung korrigiert.
    Gruß Tino

    Hallo Stefan, hallo Andreas,
    ich glaube Wissen und Nichtwissen sind doch ziemlich relativ. Ich für meinen Teil versuche praktische und theoretische Erfahrungen übereins zu bringen, um die ganze Sache zu optimieren und ein Verständnis dafür zu bekommen, wo denn die effektivsten Stellschrauben sind und was eigentlich möglich ist und was nicht. Nach fruchtbaren Diskussionen hier im Forum glaube ich diesbezüglich, dass es viele Sichtweisen und Sonderfälle gibt, wobei beispielsweise bestimmte Parameter weniger oder mehr Einfluss haben. Genauso verhält sich das hier, so ist beispielsweise das Ausleserauschen für längere Belichtungen beinahe irrelevant und für kürzere die Hauptsache. Andererseits sind die grundlegenen Prinzipien bezüglich der Berechnung des zu erwartenden Ergebnises und somit eine praktische Empfehlung für die technischen Einstellungen nicht übermäßig kompliziert. Ich hatte mir diesbezüglich vor einiger Zeit eine Excel-Tabelle prgrammiert, welche vergleichend zu meinen praktischen Erfahrungen recht gut funktioniert. Ich habe dazu mal beispielhaft die Abhängigkeit des Signal-Rauschverhältnisses in Abhängigkeit von der Belichtungszeit bei Verdoppelung des Ausleserauschens berechnet:
    Belichtungszeit 1000s >>> SN bei 12e-(rms) = 1 >>> SN bei 6e-(rms) = 1,006
    Belichtungszeit 100s >>> SN bei 12e-(rms) = 1 >>> SN bei 6e-(rms) = 1,07
    Belichtungszeit 10s >>> SN bei 12e-(rms) = 1 >>> SN bei 6e-(rms) = 1,39
    Belichtungszeit 1s >>> SN bei 12e-(rms) = 1 >>> SN bei 6e-(rms) = 1,80
    Belichtungszeit 0,1s >>> SN bei 12e-(rms) = 1 >>> SN bei 6e-(rms) = 1,97
    Das SN bezieht sich hier auf die Grenzgröße und ist nur relativ angegeben. Es ist aber zu sehen, dass zwischen 100s und 10s das Ausleserauschen schon relevant wird. Man müsste dann etwa um den oben angegebenen Faktor länger belichten. Ob dieser Vorteil die Einschränkung des Dynamikbereichs rechtfertigt ist hier natürlich die Frage.
    Andererseits hat beipielweise das Seeing oder die Spotgröße ein im Verhältnis dazu sehr großen Einfluss, da sie Quadratisch eingeht:
    Spotsize 2,0" >>> SN = 3,7
    Spotsize 2,5" >>> SN = 2,5
    Spotsize 3,0" >>> SN = 1,7
    Spotsize 3,5" >>> SN = 1,28
    Spotsize 4,0" >>> SN = 1
    Vielleicht ist es hier sinnvoller zuerst die Kollimation und die Montierung zu optimieren, ...


    Gruß Tino

    Hallo,
    um vielleicht nochmal etwas kreativer zur Diskussion beizutragen. Aus meiner Sicht gibt es bezüglich der Deepsky zwei grundlegene Betrachtungsweisen der Bildqualität:


    1.) Die erreichte Tiefe, oder besser Grenzgröße.
    Hier ist das Signal defininitionsgemäß in etwa so groß wie das Rauschen. Hier spielen verschieden Rauschquellen, wie beispielweise das Ausleserauschen, der Himmelshintergrund und das thermische Rauschen die Hauptrolle. Außerdem hat auch die Spotgröße (FWHM), die Quanteneffizienz und natürlich die Belichtungszeit einen erheblichen Einfluss.
    2.) Das Signal/Rauschverhältnis bei größeren Signalintensitäten.
    Dies definiert die Qualität des Bildes in den Lichtern, wobei grobgesagt hier die Unterscheidbarkeit von Strukturen in verhältnismäßig hellen Nebel- und Galaxienstrukturen bestimmt wird. Hier ist die hauptsächliche Rauschquelle das Schrotrauschen (oder Shot-Noise). Dh. das S/N wird fast nur noch durch die Anzahl der ankommenden Photonen, oder besser durch die Anzahl der generierten Photoelektronen bestimmt, wobei hier das Rauschen als Wurzel aus der Anzahl der Photoelektronen berechnet werden kann. Da die generierte Anzahl der Photoelektronen hauptsächlich von der Quanteneffizienz abhängt, sind hier die Hauptparameter nur die Quanteneffizienz und die Belichtungszeit.


    Meine Empfehlungen wären daher:
    - Die Belichtungszeit der Einzelbelichtungen so groß wie möglich. Darauf achten, dass die interessierenden Strukturen nicht ausbrennen. Hierbei sollte noch eine Reserve (Histogrammbuckel sollte nicht zu weit nach rechts rutschen, vielleicht 1/5 vom Max) einkalkuliert werden, da die Kamera normalerweise entsprechend Hotpixel produziert, welche "ausgebrannt" auch nicht durch Darks auskalibriert werden können. Die Sterne sollten natürlich nicht eierig werden und eine gute Kollimation und Bildqualität ist anzustreben. Dies hat einen direkten Einfluss darauf, wieviele Photonen die einzelnen Pixel treffen und bestimmen das S/N maßgeblich. So geht die Spotgröße quadratisch ein und Pixel in einem 2"FWHM-Spot bekommt die 4fache Anzahl Photonen ab, wie einer in einem 4"FWHM-Spot.
    - Die ISO so hoch wie möglich. Für fast alle DSLRs ist das Ausleserauschen für höhere ISO-Einstellungen besser. Leider sinkt aber die Fullwellkapazität, dh. das max. detektierbare Signal ohne auszubrennen, und somit die Dynamik so ziemlich linear. Hier sollte man schauen, dass die hellsten interessierenden Strukturen möglichst nicht ausbrennen und die ISO diesbezüglich maximieren. Vom Ausleserauschen wird aber hauptsächlich die Grenzgröße bestimmt, die Qualität in den helleren Strukturen ist kaum beeinflusst.
    - Das Stacking hat das Problem, dass die Anzahl der Belichtungen nur mit der Wurzel eingeht und somit ist es besser 1*10min, statt 2*5min. Das Rauschen im zweiten Fall ist sqrt(2) mal größer, als im Fall ohne Stacking. Man bräuchte für das gleiche S/N die 4fache Anzahl halbsolange Belichtungen und somit die doppelte Belichtungszeit. Dies gilt für die S/N von hellen Strukturen, sowie die Grenzgröße gleichermaßen, wobei es beim letzteren wiederum Unterschiede bezüglich Hintergrundlimitiert oder nicht gibt.
    Viele Grüße und ein schönes Weihnachtsfest
    Tino

    Hallo Leute,
    die Diskussion ist schon recht alt und wird immer wieder aufgewärmt. Ich behaupte mal frech, dass die Schlußfolgerung auf der oben genannten Seite


    http://www.distant-lights.at/tipps_test_iso.htm


    so nicht stimmt. Die Bilder die dort gezeigt und ausgewertet werden, zeigen den speziellen Fall auf, in dem der Shot-Noise dominiert. Dh. das Rauschen wird nur durch die Wurzel der Anzahl der Photonen (oder besser durch die Anzahl der generierten Photoelektronen) bestimmt. Dh. wenn man statt 32min nur 16 min belichtet, kommen nur die Hälfte Photonen an. Da ändert auch die Verstärkung oder besser der ISO-Wert nichts dran. Mal als Rechenbeispiel:
    32min bei ISO100 entspricht 10000Photonen, ergibt ein ShotNoise von 100 (entspricht der Standardabweichung). Das Signal im Bild entspricht dann bei ISO100 (Bspw. 10Photonen je DN) 1000DN, das Rauschen käme dann auf 10DN.
    16min entspricht der Hälfte Photonen, also 5000, ergibt einen Shotnoise von 71 (entspricht der Standardabweichung). Bei ISO200 ist die Verstärkung aber doppelt so hoch (also 5Photonen je DN), sodass das Signal wieder 1000DN beträgt. Das Rauschen beträgt dann aber 71/5=14,2DN, ist also um den Faktor 1,4 höher.
    Wenn man hier vernünftig vergleichen würde, dann nur die gleiche Belichtungszeit, bei gleicher Helligkeit(selbe Anzahl Photonen), aber bei unterschiedlichen ISO-Werten.
    Viele Grüße Tino

    Hallo Ralf,
    ich hatte bezüglich der Direktabbildung schon vor einiger Zeit recherchiert und ein paar Berechnungen angestellt. Mit einem frequenzstabilisierten Shutterrad ist es ja anscheinend nicht so kompliziert, siehe hier:
    http://www.bph.ruhr-uni-bochum…andre_van_staden_2013.pdf und hier: http://www.threehillsobservato…/astro/astro_image_33.htm ,wohlgemerkt bereits im Jahr 2003 und mit einem 8"-Teleskop. Hier ist auch noch ein Thread: http://www.cloudynights.com/to…r-is-blinking-not-a-joke/ aber mit einem 1m Teleskop und mehr oder weniger direkt mit einer EMCCD (3x10ms Stack).


    Der Vorteil ist mit einem Shutterrad, dass man eigentlich eine selektive Langzeitbelichtung macht. Die Kurzzeitbelichtung hat das prinzipielle Problem, dass das Signal-Rauschverhältnis durch das notwendige Stacking schlechter wird, je kürzer die Belichtungszeit gewählt ist. Hier ist das Ausleserauschen das Maß aller Dinge.


    Ich habe mit einer selbsterstellten xls-Simulation mal die notwendigen Frames für ein bestimmtes SN berechnet:
    Randbedingungen: Helligkeit im Max=15mag, Sky=20mag/"^2, Skalierung 1,1"/px, FWHM=2,5", IXON 300xEMGain, Ausleserauschen etwa 32e-/300, also etwa 0,12e- (rms), 12"Meade ACF
    Belichtungszeit 30ms >>> Für SN=3 sind 25Frames notwendig, kommuliert 0,75s >>> Für SN=10 sind 3200Frames notwendig, kommuliert 96s
    Belichtungszeit 10ms >>> Für SN=3 sind 230Frames notwendig, kommuliert 2,3s >>> Für SN=10 sind 29000Frames notwendig, kommuliert 290s
    Belichtungszeit 5ms >>> Für SN=3 sind 950Frames notwendig, kommuliert 4,75s >>> Für SN=10 sind 120000Frames notwendig, kommuliert 600s


    Der Alignmentstern mit 12mag hätte übrigens im Einzelframe folgende SNR:
    Belichtungszeit 30ms >>> 1Frame SN=5,5
    Belichtungszeit 10ms >>> 1Frame SN=3,2
    Belichtungszeit 5ms >>> 1Frame SN=2,2
    Für sinnvolles Alignment eigentlich ab 10ms zu wenig. Zum Vergleich hat in den 60ms-Frames der 12mag-Stern eine SNR=7,8, womit das Alignment schon ziemlich gut klappt. Aber wenn die Montierung und das Guiding läuft, verschenkt man halt nur die Verbesserung der Auflösung (und natürlich Peakintensität) durch die mögliche Tip/Tilt Korrektur.


    Ich habe auch mal die Berechnungen für 5e- Ausleserauschen durchgeführt, alle anderen Parameter gleich. Hier macht sich der Vorteil eines möglichst niedrigen Ausleserauschens besonders bemerkbar.
    Randbedingungen: Helligkeit im Max=15mag, Sky=20mag/"^2, Skalierung 1,1"/px, FWHM=2,5", 5e- Ausleserauschen, 12"Meade
    Belichtungszeit 30ms >>> Für SN=3 sind 5600Frames notwendig, kommuliert 168s
    Belichtungszeit 10ms >>> Für SN=3 sind 410000Frames notwendig, kommuliert 4100s
    Belichtungszeit 5ms >>> Für SN=3 sind 6,5*10^6Frames notwendig, kommuliert 32500s


    Hier sieht man, dass die Belichtungszeit unverhältnismäßig stark mit der Belichtungszeit skaliert, zumindest sagt das die Simulation. Es gibt sozusagen für ein bestimmtes Ausleserauschen einen Übergangsbereich bezüglich Verkürzung der Belichtungszeit, ab dem das gestackte SNR unverhältnismäßig schlechter skaliert, sozusagen einen Knick. Bei 5e- Ausleserauschen liegt dieser Übergangsbereich bei etwa 1s (bei der EM-CCD liegt dieser im ms-Bereich). Bis dahin gilt etwa: Bei halber Belichtungszeit ist gestackt etwa die doppelte Nettobelichtungszeit notwendig. Eigentlich ist die 1s so ziemlich der Wert, den du als "sweet-spot" für deine Kurzbelichtungen verwendest.
    Gruß Tino

    Hallo Carsten,
    die Frage ist mit welcher Software. Die rosa Farbe ist wie oben geschrieben dem ausgeschalteten Weissabgleich geschuldet. Dh. das Verhältnis der Farben (RGB) zueinander stimmt nicht. In normalen RAW-Konverter, wie etwa ViewNx oder RawTherapee gibt es einen Unterpunkt, wo ein manueller Weissabgleich durchgeführt werden kann. Dazu wird eine kleine Fläche auf dem Bild ausgewählt, welche im besten Falle perfekt Weiss sein sollte. Daraus werden die Skalierungsfaktoren der Farben zueinander festgelegt, zumeist nicht unter dem Namen "Skalierungsfaktoren", sondern als "Farbtemperatur" oder "Farbton". Diese könnte man erstmalig durch das Fotografieren eines weissen Blattes bestimmen, und diese Werte dann für die Astrofotos anwenden.
    Gruß Tino