Beiträge von tbstein im Thema „M57 Ringnebel, kurz belichtet“

    Hallo Andreas, hallo Ralf,
    vielleicht noch ein bischen Technisches bezüglich Ausleserauschen. Hatte ich schonmal in einem Thread http://www.astrotreff.de/topic…ichpage=3&SearchTerms=iso versucht zu ergründen.
    "
    1. Ausleserauschen
    Bei jedem Auslesevorgang schwanken die Pixelwerte um ein Mittelwert mit einem bestimmten Schwankungsbreite. Dieses Rauschen entsteht aufgrund der Kombination von verschiedenen elektronischen Auslesestufen. Die erste Stufe ist der Pixel selbst. Dieser besitzt ein (sehr geringes) Grundrauschen, aufgrund der elektronischen Ansteuerung der CMOS-Pixel. Die zweite Stufe ist eine Vorverstärkerstufe (Programmierbarer Operationsverstärker), welche die geringe Pixelspannung derart verstärkt, sodass der Eingansspannungsbereich des Analog-Digitalwandlers (ADC) möglichst optimal ausgenutzt wird (12 oder 14.bit). Dies entspricht dem ISO-Parameter. Die dritte Rauschquelle ist der Analog-Digitalwandler selbst. Dieser hat ein nicht zu vernachlässingendes Grundrauschen, wobei hier die ENOB (effektive number of bits) als Kriterium angegeben wird. Dh. eine Messung mit einem ADC mit nominell 14bit hat ein ENOB von ~11/12-bit, zumindest wenn relativ schnell ausgelesen werden muss (10MHz). Nach diesem Prinzip arbeiten die aktuellen Canon-Kameras (wenige schnelle ADCs). Deshalb muss die ISO bei den Canons relativ hoch gewählt werden, sodass dass Pixelsignal aus dem ADC-Rauschen auftauchen kann. Dh. das Ausleserauschen ist im unteren ISO-Bereich vom ADC dominiert (30e(rms)bei ISO100, und ab ~1000ISO dominiert das Pixelrauschen (3-5e(rms)), siehe auch http://www.sensorgen.info) Die neusten Nikons haben dagegen sehr viele (tausende) langsame ADCs (Column-ADWandler), welche mehrmals hintereinander ausgelesen und dann gemittelt werden. Diese Kameras sind im unteren ISO-Bereich nicht ADC-limitiert, sondern haben schon bei ISO100 etwa 3-5e(rms) Rauschen, welches dann aber nicht mehr weiter sinkt. Dh. die Canons habe im unteren ISO-Bereich einen Empfindlichkeitsnachteil, welches auch den Dynamikbereich einschränkt. Im oberen ISO-Bereich herrscht dann wieder Gleichstand.
    "
    Gruß Tino

    Hallo Andreas,
    ich würde eindeutig bei ISO1600 bleiben, das Hauptkriterium ist hier nur das Ausleserauschen. Hat erstmal ziemlich wenig mit der Durchsicht und dem Himmelseigenschaften zu tun, einzig wäre das Ausbrennen ein Kriterium.
    Gruß Tino

    Hallo Andreas,
    bezüglich der ISO-Kennwerte deiner Kamera (Canon 1100D) gibt es eine schöne Auflistung unter http://www.sensorgen.info/CanonEOS-1100D.html
    Hier zeigt sich, dass das Ausleserauschen (3e- rms) erst ab ISO1600 richtig gut wird. Bei kleinerer ISO verschenkt man eindeutig Empfindlichkeit, garade bei Kurzzeitbelichtungen.
    Man hat aber dann ggfs etwas mehr Dynamikumfang, sodass Ausbrennen nicht so schnell auftritt. Ist aber eigentlich eher für längerer Belichtungen relevant.
    Für Kurzzeitbelichtungen unbedingt ISO=1600. Wenn man die ISO weiter steigert, bleibt das Ausleserauschen dagegen konstant, es verschlechtert sich also nur noch der Dynamikumfang.
    Gruß Tino

    Nochmal hallo Andreas,
    das dein Seeing nie besser als 2" ist, stimmt eigentlich auch nicht, zumindest nicht, wenn man kleine Zeitskalen (Kurzzeitbelichtungen) betrachtet. Die Wahrescheinlichkeit mit 9Zoll beugungsbegrenzt aufzunehmen ist selbst bei unserem miesen mitteleuropäischen Seeing nicht Null, sondern einige Prozent. Siehe auch: http://www.telescope-optics.net/seeing_and_aperture.htm. Die eigentliche Begrenzung ist hier aber die Empfindlichkeit der Kamera. Die neueste Generation von Cmos-Kameras hat 1,5e-(rms) Ausleserauschen, also um den Faktor 4 besser als die ASI120mm mit 5-6e-(rms). Bedeutet 16 mal kürzere Belichtungszeit für die gleiche Grenzgröße. Die besten DSLRs liegen derzeit im höheren ISO-Bereich bei 2,5-3e(rms), also prinzipiell auch nicht schlecht. Es sind aber auch electron-multiplied-cmos chips in Entwicklung, die mglw. Subelektron-Ausleserauschen auch für den kleinen Geldbeutel ermöglichen. Auch non-destructive Auslesevarianten (Pixel wird ausgelesen, aber nimmt weiter Signal auf) sind in Entwicklung. Siehe und stöbere hier: http://image-sensors-world.blogspot.de/ mit den neuesten Entwicklungen auf dem Sensormarkt. Ich bin auch sehr gespannt was die Zukunft bringt.
    Gruß Tino

    Hallo Andreas,
    sorry für die verspätete Antwort. War auch eigentlich nur ein komischer Zufall, dass ich die EMCCD erwerben konnte. Die 3000mm Brennweite sind nur den relativ großen Pixeln (16um) geschuldet. Enspricht bei 5um Pixeln nominell halt nur etwa 1000mm Brennweite. Eigentlich müsste man die Brennweite mindestens um den Faktor 2x vergrößern. Das schöne an der EM-CCD ist aber, dass durch den EM-Gain das Ausleserauschen sehr gering wird. Prinzipiell entsprechen 300x EM-Gain bei ~32e (rms) einem nominellen Ausleserauschen von etwa 0,11e. Das Witzige ist aber, dass dieses Ausleserauschen hauptsächlich durch die Elektronik entsteht. Die eigentlichen Photonen kommen aber als ganzes an und sind somit als einzelne recht hohe Peaks, auf dem relativ niedrigen Ausleserauschen zu sehen. Ausserdem gibt es noch den sogenannten CIC (clock induced charge) und auch die einzelnen thermischen Elektronen spielen dann selbst bei wahnwitzigen -85°C Kühltemperatur ein Rolle. Trotzdem bin ich immer wieder erstaunt, was Ralf mit seiner doch recht einfachen Kamera erreichen kann. Hartnäckigkeit zahlt sich halt schlussendlich doch aus.
    Viele Grüße Tino

    Hallo Andreas,
    sorry für das theoretische Geplänkel. Bilder sprechen sicherlich mehr als Worte. Andererseits ist das prinzipielle Verstehen auch nicht schlecht, denn mit der Brute-Force und Holzhammermethode geht auch nicht alles. Habe schon ein bischen praktisch ausprobiert mit einer speziellen EMCCD-Kamera, welche eigentlich das NonPlusUltra für Kurzzeitbelichtungen ist. Komme aber leider nur am WE zum Bildermachen, aber der M57 war auch schon dran:
    M57, 18.07.2014, Meade ACF12" mit 3000mm Brennweite, Kamera Andor IXON EM+ DU897D, 512x512 Pixel, jeweils 16um, 50xEM-Gain, Stack aus 400x0,1s Belichtungen.

    Das Sampling beträgt hier 1,1arcsec/pixel und die schlussendliche Auflösung FWHM 2,5arcsec, eigentlich nur begrenzt durch das Undersampling.
    Dh, wenn das Sampling nicht entsprechend ist, brauch man eigentlich auch nicht Kurzbelichten. Wenn beispielweise das (Langzeit)Seeing etwa 3arcsec rms beträgt, ist man mit 1,5arcsec/pixel schon fast undersampled. Wenn man die Auflösung steigern möchte und Phasen von guten Seeing (vielleicht 2") nutzen möchte, sollte man schon mindestens 0,8arcsec/pixel haben. Bei 5u Pixeln wären das 1300mm Brennweite. Also ist der C9 mit 0,5er Reducer bis 2" Seeing ok. Wenn man besser als 2" werden möchte, dann nur mit längerer Brennweite oder kleineren Pixeln.
    Gruß Tino


    Gruß Tino

    Hallo Andreas,
    die Brennweite ist eigentlich nicht das Kriterium, sondern das Sampling. Man kann mit 1arcsec/pixel ohne spezielle Tricks, wie bspw. Drizzling, mit der Auflösung oder Spotgröße (FWHM) nicht besser als 2,5arcsec werden, auch nicht mit PSF-Schärfung usw. Ralf hat bei seinen Aufnahmen bspw. ein Sampling von 0,55 arcsec/pixel. Dies begrenzt die erreichbare Auflösung selbst ohne Seeing auf etwa 2,5*0,55arcsec, also in etwa die erreichten 1,3arcsec. Vermutlich hätte Ralf mit etwas längerer Brennweite noch einen Tick mehr Auflösung geschafft, leider sinkt aber die Helligkeit und das SN mit längerer Brennweite wieder, sodass hier das Alignment, also das Stacking erschwert wird. Die Bilder passen nicht mehr so gut aufeinander, sodass die Auflösung wieder schlechter wird.
    Gruß Tino

    Hallo allerseits,
    vielleicht nochmal eine kurze Zusammenfassung, was für eine gute Kurzzeitbelichtung alles benötigt wird.
    Primär ist die Kamera, welche diese Eigenschaften haben sollte:
    1. Ein möglichst geringes Ausleserauschen. Essentiell, geht nämlich für das erreichbare Signal/Rauschverhältnis im Quadrat ein.
    2. Eine möglichst geringe Auslesezeit, damit die Netto-Belichtungszeit maximiert wird (nicht zu viele Pixel, da sonst das auslesen ewig dauert, außerdem wird die EBV usw. sehr zäh)
    3. Eine hohe Quanteneffizienz, sowieso immer wichtig.
    Aufgrund der hohen Auslesegeschwindigkeit und dem geringen Ausleserauschen sind hier moderne Cmos-Sensoren kaum zu schlagen. Gekühlte und langsam ausgelesene CCDs sind da eher was für Langzeitbelichtungen.
    Wie kommt man zu einer hohen Auflösung?
    1. Oversampling ist angeraten (aber nicht übertreiben), also lange Brennweiten: 1arcsec/Pixel ergibt bestenfalls eine Spotgröße (FWHM) von 2,5arcsec (außer man "Drizzelt", ist aber ein anderes Thema).
    2. Das Bild oder zumindest einige Sterne sollte ausreichend Signal haben, sodass ein sinvolles Alignment durch die Stacking-Software erfolgen kann. Außerdem ermöglicht dies erst eine objektive Auswahl der jeweiligen besten Bilder, falls man die Auflösung maximieren möchte.


    Was sind die Vorteile von Kurzzeitbelichtungen:
    - höhere Auflösung möglich
    - höherer Dynamikumfang des gestackten Ergebnisses
    - nur ungekühlte günstige Kamera notwendig
    - keine großen Anforderungen an die Montierung und das Guiding
    Und die Nachteile:
    - viel längere Belichtungszeit erforderlich
    - gute Stackingsoftware notwendig
    - sehr hohes Datenaufkommen
    - schneller Rechner notwendig
    - höhere Anforderung an die optische Qualität des Teleskops
    - nur für Detailaufnahmen sinnvoll, große Felder sind kaum möglich
    Gruß Tino

    Hallo Ralf,
    bezüglich SNR hatten wir schonmal eine recht fruchtbare Diskussion. http://www.astrotreff.de/topic…PIC_ID=177404&whichpage=2
    Dort war meine Zusammenfassung diese:
    "
    Hallo Norbert, hallo Bruciesheroes,
    ich nehme alles zurück und behaupte das Gegenteil, zumindest teilweise. Ich habe diesbezüglich nochmal recherchiert und siehe da, es gibt verschiedene Sonderfälle:
    Die Hauptgleichung ist:
    S/N = R * t / sqrt ( R * t + RSky * t + RN^2 + Dark * t)
    Signal/Noise = Signal /Wurzel( ShotNoise + SkyNoise + ReadNoise^2 + DarkCurrentNoise)
    Sonderfall 1: Eine helle Quelle >>> ShotNoise dominiert >>> übrig bleibt: S/N ~ R*t / sqrt(R*t) skaliert mit der Quadratwurzel der Zeit
    Sonderfall 2: Der Himmelshintergrund dominiert >>> Kriterium (RSky*t > 3*RN) >>> übrig bleibt: S/N ~ R*t / sqrt(RSky*t) skaliert auch mit Quadratwurzel der Zeit
    Sonderfall 3: Der ReadNoise dominiert >>> Kriterium (3 * sqrt(RSky*t) < RN) >>> übrig bleibt: S/N ~ R*t / sqrt(RN^2) skaliert linear der Zeit
    Siehe auch hier: http://www.astro.wisc.edu/~she…st500/AY500_lect5.ppt.pdf (Seite 4, 5)
    "
    Prinzipiell ist die Definition des Übergangsbereichs ReadNoise dominiert oder Himmelshintergrund dominiert recht beliebig, bei Faktor 3x zwischen den beiden ist der jeweilige Beitrag des kleineren anscheinend zu vernachlässigen.
    Bezüglich der einzelnen Kurzzeitbelichtung bist du immer im Read-Noise dominierten Bereich, deshalb ist hier ein geringes Ausleserauschen essentiell. Das Stacking macht dann aus dem linearen Astieg quasi schon den Wurzelbetrag und wenn dein kleinstes Signal (oder die Grenzgröße) in den Übergangsbereich > Hintergrundlimitiert kommt, wird aus der wurzel(linear) ein wurzel(wurzel(linear)), also noch ein bischen langsamer. Der Übergangsbereich ändert sich eigentlich nicht.
    Flächige Objekte (bspw. der Himmelshintergrund) und Punktquellen sind im Idealfall schon recht unterschiedlich, in der Realität dagegen nicht.
    In der Realität wird nämlich durch die begrenzte optische Auflösung des Teleskops und das Seeing die Punktquelle zu einem Quasi-Flächenobjekt.


    (==>)Thomas. Die Aufnahme vom Einsteinkreuz mit 10" ist schon der Knaller. Habe selbst nur eine Semiamateuraufnahme mit 20" gefunden, wo die Trennung definitiv sichtbar ist. Ansonst nur Profiaufnahmen. Die 4 Komponenten sind aber schon etwa 1,6" und nicht 0,9" auseinander. Die 0,9" ist der Abstand zum Kern der "linsenden" Galaxie, welcher aber nochmal ein ganzes Stück schwächer ist.


    Gruß Tino

    Und nochmal hallo Ralf,
    wie schauts eigentlich als Ansporn zu neuen Sphären mit dem Einsteinkreuz aus. 4 kleine 18mag Sternchen mit 1,6arcsec Abstand. Habe noch keine erfolgreiche Amateuraufnahme dazu gefunden.
    Gruß Tino

    Hallo Ralf,
    vielleicht noch ein paar prinzipielle Betrachtungen und Einschätzungen zum Aufwand bei Kurzbelichtungen.
    Der Vorteil von Langzeitbelichtungen ist halt, dass entsprechend viel Signal gesammelt wird, welches dann im Verhältnis zum einmaligen Ausleserauschen ein gutes S/N ergibt. Man erreicht eine entsprechende Grenzgröße relativ schnell, wenn man das Dunkelrauschen mal vernachlässigt sogar linear, aber nur solange der Himmelshintergrund nicht bremst. Dann bleibt nur noch die Wurzel aus dem Anstieg übrig.
    Bei Kurzzeitbelichtungen muss man schlussendlich das SNR und die Grenzgröße durch Stacking generieren, wobei hier das Rauschen jeweils um die Wurzel der Anzahl der Auslesevorgänge steigt.
    Dh. im Umkehrschluss muss bei Halbierung der Belichtungszeit nicht einfach nur zweimal belichtet werden für die gleiche SNR, sondern 4mal. Ergibt somit die doppelte erforderliche Belichtungszeit. Dies gilt aber auch nur, solange der Himmelshintergrund nicht ins Gewicht fällt(ab 20mag wirds dann wieder für alle mühselig und die Langzeitbelichtungen verlieren wieder etwas an Vorsprung).
    Um hier beim Beispiel zu bleiben, 1,3s statt 30s benötigt überschlagen die 500fache Belichtungszeit für die selbe Grenzgröße. Das hieße, dass man mit einer einzelnen 30s Belichtung, bezogen auf die Grenzgröße ein ähnliches Ergebnis erzielen würde, wie deine Aufnahme mit 4,6h. Wie man aber sieht, ist das nicht ganz der Fall, da man durch die kurze Belichtungszeit eine höhere Auflösung erreicht. Diese bewirkt, dass sich die ankommenden Photonen nicht auf so viele Pixel verteilen und somit das Signal erhöhen. Wenn man von 3arcsec FWHM-Spotsize auf 1,3arcsec kommt, bewirkt dass ein etwa 5mal höheres Signal in dem kleineren Spot. Dh aus den 30s Equivalent werden jetzt wieder 5x30s, also etwa eine 150s Belichtung im Vergleich zu 4,6h.
    Gruß Tino
    Ps. Vielleicht bekommen wir ja dein Feuersymbol noch hin.
    Gruß Tino

    Hallo Ralf,
    ich fang mal an und helfe die 20 Antworten aufzufüllen ;). Die Pixel sind tatsächlich 3,75um, also dann 0,55arcsec pro Pixel (wo habe ich die 4,5um nur her, sorry). Somit dürfte das Undersampling bei ~1,2-1,3arsec FWHM liegen. Die 1,35arcsec Sternchen sind ja auch ordentlich getrennt. In den Rohdaten könnte man mal schauen auf wieviel % die Intensität zwischen den Sternchen absackt (ohne Schärfung). Das aber nur nebenbei. Trotzdem ein super scharfes Ergebnis - Chapeau!
    Ich versuche mich ja auch schon eine Weile mit meinem EM-CCD-Spielzeug. Hier sind aber die relativ großen Pixel (16um) eher ein Problem. Bei meinem 12"ACF (3m FL) beträgt das Sampling ohne Verlängerung etwa 1,1arcsec/Pixel, somit ist die FWHM auf etwa 2,5arcsec begrenzt, was auch in den Daten sehr gut zu sehen ist. Ich habe zwar schon mit einer 2x Barlow getestet, hatte aber noch nicht viel Zeit investiert.
    Bezüglich der Datenverarbeitung und dem Stacking gehe ich einen anderen Weg und zwar mit AstroImageJ. Dort kann man prima Macros programmieren und auch viele Algorithmen und Filter sind als Plugins frei verfügbar. Die Unmengen von Daten lassen sich dann einigermaßen komfortabel und automatisiert abarbeiten.
    Meine Erfahrungen sind hierbei, dass die finale Bildqualität sehr vom Alignment abhängt. Dazu verwende ich am hellsten Stern einen Gauss-Fit zur Schwerpunktbestimmung, außerdem ergibt dieser eine FWHM, welcher auch zur Qualitätseinschätzung des Bildmaterials dient. Alignen kann man aber auch auf den hellsten Spekle und/oder es gibt auch Alignmentmethoden, welche das im Fourierraum (FFT-Alignment) versuchen. Das Problem ist hierbei aber im Allgemeinen, dass die Alignmentsterne relativ hell und auch möglichst nahe am Objekt stehen müssen (Die Isoplanatic-Patch-Size und das Photionenrauschen machen einem das Leben schwer). Außerdem ist der Rechenaufwand ziemlich hoch. Alles in allem beschäftigt man sich dann hauptsächlich mit der Datenverarbeitung. Auch die erforderliche Gesamtbelichtungszeit steigt in etwa umgekehrt proportional, wenn man kürzer belichtet.
    Gruß Tino

    Hallo Ralf,
    klasse Ergebnis. Hast du mal die optische Auflösung ermittelt. Sollte etwa 1,5-1,7arcsec FWHM sein. (Im Bild sind auf 7Uhr etwa 1,2min vom Nebel 2 hellere Sterne zu sehen. Unterhalb des rechten Sterns sind ganz nah noch zwei kleinere zu sehen, welche lt. Hubbel etwa 1,35arcsec auseinander liegen. Eigentlich sind es 3Sterne, wobei der dritte etwa 0,7arcsec links neben dem linken Stern liegt.)
    Möglicherweise schlägt hier aber schon das Sampling zu. 4,5um Pixel bei 1400mm ergibt ja etwa 0,65arcsec je Pixel. Die FWHM sollte dann im Rohbild nicht viel besser als etwa (2,5*0,65)arcsec sein.
    Wie hast du die Bilder gestackt und wie die Qualität der Bilder bestimmt, mit AutoStakkert?
    Viele Grüße
    Tino