deutliche Verbesserungen beim Ausleserauschen

  • Hallo FrankH,
    der Vergleich mit der 30s Belichtung ist vielleicht etwas kurz gesprungen, da das Objektiv (5omm(==>)F/4) auch nur 12,5mm Öffnung hat, also 8fache Zeit auf keinen Fall. Richtig ist aber, dass die richtigen tiefen Kurzzeitbelichtungen sich wohl nicht mit mechanischen Verschluss machen lassen, wohl aber mit Rolling- oder Global-Shutter (Video-Modus).
    Dass die 5um Pixel beim Newton ausreichen, liegt aber eigentlich nicht an der Auflösung, sondern am Seeing (bei 3arcsec ~10um Spot). Zumndest Lucky-Imaging könnte hier was reissen.
    Gruß Tino


    ps. Wie war der Spruch nochmal: Die Praxis ist in der Theorie näher an der Theorie, als in der Praxis.

  • Hallo zusammen,


    (==>)Martin: Joah, 13mag bei 4min Belichtungszeit. Wie FrankH schon richtig sagt: Geht das nicht auch mit einer kürzeren Belichtungszeit? Also interessant wäre das Bild wenn du es dreimal gemacht hättest, einmal so wie es ist, dann mit 30s subframes und dann eine einzige 4 min Aufnahme. Und dann das SNR in allen drei Bildern bestimmen.
    Um ein schönes DeepSky Bild zu erhalten müssen wir nach wie vor lange Belichten. Bei 1s Belichtungszeiten haben wir dann am Ende eine schöne Datenmenge von sagen wir mal rund 10.000 RAW Files hihihi:-)


    Ich habe den Eindruck das bestimmte Themen einfach populärer sind als andere. Kommt jemand und sagt: Hey meine Kamera hat ein total niedriges Ausleserauschen, sagen alle so: Hey wow! Toll ist ja super!(bringt aber irgendwie gar nix!). Kommt jemand und sagt (wie oben FrankH): Ich gebe zu bedenken, das Objekt hat auch Rauschen. Sagt keiner was:-)


    Am Ende des Tages (oder der Nacht) zählt zum heutigen Zeitpunkt aber nur die letzte Aussage! Erst an dem Tag wo wir mit einer DSLR echtes Lucky Imaging machen können, verändert sich die Astrofotografie Welt. Und ich bin da nicht so optimistisch das es bereits in 2-3 Jahren so weit ist. Erstmal ne EMCCD besitzen die nicht soviel wie ein Kleinwagen kostet, das wäre ja schonmal was.


    (==>)Tino: Wir sind uns ja im Prinzip einig, nur wie gesagt ich bin da nicht ganz so optimistisch. Aber du hast Recht, die Entwicklung geht steil voran.
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bezüglich Lucky-Imaging und Deepsky habe ich schon ein bisschen herumprobiert, denn ich nenne eine ausgewachsene EM-CCD mein eigen. Ich bin aber mit meinem 12er Meade-ACF nicht richtig zufrieden, stelle mich anscheinend zu Blöd beim Kollimieren an.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Darum mache ich nen grossen Bogen um alle Teleskope die kollimiert werden müssen:-) Aber ein wenig lustig ist es schon, gibs zu: Eine EMCCD besitzen und an der Kollimation des SC scheitern:-) Aber ich bin da ganz bei dir. Ist nur leider Wasser auf die Mühlen bestimmter Leute.


    CS Frank

  • Hallo,


    ja, so ganz kurze Belichtungen machen mit eine DSLR keinen wirklichen Sinn.


    Sobald das Wetter es zuläßt werde ich eine aussagekräftigere Testreihe wagen.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ich habe den Eindruck das bestimmte Themen einfach populärer sind als andere. Kommt jemand und sagt: Hey meine Kamera hat ein total niedriges Ausleserauschen, sagen alle so: Hey wow! Toll ist ja super!(bringt aber irgendwie gar nix!). Kommt jemand und sagt (wie oben FrankH): Ich gebe zu bedenken, das Objekt hat auch Rauschen. Sagt keiner was:-)<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Stimmt. Das liegt bei m ir zumindest daran, dass ich die Begrifflichkeiten ...


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">das finde ich ja sehr schön das immer wieder auf das Photonenrauschen des Streulichtes hingewiesen wird,
    aber auch das aufgenommene Objekt selbst hat Photonenrauschen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    noch nicht richtig einordnen kann, bzw. mir hier noch Wissen fehlt.


    Viele Grüße
    Martin

  • Hallo


    das Sinnvolle hat wohl irgendwo seine Grenzen,
    betrachtet man die Timelapsvideos dann muß wohl kurzbelichtet doch was gehen.
    Irgendwas geht immer.


    Gruß Frank

  • Hallo,
    vielleicht mal ein kleines Beispiel für ne relativ lange Kurzzeitbelichtung mit ner EM-CCD.
    Stephans-Quintett vom 18.10.2014


    Einzelbild 0,5s, Meade 12ACF(==&gt;)f/10, Andor IxonEM+ 897D, EM-Gain 300x,
    LosmandyG11-Gemini, unguided


    Stack 10000 x 0,5s (83min), Meade 12ACF(==&gt;)f/10, Andor IxonEM+ 897D, EM-Gain 300x, LosmandyG11-Gemini, unguided, Gamma-gestretcht


    Gruß Tino

  • Hi Tino,


    das ist ein super Beispiel fürs Photonenrauschen:-) Prima!
    Lucky Imaging ist es aber ja eigentlich dann nur, wenn du auch die schlechten Bilder aussortierst. Dazu muss zumindest für DS Objekte erst noch eine Software erfunden werden.


    Dennoch Respekt, vor allem was die Kamera angeht. Neu gekauft?


    CS Frank

  • Hallo Frank,
    Kamera ist neu so ziemlich unbezahlbar. Habe sie gebraucht als "Mikroskopkamera" auf eba erstanden. War nervenaufreibend aber ein echter Schnäpper. Bezüglich Lucky-Imaging mach ich am besten mal ein neues Thema auf. Hier gibts ganz schön was zu diskutieren. Man sieht aber, dass selbst das wildeste Rauschen Informationen birgt.
    Gruß Tino

  • Hi Tino,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Man sieht aber, dass selbst das wildeste Rauschen Informationen birgt. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das ist immer wieder faszinierend. Der gute Norbert hat dazu auch echt schöne und anschauliche Experimente gemacht. Es ist aber wichtig für alle zu verstehen, das wir hier von naturgegebenen Fakten sprechen, eben dem Photonenrauschen. Dein Beispiel zeigt wie kein zweites, wie wichtig dieser Aspekt in der Astrofotografie ist. Mir geht das immer zu sehr unter in allen Diskussionen.


    CS Frank

  • Tino,


    hast Du hier schon mal geschaut:
    http://www.scienceticker.info/news/EEVZpkplEFnuMDCrFG.shtml
    Sotwaremäßig ist das echt ein Problem mit Lucky Imaging, wenn nur diffuse Objekte da sind, woher soll man bei den relativ verrauschten Einzelbildern dann sehen, wie die Seeing-Qualität wirklich ist ? Die Max-Planckler haben sich da nicht umsonst an Sternhaufen gehalten...
    Aber wer mir vor zwanzig Jahren von Programmen wie Avistack und Co erzählt hätte, den hätt ich damals auch nur belächelt.
    Ein anderes Problem an deiner Aufnahme: das horizontale Blooming.
    (weiß jetzt nicht, wierum Du ausgelesen hast, eventuell siehst Du hier schon das Verschmieren durch den FrameTransfer Betrieb, das wäre auch ein Hindernis beim Lucky Imaging. Könnte aber auch ein schlecht eingestelltes Clocktiming sein.


    Martin: Je kürzer Du ausliest, desto weniger Photonen hast Du. Dein Objekt schickt die Photonen nicht schön regelmäßig auf die Reise, die Entstehungsprozesse sind statistischer Natur, und wenn Du im Schnitt 100 Photonen hast, kommen eben mal 100+/- 30 pro Pixel an. Im täglichen Leben hast Du es mit Milliarden und mehr von Photonen zu tun, da fällt der prozentuale Fehler nicht so auf.
    Die Kamera von Tino hat bei den angegebenen Einstellungen ein effektives Ausleserauschen von unter 1 Elektron rms, daher kann er durchaus ein paar einzelne Photoelektronen sehen, aber sowohl Signal als auch der Dunkelstrom erscheinen jetzt nicht mehr schön gleichmäßig, sondern äußert sich in einzelnen Punkten, die statistisch übers Bild verteilt sind. Die sind wiederum aber auch nicht alle gleich hell.
    Das Bild sieht aber immer verrauscht aus, weil der Signalpegel einfach zu niedrig ist. Je rauschärmer eine Kamera, desto niedriger ist die Nachweisgrenze, aber je niedriger diese ist, desto weniger Photonen hast Du, entsprechend verrauscht sieht es aus.
    Das ist der gleiche Grund, warum ein Bild mit hohem Iso und mehr Licht mehr rauscht, obwohl das Ausleserauschen niedriger ist: Du verwendest weniger Photonen !
    Deswegen platzt Frank auch immer der Kragen, wenn bei jeder neuen Kamera lautstark verkündet wird, wieviel Belichtungszeit man "sparen" kann.


    Eine kleine Bemerkung zur Sensorgen Seite: Wie kommen die denn bei einigen Kameras auf 278% QE ? Ich glaube, da wird auch einiges an Schrott gesammelt...


    Viele Grüße
    Norbert

  • Hallo,
    zur EM-CCD und zu dem was man in den Bildern sieht gibts schon recht viel zu sagen.
    Vielleicht nochmal kurz zu den gewählten Parametern und Einstellungen:
    512x512 Pixel a 16um
    Auslesegeschwindigkeit 5MHz
    EM-Verstärkung 300x
    Auflösung 14bit mit 12e-/DN
    Register-Ausleserauschen 32e-rms
    Quanteneffizienz(Backilluminated) im Maximum 90%
    Kühltemperatur -85°C
    Belichtungszeit 0,5s


    Vereinfacht:
    Das Register-Ausleserauschen von 32e- und 300x EM-Verstärkung ergeben nominell etwa 0,1e- rms Ausleserauschen auf den Sensor bezogen. Im Bild entspricht das einem Rauschen von 3digits rms. Jedes Elektron erzeugt einen Spike von 25digits. Es gibt hierbei aber einige parasitäre Effekte, welche die Elektronen parallel zu den Photonen generieren. Siehe auch: http://www.emccd.com/downloads/pdfs/Optimising%20EMCCDs.pdf
    1. CIC clock-induced charges, alle 200px (Korrektur) ein Elektron, dominant
    2. DunkelStrom, deshalb Kühlung auf -85°C, erst dann vernachlässigbar
    Dh. die Wahrscheinlichkeit, dass die Spikes jeweils einem Photoelektron entsprechen ist aber trotzdem relativ hoch.


    Hallo Norbert,
    dass das mit dem Lucky-Imaging nicht ganz so geschmeidig geht, habe ich schon bemerkt.
    Erstens sind die Datenmengen enorm. Dann muss für ein ordentliches Alignment ein Stern mit ordentlichem S/N vorhanden sein. Dann ist die Frage wie man Alignt (Centroid oder Brightest-Pixel). Dann ist der Quality-Auswahlalgorithmus (FFT, Kantendetektion, oder, oder) problematisch. Ich bin derzeit übrigens Programmtechnisch mit Astro-ImageJ unterwegs. Dort hat man relativ viel Kontrolle, über das was im Programm passiert. Das horizontale Blooming ist echt hartnäckig. Ist auch keine prinzipielle Frage des Timings, zumindest habe ich es nicht hinoptimiert bekommen. Dann gibts in der linken unteren Ecke einen einzelnen Pixel, welcher Elektronen fängt (Electron-Trap). Im Summenbild verschmiert, da das Alignment zuschlägt. Würde man bei ner gewöhnlichen CCD nicht bemerken, aber wenn nur einzelne Elektronen unterwegs sind.


    Gruß Tino

  • Hallo


    Das mit dem Photonenrauschen
    Erklärt sich aus dem Photon selbst, es ist masselos und bewegt sich mit Lichtgeschwindigkeit.
    Helles Licht oder schwaches Licht kann also nicht über die Energiemenge des einzelnen Photons definiert werden.
    dann bleibt nur noch die Dichte des Photonenschwarmes, also die Räumliche und zeitliche Verteilung meinetwegen in einer "Momentaufnahme" von einem Kubikmeter.


    Gruß Frank

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: resuah</i>
    <br />


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">das finde ich ja sehr schön das immer wieder auf das Photonenrauschen des Streulichtes hingewiesen wird,
    aber auch das aufgenommene Objekt selbst hat Photonenrauschen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    noch nicht richtig einordnen kann, bzw. mir hier noch Wissen fehlt.


    Viele Grüße
    Martin
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Die Photonen vom Objekt kommen zu zufälligen Zeitpunkten auf die Pixel. So sind insbesondere schwache, flächige Objekte wie Nebel in deinem Beispielbild nicht nur verrauscht durch das überlagerte Ausleserauschen, sondern auch durch einer unzureichende Informationsmenge des Signals selbst. Je länger bzw. je mehr Informationen/Photonen man zählt, umso geringer wird der Fehler und umso ähnlicher wird das Bild dem wahren Objekt.


    Ist wie bei einer Aktivitätsmessung einer sehr kleine Stoffmenge eines radioaktiven Isotops. Das Zählrohr macht nur ab und zu mal klick, dann minutenlang gar nicht und dann plötzlich kommen 4 Einschläge. Mißt man nur kurz, ist der Fehler sehr groß. Je länger man mißt, umso mehr klicks bekommt man. Bezogen auf eine Zeit nähert man sich mit der so ermittelten Zählrate mit immer längeren Zeitintervallen, bzw. mehr Zählereignissen (Photonen) der Wahrheit immer näher an.


    Der Fehler sinkt hier wie 1/sqr(Ereignisse). Und da unsere Ereignisse linear mit der Zeit zunehmen kann man auch statt "Ereignisse" die "Zeit" setzen.


    Und diese Photonenrate (phot) addiert sich mit dem Ausleserauschen (RN):


    sqr (Phot * t + n * RN²)


    Man sieht, wenn man lange belichtet oder das Objekt sehr hell (hoher Photonenfluß/Tageslichtaufnahmen/helle Sterne) ist, spielt das RN kaum eine Rolle.
    Nimmt man jedoch sehr schwache Nebel auf, wird das Photonenrauschen des Objekts zunehmend vom Kamerarauschen dominiert. Der Signal-Rausch-Abstand hängt im Extremfall bei sehr schwachen Lichtquellen dann praktisch nur noch von sqr(n)*Phot*t/RN ab. Der Term fürs Photonenrauschen wird unter praktischen Gesichtspunkten bedeutungslos. Daher ist eine rauscharme Kamera für kurze unterbelichtete Fotos ja so im Vorteil. (siehe Tinos Beispiel)


    Deine Frage zum Bild von Tino:
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Sind das Rauschen im Einzelbild einzelne Photonen des Hintergrunds?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das kann niemand für eine Einzelaufnahme sagen. Eine Fluktuation im Helligkeitswert eines Pixel kann durch Kamerarauschen oder über Photonen geschehen. Wieviele Photonen dann zu einem disktreten Zählwert beitragen kann man auch nicht exakt sagen. Selbst das hängt vom Zufall ab. Mal eines, mal 4, mal 2....genau das ist Rauschen. Die Wahrheit könnte man erfahren, wenn man unedlich viele Stichproben/Messungen/Aufnahmen machen könnte. In der Praxis geht das nicht, also begnügt man sich mit einer ausreichenden Zahl von Messungen/Aufnahmen. Dann kann man eben zum Beispiel behaupten eine Kamera detektiert im Mittel 75% der einfallenden Photonen und soundsoviel Photonen sind im Schnitt nötig damit 1 ADU gezählt wird, mit einer Abweichung von x bei 1000 Messungen. Für die Einzelmessung bei sehr kleinen Zählwerten wird das x jedoch so groß, dass die Aussagekraft sehr klein ist.


    Gruß,
    Jo

  • Hallo Jo,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das kann niemand für eine Einzelaufnahme sagen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das stimmt natürlich, aber im obigen Beispiel der 0,5s Aufnahme ist das Photonenrauschen absolut dominant. Das sieht man schon an den ausgefransten Sternen. Würde man den Dunkelstrom aus der Aufnahme abziehen würde man es wohl kaum merken.
    Eine schöne Anschauung, wenn auch simuliert gibts bei Wikipedia: http://en.wikipedia.org/wiki/Shot_noise



    CS Frank

  • Hallo Martin, Tino und ihr anderen,
    das Rohbild der emCCD ist wirklich sehr spannend, habe ich so auch noch nie gesehen. Frank hat auf die ausgefranzten Sterne aufmerksam gemacht. Besser und quasi live kann man das Photonenrauschen gar nicht sehen.
    ich kann hier mal die 2. Hälfte zu einem Vergleich beitragen.



    Das Bild ist ein x-beliebiges aus einem Film mit der DMK und dem 618er Chip.(Hotpixel wurden entfernt)C11, also ähnliches Gerät.
    Das hier ist in etwa die 10 fache Belichtungszeit und das bei Blende 5. Real sind also 40 mal so viele Photonen auf den Chip gekommen. Betrachtet man die beiden Bilder ganz, ganz grob mal als gleich stark verrauscht, so kann man im Umkehrschluss das Ausleserauschen abschätzen, das eben 40 mal so stark ist. Dieser Wert passt dann auch einigermaßen zu den angegebenen Daten.
    Zurück zu den DSLRs, hier hat sich, im anfangs angesprochenen Vergleich, der Wert um den Faktor 4 verbessert. Dies nur, um neben all den Zahlen, auch einen visuellen Eindruck zu bekommen.
    Der Begriff Lucky-Imaging stört mich übrigens, da er nicht passt. Es ist immer von Vorteil mehr Photonen einzusammeln, als nur die Guten. Mal abgesehen davon, dass die (Planeten)-Softwaren die Qualitätsanalyse im Deep-Sky-Bereich nicht vernünftig beherrschen, ergibt ein Bild mit 100% Verwendungsrate am Ende, also nach einer Schärfung, immer ein besseres Bild als z.B. bei 30% Verwendungsrate und entsprechend weniger Schärfung. Das gilt übrigens auch für Planeten.
    Der Begriff "Aktives-Imaging" oder "Adaptives-Imaging" (besonders, wenn jeder helle Stern einen eigenen Alignment-Punkt bekommt), wäre wohl treffender.
    Viele Grüße,
    Ralf

  • Hallo zusammen,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Eine kleine Bemerkung zur Sensorgen Seite: Wie kommen die denn bei einigen Kameras auf 278% QE ? Ich glaube, da wird auch einiges an Schrott gesammelt...<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    das vermute ich allerdings auch, mich würde ohnehin mal interessieren aus welchen Quellen die QE zahlen für die DSLrs kommen.


    Zum Thema LuckyImaging:
    was spricht dagegen einfach die PSFs der Sterne zu vergleichen? Vielleicht zu einfach gedacht? Ansonsten muss man sich da wohl an die Profis halten. Problem bei denen ist, die interessieren sich nicht wirklich für uns. Wenn die keine Lust haben, dann antworten sie auch nicht. da Norbert auf die Seite des MPI verweist, vielleicht kann Caro da ja mal weiter helfen?


    (==&gt;)Ralf: Wie erklärst du das Ergebnis welches man in dem von Norbert verlinkten Artikel sehen kann?


    CS Frank

  • Hallo Frank,
    ich kann das nur aus der Praxis beurteilen und zwar NACH der Bildbearbeitung. Die Einzelbilder sehen natürlich bei 1 oder 2% Verwendungsrate besser aus. Ich schärfe dabei mit der PSF aller gemittelten Bilder und zwar bis das Rauschen einsetzt. Habe ich viele Bilder, so kann ich stärker die Regler hoch drehen, habe ich weniger, so geht das natürlich nicht. Die Ergebnisse unterscheiden sich nicht besonders stark, aber die Stacks aus 90% zeigen mehr Details als welche mit 3%. Vermutlich kommt es stark auf die Breite der Qualitätsstreuung an. Liegen alle Bilder qualitativ in relativ engem Rahmen, so kann man eben besser alle, oder 95% nehmen.
    Das Ganze gilt natürlich nur für mein Setup.
    Gruß,
    Ralf

  • (==&gt;)Tino


    kannst du mit der Kamera und Optik von Seite 2 spasseshalber bei dunklem Himmel eine Belichtungsserie aus 5 Aufnahmen mit steigender Belichtungszeit mit 1/10 s Intervall von 0,1 bis 0,5 s machen und dazu nur das Rauschen des Hintergrunds angeben, wo kein Objekt ist?


    Ciao,
    Jo

  • Habe gerade eine Belichtungsreihe gemacht, um das Bildrauschen bei den verschiedenen Belichtungszeiten darzustellen.


    Zuerst habe ich Dunkelbilder mit 30 Sek, 1 Min, 2 Min, 4 Min, 8 Min und 16 Min gemacht, und dessen Werte mit einer Software ausgewertet. Bis das alles soweit fertig ist, dauert eine Weile. Auch kann man die sogenannten Hotpixel sehr gut bei den verschiedenen ISO-Werten erkennen.

    Wenn uns Außerirdische aus der Ferne im All  beobachten, dann merken Sie dass was auf der Erde hier faul ist.
    :telescope: 150/750 mm Skywatcher Newton | :camera: Canon EOS 600d, Canon R7 + 14 mm Walimex, 24 mm Weitwinkel, 80 - 300 mm Tele, 16 - 55 mm Zoomobjektiv | Skywatcher Montierung HEQ-5 Pro SynScan GoTo

    Aktuelle Wetterdaten aus Wetterstation und Homepage

    »»»»»» Wetterseite Allmendingen ««««««« | »»»»»» Sternwarte Ehingen ««««««« |


    Gruß Manfred

  • Hallo Manfred,
    da musst du vorsichtig sein mit der Auswertung. Auch ein Dark (wenn du es auslesen willst) braucht einen Darkabzug um z.B. das Fix-Pattern-Noise, also sozusagen das Hardware-Rauschen, zu eliminieren. Dieses steigt bei zunehmender Belichtungszeit deutlich an und entspricht so in etwa "warmen" oder "kühlen" Pixeln. Rechnest du aber ein Dark ab, so ist auch gleichzeitig das Bias, das ja dem Ausleserauschen entspricht, abgezogen. Hier werden gerne mal nicht sonderlich aussagekräftige Bildbeispiele veröffentlicht.
    Viel Erfolg und viele Grüße,
    Ralf

  • (==&gt;)Ralf,


    Die Aufnahmen die ich gemacht habe, sind alle Dunkelbilder (Dark), wobei hier der Kameradeckel vor dem Objektiv war. Zudem wurde noch eine weitere Abdeckung vorgenommen, dass wirklich kein Licht hinein kommt.
    Einen Darkabzug vom Dark kann man so ja nicht machen, da das Bild fehlt mit dem Lichteinfall. Das wird auf einem bestimmten Objekt auch noch angewandt mit den verschiedenen ISO-Zahlen und Belichtung.


    Einen Bias-Abzug vom Dark (das Bias ist im Dark enthalten)wurde nicht gemacht, da sonst der Aufwand für diese Zeit zu lang wird.
    Der Bias-Abzug bringt nur was, wenn man während der Belichtungszeit unterschiedliche Temperaturen hat.
    Wie schon angesprochen, habe ich immer die gleichen Belichtungszeiten (30 Sek, 1 min, 2 min ... 16 min) mit unterschiedlichen ISO-Zahlen aufgenommen. Zwar musste ich die Bilder ein wenig heller machen (Gamma) um das Dunkelrauschen besser sichtbar zu machen. Was man auch noch erkennen konnte, Hotpixel die je nach Belichtung deutlich zunimmt.


    Das Ausleserauschen ist schwer sichtbar zu machen, aber es ist in jeder Aufnahme enthalten. Dies hängt auch von der Temperatur des Sensors ab und dessen Belichtungszeit. Entscheidend ist das die verschiedenen Bildrauscharten entscheidend von Ausleserauschen beeinflusst wird, wobei weitere Rauscharten bei der Aufnahme im Bild vorhanden sind: Thermisches Rauschen, Dunkelrauschen, Schrottrauschen.


    Aber hier braucht man ein Programm dazu, dass die Werte direkt aus der Bilddatei auslesen kann. Hier wird aus den Daten die Standardabweichung, Mittelwert und weitere Daten ermittelt. Diese Daten kann man auch aus einem Histogramm ablesen, aber man muss die Daten verstehen.


    Wenn ich das fertig habe, mit allen Bildern, kommt hier der Hinweis auf diese Seite rein. Soweit muss ich mit verschiedenen Belichtungszeiten und ISO-Zahlen an einem Objekt das Bildrauschen ermitteln,(ohne Objektiv-Deckel vor dem Objektiv)und einige Aufnahmen machen und diese Stacken und den SNR-Wert ermittel (Kann man aus dem Histogramm auch ermitteln)

    Wenn uns Außerirdische aus der Ferne im All  beobachten, dann merken Sie dass was auf der Erde hier faul ist.
    :telescope: 150/750 mm Skywatcher Newton | :camera: Canon EOS 600d, Canon R7 + 14 mm Walimex, 24 mm Weitwinkel, 80 - 300 mm Tele, 16 - 55 mm Zoomobjektiv | Skywatcher Montierung HEQ-5 Pro SynScan GoTo

    Aktuelle Wetterdaten aus Wetterstation und Homepage

    »»»»»» Wetterseite Allmendingen ««««««« | »»»»»» Sternwarte Ehingen ««««««« |


    Gruß Manfred

  • Hallo zusammen,


    (==&gt;)Ralf:


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">ergibt ein Bild mit 100% Verwendungsrate am Ende, also nach einer Schärfung, immer ein besseres Bild als z.B. bei 30% Verwendungsrate und entsprechend weniger Schärfung. Das gilt übrigens auch für Planeten.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich denke das ist etwas zu Pauschal ausgedrückt, du relativierst es ja jetzt auch indem du sagst: So sei es bei deinem Equipment. Gut aber das ist nicht meine Baustelle, mit Planeten kenne ich mich nicht aus.
    Wohl aber mit Schärfungen. Eine Schärfung ist ja ein starrer Algorithmus, während das Seeing eher dynamisch und chaotisch ist. Letztendlich kann also ein geschärftes Bild zwar ganz nett ausschauen, es spiegelt aber nicht die Realität wieder. Es gibt also gute Gründe doch das Hubble Space Teleskop zu benutzen oder adaptive Optiken oder eben Lucky Imaging.


    (==&gt;)Manfred:


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das Ausleserauschen ist schwer sichtbar zu machen<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das Gegenteil ist der Fall, man kann es mit am leichtesten sichtbar machen. Einfach ein Bias von einem zweiten abziehen, fertig:-) Aber dann wirst du feststellen das "sichtbar machen" nicht immer DAS Mittel der Wahl ist. Also bestimmst du dann vom Ergebnis einfach noch die Standartabweichung und dann hast du es schwarz auf weiss. Oder du liest es einfach ab in einer geeigneten Software.



    CS Frank

  • Manfred,


    Ralf hat schon recht, aus Einzelbildern holst Du keine verlässliche Information.
    Die Standardabweichung von Bias - Bias (geteilt durch Wurzel 2) ergibt das Ausleserauschen,
    Die Standardabweichung von Dark - Dark (geteilt durch Wurzel 2) ergibt die geometrische Summe aus Auslese- und Dunkelrauschen. Damit kann man den Wert des Dunkelrauschens allein auch berechnen.


    Nimmst Du nur Einzelbilder, hast Du mit Hotpixeln, Gradienten und sonstigen Strukturen ziemlich verfälschte Werte, eben das Fixed Pattern, das physikalisch gesehen gar kein Rauschen ist.
    Wenn die Kamera homogene Bilder liefert, ist das nicht so tragisch, aber:


    Den Shot NOise kannst Du nur (!) über eine Differenzmessung zweier Lights bestimmen.
    Würdest Du eine Intensität messen, und durch die zuvor gemessenen Rauschwerte teilen, bestimmst Du nicht das SNR, weil Du dann eben genau den Shot Noise nicht berücksichtigst, der sich ja in der Schwankung des Signals selbst bemerkbar macht. Und das geht eben nur aus der Mehrfachmessung hervor.


    Viele Grüße
    Norbert

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!