Beiträge von pete_xl im Thema „Es geht mit 10 Sekunden und weniger...“

    Hallo Tino,


    ist schon OK ich habe gar kein Problem mit deinem Post und hab das auch nicht als Streit aufgefasst. Ich denke niemand von uns wollte eigentlich eine solche Diskussion, wie sie nun entstanden ist. Jeder Mitleser oder -schreiber kann für sich daraus ziehen, was ihm nützt oder ins Konzept passt. Und wenn man sich auf das Unstrittige und Positive beschränkt, kann man zumindest von den Erkenntnissen profitieren, wenn man in einer lichtverschmutzten Umgebung fotografieren muss und ggf. auch noch ein schnelles Teleskop hat. Denn da sind sich ja wohl alle einig: dort ist weniger Belichtungszeit mehr.


    Viele Grüße
    Peter

    Hallo Lars, Tino und Heiko,


    ich gerate da in eine Ecke, in die ich nicht wollte und wo ich auch nicht hineingehöre. Es ist klar, und auch mehrfach von mir so geäußert, dass Kurzbelichtungen Vorteile haben, z. B. wenn es um die Kompensation von Schwächen der Nachführung geht. Es ist auch klar und es bestand Konsens, dass Langzeitbelichtungen (außer mit Schmalband) unter hellem Himmel wenig Sinn machen. Bei anderen Aussagen, wie z. B. zum höheren Dynamikumfang von Kurzbelichtungen sehe ich das nach wie vor anders.


    Ich möchte nicht als Rechthaber abgestempelt werden. Ich habe ganz früh und oft (6 Mal) vorgeschlagen, wir sollten es gut sein lassen, jeder arbeite seiner Fasson. Es folgten dann stets neue Beiträge mit neuen Aspekten, die aber regelmäßig an der Kernfrage vorbei führten. Nachdem ich dann das letzte Mal vorgeschlagen hatte, das Thema gütlich zu beenden - es müsse ja nicht immer Konsens geben - wurde der Link zu Glover nachgeschoben, in dem es - erstmals in dieser Runde - um die technisch-wissenschaftlichen Zusammenhänge geht. Dem habe ich mich dann gestellt, zumal es in dem Vortrag tatsächlich um den Knackpunkt der Diskussion geht.


    Denn der Diskurs ging doch im Kern darum, ob die Aussage von Heiko stimmt, dass es vollkommen egal ist, ob man mit einer "realen" Kamera bei gleicher Gesamtbelichtungszeit viele sehr kurze Belichtungen oder weniger, aber längere Belichtungen macht. Nun gilt in der Wissenschaft und im "echten" Leben das Falsifikationsprinzip. Eine Aussage ist dann falsifizierbar, wenn es einen Beobachtungssatz gibt, mit dem die Aussage angreifbar ist. Trifft der Beobachtungssatz zu, ist die Aussage widerlegt. In dem von Heiko verlinkten Vortrag von Glover wird gezeigt, das es <u><b>nicht</b></u> egal ist, wie lang die Belichtungszeiten sind. Damit ist die Aussage von Heiko widerlegt.


    Jetzt kann man über andere Aspekte der Kurzbelichtungsstrategie weiter diskutieren, sofern man mag. Dabei dürfte es dann aber über die schon mehrfach erwähnten mechanischen Vorteile hinaus nur noch um individuelle Randbedingungen oder spezielle Fragestellungen gehen.



    Viele Grüße
    Peter


    P.S. Es gibt noch ein Ergänzungsvideo von Glover. Darin erläutert er nochmals seine Ergebnistabelle und holt die Themen und Erklärungen nach, die am Ende seines öffentlichen Vortrages aus Zeitgründen zu kurz kamen:https://www.youtube.com/watch?v=ub1HjvlCJ5Y. Die Ergebnistabelle für die optimale Belichtungszeit ist dort in viel besserer Qualität dargestellt.

    Als Heiko, so langsam geht mir das Verständnis aus. Es geht doch am Ende eben genau um das SNR (Signal/Rausch-Verhältnis). Und das ist, wie von Glover gezeigt, bei Kurzbelichtungen quasi immer schlechter als bei längeren Belichtungen, außer bei großer Lichtverschmutzung.


    Du hast mit der Aussage begonnen, Kurzbelichtungen hätten <font color="yellow"><i>"aufgrund der kurzen Belichtungszeit"</i></font id="yellow"> einen größeren Dynamikumfang. Das ist einfach nicht richtig, zumal der Gainwert bei Kurzbelichtungen höher ist und der Dynamikumfang deswegen kleiner ist.


    Dann sagst du <font color="yellow"><i>"Es macht keinen Unterschied, ob Du die Photonen die, in sagen wir 1000 Sekunden, aus einem Himmelsbereich kommen in einer Aufnahme sammelst oder in 100 Aufnahmen unterteilst und erst danach summierst."</i></font id="yellow">. Meine Gegenargumente dringen nicht durch. Mein Argument, es komme nicht nur auf die Anzahl der Photonen, sondern auch auf die Aufnahmebedingen (Lichtverschmutzung, Ausleserauschen, Sensorrauschen etc.) an, schmettertest du ab und sagtest <font color="yellow"><i>"Auch das mit dem ungünstigen Signal/Rauschverhältnis bei "Sky Fog, Ausleserauschen, Sensorrauschen etc." stimmt nicht. Auf das einzelne Bild gesehen ja, auf die gleiche Belichtungszeit bezogen nein, da Du ja viele Bilder stackst bis Du auf die Belichtungszeit einer Langzeitaufnahme kommst."</i></font id="yellow">. Das alles sei zu vernachlässigen und sagst, es sei egal, in welcher Zeit die Photonen reinkommen, der Sensor <font color="yellow"><i>"addiert nur ganz dumm Photonensignale - egal wie sie reinkommen</i></font id="yellow">. Du verweist dazu auf Robin Glover und verlinkst ihn später. Es ist aber so, dass Robin Glover genau das Gegenteil sagt, nämlich, dass die Einzelbelichtungszeit für das SNR der Gesamtaufnahme - und darum geht es hier am Ende - sehr wohl von entscheidender Bedeutung ist. Glover zeigt, dass es doch insbesondere die Lichtverschmutzung (Sky Fog) und das Ausleserauschen sind, welche die Belichtungszeit wesentlich beeinflussen. Die Anwendung der Berechnungen von Glover auf reale Aufnahmesituationen zeigt, dass das SNR von Kurzbelichtungen erst ab Bortle 7 gleichwertig mit längeren Belichtungen ist. Bei dunkleren Himmeln sind Kurzbelichtungen nachteilig für das SNR.


    Die von dir in der letzten Antwort angeführten, echte Vorteile sind bereits mehrfach genannt worden. Vorteile bzgl. Seeing gibt es aber nicht. Dafür sind bereits wenige Sekunden zu lang. Was <font color="yellow"><i>"bessere Seeinperioden"</i></font id="yellow"> in diesem Zusammenhang bedeuten soll, weiß ich nicht. Das stimmt vielleicht für Planetenfotos, die aber eh kurz belichtet. Damit möchte ich aber kein neues Thema anfangen.


    Du hattest also sehr wohl etwas anderes zum SNR behauptet - nämlich, dass es egal ist, wie lang die Einzelbelichtung ist. Nun gehst Du ganz locker darüber hinweg, dass Glover zeigt, dass es genau andersherum ist, als du bis dahin gemeint hattest. Dabei handelt es sich um ein systemisches Prinzip, das sich nicht ändert, wenn die Sensoren besser werden. Zumindest gilt es bis auf weiteres für Kameras wie meine, deine die von Klaus.

    Hallo Heiko,


    danke für die interessanten Links.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Doc HighCo</i>
    <br />Mag jeder, den es interessiert, selber seine Schlüsse daraus ziehen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Worauf du mit den Links abzielst, ist mir nicht klar. Vielleicht verstehe ich ja die Analyseergebnisse von Dr. Glover total falsch, aber eigentlich belegen sie doch meine Annahmen, zumindest prinzipiell.


    Blair MacDonald's Papier geht mit seiner Beschreibung der Zusammenhänge zwischen Rauschen und Aufnahmeanzahl insgesamt knapp an unseren Diskussionsthemen vorbei. Was die Aufnahmedauer angeht, hebt er auf die Himmelshelligkeit als wesentliche Einflussfaktor ab. Er verortet den optimalen Punkt für Canon Kameras bei 25% Histogramm und ist für sich selber offenbar in der Gegend von 4 Minuten Einzelbelichtungszeit:



    Ich finde keinen Hinweis darauf, dass Kurzbelichtungen Vorteile gegenüber Langzeitbelichtungen bringen. Er plädiert i. W. für ausreichend hohe Bilderstapel.


    Der verlinkte Vortrag von Dr. Glover (der hat die Sharpcap-Sensoranalyse programmiert, glaube ich) lässt denn auch nach meinem Verständnis wenig Raum für einen anderen Schluss, als dass Kurzbelichtungen bei Deep Sky nur in lichtverschmutzen Gegenden Vorteile bringen. Glover präsentiert seine Ergebnisse für die optimale Belichtungszeit seines "Mustersensors" ab ca. 53:20 Filmzeit. Die "optimale" Belichtungszeit ist i. W. abhängig vom Öffnungsverhältnis, der Himmelsqualität und den verwendeten Filtern. Die Ergebnistabelle sieht so aus (die Zahlen für einen CMOS Sensor stehen in jedem Block links, die für CCD rechts):



    Ich habe seine CMOS-Ergebnisse mal in Excel-Grafiken übertragen und Screenshots gemacht, damit man besser sieht, was passiert. Die Datei habe ich euch hier in meiner Dropbox abgelegt: https://www.dropbox.com/s/vvit…bellen%20glover.xlsx?dl=0. Wenn man keine Sharpcap-Vollversion hat oder auf die Sensoranalyse verzichten will, kann man sich daran vielleicht ganz gut orientieren. F/10 und die Wüstenhimmel Bortle 1 und 2 habe ich weg gelassen. Da sind die optimalen Belichtungszeiten besonders bei Verwendung von Filtern von vorneherein so lang, dass sie die Grafik sprengen.


    Für einen Monosensor <b><u>ohne</u></b> Filter sieht das Ergebnis für optimale Einzelbelichtungszeiten so aus:



    Mein Balkon hat in den besten Nächten etwa Bortle 4, schätze ich. Mit meinem F/7 System bin ich also etwa bei 90s Belichtungszeit. Klaus wäre mit seinem F/5 System auf meinem Balkon bei etwa 45s. Jedoch hat er einen RGB Sensor und die Zeiten sind zu verdreifachen:



    Mit RGB Filter wäre ich bei 270s und Klaus mit seiner OSC bei 140s.


    Für meinem 3nm OIII Filter muss ich schon eine logarithmische Darstellung wählen:



    Die Grafik zeigt, ich sollte mit Schmalbandfiltern so lange wie möglich belichten. Meine Beschränkung würde ich bei gegebener Gesamtbelichtungszeit dadurch setzen, dass ich mindestens 30-50 Aufnahmen haben möchte, um das Rauschen unten zu halten. Deswegen fotografiere ich i. d. R. mit 300s Belichtungszeit, wenn ich meinen Chroma 3nm OIII vor dem Sensor habe.


    Der Vortrag von Dr. Glover lässt mich den gleichen prinzipiellen Schluss ziehen, wie schon mal oben formuliert. Je besser der Himmel (und je enger der Filter) desto länger die Belichtungszeit.


    Extreme Kurzbelichtungen finde ich sinnvoll, wenn man in der Stadt fotografiert oder bei viel Mond und/oder wenn man keine gute Nachführeinrichtung hat. Setzt man die Kurzbelichtungstechnik bei dunklerem Himmel ein bzw. bleibt man in den Diagrammen "unter" den jeweiligen Kurven, verschenkt man Qualität. Die Aufnahmen werden dann bei gegebener Gesamtbelichtungszeit schlechter als bei längeren Einzelbelichtungen. Die hier diskutierten 10s und weniger Belichtungszeiten machen lt. Dr. Glover erst bei schlechterem Himmel als Bortle 7 Sinn. Die Strategie eines "100 x 10s Kurzbelichtungs-Livestacking" kann hier auch keinen Vorteil bringen. Aus den schon zuvor beschriebenen Gründen vermute ich sogar zusätzliche Nachteile.

    Hallo Nobbi,


    ich sage ja nicht, dass ein Photon verloren geht, weil man es nicht sieht - im Gegenteil. Das ist schon deshalb nicht so, weil sein Signal zwar vielleicht in den Einzelaufnahmen nie sichtbar ist, aber trotzdem in hinreichend vielen Frames vorhanden. Es kann sich dadurch mit wachsender Bilderanzahl quasi aus dem Rauschen nach oben arbeitet. Denn das konstante Signal manifestiert sich und das Rauschen mittelt sich raus. Das ist aber ein ganz anderes Szenario als die hier diskutierten Kurz-Stacks beim Livestacking.


    Was soll's auch? Das Thema ist jetzt genug durchgekaut finde ich. Es muss ja nicht immer mit einem Konsens enden, Hauptsache man verstreitet sich nicht [B)][;)]


    Und am Ende ist es mit der Theorie wie immer und überall: Was zählt ist auf'm Platz [;)]

    Hallo Ralf,


    in einem amerikanischen Forum habe ich mal gesagt, dass die ganz dunklen Signale, die wir jagen ("the really dark stuff"), sich in der rechten Flanke des Hintergrundpeaks im Histogramm vor uns verstecken. Mit jedem Verkürzen der Belichtungszeit und besonders bei hellem Himmel und frühem Erreichen der Hintergrundlimitierung wird diese Flanke steiler und der Peak schmaler. Das erschwert es, das Signal heraus zu präparieren und kostet Dynamikumfang, der am Ende das Strecken limitiert. Mein Rezept wäre, je dunkler der Himmel (oder der Filter) desto länger belichten und immer so viele Aufnahmen wie möglich pro Kanal machen. Letzteres führt dazu, dass ich maximal 300s belichte (OIII Filter), weil ich sonst nicht genug zum Stacken habe, um das Rauschen unten zu halten.


    Die Diskussion um das Sigma Clipping hatte sich ja leider verselbstständigt und eine Menge gespaltener Haare hinterlassen. Es ging aber doch ursprünglich um das sequentielle Live Stacking von je 10 Bildern mit je 10s Belichtungszeit. Die konkrete Hypothese, die mir nicht passt, ist, dass es egal sei, ob beim Livestacking an einer Bildkoordinate <i><font color="yellow">100 Mal je 1 Photon in jedem 10er-Stapel von 10s Kurzbelichtungen</font id="yellow"></i> ankommen oder im 2. Fall <i><font color="yellow">10 Mal je 10 Photonen im 10er-Stapel von je 100s Einzelbelichtungszeit</font id="yellow"></i>. In beiden Fällen wird an jeder Koordinate aus den korrespondierenden Pixeln von 10 Bildern ein 10er Pixelstapel gebildet und gestackt. Es dürfte klar sein, dass im 2. Fall das Signal erhalten bleibt (100% der gestackten Pixel enthalten das Signal). Im ersten Fall trägt aber nur 1 Pixel das Signal, die anderen 9 streuen um den Hintergrundwert und repräsentieren die Summe aller Störungen (Rauschen). Mir ist keine beliebige Folge von 10 Werten vorstellbar, in der 9 Werte normalverteilt streuen, während 1 Wert davon abweicht und ein Sigma Clipping überlebt oder signifikanten Einfluss auf den Medianwert hat. Am Ende wär in keiner der 10 Stacks aus je 10 Aufnahmen von 10s so viel Signal vorhanden, dass es nach dem endgültigen Stacken der 10 Einzelstacks noch signifikant wäre. Das kann man mit einem Taschenrechner zeigen.


    Ich glaube ja auch, dass das 1/10 Beispiel von Heiko vielleicht zu eng gebaut ist. Aber das Prinzip, dass gestackte Stacks von Kurzbelichtungen beim Livestacking für schwache Signale eher Nachteile bringen dürfte doch generell gelten. Die Vorteile von Kurzbelichtungen liegen im mechanischen Bereich (PE-Montierung, Guiding, Wind, Vibrationen) und im einfacheren Setup. Da sind wir ja auch einer Meinung [:)].

    Hey grüß dich Ralf! Ich hatte deinen Beitrag auch eigentlich schon vermisst[:D]


    Nochmal zur Klarstellung, ich wollte gar keine Grundsatzdiskussion lostreten. Ich hatte Klaus ohne Hintergedanken zu den Vorteilen von Livestacking mit Sharpcap im Vergleich zu anderen Aufnahmeprogrammen und -strategien gefragt.


    Als Antwort auf Heiko hatte ich mich dann gegen die generelle Aussage gestellt, dass der Dynamikumfang sich durch Kurzbelichtungen im Vergleich zu Langzeitbelichtungen vergrößert.


    In die daran anschließende Diskussion war ich mit folgendem Statement in die Diskusion eingestiegen: <i><font color="yellow">"Jeder soll ja so arbeiten, wie er mag. Für meine Art Bilder zu machen überwiegen für mich die Nachteile von Kurzbelichtungen." </i></font id="yellow">. Und das ist für mich ja auch richtig.


    Verloren haben der Heiko und ich uns dann in seinem Argument mit dem einen Photon je 10 Aufnahmen. Es gibt m. E. keine Möglichkeit, dass ein schwaches Signal eines einzigen Photons, dass sich in nur einer von 10 Aufnahmen befindet, ein Sigma-Clipping oder eine einfache Medianbildung des betreffenden Pixelstapels überlebt. Es erleidet das gleiche Schicksal wie ein geditherter Coldpixel oder ein Satellitenphoton - es wird eliminiert oder heruntergemittelt. Das geht mathematisch gar nicht anders.


    Ich sagte aber auch, dass es nur meiner eigenen Erfahrung entspricht, dass das "ganz dunkle Zeugs" besser mit Langzeitbelichtungen hervorzuholen ist. Aber ich kenne halt auch keine Referenzen für entsprechende Ergebnisse mit Kurzbelichtungen.


    Was den von dir nochmal angesprochenen Aspekt mit den Farben dunkler Signale angeht. Der Umstand, dass es bei Kurzbelichtungen wenig Sinn macht, mit Schmalbandfiltern, also engen Farbfiltern, zu arbeiten, untersetzt doch meine Grundannahme, dass es schwieriger ist, sehr dunkle Signale mit Kurzbelichtungen aufzunehmen. Wenn es anders wäre, könnte man ja ohne guiding unter lichtverschmutztem Himmel tolle Hubble-Paletten schießen.

    Hallo Heiko,


    ich bin nicht auf dem Holzweg und nicht verkrampft. Auf dem Niveau möchte ich eigentlich gar nicht diskutieren. Das Extrembeispiel mit dem einen von 10 Photonen stammt denn auch von dir. Und das von dir ins Spiel gebrachte 1 Photon je 10 Aufnahmen bzw. dessen Repräsentanz in 1 von 10 Pixeln eines Pixelstacks überlebt m. E. <u>nicht</u>. Das ist nun mal die Systematik beim Sigma Clipping. Aber vielleicht ist dein Beispiel auch falsch und bildet die Problemstellung nicht richtig ab.


    Ich hab nie von 1/10 Photon gesprochen und weiß auch, dass Photonen quantisiert auftreten. Ich habe von <u>Pixeln</u> gesprochen, welche den Informationsgehalt der Photonen repräsentieren. Genauer gesagt bin ich in deinem Bild geblieben und habe von 1 Pixel mit dem Informationsgehalt von 1 Photon in einem Pixelstapel von 10 Pixeln gesprochen, in welchem die anderen 9 Pixel nur Rauschen repräsentieren. Das ist die Situation, die beim Stacken des von dir in die Diskussion gebrachten Beispiels vorliegt. Und natürlich sind nicht "die Photonen weg", sondern die die Photonen repräsentierenden Einzelpixel (eins von 10 im Stapel) werden meiner Auffassung nach geclippt oder gehen bei der Medianberechnung unter.


    Aber das hat sich totdiskutiert und das Zahlenbeispiel passt, wie ich oben schon vermutet habe, vielleicht auch gar nicht zur Fragestellung, ob man mit Kurzbelichtungen richtig dunkles Zeugs fotografieren kann. Also lass uns Frieden schließen und heute Abend etwas sinnvolleres tun als weiter zu diskutieren. [:)]


    Viele Grüße und schönen Abend


    Peter

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Doc HighCo</i>
    <br />Hallo Peter,


    im Prinzip hast Du recht, aber der Punkt ist, daß es nach ein paar Iterationen keine Werte (Pixel) mit Abweichungen mehr vom Median gibt, die größer sind als das Akzeptanzintervall für die Abweichung (das man übrigens setzen kann). Der Sigma-Schwellenwert wir ja nicht nach jeder Iteration verkleinert, sondern die Iteration abgebrochen, wenn es keine Ausreißer mehr zu eliminieren gibt, so wie ich es verstehe. Sonst bliebe am Ende nur ein einziges "repräsentatives" Pixel übrig. Selbst wenn es so ist, würden die durch ein Photon leicht erhöhten Werte ihre Spur im Median hinterlassen, da sie sich in etwa in der Mitte des sortierten Stacks (wie im Bild) befinden würden und dadurch schon den Medianwert angehoben hätten.


    Gruß


    Heiko
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Hallo Heiko,


    die Anzahl Iterationen gibt man ja vor. Das Sigma wird nach jeder Ausreißereliminierung in der nächsten Runde kleiner. Damit sind Satelliten- und Flugzeugspuren schnell raus. Das evtl. überlebende, arme eine Photon von zehn ist in einer echten Zwickmühle. Entweder produziert es bei entsprechenden Gaineinstellungen einen signifikant Pixelwert - dann wird es als Ausreißer behandelt und vom Clipping erledigt. Oder es hält den Kopf unten und verhält sich ähnlich wie das Rauschen (nicht signifikant) - dann wird es bei der Reduzierung des Pixelstapels durch Mittelwert- oder Medianbildung platt geklopft. Den Medianwert wird es dann nicht anheben können, zumal der auch den häufigsten Wert und nicht den Mittelwert des verbleibenden Pixelstapels liefert. Ich glaube es gibt keine Alternative - damit ein Signal als solches durchkommt, muss es im Pixelstapel in hinreichend vielen Lights vertreten sein.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Doc HighCo</i>
    <br />PS: Außerdem muß man ja noch kein Sigma-Clipping machen, sondern könnte einfach nur je 100 Kurzbelichtungen wie oben aufsummieren bis man auf die Dauer einer langen Belichtung kommt. Dann hätte man die 10 Photonen genauso im Endwert drin wie bei einer langen Belichtung. Was anderes macht der Sensor ja auch nicht. Er addiert nur ganz dumm Photonensignale - egal wie sie reinkommen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Aufsummieren geht ja nicht. Bei den für Kurzbelichtungen eingestellten Gainwerten übersättigt man dann am rechten Histogrammrand die Sterne und verliert am linken Dynamikbandbreite. Das halte ich für nicht praktikabel.


    Ich meine sowieso, wir haben und ziemlich an dem Extrembeispiel 1 von 10 Pixel in hundert Aufnahmen gegen 10 von 10 in 10 Aufnahmen festgebissen. Also was die Mathematik dahinter angeht bin ich
    sicher nicht einmal einäugig unter allen hier versammelten Blinden. Aber ich meine trotzdem, dass die veröffentlichten Kurzbelichtungsbilder zeigen, dass sie in Bezug auf das ganz dunkle Zeugs und dessen Farben klar im Nachteil gegenüber längeren Belichtungen sind. Ich möchte aber den Thread von Klaus nicht auch noch mit Referenzbildern befrachten. Ich will auch gar nicht Recht behalten. Wir können es gern dabei belassen und darauf verlassen, dass jeder mit "seiner" Technik den meisten Spaß hat [:D].


    In diesem Sinne, alles Gute und viel Spaß allerseits!


    Peter

    Guten Morgen Heiko,


    ich verstehe das anders und möchte sozusagen noch eine Rund drehen…[;)]


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Doc HighCo</i>
    <br />Sigma Clipping sortiert die extremen Abweichler aus wie z.b. Hotpixel, Cosmics, Satellitenspuren etc. die stark über dem mittleren Signallevel liegen. Gerade das hast Du bei einzelnen Photonen die da reintröpfeln ja nicht- die bleiben und werden summiert.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Mag sein, dass ich im Folgenden grandios daneben ziele, aber ich riskiere das [:)].


    Die Methode ist nach meinem Verständnis eine iterative Datenreduktion auf Median/Mittelwertbasis mit vorlaufender Ausreissereliminierung. Die Einzelframes werden zunächst aufeinander ausgerichtet (registriert) und dann normalisiert. Danach liegen korrespondierende Pixel übereinander. Sie gehen dann an jeder Koordinate des Bildstapels als "Pixelstapel" in die Berechnungen ein. Ein schwaches Signal, das nur in wenigen Bildern enthalten ist, also im jeweiligen Pixelstapel nicht hinreichend repräsentiert wird, dürfte nach meinem Verständnis Gefahr laufen als Ausreisser eingeordnet und eliminiert werden.


    Beim Sigma Clipping wird einem iterativen Prozess für den Pixelstapel an jeder Bildkoordinate zunächst jeweils der Median (in anderen Verfahren der Mittelwert) gebildet und die Standardabweichung berechnet. Abhängig von den jeweiligen Vorgabeparametern wird ein Vertrauensintervall aufgespannt, das ein Mehrfaches der Standardabweichung abdeckt (typischerweise 2,5 – 3 fach). Pixel, die außerhalb dieses Intervalls liegen, werden eliminiert. Diese Grafík in der PixInsight Dokumentation zeigt das Prinzip ganz anschaulich:



    https://pixinsight.com/doc/too…ion/ImageIntegration.html


    Vom den überlebenden Pixeln wird der Median berechnet und das Ganze dann je nach Vorgabe mehrfach wiederholt, bis schließlich der letzte Medianwert als Pixelwert für die jeweilige Koordinate übernommen wird.


    In deinem Beispiel ist das Signal der Kurzbelichtung nur in jedem 10ten Bild enthalten. Das wären 100 Pixel von 1000 im gesamten Pixelstapel. Bei sequenziellem Livestacking von z. B. 100 x 10 Aufnahmen/Stack wäre also nur 1 von 10 Pixeln im betreffenden Stapel ein Signal, der Rest wäre normalverteiltes Rauschen. Könnte also schon sein, dass das einzelne Signalpixel im 10er Stapel außerhalb des Vertrauensintervals liegt und eliminiert wird. Das Gleiche müsste eigentlich für die genannten 100 Signalpixel aus 1000 gelten. Anders sieht es bei den von dir als Vergleich genannten 10 länger belichteten Aufnahmen aus, in denen das Signal in jeder Aufnahme (1 Mal) vorhanden ist. Da ist es ausgeschlossen, dass das Signal eliminiert wird.


    Das nicht eliminierte Signal, das an der betreffenden Koordinate in dem betrachteten Pixelstapel in 10 von 10 Fällen vorhanden ist, wird auch bei der finalen Medianberechnung viel besser repräsentiert sein, als 1 „überlebendes“ Signalpixel unter 9 Rauschpixeln beim sequenziellen Livestacking oder als 100 von 1000 Pixeln im Gesamtstapel der Kurzbelichtungen.


    Ich stimme dir also insoweit zu, dass die Akquisitionsmethode bei gleicher Gesamtbelichtungszeit unerheblich ist soweit es um ein hinreichend starkes Signal geht. Das Bildrauschen dürfte sogar viel geringer sein. Bei sehr schwachen Signalen sehe ich jedoch die längeren Belichtungen im Vorteil.

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: schimmi66</i>
    <br />Hallo Peter,
    auch ich habe keinesfalls Deinen Beitrag negativ oder belehrend verstanden. Wir können doch nur voneinander lernen. Zu Deinem Einwand, dass man beim Livestacking keinen weiteren Einfluss auf die Bilder hat, muss ich ergänzen, dass man vorher Darks und Flats machen soll, die sofort von Sharpcap in Masterdark und Masterflat gerechnet werden und automatisch beim Livestacking vom Frame verrechnet werden. Es sind also schon korrigierte Bilder. Ich mache es halt immer so, dass ich das Livestacking nach 30, 45 oder 60 Minuten automatisch speichern lasse und ich stelle Sharpcap so ein, dass jeder einzelne Frame als fits speichere. Da kommen etliche Gbyte zusammen. Die Einzelframes bearbeite ich dann ganz klassisch in Astroart oder AstroPixelProcessor und anschließend in Photoshop.


    Grüße und schönen Abend
    Klaus
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Guten Morgen Klaus,
    da hast du Recht, am Ende sollte ja bei solchen Diskussionen für jeden etwas herausgekommen sein. Das Liveview Konzept ist ja auch tatsächlich sehr spannend. Und wer weiß, was noch daraus wird?


    Schönen Tag und beste Grüße,
    Peter

    Hallo Heiko,


    ich will dich auf keinen Fall belehren und nicht auf irgendwas festlegen, natürlich auch nicht den Klaus. Meine generelle Aussage zur "dunklen Seite" ist ja auch nicht wissenschaftlich begründet, sondern eher empirisch aus eigenen Erfahrungen und Beobachtungen abgeleitet. Aber auch mathematisch betrachtet wird das 1 Photon in jedem 10ten von 1000 Bildern beim Sigma Clipping wohl zwangsläufig als noise betrachtet und schneller aussortiert oder im Median gemeuchelt als das 10/10 Signal. Erst recht, wenn man wegen der kurzen Belichtungszeit und dem hohen gain eine große Varianz im Pixelstapel hat. Denn da sind da ja auch noch die elektronischen und atmosphärischen Störungen (Sky Fog, Ausleserauschen, Sensorrauschen etc.), die bei Kurzbelichtungen generell für ein sehr ungünstiges Signal/Rausch-Verhältnis und ein breit gezogenes Sigma sorgen, das problematisch für das Überleben schwacher Signale ist.


    Ein gutes Beispiel für mich selber war der Katzenaugennebel. Da habe ich Langzeitbelichtungen mit Schmalbandfiltern für die Schale gemacht. Der Kern war so extrem hell, dass ich mit und auch ohne Filter hunderte von Kurzbelichtungen gemacht habe um seine Struktur zu bekommen. In diesen Aufnahmen habe ich nicht annähernd das Signal wiedergefunden, das aus den Langzeitbelichtungen zu gewinnen war. Und ich habe mit allen meinen Möglichkeiten danach gesucht, weil ich ja einen schönen Übergang vom Kern zum Halo hinbekommen wollte.


    Na ja, jeder muss halt je nach seiner Fasson und seiner Zielstellung selber sehen, wie er das passende Signal aus seinen Daten herauspult :-)))


    Euch noch einen schönen Abend!


    Peter

    Hallo Klaus und Heiko,


    ich wollte um Himmelswillen keine Grundsatzdiskussion vom Zaun brechen. Es war eigentlich die Erwähnung von Sharpcap, das ich auch benutze, die mich zu der Frage veranlasst hat. Ich schätze Sharpcap sehr, verwende begeistert das Polar Alignment Tool und habe auch schon "The Brain" bemüht. Für die Datenakquisition hatte ich es aber nicht auf dem Schirm und insbesondere das Livestacking kenne ich nicht.


    Jeder soll ja so arbeiten, wie er mag. Für meine Art Bilder zu machen überwiegen für mich die Nachteile von Kurzbelichtungen. Klar gibt es weniger Probleme mit der Montierung bei Kurzbelichtungen, aber beim Livestacking hat man keinen weiteren Einfluss auf die eingerechneten Bilder, oder doch? Einen nennenswerten Zugewinn an Detailauflösung gegenüber längeren Belichtungen sehe ich nur, wenn diese mit suboptimalem Equipment gemacht werden. In einem exakt fokussierten und gut nachgeführten System sind es doch eher das Seeing und andere limitierende Faktoren, welche die Abbildungsleistung beeinflussen als die Montierung.


    Die von dir, Heiko, angeführte Erweiterung des Dynamikumfanges sehe ich eher skeptisch. Die erhält man auch beim Stacken von weniger Lights mit längerer Belichtungszeit und startet da wegen des niedrigeren gain bereits mit mehr Dynamikumfang. Vielleicht war die Bemerkung aber auf die Sterne, also die rechte Seite des Histogramms bezogen. Die Sterne mögen nicht so schnell ausbrennen, aber für die andere Seite des Histogramms ist es aber m. E. eher umgekehrt. Die ganz dunklen Signale gehen bei sehr kurzen Belichtungen nach meinen Erfahrungen eher unter. Das sieht z. B. man auch bei den betreffenden Aufnahmeserien unseres 2. Gemeinschaftswettbewerbes. Auch sieht man oft blasse Farben in Kurzbelichtungen. Insbesondere die Farben schwacher Emissionsnebel fehlen oft ganz. Schmalbandfilter lassen sich gar nicht sinnvoll einsetzen, wenn ich nicht irre.


    Für manche sehr helle Ziele habe ich auch schon erfolgreich mit Kurzbelichtungen gearbeitet, z. B. für das Trapezum in M42 oder das Zentrum des Irisnebels. Aber als Hauptstrategie passt mir die Festlegung darauf nicht, zumal ich unter meinem Himmel ohne Schmalbandfilter das Meiste verpassen würde ;-).


    Wie dem auch sei - nix für ungut :) und viel Spaß uns allen - egal wie die "Fotonen" auf die Platte kommen!!


    Peter