Es geht mit 10 Sekunden und weniger...

  • Liebe Forenmitglieder,


    seit einiger Zeit beschäftige ich mich mit Livestacking mit der Software "Sharpcap" und meiner ZWO ASI294mc Pro. Sharpcap ist ein mächtiges Werkzeug zum Livestacking und beherbergt viele Features für die ASI294.
    Es braucht schon einige Zeit, sich in die Software einzuarbeiten und auszuprobieren. Die meisten Schwierigkeiten machen mir zurzeit noch die Colorbalance während des Livestackings, zumal meine Augen von Geburt an einen leichten bis mittelmäßigen Farbknacks haben.


    Hier eine Kostprobe von NGC 6946 (Feuerwerksgalaxie) mit dem offenen Sternhaufen NGC 6939 am 21.09.2020:



    Aufnahmedaten: Skywatcher 150/750P auf NEQ5 GoTo, Kein Guiding,
    ZWO ASI294mc Pro mit UV/IR-Sperrfilter; Belichtung: 377 x 10,0 Sec.
    Gesamtbelichtung 62,8 Minuten; 50 Darks. Kühlung auf -10°C, Gain 380.
    Bearbeitung mit AstroPixelProcessor und Photoshop.


    Ich denke, das lässt hoffen...


    Gruß und Cs Klaus

  • Hi Klaus,


    bemerkenswert, das man mit 10sec Subs so viel Details rausholt.
    Gefällt mir. Top!


    Grüße Ingmar

  • Hallo Klaus,


    Bildbearbeitung mit ‚Farbknacks‘ ist echt unangenehm. Ich habe diese echt männliche rot/grün Schwäche. Wirklich lästig.


    Dein Bild gefällt mir sehr, anscheinend klappt die Kurzbelichtung bei Dir richtig gut.
    Da das Bild hier leider ziemlich heftig komprimiert wird, würde es mich freuen, wenn Du noch eine weniger stark eingedampfte Version verlinken könntest.
    Das Bild wäre es alle mal Wert ;)


    Viele Grüße
    Michael

    per aspera ad astra ...


    Skywatcher Explorer-150PDS

    Eigenbau Newton 200/1000

    EQ-6R

    Meine Bilder

  • Erstaunlich, was heutzutage dank rauscharmer Chips so geht. Ein weiterer Vorteil ist ja der erhoehte Dynamikbereich, da helle Bereiche in der Einzelbelichtung nicht uebersaettigt werden und auch nach dem Stapeln durch die Wertebereichsvergroesserung im Endbild noch ihre Helligkeitsinformation behalten.


    Zum "Farbknacks" - ich mache da "Instrumentenflug" mit dem RGB-Histogramm. Das hilft mir, abzuschaetzen, wieviel Rot im Bild ist und gestattet eine ausgewogene Farbbalance, die auch normalsichtige Augen erfreut.

  • Hallo Klaus,


    das ist ein schönes Ergebnis. Ich mache auch Livestacking mit Sharpcap und der ASI294 und bin sehr angetan davon.
    Man kann sich mit Sharpcap auch mit PHD2 verbinden. Das ist bei den kurzen Belichtungszeiten zwar nicht nötig, um eine gute Sternabbildung zu bekommen, aber es verhindert eine leichte Drift des Blickfeldes, wenn mal nicht so genau eingenordet wurde und vor allem kann man damit Dithern. Damit kann man dann sehr lange Belichtungsserien machen, die sich meiner Meinung nach nicht hinter "klassisch" aufgenommenen Bildern mit langen Einzelbelichtungen verstecken müssen.


    Gruß


    Heiko

  • Hallo Klaus,


    wo siehst du denn die Vorteile in solch kurzen Belichtungszeiten und dem Livestacking im Vergleich zu anderen Aufnahmestrategien, etwa mit APT, NINA oder SGP? ?


    Viele Grüße
    Peter

  • Hallo Peter,


    ich antworte mal für Klaus, da ich das auch mache. Vorteile die ich sehe, sind weniger Anforderungen an die Montierung aufgrund der kurzen Belichtungszeit und ein größerer Dynamikumfang, da durch das Aufaddieren der kurzen Belichtungen der Wertebereich erweitert wird.
    Ich will eigentlich nicht von Klaus' Bild ablenken, aber der Irisnebel hier ist in 7,6 Stunden genau so entstanden:

    https://astrob.in/nud35b/0/


    Gruß


    Heiko

  • Hallo,
    ich danke für die netten Statements zu meinem Bild. Der große Bildbearbeiter bin ich nicht, denn ich mache nur das Nötigste.
    Mit dem Livestacking und der Technologie von Sharpcap, in Verbindung mit den neuen hochempfindlichen CMOS-Kameras, sehe ich den Vorteil, so wie es Heiko schon schildert, in den geringeren Anforderungen an die Montierung. Gegenüber meiner früheren ALccd8L kommt es nicht mehr darauf an, wie lange ich belichte, sondern wie oft. Da ich immer raus fahren und die Technik neu justieren muss, ist das so schon recht einfach. Einen weiteren Vorteil sehe ich vor allem in der Nutzung der Software Sharpcap, speziell der Anwendung des Smart Histogramms (Brain-Fenster). Das Programm führt mit meiner Aufnahmekamera eine Messung der Himmelshelligkeit im vorgesehenen Aufnahmegebiet durch und schlägt mir nach Auswertung die optimale Belichtungszeit, den optimalen Gain und die erforderliche Anzahl der Belichtungen vor. Das ist alles sehr easy. Voraussetzung dafür ist, dass man einmalig mit Sharpcap eine Sensoranlayse durchgeführt hat.


    Heiko, klar arbeite ich auch oft mit PHD2-Guiding. Bei diesem Foto habe ich es einfach mal weggelassen, um zu probieren. Mit Dithern stehe ich noch auf Kriegsfuß, muss mich da erst einarbeiten.
    Peter, APT habe ich für meine Aufnahmen mit einer DSLR genutzt. Soweit ich weiß, kann APT nicht das leisten, was Sharpcap mit diesen Kameras kann. NINA und SGP sagen mir leider nichts.
    Und nochmal Heiko, Hochachtung! 7,6 Stunden Belichtung! Ich habe mich an das Objekt nur erst einmal richlich eine Stunde getraut und war schon begeistert (möchte ich aber nun gar nicht zeigen).
    Aber zu Deinem Bild kein Vergleich!


    Viele Grüße und Cs Klaus

  • Hallo Klaus und Heiko,


    ich wollte um Himmelswillen keine Grundsatzdiskussion vom Zaun brechen. Es war eigentlich die Erwähnung von Sharpcap, das ich auch benutze, die mich zu der Frage veranlasst hat. Ich schätze Sharpcap sehr, verwende begeistert das Polar Alignment Tool und habe auch schon "The Brain" bemüht. Für die Datenakquisition hatte ich es aber nicht auf dem Schirm und insbesondere das Livestacking kenne ich nicht.


    Jeder soll ja so arbeiten, wie er mag. Für meine Art Bilder zu machen überwiegen für mich die Nachteile von Kurzbelichtungen. Klar gibt es weniger Probleme mit der Montierung bei Kurzbelichtungen, aber beim Livestacking hat man keinen weiteren Einfluss auf die eingerechneten Bilder, oder doch? Einen nennenswerten Zugewinn an Detailauflösung gegenüber längeren Belichtungen sehe ich nur, wenn diese mit suboptimalem Equipment gemacht werden. In einem exakt fokussierten und gut nachgeführten System sind es doch eher das Seeing und andere limitierende Faktoren, welche die Abbildungsleistung beeinflussen als die Montierung.


    Die von dir, Heiko, angeführte Erweiterung des Dynamikumfanges sehe ich eher skeptisch. Die erhält man auch beim Stacken von weniger Lights mit längerer Belichtungszeit und startet da wegen des niedrigeren gain bereits mit mehr Dynamikumfang. Vielleicht war die Bemerkung aber auf die Sterne, also die rechte Seite des Histogramms bezogen. Die Sterne mögen nicht so schnell ausbrennen, aber für die andere Seite des Histogramms ist es aber m. E. eher umgekehrt. Die ganz dunklen Signale gehen bei sehr kurzen Belichtungen nach meinen Erfahrungen eher unter. Das sieht z. B. man auch bei den betreffenden Aufnahmeserien unseres 2. Gemeinschaftswettbewerbes. Auch sieht man oft blasse Farben in Kurzbelichtungen. Insbesondere die Farben schwacher Emissionsnebel fehlen oft ganz. Schmalbandfilter lassen sich gar nicht sinnvoll einsetzen, wenn ich nicht irre.


    Für manche sehr helle Ziele habe ich auch schon erfolgreich mit Kurzbelichtungen gearbeitet, z. B. für das Trapezum in M42 oder das Zentrum des Irisnebels. Aber als Hauptstrategie passt mir die Festlegung darauf nicht, zumal ich unter meinem Himmel ohne Schmalbandfilter das Meiste verpassen würde ;-).


    Wie dem auch sei - nix für ungut :) und viel Spaß uns allen - egal wie die "Fotonen" auf die Platte kommen!!


    Peter

  • Hallo Peter,


    da war auch von meiner Seite nichts negativ verstanden worden. Schmalbandaufnahmen macht man mit längeren Belichtungen, da werde ich auch nichts dran ändern. Und weder Klaus noch ich haben gesagt, daß wir nur auf Kurzeitaufnahmen festgelegt sind. Es ist eine zusätzliche Möglichkeit, die bei vielen Objekten gut funktioniert, bei manchen vielleicht nicht und da macht man es halt anders. Die Erweiterung des Dynamikumfangs war wirklich auf das helle Ende bezogen. Aber wenn ich mal das Ausleserauschen außer acht lasse - das funktioniert oft bei den moderneren Sensoren - dann wüßte ich nicht warum das dunkle Ende sehr leiden soll. Wenn in einem Stack z.B. hundert Photonen von einem schwachen Objekt stammen, dann ist es eigentlich egal ob da im Schnitt 10 in je 10 langbelichteten Aufnahmen registriert werden oder nur 1 in jedem 10ten von 1000 kurzbelichteten Aufnahmen. Am Ende kommt das Signal von 100 Photonen in der gleichen Gesamtzeit raus. Darauf kommt es an. Die Energie der Photonen ist quantisiert und solange die ein Signal auslösen können, spielt es keine Rolle wie die hereintröpfeln. Ok, bei irgendwelchen Besonderheiten, was da in der Elektronik passiert, da lasse ich mich belehren. Und wie Du richtig sagst, bei suboptimaler Ausrüstung bringt das am meisten. Leute mit billigem Kram können damit auch halbwegs gute Bilder machen. Vielleicht passt das einigen nicht in den Kram, da dann der Druck nicht so hoch ist eine teure Montierung oder eine Kamera mit 16-bit Auflösung zu kaufen und der teure Qualitätsvorteil, den man sich eingekauft hat wird kleiner?
    Aber wie Du sagst - egal, Hauptsache alle haben Spaß.


    Viele Grüße


    Heiko

  • Hallo Heiko,


    ich will dich auf keinen Fall belehren und nicht auf irgendwas festlegen, natürlich auch nicht den Klaus. Meine generelle Aussage zur "dunklen Seite" ist ja auch nicht wissenschaftlich begründet, sondern eher empirisch aus eigenen Erfahrungen und Beobachtungen abgeleitet. Aber auch mathematisch betrachtet wird das 1 Photon in jedem 10ten von 1000 Bildern beim Sigma Clipping wohl zwangsläufig als noise betrachtet und schneller aussortiert oder im Median gemeuchelt als das 10/10 Signal. Erst recht, wenn man wegen der kurzen Belichtungszeit und dem hohen gain eine große Varianz im Pixelstapel hat. Denn da sind da ja auch noch die elektronischen und atmosphärischen Störungen (Sky Fog, Ausleserauschen, Sensorrauschen etc.), die bei Kurzbelichtungen generell für ein sehr ungünstiges Signal/Rausch-Verhältnis und ein breit gezogenes Sigma sorgen, das problematisch für das Überleben schwacher Signale ist.


    Ein gutes Beispiel für mich selber war der Katzenaugennebel. Da habe ich Langzeitbelichtungen mit Schmalbandfiltern für die Schale gemacht. Der Kern war so extrem hell, dass ich mit und auch ohne Filter hunderte von Kurzbelichtungen gemacht habe um seine Struktur zu bekommen. In diesen Aufnahmen habe ich nicht annähernd das Signal wiedergefunden, das aus den Langzeitbelichtungen zu gewinnen war. Und ich habe mit allen meinen Möglichkeiten danach gesucht, weil ich ja einen schönen Übergang vom Kern zum Halo hinbekommen wollte.


    Na ja, jeder muss halt je nach seiner Fasson und seiner Zielstellung selber sehen, wie er das passende Signal aus seinen Daten herauspult :-)))


    Euch noch einen schönen Abend!


    Peter

  • Hallo Peter,
    auch ich habe keinesfalls Deinen Beitrag negativ oder belehrend verstanden. Wir können doch nur voneinander lernen. Zu Deinem Einwand, dass man beim Livestacking keinen weiteren Einfluss auf die Bilder hat, muss ich ergänzen, dass man vorher Darks und Flats machen soll, die sofort von Sharpcap in Masterdark und Masterflat gerechnet werden und automatisch beim Livestacking vom Frame verrechnet werden. Es sind also schon korrigierte Bilder. Ich mache es halt immer so, dass ich das Livestacking nach 30, 45 oder 60 Minuten automatisch speichern lasse und ich stelle Sharpcap so ein, dass jeder einzelne Frame als fits speichere. Da kommen etliche Gbyte zusammen. Die Einzelframes bearbeite ich dann ganz klassisch in Astroart oder AstroPixelProcessor und anschließend in Photoshop.


    Grüße und schönen Abend
    Klaus

  • Hallo Peter,


    das mit dem Sigma Clipping stimmt so ja nicht. Sigma Clipping sortiert die extremen Abweichler aus wie z.b. Hotpixel, Cosmics, Satellitenspuren etc. die stark über dem mittleren Signallevel liegen. Gerade das hast Du bei einzelnen Photonen die da reintröpfeln ja nicht- die bleiben und werden summiert.
    Auch das mit dem ungünstigen Signal/Rauschverhältnis bei "Sky Fog, Ausleserauschen, Sensorrauschen etc." stimmt nicht. Auf das einzelne Bild gesehen ja, auf die gleiche Belichtungszeit bezogen nein, da Du ja viele Bilder stackst bis Du auf die Belichtungszeit einer Langzeitaufnahme kommst. Das reduziert das S/R wieder und am Ende ist es für gleiche Belichtungszeit identisch. Da ist die Mathematik eindeutig. Die einzige Ausnahme ist das Ausleserauschen, da das abhängig ist von der Zahl der Aufnahmen und nicht von der Belichtungszeit. Aber wenn das Ausleserauschen im Vergleich zu einer anderen Rauschkomponente deutlich in den Hintergrund tritt wie z.B. Himmelsrauschen, thermisches Rauschen o.ä. dann kann man es eigentlich vernachlässigen.
    Es gibt noch viele Mißverständnisse was Kurzzeitbelichtungen angeht. Ich empfehle da Videos und Vorträge von Robin Glover dem Macher von Sharpcap (einfach mal googeln).
    Ich behaupte nicht, daß das bessere Resultate liefert. Halt nur nicht unbedingt viel schlechtere und es hat einige Vorteile, vor allem wenn man mit einfacher Ausrüstung unterwegs ist und z.B. unter nicht idealem Himmel aufnimmt.


    Gruß


    Heiko

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: schimmi66</i>
    <br />Hallo Peter,
    auch ich habe keinesfalls Deinen Beitrag negativ oder belehrend verstanden. Wir können doch nur voneinander lernen. Zu Deinem Einwand, dass man beim Livestacking keinen weiteren Einfluss auf die Bilder hat, muss ich ergänzen, dass man vorher Darks und Flats machen soll, die sofort von Sharpcap in Masterdark und Masterflat gerechnet werden und automatisch beim Livestacking vom Frame verrechnet werden. Es sind also schon korrigierte Bilder. Ich mache es halt immer so, dass ich das Livestacking nach 30, 45 oder 60 Minuten automatisch speichern lasse und ich stelle Sharpcap so ein, dass jeder einzelne Frame als fits speichere. Da kommen etliche Gbyte zusammen. Die Einzelframes bearbeite ich dann ganz klassisch in Astroart oder AstroPixelProcessor und anschließend in Photoshop.


    Grüße und schönen Abend
    Klaus
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Guten Morgen Klaus,
    da hast du Recht, am Ende sollte ja bei solchen Diskussionen für jeden etwas herausgekommen sein. Das Liveview Konzept ist ja auch tatsächlich sehr spannend. Und wer weiß, was noch daraus wird?


    Schönen Tag und beste Grüße,
    Peter

  • Guten Morgen Heiko,


    ich verstehe das anders und möchte sozusagen noch eine Rund drehen…[;)]


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Doc HighCo</i>
    <br />Sigma Clipping sortiert die extremen Abweichler aus wie z.b. Hotpixel, Cosmics, Satellitenspuren etc. die stark über dem mittleren Signallevel liegen. Gerade das hast Du bei einzelnen Photonen die da reintröpfeln ja nicht- die bleiben und werden summiert.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Mag sein, dass ich im Folgenden grandios daneben ziele, aber ich riskiere das [:)].


    Die Methode ist nach meinem Verständnis eine iterative Datenreduktion auf Median/Mittelwertbasis mit vorlaufender Ausreissereliminierung. Die Einzelframes werden zunächst aufeinander ausgerichtet (registriert) und dann normalisiert. Danach liegen korrespondierende Pixel übereinander. Sie gehen dann an jeder Koordinate des Bildstapels als "Pixelstapel" in die Berechnungen ein. Ein schwaches Signal, das nur in wenigen Bildern enthalten ist, also im jeweiligen Pixelstapel nicht hinreichend repräsentiert wird, dürfte nach meinem Verständnis Gefahr laufen als Ausreisser eingeordnet und eliminiert werden.


    Beim Sigma Clipping wird einem iterativen Prozess für den Pixelstapel an jeder Bildkoordinate zunächst jeweils der Median (in anderen Verfahren der Mittelwert) gebildet und die Standardabweichung berechnet. Abhängig von den jeweiligen Vorgabeparametern wird ein Vertrauensintervall aufgespannt, das ein Mehrfaches der Standardabweichung abdeckt (typischerweise 2,5 – 3 fach). Pixel, die außerhalb dieses Intervalls liegen, werden eliminiert. Diese Grafík in der PixInsight Dokumentation zeigt das Prinzip ganz anschaulich:



    https://pixinsight.com/doc/too…ion/ImageIntegration.html


    Vom den überlebenden Pixeln wird der Median berechnet und das Ganze dann je nach Vorgabe mehrfach wiederholt, bis schließlich der letzte Medianwert als Pixelwert für die jeweilige Koordinate übernommen wird.


    In deinem Beispiel ist das Signal der Kurzbelichtung nur in jedem 10ten Bild enthalten. Das wären 100 Pixel von 1000 im gesamten Pixelstapel. Bei sequenziellem Livestacking von z. B. 100 x 10 Aufnahmen/Stack wäre also nur 1 von 10 Pixeln im betreffenden Stapel ein Signal, der Rest wäre normalverteiltes Rauschen. Könnte also schon sein, dass das einzelne Signalpixel im 10er Stapel außerhalb des Vertrauensintervals liegt und eliminiert wird. Das Gleiche müsste eigentlich für die genannten 100 Signalpixel aus 1000 gelten. Anders sieht es bei den von dir als Vergleich genannten 10 länger belichteten Aufnahmen aus, in denen das Signal in jeder Aufnahme (1 Mal) vorhanden ist. Da ist es ausgeschlossen, dass das Signal eliminiert wird.


    Das nicht eliminierte Signal, das an der betreffenden Koordinate in dem betrachteten Pixelstapel in 10 von 10 Fällen vorhanden ist, wird auch bei der finalen Medianberechnung viel besser repräsentiert sein, als 1 „überlebendes“ Signalpixel unter 9 Rauschpixeln beim sequenziellen Livestacking oder als 100 von 1000 Pixeln im Gesamtstapel der Kurzbelichtungen.


    Ich stimme dir also insoweit zu, dass die Akquisitionsmethode bei gleicher Gesamtbelichtungszeit unerheblich ist soweit es um ein hinreichend starkes Signal geht. Das Bildrauschen dürfte sogar viel geringer sein. Bei sehr schwachen Signalen sehe ich jedoch die längeren Belichtungen im Vorteil.

  • Hallo Peter,


    im Prinzip hast Du recht, aber der Punkt ist, daß es nach ein paar Iterationen keine Werte (Pixel) mit Abweichungen mehr vom Median gibt, die größer sind als das Akzeptanzintervall für die Abweichung (das man übrigens setzen kann). Der Sigma-Schwellenwert wir ja nicht nach jeder Iteration verkleinert, sondern die Iteration abgebrochen, wenn es keine Ausreißer mehr zu eliminieren gibt, so wie ich es verstehe. Sonst bliebe am Ende nur ein einziges "repräsentatives" Pixel übrig. Selbst wenn es so ist, würden die durch ein Photon leicht erhöhten Werte ihre Spur im Median hinterlassen, da sie sich in etwa in der Mitte des sortierten Stacks (wie im Bild) befinden würden und dadurch schon den Medianwert angehoben hätten.


    Gruß


    Heiko

  • PS: Außerdem muß man ja noch kein Sigma-Clipping machen, sondern könnte einfach nur je 100 Kurzbelichtungen wie oben aufsummieren bis man auf die Dauer einer langen Belichtung kommt. Dann hätte man die 10 Photonen genauso im Endwert drin wie bei einer langen Belichtung. Was anderes macht der Sensor ja auch nicht. Er addiert nur ganz dumm Photonensignale - egal wie sie reinkommen.

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Doc HighCo</i>
    <br />Hallo Peter,


    im Prinzip hast Du recht, aber der Punkt ist, daß es nach ein paar Iterationen keine Werte (Pixel) mit Abweichungen mehr vom Median gibt, die größer sind als das Akzeptanzintervall für die Abweichung (das man übrigens setzen kann). Der Sigma-Schwellenwert wir ja nicht nach jeder Iteration verkleinert, sondern die Iteration abgebrochen, wenn es keine Ausreißer mehr zu eliminieren gibt, so wie ich es verstehe. Sonst bliebe am Ende nur ein einziges "repräsentatives" Pixel übrig. Selbst wenn es so ist, würden die durch ein Photon leicht erhöhten Werte ihre Spur im Median hinterlassen, da sie sich in etwa in der Mitte des sortierten Stacks (wie im Bild) befinden würden und dadurch schon den Medianwert angehoben hätten.


    Gruß


    Heiko
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Hallo Heiko,


    die Anzahl Iterationen gibt man ja vor. Das Sigma wird nach jeder Ausreißereliminierung in der nächsten Runde kleiner. Damit sind Satelliten- und Flugzeugspuren schnell raus. Das evtl. überlebende, arme eine Photon von zehn ist in einer echten Zwickmühle. Entweder produziert es bei entsprechenden Gaineinstellungen einen signifikant Pixelwert - dann wird es als Ausreißer behandelt und vom Clipping erledigt. Oder es hält den Kopf unten und verhält sich ähnlich wie das Rauschen (nicht signifikant) - dann wird es bei der Reduzierung des Pixelstapels durch Mittelwert- oder Medianbildung platt geklopft. Den Medianwert wird es dann nicht anheben können, zumal der auch den häufigsten Wert und nicht den Mittelwert des verbleibenden Pixelstapels liefert. Ich glaube es gibt keine Alternative - damit ein Signal als solches durchkommt, muss es im Pixelstapel in hinreichend vielen Lights vertreten sein.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Doc HighCo</i>
    <br />PS: Außerdem muß man ja noch kein Sigma-Clipping machen, sondern könnte einfach nur je 100 Kurzbelichtungen wie oben aufsummieren bis man auf die Dauer einer langen Belichtung kommt. Dann hätte man die 10 Photonen genauso im Endwert drin wie bei einer langen Belichtung. Was anderes macht der Sensor ja auch nicht. Er addiert nur ganz dumm Photonensignale - egal wie sie reinkommen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Aufsummieren geht ja nicht. Bei den für Kurzbelichtungen eingestellten Gainwerten übersättigt man dann am rechten Histogrammrand die Sterne und verliert am linken Dynamikbandbreite. Das halte ich für nicht praktikabel.


    Ich meine sowieso, wir haben und ziemlich an dem Extrembeispiel 1 von 10 Pixel in hundert Aufnahmen gegen 10 von 10 in 10 Aufnahmen festgebissen. Also was die Mathematik dahinter angeht bin ich
    sicher nicht einmal einäugig unter allen hier versammelten Blinden. Aber ich meine trotzdem, dass die veröffentlichten Kurzbelichtungsbilder zeigen, dass sie in Bezug auf das ganz dunkle Zeugs und dessen Farben klar im Nachteil gegenüber längeren Belichtungen sind. Ich möchte aber den Thread von Klaus nicht auch noch mit Referenzbildern befrachten. Ich will auch gar nicht Recht behalten. Wir können es gern dabei belassen und darauf verlassen, dass jeder mit "seiner" Technik den meisten Spaß hat [:D].


    In diesem Sinne, alles Gute und viel Spaß allerseits!


    Peter

  • Hallo Peter,


    wie gesagt, gerade bei den Kurzbelichtungen hat man weniger Ausbrennen am rechten Rand als bei langen Belichtungen. Ich glaube, daß Du Dich da auf einen Holzweg begeben hast, indem Du krampfhaft versuchst einzelne Photonen als Ausreißer behandel zu lassen. Warum sollen auch bestimmte Photonen von einem lichtschwachen Himmelsbereich als Ausreißer behandelt werden, andere aber nicht?
    Ich bleibe dabei: Es macht keinen Unterschied, ob Du die Photonen die, in sagen wir 1000 Sekunden, aus einem Himmelsbereich kommen in einer Aufnahme sammelst oder in 100 Aufnahmen unterteilst und erst danach summierst. Warum auch, solange Dein Sensor sich halbwegs linear verhält. Es ging ja auch nur darum zu sagen, daß Photonen diskret und quantisiert sind. Und 10 Photonen von einem bestimmten Punkt können nicht als 1/10 Photonen in jedem von hundert kurzen Aufnahmen präsent sein. Deswegen werden sie nur in einem Teil der Kurzaufnahme zum Signal beitragen. Summiert über die Gesamtbelichtungszeit dann aber schon. Da kommen dann in 1000 Sekunden auch 10 bestimmte Photonen an und erzeugen das gleiche Signal, wie bei einer langen Belichtung auch. Sie sind nicht weg oder unterdrückt. Das hat erst mal gar nichts mit Sigma-Clipping zu tun.
    Aber am Ende - Versuch macht kluch. Man kann es ja mal ausprobieren. [:)]


    Viele Grüße


    Heiko

  • Hallo Heiko,


    ich bin nicht auf dem Holzweg und nicht verkrampft. Auf dem Niveau möchte ich eigentlich gar nicht diskutieren. Das Extrembeispiel mit dem einen von 10 Photonen stammt denn auch von dir. Und das von dir ins Spiel gebrachte 1 Photon je 10 Aufnahmen bzw. dessen Repräsentanz in 1 von 10 Pixeln eines Pixelstacks überlebt m. E. <u>nicht</u>. Das ist nun mal die Systematik beim Sigma Clipping. Aber vielleicht ist dein Beispiel auch falsch und bildet die Problemstellung nicht richtig ab.


    Ich hab nie von 1/10 Photon gesprochen und weiß auch, dass Photonen quantisiert auftreten. Ich habe von <u>Pixeln</u> gesprochen, welche den Informationsgehalt der Photonen repräsentieren. Genauer gesagt bin ich in deinem Bild geblieben und habe von 1 Pixel mit dem Informationsgehalt von 1 Photon in einem Pixelstapel von 10 Pixeln gesprochen, in welchem die anderen 9 Pixel nur Rauschen repräsentieren. Das ist die Situation, die beim Stacken des von dir in die Diskussion gebrachten Beispiels vorliegt. Und natürlich sind nicht "die Photonen weg", sondern die die Photonen repräsentierenden Einzelpixel (eins von 10 im Stapel) werden meiner Auffassung nach geclippt oder gehen bei der Medianberechnung unter.


    Aber das hat sich totdiskutiert und das Zahlenbeispiel passt, wie ich oben schon vermutet habe, vielleicht auch gar nicht zur Fragestellung, ob man mit Kurzbelichtungen richtig dunkles Zeugs fotografieren kann. Also lass uns Frieden schließen und heute Abend etwas sinnvolleres tun als weiter zu diskutieren. [:)]


    Viele Grüße und schönen Abend


    Peter

  • Hallo Peter,


    ich wollte das mit verkrampft und Holzweg nicht negativ verstanden wissen. Aber egal, im Moment kommen wir anscheinend tatsächlich nicht auf einen gemeinsamen Nenner.
    Lass es uns dann jeder so machen wie wir Spaß daran haben und überzeugt sind, daß es funktioniert.


    Viele Grüße


    Heiko

  • Hallo zusammen,
    oh, es gibt eine Diskussion zur Kurzzeitbelichtung und ich bin nicht dabei, das muss ich ändern :-).
    Ich kann aus eigener Erfahrung sagen, dass sich Lichter und Tiefen linear verstärken wenn man längere Summenbelichtungen hat. Die Tiefen bleiben also sozusagen nicht zurück. Die häufig verwendete Aussage: "Kurzzeitbelichtungen eignen sich nur für helle Deep-Sky-Objekte" gilt nicht! Wie immer muss man aber die Grenzen definieren. Da wäre z.B. die Hintergrundlimitierung, ein absolutes Muss bei kurzen Belichtungen, wenn man nichts verschenken will. Diese ist aber nicht einfach nach x-komma-y-Sekunden "plopp" einfach da, sondern auch hier gibt es einen Verlauf. Im unteren Verlauf dieser Kurve verliert man mehr, im oberen weniger. Die oben verwendeten 10 Sek. halte ich für sehr praktikabel.
    Mit den Farben hat das alles nicht viel zu tun, außer, dass der Farbfilter Licht schluckt und die Schwelle, also die Einzelbelichtungszeit höher gesetzt werden muss. Man sollte vielleicht auch die Bilder, die mit Kurzzeitbelichtungen entstanden nicht so einfach mit den Langen vergleichen. Natürlich hat eine echte Astrokamera oft mehr Dynamik (im Sinne von Full-Well)und auch andere Eigenschaften sind auf die Deep-Sky-Fotografie hin optimiert und wer eine gute Montierung hat und das Guiding wirklich beherrscht (wie Peter), der hat keine Vorteile bei kurzen Einzelbelichtungen. Ist der Himmel gut, schwinden zudem weitere Vorteile. Man darf auch nicht vergessen, dass es prozentual mehr Einsteiger mit kurzen Belichtungszeiten versuchen als erfahrene Fortgeschrittene. Ein Vergleich der Resultate pauschal ist nicht gut möglich.
    Was das Sigma-Clipping angeht so stehe ich auf Heikos Seite. Natürlich kann man Fehler machen, (z.B. wenn man bei hohem Gain zunächst entrauscht und dann stackt), aber als "Kurzer" macht man das nicht. Ich z.B. erstelle Zwischenstacks und dann kann das Sigma greifen, wie bei einer langen Belichtungszeit. Ich selber nutze es aber gar nicht, ich werfe einfach ein 2 Sek. Bild raus, wenn da ein Flugzeug oder Satellit durchgeflogen ist. Am Ende, wenn man alle Faktoren berücksichtigt, bleibt (aus meiner Sicht) nur noch das Ausleserauschen als limitierender, also "reduzierender" Faktor.
    Viele Grüße,
    ralf

  • Hey grüß dich Ralf! Ich hatte deinen Beitrag auch eigentlich schon vermisst[:D]


    Nochmal zur Klarstellung, ich wollte gar keine Grundsatzdiskussion lostreten. Ich hatte Klaus ohne Hintergedanken zu den Vorteilen von Livestacking mit Sharpcap im Vergleich zu anderen Aufnahmeprogrammen und -strategien gefragt.


    Als Antwort auf Heiko hatte ich mich dann gegen die generelle Aussage gestellt, dass der Dynamikumfang sich durch Kurzbelichtungen im Vergleich zu Langzeitbelichtungen vergrößert.


    In die daran anschließende Diskussion war ich mit folgendem Statement in die Diskusion eingestiegen: <i><font color="yellow">"Jeder soll ja so arbeiten, wie er mag. Für meine Art Bilder zu machen überwiegen für mich die Nachteile von Kurzbelichtungen." </i></font id="yellow">. Und das ist für mich ja auch richtig.


    Verloren haben der Heiko und ich uns dann in seinem Argument mit dem einen Photon je 10 Aufnahmen. Es gibt m. E. keine Möglichkeit, dass ein schwaches Signal eines einzigen Photons, dass sich in nur einer von 10 Aufnahmen befindet, ein Sigma-Clipping oder eine einfache Medianbildung des betreffenden Pixelstapels überlebt. Es erleidet das gleiche Schicksal wie ein geditherter Coldpixel oder ein Satellitenphoton - es wird eliminiert oder heruntergemittelt. Das geht mathematisch gar nicht anders.


    Ich sagte aber auch, dass es nur meiner eigenen Erfahrung entspricht, dass das "ganz dunkle Zeugs" besser mit Langzeitbelichtungen hervorzuholen ist. Aber ich kenne halt auch keine Referenzen für entsprechende Ergebnisse mit Kurzbelichtungen.


    Was den von dir nochmal angesprochenen Aspekt mit den Farben dunkler Signale angeht. Der Umstand, dass es bei Kurzbelichtungen wenig Sinn macht, mit Schmalbandfiltern, also engen Farbfiltern, zu arbeiten, untersetzt doch meine Grundannahme, dass es schwieriger ist, sehr dunkle Signale mit Kurzbelichtungen aufzunehmen. Wenn es anders wäre, könnte man ja ohne guiding unter lichtverschmutztem Himmel tolle Hubble-Paletten schießen.

  • Hallo Peter,
    ja, ich stecke gerade zwischen den Planeten und Deep-Sky gerät dabei etwas in den Hintergrund. Ich gebe dir Recht, wer es wirklich kann, der sollte länger belichten. Dazu braucht man eine sehr gute Montierung die jedes noch so kleine Guidingsignal auch sehr schnell und perfekt umsetzen kann. Meine EQ6 kann das definitiv nicht. Du kannst es, ich habe deine Bilder ja schon mal als Rohstack gesehen, da kommt sonst kaum einer ran.
    Kurzzeitbelichtungen mit Schmalband sind natürlich sehr heikel, da hast du Recht. Der kameratechnische Hintergrund ist gar nicht anders, aber dadurch, dass die Filter so "dunkel" sind kommt man erst sehr spät an die Hintergrundlimitierung. Hat man die erreicht ist alles wieder easy. Ich habe Tests gemacht und dabei mein C11 auf f3,3 runter gebrochen. Bei 12 nm H-alpha musste ich 8 bis 12 s belichten um erste Zeichen der Hintergrundlimitierung zu erkennen. (Vergleich Hintergrundhelligkeit im Dark zu Light etwa 5 von 256 Graustufen) Das ist sicher nicht genug und ich schätze, das ich ca. 50% verloren hatte. 8 bis 12 s dürften zwar die meisten Montis problemlos hin bekommen, aber die Zeit ist immer noch zu lang um Seeingeffekte wesentlich verringern zu können und damit wäre der Vorteil einer kurzen Einzelbelichtung wieder dahin. Anders sieht es aber wieder aus, wenn das Objekt hell genug ist und z.B. nur das Zentrum mit Schmalbändern abgelichtet werden soll.
    Bei dem Sigma Clipping reden wir irgendwie aneinander vorbei glaube ich. Wir brauchen ja erst einmal eine ganze Reihe Bilder um überhaupt einen Mittelwert definieren zu können. Ist dieser Wert z.B. 50, dann werden Pixel mit der Helligkeit 49 oder 51 ja nicht aussortiert, alles bleibt so wie es ist, auch noch bei 45 und 55. Das Eine Photon hat so gut es konnte seine Spur hinterlassen. Wenn aber in einem Bild ein Pixel mit 200 existiert, dann fliegt das raus, so mein Verständnis vom Sigma-Clipping. Nur so ganz nebenbei, ich habe mal gehört, dass man von einem 20 mag Stern mit einem 10Zöller f/5 und 5µm Sensor etwa 5 Photonen pro Sekunde einfängt. Hat mit dem Thema nichts zu tun finde ich aber sehr cool.
    Viele Grüße,
    und natürlich hat jeder seinen Weg,
    Gruß ralf

  • Hallo Ralf,


    in einem amerikanischen Forum habe ich mal gesagt, dass die ganz dunklen Signale, die wir jagen ("the really dark stuff"), sich in der rechten Flanke des Hintergrundpeaks im Histogramm vor uns verstecken. Mit jedem Verkürzen der Belichtungszeit und besonders bei hellem Himmel und frühem Erreichen der Hintergrundlimitierung wird diese Flanke steiler und der Peak schmaler. Das erschwert es, das Signal heraus zu präparieren und kostet Dynamikumfang, der am Ende das Strecken limitiert. Mein Rezept wäre, je dunkler der Himmel (oder der Filter) desto länger belichten und immer so viele Aufnahmen wie möglich pro Kanal machen. Letzteres führt dazu, dass ich maximal 300s belichte (OIII Filter), weil ich sonst nicht genug zum Stacken habe, um das Rauschen unten zu halten.


    Die Diskussion um das Sigma Clipping hatte sich ja leider verselbstständigt und eine Menge gespaltener Haare hinterlassen. Es ging aber doch ursprünglich um das sequentielle Live Stacking von je 10 Bildern mit je 10s Belichtungszeit. Die konkrete Hypothese, die mir nicht passt, ist, dass es egal sei, ob beim Livestacking an einer Bildkoordinate <i><font color="yellow">100 Mal je 1 Photon in jedem 10er-Stapel von 10s Kurzbelichtungen</font id="yellow"></i> ankommen oder im 2. Fall <i><font color="yellow">10 Mal je 10 Photonen im 10er-Stapel von je 100s Einzelbelichtungszeit</font id="yellow"></i>. In beiden Fällen wird an jeder Koordinate aus den korrespondierenden Pixeln von 10 Bildern ein 10er Pixelstapel gebildet und gestackt. Es dürfte klar sein, dass im 2. Fall das Signal erhalten bleibt (100% der gestackten Pixel enthalten das Signal). Im ersten Fall trägt aber nur 1 Pixel das Signal, die anderen 9 streuen um den Hintergrundwert und repräsentieren die Summe aller Störungen (Rauschen). Mir ist keine beliebige Folge von 10 Werten vorstellbar, in der 9 Werte normalverteilt streuen, während 1 Wert davon abweicht und ein Sigma Clipping überlebt oder signifikanten Einfluss auf den Medianwert hat. Am Ende wär in keiner der 10 Stacks aus je 10 Aufnahmen von 10s so viel Signal vorhanden, dass es nach dem endgültigen Stacken der 10 Einzelstacks noch signifikant wäre. Das kann man mit einem Taschenrechner zeigen.


    Ich glaube ja auch, dass das 1/10 Beispiel von Heiko vielleicht zu eng gebaut ist. Aber das Prinzip, dass gestackte Stacks von Kurzbelichtungen beim Livestacking für schwache Signale eher Nachteile bringen dürfte doch generell gelten. Die Vorteile von Kurzbelichtungen liegen im mechanischen Bereich (PE-Montierung, Guiding, Wind, Vibrationen) und im einfacheren Setup. Da sind wir ja auch einer Meinung [:)].

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!