Beiträge von Doc HighCo im Thema „Es geht mit 10 Sekunden und weniger...“

    Hallo Tino und Lars,


    danke, daß ihr das bestätigt und daß ihr das ähnlich seht wie ich. Aber wie oben gesagt, gab es schon viele Diskussionen wann und ob Kurzeitbelichtungen Sinn machen. Man muß das nicht ständig wiederholen. Wer darin eine Verbesserung oder Erleichterung seiner Aufnahmen sieht, der soll das halt tun. Ich sehe für viele Bedingungen (nicht allen) bei mir dort halt einen Vorteil bei marginalen Beeinträchtigungen im S/R.
    Wer nichts davon hält, der muß es ja nicht machen. Oben wurden ein paar Fakten präsentiert und man kann da sein Schlüsse draus ziehen.
    Wenn Du, Peter der Meinung bist, daß das für Dich nichts bringt, dann ist das in Ordnung. Es ist ja ein Hobby und jeder kann es machen wie er will. Wir müssen nicht "Ich will aber unbedingt Recht behalten." spielen und uns ein Argument nach dem anderen ums Ohr hauen.
    Deswegen wünsche ich euch allen viel Spaß dabei, egal wie ihr es macht.


    Gruß


    Heiko

    Genau,


    beim S/R-Verhältnis wurde auch nie etwas anderes behauptet, auch weiter vorne nicht. Es ging nur darum, daß Kurzeitbelichtungen unter bestimmten Bedingungen vom S/R-Verhältnis nicht merklich schlechter sind und kein Signalphoton verloren geht, dafür aber andere Vorteile haben können, z.B. weniger Verlust an Aufnahmezeit wenn ein Frame verloren geht, weniger Anforderungen an die Montierung, Ausnutzung kürzerer besserer Seeingperioden etc..
    Und natürlich hat man den Vorteil, daß der Dynamikumfang bei hellem Hintergrund besser ist. Im Extremfall ist bei langen Belichtungen der Sensor dann nämlich vom Himmelhintergrund gesättigt, was man dann bei kurzen Belichtungen nicht hat.
    Ich hab's auch hier im Nachbarforum geschrieben: https://forum.astronomie.de/me…ewen-vom-fruehjahr.43175/


    Gruß


    Heiko


    PS: Bei den kalkulierten Werten muß man aber natürlich noch berücksichtigen, daß das stark vom Ausleserauschen des Sensors abhängt. Das kann bei CCDs oder älteren DSLRs ganz anders aussehen als bei modernen rauscharmen CMOS-Sensoren. In der Tabelle von Glover hast Du 2,5e und 7e Ausleserauschen, während Du heute schon Sensoren hast die unter 1e kommen.

    Hallo,


    ohne darauf rumreiten zu wollen, zur Info der Link zu einem Paper zu Rauschen, Belichtungzeit und -zahl, welches ich ganz interessant finde: http://adsabs.harvard.edu/full/2013JRASC.107..123M
    Und ein Link zu einem Video zu einem Vortrag von Robin Glover:

    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
    (Deep Sky Astrophotography With CMOS Cameras).
    Mag jeder, den es interessiert, selber seine Schlüsse daraus ziehen.


    Gruß


    Heiko

    Hallo Peter,


    ich wollte das mit verkrampft und Holzweg nicht negativ verstanden wissen. Aber egal, im Moment kommen wir anscheinend tatsächlich nicht auf einen gemeinsamen Nenner.
    Lass es uns dann jeder so machen wie wir Spaß daran haben und überzeugt sind, daß es funktioniert.


    Viele Grüße


    Heiko

    Hallo Peter,


    wie gesagt, gerade bei den Kurzbelichtungen hat man weniger Ausbrennen am rechten Rand als bei langen Belichtungen. Ich glaube, daß Du Dich da auf einen Holzweg begeben hast, indem Du krampfhaft versuchst einzelne Photonen als Ausreißer behandel zu lassen. Warum sollen auch bestimmte Photonen von einem lichtschwachen Himmelsbereich als Ausreißer behandelt werden, andere aber nicht?
    Ich bleibe dabei: Es macht keinen Unterschied, ob Du die Photonen die, in sagen wir 1000 Sekunden, aus einem Himmelsbereich kommen in einer Aufnahme sammelst oder in 100 Aufnahmen unterteilst und erst danach summierst. Warum auch, solange Dein Sensor sich halbwegs linear verhält. Es ging ja auch nur darum zu sagen, daß Photonen diskret und quantisiert sind. Und 10 Photonen von einem bestimmten Punkt können nicht als 1/10 Photonen in jedem von hundert kurzen Aufnahmen präsent sein. Deswegen werden sie nur in einem Teil der Kurzaufnahme zum Signal beitragen. Summiert über die Gesamtbelichtungszeit dann aber schon. Da kommen dann in 1000 Sekunden auch 10 bestimmte Photonen an und erzeugen das gleiche Signal, wie bei einer langen Belichtung auch. Sie sind nicht weg oder unterdrückt. Das hat erst mal gar nichts mit Sigma-Clipping zu tun.
    Aber am Ende - Versuch macht kluch. Man kann es ja mal ausprobieren. [:)]


    Viele Grüße


    Heiko

    PS: Außerdem muß man ja noch kein Sigma-Clipping machen, sondern könnte einfach nur je 100 Kurzbelichtungen wie oben aufsummieren bis man auf die Dauer einer langen Belichtung kommt. Dann hätte man die 10 Photonen genauso im Endwert drin wie bei einer langen Belichtung. Was anderes macht der Sensor ja auch nicht. Er addiert nur ganz dumm Photonensignale - egal wie sie reinkommen.

    Hallo Peter,


    im Prinzip hast Du recht, aber der Punkt ist, daß es nach ein paar Iterationen keine Werte (Pixel) mit Abweichungen mehr vom Median gibt, die größer sind als das Akzeptanzintervall für die Abweichung (das man übrigens setzen kann). Der Sigma-Schwellenwert wir ja nicht nach jeder Iteration verkleinert, sondern die Iteration abgebrochen, wenn es keine Ausreißer mehr zu eliminieren gibt, so wie ich es verstehe. Sonst bliebe am Ende nur ein einziges "repräsentatives" Pixel übrig. Selbst wenn es so ist, würden die durch ein Photon leicht erhöhten Werte ihre Spur im Median hinterlassen, da sie sich in etwa in der Mitte des sortierten Stacks (wie im Bild) befinden würden und dadurch schon den Medianwert angehoben hätten.


    Gruß


    Heiko

    Hallo Peter,


    das mit dem Sigma Clipping stimmt so ja nicht. Sigma Clipping sortiert die extremen Abweichler aus wie z.b. Hotpixel, Cosmics, Satellitenspuren etc. die stark über dem mittleren Signallevel liegen. Gerade das hast Du bei einzelnen Photonen die da reintröpfeln ja nicht- die bleiben und werden summiert.
    Auch das mit dem ungünstigen Signal/Rauschverhältnis bei "Sky Fog, Ausleserauschen, Sensorrauschen etc." stimmt nicht. Auf das einzelne Bild gesehen ja, auf die gleiche Belichtungszeit bezogen nein, da Du ja viele Bilder stackst bis Du auf die Belichtungszeit einer Langzeitaufnahme kommst. Das reduziert das S/R wieder und am Ende ist es für gleiche Belichtungszeit identisch. Da ist die Mathematik eindeutig. Die einzige Ausnahme ist das Ausleserauschen, da das abhängig ist von der Zahl der Aufnahmen und nicht von der Belichtungszeit. Aber wenn das Ausleserauschen im Vergleich zu einer anderen Rauschkomponente deutlich in den Hintergrund tritt wie z.B. Himmelsrauschen, thermisches Rauschen o.ä. dann kann man es eigentlich vernachlässigen.
    Es gibt noch viele Mißverständnisse was Kurzzeitbelichtungen angeht. Ich empfehle da Videos und Vorträge von Robin Glover dem Macher von Sharpcap (einfach mal googeln).
    Ich behaupte nicht, daß das bessere Resultate liefert. Halt nur nicht unbedingt viel schlechtere und es hat einige Vorteile, vor allem wenn man mit einfacher Ausrüstung unterwegs ist und z.B. unter nicht idealem Himmel aufnimmt.


    Gruß


    Heiko

    Hallo Peter,


    da war auch von meiner Seite nichts negativ verstanden worden. Schmalbandaufnahmen macht man mit längeren Belichtungen, da werde ich auch nichts dran ändern. Und weder Klaus noch ich haben gesagt, daß wir nur auf Kurzeitaufnahmen festgelegt sind. Es ist eine zusätzliche Möglichkeit, die bei vielen Objekten gut funktioniert, bei manchen vielleicht nicht und da macht man es halt anders. Die Erweiterung des Dynamikumfangs war wirklich auf das helle Ende bezogen. Aber wenn ich mal das Ausleserauschen außer acht lasse - das funktioniert oft bei den moderneren Sensoren - dann wüßte ich nicht warum das dunkle Ende sehr leiden soll. Wenn in einem Stack z.B. hundert Photonen von einem schwachen Objekt stammen, dann ist es eigentlich egal ob da im Schnitt 10 in je 10 langbelichteten Aufnahmen registriert werden oder nur 1 in jedem 10ten von 1000 kurzbelichteten Aufnahmen. Am Ende kommt das Signal von 100 Photonen in der gleichen Gesamtzeit raus. Darauf kommt es an. Die Energie der Photonen ist quantisiert und solange die ein Signal auslösen können, spielt es keine Rolle wie die hereintröpfeln. Ok, bei irgendwelchen Besonderheiten, was da in der Elektronik passiert, da lasse ich mich belehren. Und wie Du richtig sagst, bei suboptimaler Ausrüstung bringt das am meisten. Leute mit billigem Kram können damit auch halbwegs gute Bilder machen. Vielleicht passt das einigen nicht in den Kram, da dann der Druck nicht so hoch ist eine teure Montierung oder eine Kamera mit 16-bit Auflösung zu kaufen und der teure Qualitätsvorteil, den man sich eingekauft hat wird kleiner?
    Aber wie Du sagst - egal, Hauptsache alle haben Spaß.


    Viele Grüße


    Heiko

    Hallo Peter,


    ich antworte mal für Klaus, da ich das auch mache. Vorteile die ich sehe, sind weniger Anforderungen an die Montierung aufgrund der kurzen Belichtungszeit und ein größerer Dynamikumfang, da durch das Aufaddieren der kurzen Belichtungen der Wertebereich erweitert wird.
    Ich will eigentlich nicht von Klaus' Bild ablenken, aber der Irisnebel hier ist in 7,6 Stunden genau so entstanden:

    https://astrob.in/nud35b/0/


    Gruß


    Heiko

    Hallo Klaus,


    das ist ein schönes Ergebnis. Ich mache auch Livestacking mit Sharpcap und der ASI294 und bin sehr angetan davon.
    Man kann sich mit Sharpcap auch mit PHD2 verbinden. Das ist bei den kurzen Belichtungszeiten zwar nicht nötig, um eine gute Sternabbildung zu bekommen, aber es verhindert eine leichte Drift des Blickfeldes, wenn mal nicht so genau eingenordet wurde und vor allem kann man damit Dithern. Damit kann man dann sehr lange Belichtungsserien machen, die sich meiner Meinung nach nicht hinter "klassisch" aufgenommenen Bildern mit langen Einzelbelichtungen verstecken müssen.


    Gruß


    Heiko