Erfahrungsbericht: Kamera- und Bildauflösung in der Videoastronomie

  • Gerd, ich zeige dir gerne den Unterschied. AviStack wird übrigens seit 12 Jahren nicht mehr weiterentwickelt.

    Gruß

    ralf

    Hallo Ralf,


    ja das würde mich sehr interessieren.

    Wäre nett wenn du das mal zeigen würdest.


    Grüße Gerd

  • An vielen Standorten ist laut Paper keine Verbesserung unter 10 ms mehr zu erzielen.

    Hallo Michael,


    das von Dir zitierte Paper vermittelt einen sehr plausiblen experimentellen Ansatz zur Ermittlung der Qualität des Seeings und entsprechende theoretische Analysen.


    Auf der Basis eigener Messungen hatte ich mir schon vor Jahren Gedanken gemacht über das Zustandekommen von Doppel- und Mehrfachabbildungen bei der Aufnahme astronomischer Zielobjekte. Auch ich bin zu dem naheliegenden Schluss gekommen, dass der Einfangbereich der Teleskopöffnung mehrere Bereiche mit gegeneinander verkippten aber in sich im wesentlichen ebenen Bereichen der Wellenfront umfassen kann. Entfallen nur zwei solche Bereiche auf den Eingangsquerschnitt des Teleskops, bekommt man zwei seitlich gegeneinander versetzte Bilder gleichzeitig in der Brennebene, wie hier zu sehen, oder eben auch mal vier oder mehr beim gleichzeitigen Eintreffen von vier oder mehr gegeneinander verkippten Abschnitten der Wellenfront im Einfangbereich des Teleskops, wie z.B. in dieser Aufnahme von Kallisto und Ganymed zu sehen.


    Bei größeren Teleskopen ist offensichtlich die Wahrscheinlichkeit des gleichzeitigen Empfangs mehrerer gegeneinander verkippter Wellenfrontbereiche entsprechend der Eintrittsöffung größer als bei kleinen. Die Wahrscheinlichkeit des Empfangs einer über den gesamten Einfangquerschnitt ebenen Wellenfront nimmt dann natürlich mit zunehmender Teleskopöffnung rapide ab. Damit werden auch die Zeitintervalle immer kleiner und seltener, innerhalb derer man mit einem größeren Teleskop eine dem Durchmesser der Optik entsprechende beugungslimitierte Bildauflösung erwarten kann.


    Ich sehe keinen plausiblen Grund für die Annahme, dass solche idealen Momente nicht kürzer als 10 ms andauern sollten, und wenn man sie erwischen will, sollte man die Belichtungszeit nicht nach unten hin begrenzen.


    CS Jan

  • Hallo in die Runde, hallo Jan,


    ich denke um nochmal etwas klarer darzustellen, was Seeing überhaupt ist, bzw warum bestimmte zeitliche bzw. räumliche Effekte auftreten, siehe hier:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Diese "Turbulence Phase Screens" simulieren bzw. representieren das Seeing in unterschiedlichen Luftschichten, bzw. Höhen mit unterschiedlichen Zellgrößen und mit unterschiedlichen Windgeschwindigkeiten, welche sich überlagern. Viel schneller als einige ms bis einige zehner ms wirds dann aus physikalischen Gründen einfach nicht. Daher hat man auch bei den allerneuesten Teleskopen spezielle hochmoderne Adaptive Optiksysteme, welche bspw. auf unterschiedliche Luftschichten, sogennante Layer korrigieren.

    Also alles doch etwas komplizierter als "Verkippte Wellenfronten und süffisante Bemerkungen"


    Bezüglich Simulation dieser doch eher komplizierten Effekte, bzw. des kompletten Imaging-Trains lege ich allen interessierten die Software PHOSIM ans Herz:

    Hiermit hatte ich bspw. letztes Jahr etwas herumexperimentiert:


    Ich habe übrigens auch Saturn und Jupiter bei unterschiedlichen Seeingparametern und 16" Newton mittels PHOSIM simuliert. Falls es beispielweise Ralf und die anderen Planetenjäger interessiert, würde ich nochmal einen gesonderten Beitrag zusammenschnüren.


    Vg Tino

  • Also alles doch etwas komplizierter ...

    Hallo Tino,


    mit dieser Feststellung bin ich sehr einverstanden. Ob wir als Amateure allerdings ohne "spezielle hochmoderne Adaptive Optiksysteme" und mit Simulation zu sinnvollen Verbesserungen unserer Aufnahmetechnik in der eigenen Praxis kommen, erscheint mir unklar. Vorläufig bleibt uns "nur" - aber immerhin - die Praxis der Auswahl von Einzelbelichtungen und das Stacken mit Hilfe einer der verfügbaren Softwarelösungen, deren Autoren wirklich Bewundernswertes zustande gebracht haben.


    Hinsichtlich der Auswahl von Einzelbelichtungen komme ich nochmal zurück auf die oben bereits zitierte Zeitlupenfassung meiner Videoaufnahme des 1,4" Doppelsternsystems Epsilon Arietis, die ich hier nochmal unmittelbar zur Ansicht stelle:



    Die 100 hier gezeigten Einzelframes wurden in einem Abstand von jeweils 55 ms (18 fps) mit einer Belichtungszeit von jeweils nur 5 ms aufgenommen. Zum Zeitpunkt der Aufnahme vor 11 Jahren hatte ich noch keine so schnelle Kamera wie heute mit der ASI178MM. Ich will den damaligen Versuch bei nächster Gelegenheit gerne nochmal mit 5 ms aber dann mit mit 200 fps wiederholen, ggf. auch noch schneller, um herauszufinden, inwieweit ich mit einer Verkürzung der Belichtungszeit im Bereich < 10 ms an meinem 10" Spiegel noch bessere Einzelframes gewinnen kann. Vielleicht hat ja der eine oder andere Teilnehmer an dieser Diskussion selbst Interesse an eigenen Tests in dieser Richtung ...


    CS Jan

  • Gesagt, getan ...


    Je besser das Material ist, umso geringer fällt der Unterschied aus. Eine geringe Verwendungsrate zeigt den Effekt ebenso etwas deutlicher.

    Gruß

    ralf

    Hallo Ralf,


    danke erst mal für das Zeigen.

    Und ja ein deutlicher Unterschied ist sichtbar.

    Aber als erstes muss gesagt werden das du dich auf Ausrichtpunkte für das Stapeln beziehst.

    Stefan bezog sich aber nicht auf Ausrichtpunkte sondern ein selektieren guter Bildausschnitte und nur die guten Ausschnitte sollten dann gestapelt werden.

    Das hat mit dem Multipoint-Alignment dessen Wirkung du gerade demonstriert hast aber nicht das Geringste zu tun.

    Beim Multipoint-Alignment wird das komplette Einzelbild zum Stapeln verwendet und nicht nur Teile davon wie von Stefan beschrieben.


    Meine Antwort an Stefan bezog sich also nicht auf das Multipoint-Alignment.

    Insofern kannst du mir mit der Demonstration des Multipoint-Alignment auch nicht beweisen das meine Aussage in Bezug zum Selektieren einzelner Bilderreiche nicht korrekt wäre.


    Dennoch ist meine Aussage in gewissen Grenzen in ihrem Kern sogar auf das Multipoint-Alignment zutreffend.

    Der Kern der Aussage lautet das es schon einer gewissen Bildgröße bedarf damit entsprechende Maßnahmen Sinn machen.

    Diese sinvolle Bildgröße ist in deinem Fall für das Multipoint-Alignment eindeutig gegeben.

    Dein Jupiter hat etwa 500 Bildpunkte im Durchmesser

    Mit 400 Ausrichtpunkten käme also wenn wir mal der Einfachheit halber mit einem Quadrat mit 500x 500 Bildpunkten rechnen ein Ausrichtpunkt auf rund 25 x 25 Pixel.

    Nun stell dir aber mal vor du hättest nicht den großen Jupiter sondern den Uranus aufgenommen.

    Dessen scheinbare Größe ist mit etwa 3,8“ etwa 12 mal kleiner als Jupiter in Opposition.

    Das Planetenbild wäre unter exakt gleichen Aufnahmeparametern also 12 mal kleiner und damit nicht 500 sondern nur rund 42 Pixel im Durchmesser. Wenn wir wieder pro Ausrichtpunkt 25x25 Pixel verwenden könnte man also nicht mal 4 Ausrichtpunkte komplett auf dem Planetenscheibchen unterbringen

    geschweige denn 400 wie bei deinem Jupiter.

    Der Unterschied zwischen Singlepoint und Multipoint-Alignment mit lediglich 4 Ausrichtpunkten wäre dann sicherlich auch bedeutend kleiner wie zwischen Singlepoint und 400 Ausrichtpunkte wie in deiner Demonstration.


    Und nun nehmen wir mal an du hättest auf Jan gehört und Uranus im Undersampling also nicht mit F = 5,1 x Pixel sondern mit F= 2,1 x Pixel wie er es ja mit unglaublicher Penetranz predigt aufgenommen.

    Dann wäre Uranus tatsächlich kleiner als ein einziger Ausrichtpunkt mit 25x25 Pixeln und zwischen Single und Multipoint-Alignment gäbe es dann garantiert keinen Unterschied mehr da in beiden Fällen ja nur 1 Ausrichtpunkt verwendet wird.


    Grüße Gerd

  • Beim Multipoint-Alignment wird das komplette Einzelbild zum Stapeln verwendet und nicht nur Teile davon wie von Stefan beschrieben.


    Hallo Gerd,

    es soll ja Leute geben, die nie Unrecht haben.

    Vielleicht solltest du dich mal mit der Software beschäftigen.

    Auf Wiedersehen


    In der Tat werden die Deformationen nicht aussortiert, sondern zurechtgerückt.

    Hallo Ralf,


    Ich finde es ziemlich frech von dir eine Aussage von mir als falsch hinzustellen die du selber zuvor schon so ähnlich gemacht hattest.


    Wie du schon geschrieben hattest werden die Deformationen eben nicht aussortiert und wenn nichts aussortiert wird heißt das nichts anderes als das das komplette Einzelbild verwendet wird.

    Ich denke dieser Logik solltest du folgen können.

    Und nichts Anderes hatte ich ja geschrieben


    Aber anscheinend hast du nicht mitbekommen was Stefan geschrieben hatte.

    Der meinte ja das etwas aussortiert wird, vielleicht befasst du dich doch erst mal mit seiner Aussage.

    Sonst reden wir noch ewig aneinander vorbei.


    Oder stellst du dich hier absichtlich dumm und tust so als sei dir der Unterschied zwischen aussortieren und zurechtrücken aber weiterverwenden nicht klar nur um mir ein falsches Verständnis andichten zu können.


    Grüße Gerd

  • Hallo,


    wie ich finde eine sehr unschöne Diskussion. Es wird mit einer Vehemenz ganz klares Unwissen ( Gerd) dargeboten und mit einem aggressiven Diskussionstil verteidigt.

    Das MultipointAlignment funktioniert so:

    1. Das Bild wird in sogenannte Patches (Teilbilder) unterteilt, diese bekommen jeweils einen, bzw mehrere Alignmentpoints zugewiesen.

    2. Die Software versucht dann anhand einer Musterekennung diese Teilbilder zurechtzurücken und bei schlauen Programmen werden diese auch zurechtzuskaliert, bzw zurechttransformiert.

    3. Wenn keine Kontraste vorhanden sind, belässt man den Patch am Ort, oder richtet sich nach der Verschiebung der umgebenden Teilbilder.

    4. Mit diesen zurechtgeschobenen Teilbildern wird dann das klassische Summenbild gebildet, was dann im besten Falle schärfer ist, als das wabbelnde Ursprungsmaterial.

    5. Wenn man will kann man auch nach Qualität aussortieren, oder die Wichtung anpassen.

    Dh. auch bei Uranus und bspw nur 4 Patches wird das Bild wohl besser werden, beim Mond und bei Jupiter definitiv.


    Der Ralf versucht übrigens mühselig mit Bildern und Beschreibung seiner Erfahrungen hier etwas Licht ins Dunkel zu bringen und manche Diskussionsteilnehmer picken sich teils zusammenhanglos Sätze/Zitate raus, welche mit offensichtlichen Halbwissen die Mühen diskreditieren. Also einfach mal Ralfs Ergebnisse analysieren, welcher er auch immer mit wichtigen Informationen zum Workfow erklärt, oder halt leeren Phrasen dreschen.


    Wie auch immer, Hobby ist Hobby. Kann jeder machen wie er denkt.

    Vg Tino

  • Hallo Ralf,


    stimmt es wird auch aussortiert.

    Nur wundere dich bitte nicht das ich wenn du vorher ausdrücklich geschrieben hattest das nicht aussortiert wird dann auch von dieser Aussage ausgegangen war.

    Das Multipoint-Alignment ist in der Tat eine sehr interessante Sache.


    Ich denke da für jeden Ausrichtpunkt eben eine gewisse Anzahl von Pixeln notwendig sind spricht das ja eher dafür das man bei der Aufnahme besser in das Oversampling gehen sollte.

    Und es zeigt das die Simulation mit dem hin und her vergrößern die Jan uns hier vorführt umso praxisfremder ist.

    Ich denke es macht einen gewaltigen Unterschied ob ein Einzelbild im Undersampling mit vergleichsweise wenigen Pixeln zur Verfügung steht und man dann auf dieses mini Bildchen das Multipoint-Alignment anwendet oder ob es bei vernünftigem Sampling oder im Oversampling zur Verfügung steht und darauf dann das Multipoint-Alignment angewendet wird.

    Ein nachträgliches hin und her vergrößern des fertigen Summenbildes wird diesen Unterschied natürlich nicht zeigen können.


    Grüße Gerd

  • Hallo Tino,


    5. Wenn man will kann man auch nach Qualität aussortieren, oder die Wichtung anpassen.

    Dh. auch bei Uranus und bspw nur 4 Patches wird das Bild wohl besser werden, beim Mond und bei Jupiter definitiv.

    und wie sieht es aus wenn man Uranus im Undersampling bei F = 2,1x Pixel aufgenommen hat so wie es Jan propagiert und dann selbst mit 16“ Öffnung Uranuns gerade mal 15 Pixel im Durchmesser hat so das der komplette Uranus deutlich kleiner ist als ein einziger Patch bei dem von Ralf oben gezeigten Jupiter?


    Grüße Gerd

  • Hallo Gerd,


    ob das Multipointalignment was bei einer Uranusaufnahme bringt, oder das Undersampling problematisch ist, ist ein klassisches Problem der Astronomie/Astrophotografie. Es kommt einfach auf die Helligkeit an. Wenn ich die Sonne oder den Mond aufnehme, kann ich das letzte Quentchen Auflösung herausholen, genug Licht, für extrem kurze Aufnahmen und das Seeing hat keine Chance mehr (oder eher fast, schlechtes Seeing ist durch die hochfrequnten Anteile und den Defokus nicht wirklich korrigerbar). In guten Momenten kann man m.E. auch ein schlechtes Sampling deutlich sehen, also hier einfach definitiv korrekt sampeln. Bei Jupiter ist ggfs auch noch genug Licht da (natürlich ein mittelgroßes Teleskop vorausgesetzt), um das ganze Brimobrium mit kurzen Belichtungen, Multipointalignement usw. durchzuziehen. Bei Saturn scheiden sich die Geister, die Lichtmenge ist schon arg begrenzt, sodass hier größere Teleskope einfach Vorteile haben, alleine deshalb weil man immernoch kurze Belichtungen machen kann, ohne dass das SNR am Boden ist. Ab hier kann man auch schon beim Sampling Zugeständnisse machen, man schenkt zwar das letzte bisschen Auflösung her, aber gewinnt substantiell SNR, sodass das Seeing noch korrigiert werden kann. Bei deinen angesprochenen Uranus ists eher egal, kurze Belichtungen (damit das Seeing sinnvoll korrigiert werden könnte) sind eh nur noch mit sehr großen Teleskopen möglich, dann erübrigt sich auch schon fast das Multipoint-Alignment und das Undersampling spielt eh schon keine Rolle mehr für die erreichbare Auflösung. Außerdem gibts hier kaum Kontraste.

    @ Jan: Bezüglich der Trennung der von dir dargestellten Doppelsterne, kann man mit kurzen Belichtungen und ausreichender SNR schon einige Software"tricks" anwenden, beispielweise kann man eine Deconvolution versuchen. Wenn ein jeweils einzelner Stern im Bild ist, nimmt man diesen als Deconvolution-Kernel und faltet das Ursprungsbild zurück. Hängt aber auch hier alles vo SNR ab. Also großes Teleskop und kurze Belichtungen sind von Vorteil (müssen aber wie angesprochen bestimmt nicht kürzer als 5ms

    sein, das Seeing sollte hier schon eingefroren sein ) . Da kann man meinetwegen auch das Sampling herunternehmen, wenn die Belichtungszeiten für ein sinnvolles SNR zu noch lang sind.


    Vg Tino

  • Hallo Tino,


    ob das Multipointalignment was bei einer Uranusaufnahme bringt, oder das Undersampling problematisch ist, ist ein klassisches Problem der Astronomie/Astrophotografie. Es kommt einfach auf die Helligkeit an. Wenn ich die Sonne oder den Mond aufnehme, kann ich das letzte Quentchen Auflösung herausholen,

    nun ja Belichtungszeit und Auflösungsvermögen bzw. Abbildungsmaßstab / Pixel sind nun mal Antagonisten.

    Das ist ja nichts Neues und das sage ich schon seit Jahren.

    Besonders bei DS Fotografie ist das ja relevant denn hier verzichtet man ja ganz bewusst auf Auflösungsvermögen um im Gegenzug kürzere Belichtungszeiten zu erhalten.

    Mond und Planeten sind aber hell genug so das man hier dieses Zugeständnis bei der Auflösung nicht machen muss.

    Es sei denn man möchte extrem kurze Belichtungszeiten dann, könnte es bei den Planeten mit geringerer Flächenhelligkeit eventuell Sinn machen.

    Das Saturn einfach aufgrund seiner großen Entfernung zur Sonne entsprechend weniger Licht abbekommt und allein deshalb schon eine geringere Flächenhelligkeit aufweist ist mir nicht neu und das merke ich bei meinen eigenen Aufnahmen.

    Daher hatte ich das hier ja schon angesprochen.


    Mit modernen Sensoren erreicht man am Planbeten normalerweise locker 1/20 bis 1/60s wenn man mit F = 3,6 x Pixel arbeitet.

    Natürlich kommt das auch auf den Planeten und dessen Flächenhelligkeit an.

    Saturn ist schon etwas dunkler und erfordert etwas längere Belichtungszeiten als zb. Jupiter.


    extrem kurze Aufnahmen und das Seeing hat keine Chance mehr (oder eher fast, schlechtes Seeing ist durch die hochfrequnten Anteile und den Defokus nicht wirklich korrigerbar).

    Na ja den ersten Teil halte ich doch für sehr optimistisch, realistisch ist doch eher der 2.Teil des Satzes.

    Nicht ohne Grund betreibt man den Aufwand einer adaptiven Optik oder befördert Teleskope ins All.

    Den Aufwand könnte man sich sparen wenn das Seeing mit Multipoint-Alignment und extrem kurzen Belichtungszeiten kein Thema mehr wäre.

    Und inwieweit extrem kurze Belichtungszeiten etwas bringen müsste man halt mal praktisch ausprobieren.

    Ich halte es für wenig sinnvoll mit irgendwelchen Simulationen und kleinen GIF Animationen irgendetwas beweisen zu wollen so wie Jan das hier versucht.

    Letztlich sind die Schlüsse die man daraus zieht pure Spekulation und sagen nicht wirklich etwas darüber aus ob und wenn ja wie sich extrem kurze Belichtungszeiten nun auf das Endergebnis auswirken.

    Wenn man etwas mehr als reine Mutmaßungen möchte dann muss man das eben einfach mal ausprobieren und nicht nur Mutmaßungen aufgrund irgendwelcher Animationen anstellen.

    Und die praktischen Ergebnisse die ich bisher gesehen habe legen den Schluss nahe das Belichtungszeiten unter 30ms zumindest bei 10“ Öffnung keinen Vorteil mehr bringen.


    Mars-Studie mit 2,8 m Brennweite
    Ich habe übrigens mit f/23,5 gerbeitet und in der Software 2x vergrössert ;-) Habe eben mal in das Datenblatt des Micron MT9M001 Schwarzweiss-CMOS-Chips…
    forum.astronomie.de


    Grüße Gerd

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!