Erfahrungsbericht: Kamera- und Bildauflösung in der Videoastronomie

  • Hallo Jan,


    ich möchte mich hier nicht weiter von Dir in unübersichtliche und von persönlichen Angriffen begleitete Detaildiskussionen über Jahre zurückliegende Bildergebnisse hineinziehen lassen.

    mit den alten Bildergebnissen hast ja schließlich du angefangen.

    Ich bin dann lediglich auf von dir verlinke alte Diskussionen zu alten Bildern von dir eingegangen und habe dort von dir gemachte Fehler bei der Interpretation aufgezeigt.

    Ich kann im Aufzeigen von Fehlern keinen Persönlichen Angriff erkennen.


    Anscheinend hast du aber eine merkwürdige Realitätswahrnehmung.

    In dem einen Link verweist du auf eine angebliche Studie welche deine Sichtweise belegen soll.

    Ich dachte im ersten Moment wow da gibt es eine Studie.

    Von welchem wissenschaftlichen Institut oder welcher Universität ist die denn?

    Dann stellt sich raus das die angebliche Studie lediglich das von dir vor Jahren gezeigte GIF sein soll wo du ein scharfes Summenbild mit einem weniger scharfen Summenbild vergleichst und oh Wunder das weniger scharfe zeigt auch weniger Details.

    Schärft man aber beide Bilder auf das gleiche Level zeigen beide Bilder nicht nur gleiche Schärfe sondern auch gleich viele Details.


    Du drehst die Dinge also ganz bewusst so das sie die Aussage bringen die du gerne haben möchtest.

    Das finde ich problematisch da Leute die deine Herangehensweise nicht hinterfragen von den von dir in deinem Sinn verdrehtem Ergebnis in die Irre geführt werden.


    Ähnlich ist es auch bei deinem sogenannten Test mit dem hin und her vergrößern.

    Was du da gemacht hast ist kein echter Test mit echten Aufnahmen bei F= 2,1 x Pixel sondern lediglich eine rein theoretische Überlegung welche nicht alle Aspekte berücksichtigt.


    Deine Merkwürdige Realitätswahrnehmung zeigt sich auch in der Bezeichnung dessen was du gemacht haben willst und dessen was Andere deiner Meinung nach gemacht haben.

    Während deine rein theoretische Überlegung mit etwas hin und her vergrößern ein echter Test sein soll und dein kleines GIF mit unterschiedlichen Belichtungszeiten sogar eine Studie soll zb. mein echter Test mit Bildern die auch echt bei F = 2,05 x Pixel und F= 3,6 x Pixel aufgenommen wurden lediglich eine Simulation sein.

    Anscheinend verwechselst du hier Test und Simulation.


    Grüße Gerrd

  • Hallo Gerd,


    ich möchte mich hier nicht weiter von Dir in unübersichtliche und von persönlichen Angriffen begleitete Detaildiskussionen über Jahre zurückliegende Bildergebnisse hineinziehen lassen. Allerdings wäre ich Dir und anderen Diskussionsteilnehmern dankbar, wenn hier einmal zu meinem aktuellen Zwischenverkleinerungstest kritisch und klar Stellung genommen wird.


    CS Jan


    Das hatte ich bereits ausführlich.




    Aber gut ich kann die Sache ja noch etwas vertiefen.


    Auch ein Sensor hat eine MTF und es ist bei einer MTF nun mal so das der Kontrast abnimmt je kleiner die Details werden.

    Die Grenzfrequenz ist dann erreicht wenn der Kontrast gegen Null geht.

    Nimmst du ein Bild nativ mit F = 2,1 x Pixel auf ist die Grenzfrequenz des Sensors schlechter als die des Teleskops und es geht dadurch der Kontrast für Details vollständig verloren welche das Teleskop eigentlich noch auflösen kann.

    Ein Nachvergrößern kann den verloren gegangenen Kontrast nicht wieder herstellen, auch nicht mit weiterer Bildbearbeitung.


    Anders ist es bei einem mit F= 3,6 x Pixel gewonnenen Bild.

    Da bei F = 2,1 x Pixel das Sampling der Flaschenhals war haben hier kleinere Details auch im Bild noch einen Kontrast.

    Ein nachträgliches moderates verkleinern des Bildes kann diesen Kontrast nicht vollständig auslöschen.

    Das verkleinerte Bild enthält also noch von dem Bild mit der guten Auflösung einen Restkontrast für Details die ein nativ mit diesem Sampling aufgenommenes Bild nicht enthält.


    Durch nachträgliches Vergrößern und etwas EBV können daher in der Simulation Details zumindest teilweise wieder hergestellt werden die bei einem nativ mit F= 2,1 x Pixel aufgenommenen Bild nicht erfasst wurden und damit auch nicht wieder hergestellt werden können.

    Es ist nun mal ein Unterschied ob ein Detail von einem Algorithmus auf weniger Pixel interpoliert wird und anschließend vom gleichen Algorithmus wieder auf die ursprüngliche Pixelzahl extrapoliert wird oder ob das Detail nativ mit der geringeren Auflösung aufgenommen wurde.


    Ps.:

    Was ich auch noch mal erwähnen wollte.

    Für deine Bilder mit Barlow rechnest du mit dem vom Hersteller angegebenen Faktor.

    Dieser gilt aber nur bei exakt eingehaltenem Arbeitsabstand!

    Üblicherweise muss der Sekundärfokus dafür am Gehäuse Ende der Barlow liegen, denn das ist der Punkt wo bei einem Okular üblicherweise die Feldblende zu liegen kommt.

    Eine Cam hat aber einen gewissen Weg vom Auflagemaß bis zum Sensor.

    Bei Mond und Planeten Cams meist so um die 25mm.

    Wenn du die CAM also in die Barlow steckst dürfte der Arbeitsabstand um etwa 25mm größer sein als vom Hersteller vorgesehen.

    Der tatsächliche Verlängerungsfaktor der Barlow dürfte daher deutlich großer sein als die Herstellerangabe.

    Vor allem bei einer so kurzbrennweitigen Barlow die der Klee.

    Dementsprechend könnten deine Angaben zum Sampling auch nicht korrekt sein.


    Grüße Gerd

  • (1) Ich habe das Spaßeshalber mal mit den Bildern vom Siebenstern ...

    (2) Aus der Theorie ergibt sich Faktor 3,6 und nicht 5 wie du behauptest

    Hallo Gerd,


    in Deinen zitierten Stellungnahmen verweist Du auf eigene Untersuchungen an Siemenssternen und auf "Aus der Theorie ergibt sich".


    Was mich aber interessiert, wäre eine Antwort auf die Frage, warum im oben gezeigten Blinkvergleich kein Unterschied erkennbar ist zwischen der Originalfassung des aktuellen Saturnbilds von Ralf und demselben auf 40% zwischenverkleinerten Bild, in welchem lediglich 16% der Pixel des Originalbilds verarbeitet wurden.


    CS Jan

  • Hallo,

    Was mich aber interessiert, wäre eine Antwort auf die Frage, warum im oben gezeigten Blinkvergleich kein Unterschied erkennbar ist zwischen der Originalfassung des aktuellen Saturnbilds von Ralf und demselben auf 40% zwischenverkleinerten Bild, in welchem lediglich 16% der Pixel des Originalbilds verarbeitet wurden.

    Ich kann einen deutlichen Unterschied sehen. Ich muss mich dabei nicht mal dazu anstrengen.

    Besonders im Ring ist das Original strukturierter. Das bearbeitete Bild verliert leicht an Struktur. Das gleiche gilt auch für das Planetenscheibchen.


    Viele Grüße

    Gerd

    Beobachtung der Sonne im Weißlicht und der H-alpha Linie. Beobachtungen am Nachthimmel mit verschiedenen Teleskopen.

  • in Deinen zitierten Stellungnahmen verweist Du auf eigene Untersuchungen an Siemenssternen und auf "Aus der Theorie ergibt sich".

    Nöö mein Test ist ein echter Test mit echten Aufnahmen in der Praxis und das Ergebnis ist daher erst einmal unabhängig von irgendwelcher Theorie und steht für sich.

    Es ist nur so das sich das Ergebnis meines Praxistests sehr gut mit der Theorie deckt.


    Was mich aber interessiert, wäre eine Antwort auf die Frage, warum im oben gezeigten Blinkvergleich kein Unterschied erkennbar ist zwischen der Originalfassung des aktuellen Saturnbilds von Ralf und demselben auf 40% zwischenverkleinerten Bild, in welchem lediglich 16% der Pixel des Originalbilds verarbeitet wurden.

    Das hatte ich einen Beitrag vor deinem ausführlich.

    Im Falle des Saturnbildes von Ralf sei noch erwähnt das es von Ralf nachvergrößert wurde und vermutlich auch nicht das maximal mit 16 Zoll Öffnung mögliche zeigt weil es vermutlich Seeing und nicht Öffnungslimitiert ist.


    Grüße Gerd

  • Hallo zusammen,


    Jetzt entspannt euch mal ...


    Es gehört nun mal zum Wesen des Menschen, verstehen zu wollen, wie und warum etwas funktioniert. Jan, dazu trägst Du meines Erachtens sehr wenig bei.


    Umgekehrt würde ich mir von den anderen mehr ernsthaftes Interesse wünsche - beim von Jan gemachten Runter- und Hochvergrößerungstest müsste möglich sein, die Bildinformation vollständig wiederherzustellen, so lange man oberhalb der Nyqvistfrequenz bleibt. Oder doch nicht? Lohnt sich schon, da mal drüber nachzudenken. Da lernt man sicher einiges über den Zusammenhang von Sensorauflösung, SNR, Bittiefe und Kontrast, etc.


    Wenn man möchte. Haut euch gern weiterhin eure Standpunkte um die Ohren - ich bin dann auch mal weg.


    Viele Grüße, Holger

  • Bist Du sicher, dass Du die Bilder nicht verwechselst?

    Lieber Jan,


    Ich bin nicht dumm und sehen tue ich auch noch gut.

    So wie ich es weiter oben geschrieben habe, so ist es eben.

    Das soll dann auch mein letzter Beitrag zu diesem Thema sein und auch mein letzter Beitrag generell zu deinem Themen.


    Viele Grüße

    Gerd

    Beobachtung der Sonne im Weißlicht und der H-alpha Linie. Beobachtungen am Nachthimmel mit verschiedenen Teleskopen.

  • Wenn du die CAM also in die Barlow steckst dürfte der Arbeitsabstand um etwa 25mm größer sein als vom Hersteller vorgesehen.

    Hallo Gerd,

    aus diesem Grund habe ich das Gehäuse der Klee-Barlow abdrehen lassen und den Vergrößerungsfaktor an einem bekannten Doppelstern verifiziert.

    CS Jan

  • Hallo in die Runde, hallo Jan,

    es ging ja schon wieder heiß her. Ich habe daher auch meine Milchmädchen zum durchrechnen geschickt. Mglw. ist auch alles schonmal gesagt, aber wenn ich mir die ideale MTF eines Teleskops mit f/8 anschaue, liegt die Grenzfrequenz bei 225 Linienpaaren/mm.

    Siehe hier: https://www.bobatkins.com/phot…y/technical/mtf/mtf2.html

    Dh. ein Linienpaar hat auf 4,4µm Platz. Wenn ich dies kritisch Sample, dürfen die Pixel 2,2µm maximal groß sein, zumindest in x/y. In der Diagonale müssten sie sogar um den Faktor 1,4 kleiner sein. Dh. 1,6µm. Nach deiner Berechnung, Jan, wären 8/2 also 4µm Pixel ausreichend. Der erste von mir angegebene Wert für ideales Sampling ist so ziemlich genau der vielgenannte Faktor 5. Deine Empfehlung würde aber zu klassischen Undersampling führen, da bei 4µm-Sampling (entsprechend 125Lp/mm) noch einiges (40%) an hochfrequenten Kontrast vorhanden sein dürfte. Das Problematische ist hierbei, dass die höheren Frequenzen dann zu Aliasing führen, was Strukturen vorgaukelt, welche garnicht vorhanden sind. Dummerweise kann man nicht kontrollieren, ob diese Strukturen eigentlich real sind oder nicht und mglw. sieht das Bild auch nicht viel schlechter aus, als ein korrekt "gesample"tes. Aber theoretisch ist es nicht ok. Ob jetzt die ideale Abbildung mit dem idealen Teleskop ohne Seeing usw. der Realität nahekommt, sei dahingestellt. Aber wenn ich tausende Einzelbilder stacke und den Kontrast hochziehe, kann das in der Realität schon einen Unterschied machen. Wenn genug Licht da ist, sollte man also eher den Faktor 5 nutzen. Wie auch immer, die Unterschiede sind vermutlich nur klein, aber von nichts kommt nichts. ;)

    Vg Tino

  • Aber theoretisch ist es nicht ok.

    Hallo Tino,


    sehr freundlich von Dir, dass Du Dich in dieser etwas verkorksten Diskussion noch zu Wort meldest. Wie Deine Vorredner berufst auch Du Dich hier im wesentlichen auf theoretische Argumente. Mir geht es aber eigentlich - zunächst mal gänzlich ohne theoretischen Anspruch! - allein um die Frage, ob Ralf im vorliegenden Fall seinen Saturn nicht auch ohne 2x Barlow in gleichwertig hoher Qualität hätte präsentieren können.


    Ob nun das von Ralf fertig ausgearbeitete Bild nach einer Zwischenverkleinerung auf 40% linear bzw. auf 16% inhaltlich oder ein unter einem relativ nah an der Beugungsgrenze des Teleskops ohne Balow gewonnenes Bild als Ausgangsmaterial für die 2,5-fache Nachvergrößerung dienen, sollte doch völlig unerheblich sein. Insbesondere sollten die Stackingbedingungen keine Rolle spielen, wenn die Qualität des Stackergebnisses bei dem nachvergrößerten Bild zu praktisch derselben Qualität führt wie bei dem mit Barlow aufgenommenen Bild.


    Dank & CS Jan

  • ob Ralf im vorliegenden Fall seinen Saturn nicht auch ohne 2x Barlow in gleichwertig hoher Qualität hätte präsentieren können.

    selbst wenn dem so ist, kann man daraus aber nicht den Schluß ziehen, dass es immer so ist.


    Ich drehe mal das Ganze mit einem Gedankenexperiment um: Was verliere ich denn mit einer 2x Barlow, wenn ich nichts (!) an der Belichtungszeit ändere. Ich verteile die gleiche Photonenzahl auf die 4-fache Fläche bzw. Pixelzahl. Dann mache ich 2x2 Softwarebinning und habe zu 99% das gleiche SNR pro Pixel wie bei einer Aufnahme ohne Barlow. (klar, das Ausleserauschen steigt um das zweifache an, ist aber am Planet oder erst recht beim Mond und den aktuellen C-MOS Kameras ziemlich schnuppe. ) Wenn das Seeing stärker limitiert, zwingt mich ja keiner , die Belichtungszeit bei Verwendung der Barlow um den Faktor 4 hochzuziehen. Ich kann, muss aber nicht. So what.


    Viele Grüße

    Norbert

  • Hallo Jan,

    ich denke die Diskussion führt leider ein bisschen ins Leere. Auch wenn man über die Theorie nicht immer auf die Realität schließen kann, ist dadurch meisten doch ganz gut der Weg vorgegeben. Es wurde hier schon mehrmalig hinterfragt, ob das eine oder das andere besser ist, was auch immer besser bedeutet. Ich bin da schon auf der Seite von Ralf, dass die Abweichungen, wenn überhaupt sehr diffizil sind. Beispielsweise kann die Ringtrennung beim Saturn in der Diagonalenrichtung, aufgrund des oben theoretisch besprochenen erhöhten Undersamplings, bzw. des zu erwartenden Aliasings verfälscht oder gestört sein. Leider kann man, wie auch oben schon gesagt, die Fehler ohne Kenntnis des "richtigen" Bilds nicht von realen Strukturen unterscheiden. Daher auch meine Empfehlung, dass wenn genug Licht da ist, lieber etwas großzügiger beim Sampling sein. Auch die bezüglich Seeing prognostizierte Verbesserung aufgrund kürzerer Belichtungszeiten, ist auch nicht wirklich umfassend zu vereinfachen, da gibts Halbwertszeiten, wie schnell sich die Bedingungen überhaupt ändern, mittlere Seeing-Zellgrößen, welche beispielweise beschreiben, wie viele atmosphärische Störungen sind in Abhängigkeit von der Teleskopapertur sich gleichzeitig im Sichtfeld befinden, dh. wie stark sich im Mittel der Spot in einzelne Spekles zerfasert, usw.

    Vg Tino

  • Hallo Tino,


    es ging ja schon wieder heiß her. Ich habe daher auch meine Milchmädchen zum durchrechnen geschickt. Mglw. ist auch alles schonmal gesagt, aber wenn ich mir die ideale MTF eines Teleskops mit f/8 anschaue, liegt die Grenzfrequenz bei 225 Linienpaaren/mm.

    Siehe hier: https://www.bobatkins.com/phot…y/technical/mtf/mtf2.html

    Ja ich bin hier schon auf die Grenzfrequenz der MTF eingegangen und habe gezeigt wie der Faktor F= 3,6 x Pixel zustande kommt.


    Man kann sich das Auflösungsvermögen in l/mm wie dort gezeigt also sehr einfach ausrechnen.


    SL = 1/(F x Lambda)

    Wenn du es für F8 und 555nm Wellenlänge wissen willst rechnest du also.

    SL = 1/(8x0,000555mm) = 225,2 l/mm.


    Und genau das hattest du ja auch aus der MTF abgelesen.

    Es ist also wirklich eine ehr entfache Rechnung die Jeder nachvollziehen kann.

    Eine Linie ist damit 1mm/225 = 0,0044mm = 4,44ym breit.


    Man kann die Linienbreite daher auch gleich mit F x Lambda ermitteln.

    Bei F8 und 555nm Wellenlänge rechnet man am einfachsten gleich mit 0,555ym also 8 x 0,555ym = 4,44ym.


    Und wie du schon schreibst sollten mindestens 2 Pixel auf die Linienbreite kommen und damit 4,44/2 = 2,22ym groß sein.

    Das Verhältnis Pixelgröße zur Öffnungszahl beträgt also 8/ 2,22 = 3,6.

    Oder eben anders rum F = 3,6 x Pixelgröße.


    Grüße Gerd

  • Hallo Jan,


    Mir geht es aber eigentlich - zunächst mal gänzlich ohne theoretischen Anspruch! - allein um die Frage, ob Ralf im vorliegenden Fall seinen Saturn nicht auch ohne 2x Barlow in gleichwertig hoher Qualität hätte präsentieren können.

    nun dann solltest du das einfach mal praktisch mit tatsächlich im entsprechendem Undersampling aufgenommenen Bildern ausprobieren und nicht so ewig rum theoretisieren und simulieren.


    Ob nun das von Ralf fertig ausgearbeitete Bild nach einer Zwischenverkleinerung auf 40% linear bzw. auf 16% inhaltlich oder ein unter einem relativ nah an der Beugungsgrenze des Teleskops ohne Balow gewonnenes Bild als Ausgangsmaterial für die 2,5-fache Nachvergrößerung dienen, sollte doch völlig unerheblich sein.

    Nöö das ist es eben nicht, es ist lediglich deine unzutreffende Annahme dass es unerheblich wäre.

    Doch nur weil du dir das so denkst heißt das noch lange nicht das es so ist.

    Ich hatte ja nun schon mehrfach auf den Kontrast verwiesen.

    Nachgeschärfte Summenbilder unterliegen immer einer extremen Bildbearbeitung.

    Das mit extrem EBV traktierte Bild gibt längst nicht die natürlichen Kontraste wieder wie sie auf dem Sensor erscheinen.

    Ob ein Detail noch erkannt werden kann ist neben seiner Größen eben auch von seinem Kontrast abhängig.

    Der Bildkontrast eines bearbeiteten und mit gut oder oversampling aufgenommenen Summenbildes ist wesentlich größer als der Bildkontrast des Bildes das die Optik auf den Sensor Projiziert.

    Du kannst daher nicht so tun als wenn ein massiv Kontrast verstärktes Bild runtergerechnet auf Undersamplig mit einem nativ im Undersampling aufgenommenem Bild vergleichbar wäre.


    Grüße Gerd

  • So what.

    Hallo Norbert,


    diese Sichtweise erscheint mir durchaus gerechtfertigt. Andererseits habe ich das wesentliche Merkmal der Videoastronomie im Blick, welches ja darin besteht, dass man mit kurzen Belichtungszeiten die aus dem Seeing resultierende Bewegungsunschärfe von Astrobildern möglichst weitgehend eliminiert. Die handelsüblichen Videokameras sind inzwischen so schnell, dass man bei 5 ms Belichtungszeit mit 200 fps aufnehmen kann, und somit während einer Aufnahmeserie auch bei solch kurzen Belichtungszeiten nur ein verschwindender Teil der am Teleskop eintreffenden Photonen verloren geht. Zu der oben bereits diskutierten Frage, ob 5 ms gegenüber längeren Belichtungszeiten überhaupt noch erkennbare Vorteile hinsichtlich der Bildauflösung bringen, habe ich früher schon mal gezielte Versuche am Mars mit animierten Bildfolgen unternommen, siehe #16.


    Insbesondere die beschriebene Analyse von laufenden Original-Videoframes am Mars hat mich zu der Vermutung veranlasst, dass Ralf seinen Saturn auch ohne optische Brennweitenverlängerung in der hier vorgezeigten Bildqualität hätte gewinnen können. Dabei habe ich nicht einmal auf die durch die erhöhte Anzahl von Videoframes im Stack verbesserte Qualitätsauswahl bei der Bildbearbeitung Bezug genommen, noch auf das erweiterte Gesichtsfeld des Kamerachips ohne vorgeschaltete Barlow und auf die Vermeidung von zusätzlichen Glaselementen im Strahlengang ...


    CS Jan

  • Hallo Jan,


    Andererseits habe ich das wesentliche Merkmal der Videoastronomie im Blick, welches ja darin besteht, dass man mit kurzen Belichtungszeiten die aus dem Seeing resultierende Bewegungsunschärfe von Astrobildern möglichst weitgehend eliminiert.

    leider lässt sich eine aus dem Seeing resultierende hochfrequente „ Bewegungsunschärfe“ oder treffender Deformationsunschärfe nicht eliminieren, auch nicht weitgehend.

    Du vergisst hier das du mehrere Bilder stapelst und auch wenn du im Einzelbild das „Gezappel“ einfrieren kannst so hast du es im Summenbild natürlich als Unschärfe wieder mit drin.

    Seeing ist nun mal nicht mit einer Bewegung vergleichbar und die Unschärfe entsteht hier durch über die Zeit unterschiedlich deformierte Wellenfronten und nicht durch die Bewegung des Objekts selbst. Auch wenn durch unterschiedliche Deformationen heftig „Gezappel“ entsteht.


    Man sollte diese Unschärfe daher auch nicht als Bewegungsunschärfe bezeichnen sondern treffender als Deformationsunscharfe.

    Jedes einzelne Bild ist anders deformiert und du wirst im ganzen Video kein einziges Bild finden das genau gleich deformiert ist.

    Sobald du auch nur 2 Bilder stapelst hast du eine durch unterschiedliche Deformation bedingte Unschärfe im Summenbild und wenn du ein paar hundert oder tausend Bilder stapelst wird diese natürlich nicht kleiner denn jedes einzelne Bild ist anders deformiert.


    Die Seeing bedingte Deformation und die dadurch dann bedingte Deformationsunschärfe im Summenbild lässt sich leider auch durch eine noch so kurze Belichtungszeit nicht vermeiden.

    Das unterscheidet Seeing eben von Bewegung.

    Bei einer Bewegung ist die Wellenfront nicht deformiert und eine durch Bewegung verursachte Unschärfe kann daher eingefroren werden wenn man nur kurz genug belichtet.

    Auch im Summenbild würde eine Bewegungsunschärfe nicht wieder auftauchen.


    Es geht bei der Videoastronomie und dem Lucky Image nicht darum die hochfrequenten Anteile der Deformationsunschärfe zu vermeiden sondern darum gute Momente mit geringer Deformation raus zu picken.

    Diese Momente sind aber bei weitem nicht so hochfrequent wie das permanente „Gezappel“ das man sieht und das du im GIF animiert hast.

    Um nur die guten Momente zu erwischen ist es daher völlig ausreichend mit Belichtungszeiten nicht länger als etwa 1/60 s zu arbeiten.

    Kürzere Belichtungszeiten bringen keinerlei Vorteil mehr weil die guten Momente ebnen auch nicht kürzer als 1/60s sind.


    Daran ändert auch dein kleines GIF vom Mars nichts.

    Auch hier theoretisierst du wieder nur denn dein GIF mit 5ms Einzelbildern zeigt natürlich nicht die durch eine unterschiedliche Deformation jedes einzelnen Bildes bedingte unvermeidliche Deformationsunschärfe im Summenbild.

    Wenn du wissen willst wie sich kürzere Belichtungszeiten auf das fertige Summenbild auswirken dann musst du das eben mal ganz praktisch ausprobieren.

    Da helfen keine GIFs mit Einzelbildern und anschließendes ewiges rum theoretisieren darüber wie sich das dann auf das Ergebnis deiner Meinung nach auswirken könnte.


    Tommy hat den praktischen Bewies angetreten das es zwischen 7 und 30ms Belichtungszeit keinen Nennwerten Unterschied im Summenbild gibt.


    Mars-Studie mit 2,8 m Brennweite
    Ich habe übrigens mit f/23,5 gerbeitet und in der Software 2x vergrössert ;-) Habe eben mal in das Datenblatt des Micron MT9M001 Schwarzweiss-CMOS-Chips…
    forum.astronomie.de


    http://www.vibes.co.at/images/Mars_20120316_685_AlCCD_30ms.jpg

    http://www.vibes.co.at/images/Mars_20120316_685_AlCCD_7ms.jpg


    Dieser praktische Beweis ist für mich wesentlich überzeugender als dein ewiges rum theoretisieren mit Einzelbildern und diversen Behauptungen die du einfach so in den Raum stellest weil du denkst das es so wäre..


    Tommy behauptet nicht nur etwas sondern beweist das auch ganz konkret mit echten Summenbildern.


    Grüße Gerd

  • Servus Gerd,

    Jedes einzelne Bild ist anders deformiert und du wirst im ganzen Video kein einziges Bild finden das genau gleich deformiert ist.

    Sobald du auch nur 2 Bilder stapelst hast du eine durch unterschiedliche Deformation bedingte Unschärfe im Summenbild und wenn du ein paar hundert oder tausend Bilder stapelst wird diese natürlich nicht kleiner denn jedes einzelne Bild ist anders deformiert.

    Den Punkt kenne ich zumindest von AviStack bei Stacks von Sonnenaufnahmen aber anders. Die SW analysiert die einzelnen Bilder/frames und zerlegt diese dabei in kleine Schnipsel. Dabei werden anhand von Marken in jedem Schnipsel scharfe oder unscharfe Schnipsel erkannt und alle entsprechend der gesetzten Grenze als unscharf (deforiert) erkannte Bildanteile werden aussortiert.


    Tatsächlich gestapelt werden also nur in den gesetzten Grenzen "scharfe" Bildteile, das letztendlich aus den vielen Frames zusammengepuzzelte Bild ist damit nicht einfach ein gemitteltes Summenbild aus allen Frames incl. den darin enthaltenen deofrmierten Bildanteilen.


    Und wenn meine alte AvisStack-Version so arbeitet, dürften auch die neueren Stackingprogramme so arbeiten.


    Gruß Stefan

  • Hallo Gerd,

    der Begriff Lucky Imaging gehört verbannt, denn wir Praktiker machen längst kein Lucky Imaging mehr. Eine der größten Qualitätssprünge in der Videoastronomie ist das Multipoint-Alignment. Das ist sozusagen eine nachträgliche, aktiv und adaptive Berechnung. In der Tat werden die Deformationen nicht aussortiert, sondern zurechtgerückt. In der Folge macht es auch gar keinen Sinn, eine kleine Verwendungsrate zu nutzen. Ich habe viele Tests gemacht, unterscheide aber 2 grundsätzliche Situation.

    a) man hat in kontrastreichen Gebieten seine maximale Auflösung erreicht. Hier hilft es definitiv nicht, mit kleiner Verwendungsrate zu arbeiten. Es gibt zwar kleinere Unterschiede, aber die höhere Verwendungsrate ist leicht im Vorteil. Vorausgesetzte natürlich man schärft hier etwas stärker.

    Anders ist es bei

    b) man hat die theor. Auflösung des Teleskops an keiner Stelle erreicht. Hier ist es sinnvoll, mit kleinerer Rate zu arbeiten.

    In beiden Fällen wird vorausgesetzt, man schärft jeweils verschieden stark bis zum gleichen Rauschpegel.

    Was die Belichtungszeiten angeht, so decken sich meine Erfahrung bis zu 100 % mit denen von Tommy. Im SAAO-Paper zum Seeing wird sogar eine theor. Untergrenze von ca. 3-4 ms für ein 2,5 m(?) Teleskop berechnet. Hochgerechnet auf die Auflösung unserer Teleskope passt das auch zu 100 %.

    Gruß

    ralf

  • Hallo Stefan,


    ja bei Sonnen oder Mondaufnahmen ist mir das von dir beschriebene Verfahren bekannt.

    Beide Objekte sind von ihrer scheinbaren Größe her aber gigantisch im Vergleich zu Planeten.

    Bei so großflächigen Objekten die im Fokus bei den hier diskutierten Öffnungen und vernünftigem Sampling Sensorfüllend abgebildet werden bzw. bei kleinem Sensor sogar dessen Größe deutlich übersteigen macht das ja auch Sinn.

    Nicht aber bei den wesentlich kleineren Planeten

    Die Einzelnen Bilderreiche die AviStack bei der Sonne selektiert dürften deutlich größer sein als der Durchmesser des kompletten Jupiter.

    Kleinere Bereiche machen auch gar keinen Sinn da die Seeing Zellen nun mal nicht kleiner sind.


    Grüße Gerd

  • Tatsächlich gestapelt werden also nur in den gesetzten Grenzen "scharfe" Bildteile, das letztendlich aus den vielen Frames zusammengepuzzelte Bild ist damit nicht einfach ein gemitteltes Summenbild aus allen Frames incl. den darin enthaltenen deofrmierten Bildanteilen.

    Hallo Stefan,

    das sehe ich genau so, und hier ist ein schönes Beispiel mit GIF-Demo.

    CS Jan

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!