Beiträge von 03sec im Thema „Erfahrungsbericht: Kamera- und Bildauflösung in der Videoastronomie“

    Hallo Gerd,

    der Begriff Lucky Imaging gehört verbannt, denn wir Praktiker machen längst kein Lucky Imaging mehr. Eine der größten Qualitätssprünge in der Videoastronomie ist das Multipoint-Alignment. Das ist sozusagen eine nachträgliche, aktiv und adaptive Berechnung. In der Tat werden die Deformationen nicht aussortiert, sondern zurechtgerückt. In der Folge macht es auch gar keinen Sinn, eine kleine Verwendungsrate zu nutzen. Ich habe viele Tests gemacht, unterscheide aber 2 grundsätzliche Situation.

    a) man hat in kontrastreichen Gebieten seine maximale Auflösung erreicht. Hier hilft es definitiv nicht, mit kleiner Verwendungsrate zu arbeiten. Es gibt zwar kleinere Unterschiede, aber die höhere Verwendungsrate ist leicht im Vorteil. Vorausgesetzte natürlich man schärft hier etwas stärker.

    Anders ist es bei

    b) man hat die theor. Auflösung des Teleskops an keiner Stelle erreicht. Hier ist es sinnvoll, mit kleinerer Rate zu arbeiten.

    In beiden Fällen wird vorausgesetzt, man schärft jeweils verschieden stark bis zum gleichen Rauschpegel.

    Was die Belichtungszeiten angeht, so decken sich meine Erfahrung bis zu 100 % mit denen von Tommy. Im SAAO-Paper zum Seeing wird sogar eine theor. Untergrenze von ca. 3-4 ms für ein 2,5 m(?) Teleskop berechnet. Hochgerechnet auf die Auflösung unserer Teleskope passt das auch zu 100 %.

    Gruß

    ralf

    Jan, ich muss ehrlich sagen, du verrennst dich hier (mal wieder).

    Ja, es kann durchaus sein, dass man etwas kürzere Brennweiten benutzen kann, ohne etwas zu verlieren, schließlich haben wir kein einziges Einzelbild in maximaler Auflösung. Was bei gestackten Bildern passiert, das können wir auch nicht zu 100 % wissen. Aber deine Argumentationsweise ist - auch wissenschaftlich - nicht korrekt. Ich höre hier aufmerksam zu und bekomme interessante Infos von Leuten, die deutlich mehr Ahnung haben als ich. Von dir bekomme ich keine Infos, sondern nur sehr vage Behauptungen.

    Also, sei mir nicht böse, aber ich werde ab jetzt hier nur noch lesen. Gleichwohl interessiert mich das Thema und ich werde versuchen mal selber so etwas wie ein Experiment zu starten.

    Viele Grüße

    ralf

    Ihr seid amüsant ...


    Zum Inhalt: Wo eine sinnvolle Untergrenze ist, bei der Reduzierung der Brennweite, hängt nicht nur von solchen Parametern ab.

    Viele CMOS Chips sind back-illuminated und ich habe leider (bei mir 178MM und MC) feststellen müssen, dass es dort gerade im IR recht viel Streuung zwischen den Sensoren gibt. Bei größerer Brennweite verringern sich die Probleme. Dann wird beim Stacken die Software an ihre Grenzen gebracht und vielleicht sogar überfordert. Wer kann das beurteilen? Welch Einstellungen sind in diesem Grenzbereich die besten? Dann kommt die Frage der Gesamtbelichtungszeit hinzu. Wenn ich Kontrast verliere, was bei mir definitiv der Fall ist, muss ich länger belichten, um zum gleichen SNR zu kommen. Ein echter Test wäre sehr aufwändig und da das Seeing immer wechselhaft ist, muss man hier sogar statistisch mitteln.

    Übrigens ist es ein weit verbreiteter Irrtum, dass Farbkameras weniger gut auflösen. Zumindest, wenn man mit AS3 stackt gilt das nicht. Emil verwendet keinen Debayer-Algorithmus und trennt Luminanz von der Farbe.

    Gruß

    ralf

    ... mir leider auch. Ich kenne das Bild ja nun in- und auswendig. Die Maxwell-Teilung verliert deutlich an Kontrast. Die Ecke-Teilung bekommt rote Flecken und in der Fläche entstehen Flecken, die genau so aussehen, als hätte ich mit großer Mühe einen Wirbel herausgekitzelt.

    Was ist mit dem Text? Warum ändert der sich um so vieles mehr?

    Das JPG und die 8 Bit erscheinen mir hier unerheblich.

    Und natürlich ist mein Bild hier nicht der Maßstab. Versuche das mal mit einem Raumsondenbild und den feinen "Schallplattenrillen" im Ring.

    Gruß

    ralf


    Ach so, Damian Peach kocht auch nur mit Wasser, und hat man erst einmal seinen Workflow, dann ändert man den so schnell nicht. Insofern lasse ich das Argument auch nicht gelten.

    Gruß

    ralf

    Hallo Jan,

    solche Experimente habe ich auch schon gemacht. Es gab auch mal ein Rätsel: Welcher Promi ist das? Die Bilder hatten auch nur wenige Pixel und man konnte sie erstaunlicherweise gut identifizieren. Für uns ist das aber nur die halbe Miete, denn es gibt ja weitere Prozesse. Das Stacking läuft in so extremen Bereichen z.B. nicht mehr so gut ab, habe ich festgestellt, kontrastarme Bild-Bereiche verlieren mehr und nicht vergessen, ein Kontrastverlust ist auch ein Verlust. Das Nachschärfen kostet SNR.

    Gruß

    ralf

    Hallo Jan,

    die Links der 13 Jahre alten Beiträge laufen ins Leere.

    Was ich meine, ist Folgendes: Willst du der Gemeinschaft einen Input geben? >>Leute, testet doch mal bei f/xx5, ist interessant ... <<

    Oder willst du mit aller Macht "beweisen", dass du recht hast? Das habe ich als Ideologie bezeichnet. In diesem Fall willst du von der Gemeinschaft nämlich etwas bekommen, und nicht geben.

    Deine Überlegungen haben mich -indirekt- dazu bewegt, Tests zu machen, schon vor langer Zeit. Meine Überzeugung ist heute, dass in vielen Bereichen weniger Brennweite möglich ist. Auch in der Deep-Sky-Fotografie.

    Und? Jeder kann meine Daten lesen und sich fragen, ob das auch für ihn interessant wäre. Deswegen muss ich ja noch nicht zum Prediger werden.

    Mein Vorschlag: mache beeindruckende Bilder und zeige sie hier. Dann kommt jemand und sagt: >>was, das geht mit so kurzer Brennweite, da brauche ich ja gar keine Barlow mehr, das teste ich jetzt auch mal<< Wäre das nicht Erfolg genug?

    Gruß

    ralf

    Hallo Jan,

    ... für das man keine Gründe kennt ... man Traditionen nennt ...


    Von daher bin ich bei dir, wenn du die f/20-30 Tradition hinterfragst. Aber mit dieser Penetranz (das geht ja nun schon seit Jahren) finde ich das eher nervig.

    Grundsätzlich sollten auch nicht die eigenen Bilder als Referenz herhalten. Mach doch mal einen Versuchsaufbau mit Liniengitter usw.


    Inhaltlich: wenn du z.B. eine Sinuskurve abtastest, dann kannst du das Raster sehr klein machen, und du hast sie im maximalen Ausschlag abgebildet.

    Machst du das Raster nun aber sehr grob, dann schneidest du die Kalotten ab. Der "Kontrast" / SNR wird geringer und du benötigst mehr Belichtungszeit fürs selbe Ergebnis. Genau das habe ich festgestellt, als ich meine Brennweite reduziert habe.


    Ich bin aber bei dir, dass das Nyquist-Kriterium unterschritten werden kann, und man keinen Detailverlust erleiden muss. (nur etwas länger Belichten)

    Der Grund ist die Tatsache, dass wir unsere Bilder subpixelgenau Stacken, was ja eigentlich schon Drizzeln ist.

    Schaut man sich das Kriterium genauer an, dann geht es vornehmlich um die Diagonalen. Man kann also nicht sagen, 3 Pixel reichen, um ein Detail abzubilden. In der Diagonale passt das eben nicht mehr, weil die Abtastrate diagonal geringer ist. Das gilt auch für Linien pro Millimeter. Hier wird das Kriterium also hoch gesetzt. Und genau hier greift unser Stackingprozess. Wenn man so will, dann gibt es keine Diagonalen mehr, wenn das Bild subpixelgenau hin und her bewegt wurde. Von daher kann man bei gestackten Bilder das Nyquist-Kriterium moderat unterschreiten.


    Daraus aber eine Ideologie zu machen, ist nicht gut.

    Gruß

    ralf