Beiträge von Kreislauf im Thema „Gibt es Detailverlust bei ASI_120 und f/10 ?“

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Christian_P</i>
    <br />
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Reicht im Roten möglicherweise f/10 und im Grünen nicht?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Das kann ich im Prinzip ausschließen, da mein letzter Grünkanal mit der QHY5L-IIm feinere Details zeigte als der Rot- und IR-Kanal.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    [;)] Ralf bezug sich auf eine ganz bestimmte Optik, bei der die Brennweite evtl. nur eine ausreichende Abtastung über die Pixelgröße für Rot zulässt.


    Prinzipiell kann im roten langwelligeren Licht optisch nur schlechter aufgelöst werden als im kurzwelligen. Bei Dir könnte es (sehr warscheinlich) so gewesen sein, dass die Pixelauflösung bei <u>Deiner Optik/Brennweite</u> gut zur optischen Auflösung im Grün passte, aber für das Rot schon im Bereich der Überabtastung war. Und Überabtastung kann auch keine Details herbeizaubern die aufgrund der Wellenlängeabhängigkeit der Beugung (größere rote Beugungsscheibchen als grüne) nicht da sind.


    Gruß,
    Jo

    Die grobe Faustregel ist wohl am Beispiel:
    Im Grünen bei 500nm und f/10 mißt das innere Beugungsscheibchen 12,2µm und die Trennung zweier Lichtquellen gilt für den Abstand des halben Durchmessers nach dem Rayleigh-Kriterium (Max. der einen Quelle überlagert Min. des Nachbars) als sicher. Mit 3,75µm Pixelabstand ist nach dem Abtasttheorem für kurzwelligeres Licht als Orange die Trennung dann nicht mehr sicher.


    Allerdings ist der halbe Abstand des Beugungsscheibchens noch nicht die untere Grenze für die Auflösbarkeit. Die ist erst bei er Sparrow-Grenze erreicht, also kurz bevor die Halbwertsbreiten zusammenfallen.
    http://www.photoscala.de/Artik…egapixeln-Viel-hilft-viel


    Weiterhin kann der tatsächliche Pixelabstand auf dem Sensor rechnerisch verkleinert werden, indem der "Feind" Luftunruhe dazu ausgenutzt wird virtuelle Superpixel zu erzeugen. Infolge der Luftunruhe erfährt die Abbildung immer von Bild zu Bild auf der Pixelmatix einen Versatz, den ein geeigneter Agorithmus der über Fourieranalye Muster erkennt, zu einer verfeinerten Pixelmatrix interpretieren kann. Die Bildsoftware Giotto macht das angeblich über den Punkt "Superresolution". Diese Funktion ist nicht mit Drizzling zu verwechseln.


    Gruß,
    Jo