Beiträge von Juerg_B im Thema „Pixelgröße/Brennweite bei Farbsensoren“

    Danke für die Antworten und ein frohes Neues Jahr.


    Hört sich logisch an, dass auch bei Monochromaufnahmen bei entsprechender Anzahl an Bildern die Auflösung weiter gesteigert werden kann. Ich denke da vor allem, wenn die Pixel undersampled sind, ist die Wirkung wohl am größten. Das bessere s/n Verhältnis ist selbstredend.


    Hallo Hans,
    bei einem reinen Tiefenvergleich dürfte der Faktor 3 gut hinkommen, nur fehlt dir natürlich dabei die Farbinformation.


    Aus der Praxis (mache klassische lang belichtete Deepskyaufnahmen ca. 6mag Himmel) ohne Anspruch auf richtiges Vorgehen hat sich bei mir bewährt: Für die Luminanzaufnahme in etwa gleich viel Zeit zu investieren wie für die Farben. Also z.B. 3h Luminanz und je 1h RGB. Ich schätze die angenommenen 6h Gesamtbelichtungszeit entsprechen etwa 9h mit einer OSC - Kamera (Besitze SW und eine OSC-Variante, mit letztere habe ich aber zu wenig Daten gesammelt für einen aussagekräftiger Vergleich).


    Bei der Auflösung kann ich keinen Unterschied feststellen. Die Schwankungsbreite wie Seeing, Fokusdrift, dejustierung, Nachführfehler und vieles mehr ist da weit ausschlaggebender.


    Einen erheblichen noch nicht erwähnten Vorteil haben SW-Kameras allerdings gegenüber den Farbkameras bezüglich Schmalbandfiltern.


    Gruss
    Jürg

    Hallo Tino,


    beschreibt der Artikel nicht "nur" der Vergleich zwischen sw und color Aufnahmen eines <b>Einzelbildes</b>?


    Bei der Astrofotografie werden ja in der Regel mehrere Bilder mit einem gewollten / ungewollten Versatz miteinander verrechnet. Eine Farbkamera unterscheidet sich ja nur anhand der aufgebrachten Farbfilter aber nicht von der Pixelgrösse. Wenn ich jetzt 3 bzw. 4 Fotos belichte und jeweils einen Versatz entsprechend der Bayer-Matrix tätige müsste ich doch eine äquivalente Auflösung wie bei einer s/w Kamera erzielen können?


    Gruss
    Jürg