Bayermatrix und SW-Fotos

  • Hallo Freunde der Nacht,


    eine Canon-DLSR hat ja m.W. eine Bayermatrix. Soviel ich weiß bedeutet das, dass vor jedem Pixel ein Filter sitzt (R, G oder B). Das wiederum bedeutet doch, dass jeder Pixel nur ca. 1/3 der einfallenden Photonen abbekommt (ganz grob, mir geht's ums Prinzip).


    Ich frage mich jetzt, was passiert, wenn man statt Farbaufnahmen zu machen, in der DLSR den SW-Modus einstellt. Werden dann mehr Photonen zum einzelnen Pixel durchgelassen, so dass bei gegebener QE am Ende mehr Elektronen erzeugt werden.


    De Facto würde sich ja damit - zumindest rein rechnerisch - die QE verbessern.

  • Servus,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: HiFisch</i>
    <br />Ich frage mich jetzt, was passiert, wenn man statt Farbaufnahmen zu machen, in der DLSR den SW-Modus einstellt. Werden dann mehr Photonen zum einzelnen Pixel durchgelassen, so dass bei gegebener QE am Ende mehr Elektronen erzeugt werden.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Schön wär's [;)]
    Der Chip bleibt der selbe, egal was du an der Kamera einstellst.
    Der SW-Modus berechnet "nur" aus den Farbinformationen die Luminanz, das kannst du auch nachträglich per Bildbearbeitung machen.

  • Hallo ?


    das Bild wird in Farbe aufgenommen und von der Software mehr oder minder gut in Graustufen umgewandelt. Das kann Software außerhalb der Kamera idR besser (Farbsättigung Nullen reicht nicht aus für eine korrekte Umwandlung eines Farb- in ein Graustufenbild).


    Mit dem Gedanken, die 3fache Auflösung aus den Rohdaten zu erhalten, habe ich auch mal gespielt. Das ist aber nur bei (zumindest annähernd) monochromatischen Objekten wie der Halpha-Sonne oder notfalls noch dem Mond möglich. Man kann dann tatsächlich aus den Rohdaten eine erhöhte Auflösung "herausholen". Ein Prototyp der Software zeigte dann aber, daß der Unterschied zwischen einem so berechneten Bild zu einem gut interpolierten und in Graustufen umgewandelten Bild auch am Siemensstern marginal ist. Nicht, weil die Idee nicht funktioniert, sondern weil diese Algorithmen tatsächlich sehr gute Arbeit liefern.


    Grüße,
    Michael

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!