Beiträge von stefan-h im Thema „LRGB für Dummies;-)“

    Hi Alex,


    in dem Linnk zu lesen- <i>Ein nahe liegender Ansatz ist es hierbei, die 4 Punkte des Bayer-Musters als ein Pixel aufzufassen, dessen Farbe sich aus genau diesen Pixeln bestimmt. </i>


    Bin ich nicht ganz einverstanden. Durch das Debayern werden ja nicht nur die 4 Pixel einer Gruppe verrechnet.


    Beispiel- Chip mit 10x10Pixel- durchnummeriert 1. Zeile also 1-10, zweite Zeile 11-20, dritte Zeile 21-30 usw.


    Beim Debayern guckt die SW also erst mal das Pixel 1 an und vergleicht dessen Wert mit dem Inhalt der Pixel 2, 11 und 12. Dann wird Pixel 2 angeschaut und mit den angrenzenden verglichen. Dann folgt Pixel 3...


    Ob die SW immer nur 4 Pixel zusammen betrachtet oder zu einem Pixel alle angrenzenden kann ich nicht sagen, aber es werden keinesfalls die Pixel nur zu Vierergruppen zusammengefasst und dann sozusagen Blockweise abgearbeitet.


    <i>Eine 4-Megabit-Kamera würde plötzlich zur unattraktiven 1-Megabit-Kamera. Da dies auf keinen Fall gewünscht wird, behält man die Pixelzahl bei und interpoliert die fehlenden Grundfarben für jedes Pixel aus den umliegenden Zellen</i> Das ist auch in deinem Link zu lesen, der 12MBit Chip hat also auch 12BMit, durch das Debayern wird das mit erreicht.



    Hi Roger,


    in dem Fall ist es doch eigentlich klar- 2x2 Binning bedeutet eben- zwei Pixel nebeneinander und dazu die zwei Pixel in der Zeile darunter. Also darf man nicht nur x oder y-Richtung betrachten. [:)]



    Hallo Jürg, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ja, nach dem Debayern schon.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Hm, nutzen wir Bilder ohne diese zu Debayern? Eher weniger, also muss man das fertige Ergebnis betrachten und da schlägt die Debayer-SW immer zu.


    Astrofotografie mit SW-Kameras und RGB Filtern hat da schon einen unschlagbaren Vorteil gegenüber Kameras mit Bayermatrix. Ist zwar vom Handling her aufwändiger, dafür bei der Nachverarbeitung wieder etwas einfacher und vom Ergebnis her eben auch besser. Ungeachtet dabei noch die Vorteile bezüglich Schmalbandaufnahmen mit SW-Sensor.



    Hi Andreas,


    könnte so hinkommen. Putzig auch der Fehler- ein Schachbrett mit schwarzen und weißen Feldern aufgenommen und dabei die Auflösung so hinbekommen, das jeweils ein Feld des Schachbretts exakt auf ein Pixel fällt- treffen dabei die weißen Felder auf die grünen Pixel hast du als Ergebnis ein Schachbrett schwarz-grün statt schwarz-weiß. Durch das Debyern wird dann aber für schwarz (fehlende Info da kein Signal) noch das Grün hinzugerechnet- führt zu einem komplett grünen Bild. Verschiebst du den Sensor um ein Pixel seitlich schaut es ganz anders aus- ist hier beschrieben- https://de.wikibooks.org/wiki/…andlung#Farbfilter-Arrays


    Gruß
    Stefan

    Hi Alex, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Jetzt definiere doch in Gottes nahmen mal den Begriff Pixel. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Ist doch nicht so schwer- 1 Pixel ist exakt eine lichtempfindliche Stelle auf dem Chip.


    Bei einem Farbchip sitzt über jedem einzelnen Pixel ein Micro-Farbfilter- eben in der schon gezeigten Anordnung- 1 Pixel Grün, das daneben Blau, das darunter in der nächsten Zeile auch Rot und das vierte zugehörige zu dem Quartet ist das zweite grüne.



    Es gab schon Leute die ihre DSRL "vergewaltigt" haben und die Bayermatrix mechanisch durch kratzen, abschaben oder wie auch immer entfernt haben. Dadurch erhielten sie eine DSRL ins SW.


    Und wenn man die Angabe mit von mir aus z.B. 400x400 Pixel bei einem Farbchip nimmt dann hat dieser Chip tatsächlich 1600 einzelne Pixel.


    Von diesen sind dann 400 Pixel mit rotem Filter, 400 mit blauem Filter und 800 Pixel mit grünem Filter.


    Das Farbbild entsteht durch das Debayern- hat ein rotes Pixel z.B. 50% Sättigung und die grünen daneben haben 80% und Blau hat nix dann wird als Ergebnis eben der rote Bildpunkt auch mit 50% und die beiden grünen mit 80% im Bild erscheinen- für den "leeren" Bildpunkt unter dem blauen Filter würde die Software dann einen Mischwert aus dem roten und den beiden grünen Pixeln errechnen.


    Dein Auge erkennt dann bei dem Foto den Anteil 50% Sättigung Rot und zwei Bildpunkte Grün mit Sättigung je 80% und den ergänzten Bildpunkt mit einem errechneten Mischwert- dein Auge macht dann entsprechend der Erklärung Farbmischung aus dem Link von Jürg den Farbton daraus.


    Vergrößerst du aber bis die Einzelpixel sichtbar werden siehst du eben den aus der aufgenommen Intensität errechneten Farbton.


    Und das gilt dann auch für die weiteren daneben oder direkt darunter liegenden Pixel- da steckt ja auch eine Information drin und die wird dann wieder mit den benachbarten Pixeln verrechnet.


    Aus den 4 Bildpunkten ensteht nicht ein einzelner, jedes Pixel ist hinterher auch in deinem Bild am Rechner sichtbar, aber der ursprüngliche Inhalt jedes Pixels ist eben mit den Verrechnungen durch die Nachbarpixel unter Umständen etwas verändert.


    Die Hersteller geben natürlich die komplette Anzahl Pixel an- für mein Beispiel eben 1600. Machst du mit dem Chip ein Bild einer rein roten Fläche bringen aber nur 400 Pixel tatsächlich Bildinformation.


    Erst durch das Debayern und das damit verbundene Hinzurechnen werden dann auch die fehlenden 1200 Bildpunkte nachträglich mit der Information "Rot" aufgefüllt.


    Dein verlinktes Beispiel ist unglücklich. Die nahmen 3 Filter und 3 Sensoren und benannten das als 1 Pixel- das ist bei dem Farbchip mit Bayermatrix definitiv nicht so.



    Hi Jürg, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die Helligkeitsverteilung ist annähernd der einer Monochromkamera. Zur Verdeutlichung, mache eine Aufnahme mit schwarzen und weissen Linien. Alle Pixel egal mit welchem Filter sprechen an auf die Weissen Linien und keines auf die Schwarzen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Hm, auch nicht ganz. Auch in dem Fall werkelt die Debayer-SW ein wenig am Bild herum und setzt an dem Übergang Graustufen ein. Du hast also auch da keinen harten Strich, ich hab mir vorhin extra mal verschiedene Fotos angeschaut und man sieht das sehr deutlich.


    Gruß
    Stefan

    Hallo Jürg, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Nein, es werden nicht 4 Pixel zu einem zusammengefasst, sondern jedes der Pixel berechnet die Farbinformation aus den Nachbarpixeln.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Nicht die Pixel berechnen das, dieses wird durch die Firme- oder Software gemacht, welche das Debayern erledigt. [:)]


    Die SW weiß ja nicht- ist nebenan im grünen Pixel auch rot enthalten oder ist dort rein grünes Licht eingetroffen. Nimmt man eine größere rote Fläche auf würden ja die grünen und blauen Pixel erst mal fehlen. Durch das Debayern werden diese aber durch rot ersetzt. Die SW erkennt ja eine Reihe roter Pixel neben- und untereinander und fügt eben dann für die (nicht durch rot belichteten) blauen und grünen Pixel an der Stelle rot ein.


    Dabei treten aber Fehler auf. Mach ein Foto von einem von mir aus rein roten Gegenstand und lege einen andersfarbigen oder dunkelgrauen Gegenstand in diese einfarbige Fläche.


    Wenn man sich das Bild hochvergrößert ansieht erkennt man den Fehler. Es gibt keinen exakte scharf abgegrenzten Übergang. Durch das Debayern interpretiert die SW und fügt blassrote Pixel im Bereich ein, der eigentlich nicht mehr rot ist, sondern die Farbe des davorliegenden Gegenstand hat und ungekehrt.



    Hier z.B. gut ergkennbar- das normale Bild und dazu zweimal ein vergrößerter Ausschnitt- der eigentlich scharfe Übergang des grauen Ebony zum roten Tubus wird bei höchster Vergrößerung zu einem ins Rosa übergehenden Bereich.


    Würde man dieses Bild durch eine SW Kamera und getrennten Filtern aufnehmen, sollte dieser durch das Interpolieren auftretende "verwischte" Übergang nicht sichtbar sein. Daher kann man auch ruhig sagen- eine Farbkamera hat durch die Bayermatrix eine geringere Auflösung gegenüber eine SW-Kamera und der RGB-Technik.


    Gruß
    Stefan

    Hi,


    Jo hat doch ein paar Beiträge vorher eine schöne Grafik eingehängt- eindeutig zu sehen- 1xR - 1xB - 2x G


    Der Text in deinem Link stimmt so nicht oder bezieht sich von der Beschreibung her auf den da gemachten Versuch. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die Auflösung sinkt demnach auf 25 Prozent des monochromen Chips.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Prinzipiell ja, aber durch das Debayern wird zwischen den benachbarten Pixeln hochgerechnet und es werden damit z.B. für R-Werte für ein B oder für die G Pixel errechnet die vom Sensor so nicht aufgenommen wurden.



    Hi Roger, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bei 2x Binning werden 2x2 (also 4) Pixel verwendet um Licht zu sammeln. Die Auflösung dieser Bilder ist also nur die Hälfte. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Nö, bei 2x2 Binnig liegt die Auflösung nicht bei der Häflte sondern nur bei einem Viertel.


    Gruß
    Stefan

    Hi Alex,


    woher kommt die Farbe an deinem Monitor? Der arbeitet auch nur mit den 3 farbige Pixeln. Aber je nach Farbe werden diese einzelnen Pixel unterschiedlich stark zum Leuchten gebracht- dein Auge mischt daraus dann eben die Zwischentöne.


    Bei der RGB-Aufnahme ist das ähnlich. Ein rein rotes Objekt ist nur auf der R-Aufnahme sichtbar, da z.B. mit dem Wert 100%. Aber ein farblicher Zwischenton hinterlässt z.B. auf der G-Aufnahme etwas mit 40% und auf der R-Aufnahme was mit 60%. Die beiden Anteile ergeben beim Überlagern der Bilder dann genau den Farbton der diesen Anteilen entspricht. https://de.wikipedia.org/wiki/Additive_Farbmischung


    Bezüglich Belichtungszeiten- sehr oft werden eigentlich gleich lange Belichtungen für RGB gemacht. Hat das Bild einen Farbstich zieht man diesen ja per EBV wieder raus.


    Gruß
    stefan