LRGB für Dummies;-)

  • Hallo Stefan


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Hm, auch nicht ganz. Auch in dem Fall werkelt die Debayer-SW ein wenig am Bild herum und setzt an dem Übergang Graustufen ein. Du hast also auch da keinen harten Strich, ich hab mir vorhin extra mal verschiedene Fotos angeschaut und man sieht das sehr deutlich.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Ja, nach dem Debayern schon.
    Ist wie mit der Unschärferelation in der Quantenphysik[:D]
    Vor dem Debayern ist ein "weisser" Doppelstern theoretisch auf drei nebeneinander stehenden Pixel trennbar, die tatsächliche Farbinformation fehlt aber ganz. Nach dem Debayern sinkt die Auflösung dafür nimmt der Gewinn der Farbinformation zu.


    Gruss
    Jürg

  • Hallo Stefan,
    <font size="1">
    Zitat:
    <hr noshade size="1">Nö, bei 2x2 Binnig liegt die Auflösung nicht bei der Häflte sondern nur bei einem Viertel.
    <hr noshade size="1"></font id="size1">
    Du hast natürlich recht wenn du von der gesamten Anzahl der Pixel ausgehst. Ich meinte allerdings die Betrachtung in X bzw. Y Richtung. Da hast du dann jeweils die halbe Auflösung [:D].
    Da sieht man wie schwierig Kommunikation ist. Es gilt eben nicht was man meint sondern was beim anderen ankommt. [B)]

  • Günter,
    soweit korrekt: "Die 12 Mio Pixel Kamera hat 6 Mio sw Pixel mit Grünfilter, 3 Mio mit Rotfilter und 3 Mio mit Blaufilter.
    Die Software macht daraus ein Bild mit 12 Mio farbigen Pixeln (Stichwort Debayern)."
    Mit dem Zusatz: "Dieses Bild enthält nicht mehr unabhähgige Information als ein entsprechendes Farbbild mit nicht mehr als 4 Mio. voneinander unabhängigen Bildpunkten" schließt sich dann ungefährt der Kreis zu: "So entstehen aus 12 Millionen Pixeln 3 Millionen bildpunkte."
    DS, Holger

  • Hallo, nur für mein Verständnis! Wenn es machbar wäre ... Würde ich eine Bayer Matrix in Chipgrösse 1:1 mit der gleichen Bayermatrix ablichten, wäre das Ergebnis ein weißes Bild, da die R Lücken komplett mit R, die G Lücken komplett mit G und die B Lücken komplett mit B aufgefüllt werden! In Addition dann weiß! Monochrom mit RGB Filter würde ich die Matrix erkennen! Dahingehend der Kontrastuntetschied!


    Gruß


    Andreas

  • Hi Alex,


    in dem Linnk zu lesen- <i>Ein nahe liegender Ansatz ist es hierbei, die 4 Punkte des Bayer-Musters als ein Pixel aufzufassen, dessen Farbe sich aus genau diesen Pixeln bestimmt. </i>


    Bin ich nicht ganz einverstanden. Durch das Debayern werden ja nicht nur die 4 Pixel einer Gruppe verrechnet.


    Beispiel- Chip mit 10x10Pixel- durchnummeriert 1. Zeile also 1-10, zweite Zeile 11-20, dritte Zeile 21-30 usw.


    Beim Debayern guckt die SW also erst mal das Pixel 1 an und vergleicht dessen Wert mit dem Inhalt der Pixel 2, 11 und 12. Dann wird Pixel 2 angeschaut und mit den angrenzenden verglichen. Dann folgt Pixel 3...


    Ob die SW immer nur 4 Pixel zusammen betrachtet oder zu einem Pixel alle angrenzenden kann ich nicht sagen, aber es werden keinesfalls die Pixel nur zu Vierergruppen zusammengefasst und dann sozusagen Blockweise abgearbeitet.


    <i>Eine 4-Megabit-Kamera würde plötzlich zur unattraktiven 1-Megabit-Kamera. Da dies auf keinen Fall gewünscht wird, behält man die Pixelzahl bei und interpoliert die fehlenden Grundfarben für jedes Pixel aus den umliegenden Zellen</i> Das ist auch in deinem Link zu lesen, der 12MBit Chip hat also auch 12BMit, durch das Debayern wird das mit erreicht.



    Hi Roger,


    in dem Fall ist es doch eigentlich klar- 2x2 Binning bedeutet eben- zwei Pixel nebeneinander und dazu die zwei Pixel in der Zeile darunter. Also darf man nicht nur x oder y-Richtung betrachten. [:)]



    Hallo Jürg, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ja, nach dem Debayern schon.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Hm, nutzen wir Bilder ohne diese zu Debayern? Eher weniger, also muss man das fertige Ergebnis betrachten und da schlägt die Debayer-SW immer zu.


    Astrofotografie mit SW-Kameras und RGB Filtern hat da schon einen unschlagbaren Vorteil gegenüber Kameras mit Bayermatrix. Ist zwar vom Handling her aufwändiger, dafür bei der Nachverarbeitung wieder etwas einfacher und vom Ergebnis her eben auch besser. Ungeachtet dabei noch die Vorteile bezüglich Schmalbandaufnahmen mit SW-Sensor.



    Hi Andreas,


    könnte so hinkommen. Putzig auch der Fehler- ein Schachbrett mit schwarzen und weißen Feldern aufgenommen und dabei die Auflösung so hinbekommen, das jeweils ein Feld des Schachbretts exakt auf ein Pixel fällt- treffen dabei die weißen Felder auf die grünen Pixel hast du als Ergebnis ein Schachbrett schwarz-grün statt schwarz-weiß. Durch das Debyern wird dann aber für schwarz (fehlende Info da kein Signal) noch das Grün hinzugerechnet- führt zu einem komplett grünen Bild. Verschiebst du den Sensor um ein Pixel seitlich schaut es ganz anders aus- ist hier beschrieben- https://de.wikibooks.org/wiki/…andlung#Farbfilter-Arrays


    Gruß
    Stefan

  • Hallo Stefan,


    Mein Fazit aus diesem Forum ist: Ob monochrom oder Farbe - durch das Debayern werden gleiche Pixelzahlen erreicht! Gäbe es dieses Verfahren nicht, sehe die Welt anders aus! Unterschied zu monochrom ist halt, dass kein Pixel eine wahre Farbinfo hat! Nur ein Drittel ist real, der Rest wird interpoliert! Knackscharfe Kanten sind durch das Debayern nicht möglich, denn durch Mittelwertbildung bekommt ein Pixel auch eine Farbe draufinterpoliert, die auf diesen Pixel real gar nicht drauf sein dürfte.


    Das Beispiel mit dem Schachbrett ist auch gut geeignet! Wenn man kreativ ist lassen sich bestimmt andere tolle Effekte erzielen! Vielleicht sind die Bücher, wo man minutenlang draufschauen musste, um aus einen Bild etwas zu erkennen ähnlich entstanden!


    Gruß und ein schönes Wochenende


    Andreas

  • Hallo,


    Hier nochmal ein kleiner link zum Thema.


    https://en.m.wikipedia.org/wiki/Bayer_filter


    Bilder sagen halt mehr als manchmal tausend Worte. Es hat mir wirklich Kopf zerbrechen bereitet und Kopfschmerzen. Ich möchte das Thema trotzdem mal weiter spinnen .
    Behandelt wurde ja bisher die Länge der Belichtungszeiten für die einzelnen Kanäle, dann die Vergleichbarkeit Farbe zu monochrom und der Aufbau der Bayer matrix inclusive dem interpolieren.
    Was noch fehlt ist das equipment.
    Ich hab mal ein wenig geschaut und die orion starshoot g3 gefunden. Sie gibt es als monochrome Ausführung. In anderen Foren schreiben einige , dass ihnen der chip zu klein wäre. Nun besitze ich einen 80 mm apo mit unter 500 mm brennweite, welche durch den flattner mit 0,8 nochmals reduziert wird. Ich hab also schon ein grosses Feld. Der stefan hat ,glaub ich, mal einen link zu einem feldcalculator eingestellt. Ich hab dort mal als Objekt m1 und die orion kamera eingegeben und es kam eine entsprechende grosse Darstellung heraus. Es kann doch bei der Verwendung eines apos mit kleinerer brennweite nicht verkehrt sein, einen kleinen Chip zu haben? Andersherum würde ich bei grosser brennweite das objekt ja nicht mehr auf das bild bekommen.Nun hat der apo ja "nur" 80 mm Öffnung, wodurch die Auflösung , wie zum beispiel bei kugelsternhaufen, schlechter ist als bei größeren öffnungen. Was würde denn das für Ergebnisse bringen, also kleiner chip in Verbindung mit kleinerer öffnung und kurzer brennweite?
    Die orion ist ja gekühlt und es ist eine kamera , welche Einzelbelichtung besitzt. Eine andere kamera wäre die asi 120 mm . Diese ist zwar eine planetenkamera aber es kann mit ihr bis 16 min. Belichtet werden. Ich weiß aber nicht , ob das sinnvoll ist, da diese ungekühlt ist. Aus Interesse hab ich mir mal firecapture heruntergeladen und den Dummy laufen lassen. Ich muss da mal schauen aber als max. Bereich für die belichtung war dort 0 bis 1 sek. wählbar.
    Also die orion wäre für später mal interessant aber ich hab da Fragezeichen . (Siehe oben) Besitzt jemand diese kamera? Wäre die in Verbindung 80 mm apo mit einer brennweite unter 500 mm brennweite sinnvoll?


    Einen schönen sonntag und im voraus vielen dank

  • Hallo,


    Ich verlink mal das Datenblatt meiner 1200d . Da steht unter Auflösung nicht interpoliert. Multipliziert man diese Werte , so kommt man auf rund 18 megapixel nicht interpoliert. Wenn es eine nicht interpolierte Anzahl Pixel gibt, wieviele sind dann interpoliert? Das nur mal zwischendurch, weil ich gerade drüber gestolpert bin.



    http://www.pc-magazin.de/testb…-1200d-2324763-13031.html


    Viele grüsse

  • Hallo Alex,


    das ist schon eine auch aus meiner Sicht seltsame Angabe, denn ich dachte Pixelanzahl = Diodenanzahl! Das bedeutet wiederum, dass es durch das Demosaicing genauso viele interpolierte Pixel wie Dioden gibt? Jede Diode hat ihre Originalsignale entsprechend der Wellenlänge und wird zusätzlich durch zwei interpolierte Informationen (die 2 Wellenlängenbereiche, welche herausgefiltert wurden) beaufschlagt! Das würde bedeuten, dass es durch die Bayermatrix keinen einzigen nichtinterpolierten Pixel gäbe! Es sei denn man lässt die Matrix außen vor! Dann wäre rein technisch jede Diode nicht interpoliert!?


    Beispiel: Chip ohne Bayermatrix --&gt; 100% nicht interpolierte Pixel
    Gleicher Chip mit Bayermatrix --&gt; 100% interpolierte Pixel


    Bin mal auf die Lösung gespannt!


    Liebe Grüße


    Andreas

  • Hallo,


    Alle Pixel sind Interpoliert.


    In der Praxis (Deepsky) ist die geringere Auflösung einer Farb- gegenüber Monochromkamera kaum oder gar nicht sichtbar. Bei den heutigen Pixelgrösse ist meistens das Seeing für die Auflösungsgrenze verantwortlich. Zudem verbessert sich die Auflösung zusätzlich, wenn mehrerer Bilder mit einem leichten Versatz kombiniert werden (Das Licht trifft dann auf die verschiedenen Filter). Manche machen auch eine künstliche Luminanz für die weitere Bildverarbeitung.


    Nun was ist dann der Vorteil einer sw Kamera?
    - Die erreichbare Tiefe ist bei gleicher Gesamtbelichtungszeit besser .
    - Bei der Color Variante ergibt sich ein grösseres Farbrauschen was störend wirkt (Leichte Empindlichkeitsunterschiede der einzelnen Pixel liegen immer auf demselben Farbfilter).
    - Vernünftige Anwendung mit Linienfilter
    - Leichtere Auswertung bei Wissenschaftlichen Zwecken.
    - Eher Vorteil bei der Bildverarbeitung.


    Nachteil sind:
    -Höherer Preis (Filter + Filterrad).
    -Aufwendigeres Händling, längerer optischer Weg.
    -Bessere Planung (sonst fehlt dir am Schluss eine Farbe)


    Hier noch ein Praxisbeispiel mit einer OSC- und Monochromkamera.
    Jeweils ein Ausschnitt eines 10min unkalibriertes Einzelbild.
    In dem Fall ist die Auflösungsgrenze nicht Seeingbegrentzt (F350 bei 9um Pixel)



    Gruss
    Jürg

  • Hallo Jürg,


    Das wirst Du Recht haben (besser du hast Recht). Das man da im Datenblatt der Eos angibt "18 Megapixel - nicht interpoliert" scheint dann nur richtig, wenn man unter die Matrix krabbelt! Diese Angabe ist dann aber schon spitzfindig, denn wer kratzt die Matrix weg? Aus der EOS wird doch niemals eine monochrome Kamera werden?! Denke ich!


    Gruß


    Andreas

  • Hallo Andreas,


    ja die "Megapixel" macht sich besonders gut bei der Werbung.
    Für das Bild sind die immer kleineren Pixel ja nicht unbedingt förderlich, bzw. verschlechtern das Ergebnis sogar.


    Anderseits sind natürlich 18MP immer noch 18MP auch wenn ein Filter darüber ist. Es gibt wahrscheinlich auch Kameras die "so richtig" interpolieren ähnlich dem Digital Zoom[:(]


    Gruss Jürg

  • Hallo Zusammen,


    Alex: Du verlinkst nicht zu einem Datenblatt der Kamera, sondern zu einem Testbericht einer PC Zeitschrift. Das ist nicht unbedingt eine verlässliche Quelle.
    Das Canon Datenblatt findest Du hier : https://www.canon.de/images/Ca…20Sheet_tcm83-1135455.pdf
    Dort ist meines Wissens alles richtig und unmissverständlich dargestellt, und zwar genauso, wie es alle DSLR Hersteller machen.


    Der Begriff "Nichtinterpoliert" der PC-Hanseln stammt wohl noch aus Zeiten, wo man hauptsächlich kleine WebCams mit VGA Chip zur HD Tauglickeit gepimpt hat. Farbchips werden sowohl von Chipherstellern und Kameraherstellern in aller Regel mit der aktiven Pixelzahl und dem Hinweis auf die verwendete Filtermatrix beschrieben, das sollte so völlig in Ordnung sein.


    Grüße
    Norbert

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!