RGB (sLRGB) vs. LRGB bei CMOS (unbinned)

  • Hallo Astrofotografen,


    seit einiger Zeit denke ich über das Thema nach, was besser bei CMOS ist:

    Ein synthetisches Luminanzbild, entstanden aus den RGB-Filter-Aufnahmen mit einer Monokamera vs. ein richtiges Luminanzbild mit L-Filter gemischt mit den RGB Filteraufnahmen.


    Die Forenbeiträge und Videos, die sich damit beschäftigen, sind teilweise bis zu 15 Jahre alt.

    Inzwischen haben sich die Empfindlichkeiten der Chips extrem verbessert, was mich zu der Überlegung bringt, ob es noch sinnvoll ist, Luminanzaufnahmen zu machen.


    Sie wurde früher vor allem gemacht, um Zeit zu sparen, und bei den CCD-Kameras wurde dann mit 2x2 binned RGB Aufnahmen Farbe ins Bild gebracht.

    Da die CMOS Chips aber so empfindlich geworden sind, sollte es doch inzwischen eigentlich sinnvoll sein, die gesamte Belichtungszeit auf die gefilterten RGBs zu legen, und dann ein syntheltiscvhes Luminanzbild in PixInsight zu ziehen, um noch etwas mehr rauszuholen.


    Ich würde ein reines Luminanzbild vermutlich nur noch bei hellen Galaxien und Emissionsnebel machen. (Bei den Emissionsnebeln dann natürlich noch zusätzlich H-alpha, als L-RGB-Ha).

    Bei Reflexionsnebeln und schwachen Galaxien würde ich dann die gesamte Belichtungszeit nur noch auf die drei RGB Filter verteilen.

    Und bei schwachen Emissionsnebeln nur noch H-alpha und RGB für die Sterne.


    Was meint ihr dazu? Bin ich da auf dem Holzweg und Luminanz ist immer noch das Maß der Dinge, um das optimale SNR und die meisten Details herauszuholen?


    Vielen Dank fürs Lesen, und ich freue mich auf reichlich Kommentare.


    Viele Grüße und CS


    Sebastian

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

    Einmal editiert, zuletzt von Einsteinchen ()

  • Hi Sebastian,

    Inzwischen haben sich die Empfindlichkeiten der Chips extrem verbessert, was mich zu der Überlegung bringt, ob es noch sinnvoll ist, Luminanzaufnahmen zu machen.

    da sich die Empfindlichkeit der Detektoren sowohl auf Mono- als auch auf OSC-Kameras auswirkt, haben die grundsätzlichen Überlegungen zu dem Thema nicht geändert.


    Da die CMOS Chips aber so empfindlich geworden sind, sollte es doch inzwischen eigentlich sinnvoll sein, die gesamte Belichtungszeit auf die gefilterten RGBs zu legen

    Diese Schlussfolgerung kann ich nicht nachvollziehen. Um das bestmögliche Ergebnis mit einer bestimmten Chipgeneration für die Luminanz zu erzielen, muss die Photonenstromdichte maximiert werden und das geht nun einmal mit dem Verzicht auf die Bayermatrix.


    Ich würde ein reines Luminanzbild vermutlich nur noch bei hellen Galaxien und Emissionsnebel machen

    Hier müsste das Gegenteil der Fall sein, denn besonders lichtschwachte Objekte profitieren am meisten von einer reinen Luminanzaufnahme mit einer Mono-Kamera.


    Bei Reflexionsnebeln und schwachen Galaxien würde ich dann die gesamte Belichtungszeit nur noch auf die drei RGB Filter verteilen.

    Ich sehe das genau umgekeht.


    Und bei schwachen Emissionsnebeln nur noch H-alpha und RGB für die Sterne.

    Ich würde OIII und SII auch noch aufnehmen.

    und Luminanz ist immer noch das Maß der Dinge, um das optimale SNR und die meisten Details herauszuholen?

    Ja, würde ich so sehen.



    CS - Oliver

  • un einmal mit dem Verzicht auf die Bayermatrix.

    ... das hat dann auch noch den Beieffekt, dass man die Aberrationskorrektur manuell vornehmen kann und den Kompromiss bei deBeyering umgeht. Man muss dann aber auch auch wirklich das Rohbild nehmen und jegliche Prozessierung umgehen.

  • ... das hat dann auch noch den Beieffekt, dass man die Aberrationskorrektur manuell vornehmen kann und den Kompromiss bei deBeyering umgeht. Man muss dann aber auch auch wirklich das Rohbild nehmen und jegliche Prozessierung umgehen.

    Es geht hier ja so zumindest der Eindruck um dezidiert Astrokameras, da ist Abberrationskorrektur oder eventuelle Bildmanipulation ähnlich DSLRs nicht vorhanden/möglich. Die Bilder die raus kommen sind Roh.

  • Na, wenn die aber einen RGB-Sensor hat, stellt sich die Frage. Ich war von dem Equipment des TE ( Zwo ASI 294MC Pro) ausgegangen die den Sony IMCV verwendet. Der ist meiner Erinnerung nach ein ("schnöder") quad Beyer mit 10M.

  • Hallo


    Das Farbrauschen im Hintergrund bei Aufnahmen mit Filtern und SW Kamera reduziert ein synthetischer L Kanal schon, ein echtes Luminanz würde zusätzliche Zeit kosten, ist meist nicht sinnvoll die bei den RGB einzusparen.

    Bei OSC Kamera würde man noch eine zusätzliche SW Kamera benötigen, Kamera wechseln Bild wieder einrichten? Da würde nur mit 2 Teleskopen gleichzeitig aufnehmen Spaß machen.


    Gruß Frank

  • Danke für Eure Antworten. Ich musste dabei feststellen, dass ich mich nicht richtig ausgedrückt habe. Ich meinte mit RGB nicht die Aufnahme mit einer OSC, sondern RGB Filter mit einer Monokamera. Also es ging mir immer nur um Monochips.


    ein echtes Luminanz würde zusätzliche Zeit kosten, ist meist nicht sinnvoll die bei den RGB einzusparen.

    Wie meinst Du das? Genau deswegen habe ich ja gefragt. Die Luminanz kostet zusätzlich Zeit, deswegen wäre es doch sinnvoll das einzusparen.


    P.S. Ich füge oben mal noch ein, dass es sich um Filter handelt, damit nicht andere das auch missverstehen.


    Viele Grüße


    Sebastian.

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

    Einmal editiert, zuletzt von Einsteinchen ()

  • Hallo Sebastian


    Die Zeit für L bei RGB einsparen bringt nicht viel.

    RGB im 2xbin ging mit CCD prima, bei CMOS leider eher nichts,

    Da müsste man um schneller Farbe zu bekommen den Gain hochdrehen, das bekommt meine Aufnahmesoftware nicht hin , müsste ich die Kamera trennen und im Treiber erstellen. Das braucht dann auch extra Flat ,Dark, Bias

    Ist bestimmt auch nicht lustig zu bearbeiten.

    Bei mit CCD im 2xbin ist weniger Auflösung, die bringt dann der ungebinnte L kanal.

    Bei CMOS mit mehr gain weil es schnell gehen soll ist mehr Rauschen, das könnte man natürlich entrauschen was dann auch am Ende wie das gebinnte Bild weniger Detail ergibt, ist aber wieder ein Arbeitsschritt mehr.


    Gruß Frank

  • sondern RGB Filter mit einer Monokamera. Also es ging mir immer nur um Monochips.

    ah ok.


    Da wäre dann sowieso zu überlegen, ob man nicht jeweils noch schmalbandigere Filter nimmt, gfs. passende IR- und UV-Bereiche mit hinzu nimmt und getrennt prozessiert. Im Bezug auf Astro weis ich aber nicht, was es da so gibt. Ich mache da gerade etwas im Bereich Mikroskopie. Das Ziel ist es, mit z.B. bis zu 12 Farben, davon 7-8 sichtbaren, zu arbeiten. Ein RGB-Bild, wie man es real sehen würde, kann man sich dann noch in etwa aus den Primärspektren hinmischen, wobei es bei den Analysen der betrachteten Stoffe ja darauf ankommt, eben das nicht zu tun, sondern einzelne Spektralanteile heraus zu heben, die jeweils eine besondere Aussage machen. Dabei ist ein Ansatz, umschaltbare Filter - ein anderer, umschaltbare Lichtquellen (was bei Sternenlicht ja schwierig werden dürfte 8o

    Und gerade, wo ich das schreibe, fällt mir eine Idee ein, wie man das Licht, das aus der Tiefe des Weltalls kommt, eventuell doch "umschalten" könnte ... :/

  • Hallo Sebastian,

    die Frage ist, worauf stehst du?

    Willst du, dass die schwächsten Sternchen noch eine gute und realistische Farbe haben? Dann ein reines R-G- und B. Die Bayermatrix nimmt Photonen weg, deshalb musst du die Einzelbilder länger belichten und die gesamte Belichtungsdauer erhöhen.

    Machst du ein L-Bild dazu, dann bekommst du mehr Tiefe. Diese Tiefe ist aber nicht mit Farbe abgedeckt und die schwächsten Sterne sind farblos.

    Für mich würde sich nur die Frage stellen, wie die Gewichtung ist. Ich selber behaupte immer, Farbe wird überbewertet. Deshalb mache ich 90 % Luminanz und 10 % Farbe. Natürlich darf ich dann nicht so stark an den Reglern drehen ... eher wie visuell, und dann stimmt es sogar irgendwie, dass die schwächsten Bereiche farblos sind.

    VG ralf

  • Guten Morgen zusammen,


    ich fasse meine Überlegungen mal in einem Rechenbeispiel zusammen.


    Ich nehme drei Luminanzbilder und danach jeweils 1 R-G-B-Farbfilterbild auf. Das wiederhole ich die ganze Nacht.

    Am Ende erhalte ich dann zum Beispiel 60 Lum, 20 R, 20 G und 20 B Aufnahmen.


    Beim Bearbeiten erstelle ich dann ein RGB Bild aus den jeweils 20 Aufnahmen und denke dann, dass das schon echt super aussieht.

    Das Luminanzbild bearbeite ich anschließend gesondert und kombiniere beide nach dem Stretchen miteinander. (Zwischenfrage: Sollte man beide lieber vor dem Stretchen kombinieren?)

    Bei hellen Objekte sehe ich danach deutlich mehr Detailtiefe, bei schwächeren nur, wenn ich das Luminanzbild ordentlich hell stretche. Und klar das SNR wird besser.


    Nun mein Gedankengang. Wenn ich die Nacht ausschließlich auf RGB-Filter verwende, dann hätte zum Beispiel 40 R, 40 G und 40 B Aufnahmen.

    Hierdurch habe ich schon ein besseres SNR als vorher in dem RGB-Bild. Durch extrahieren eines synthetischen Luminanzbildes in PixInsight kann ich noch mehr herausholen.

    Insgesamt hätte ich dann sehr viel Farbinformation, aber vermutlich etwas schlechtere Detailtiefe?


    Viele Grüße


    Sebastian

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • Hallo Sebastian


    In 8h schaffe ich aber meist nur 16x R 16xG und 16xB

    Dann müsste ich 2x8h? Ich glaube nicht das es was bringt alle Bilder nur halb so lang zu belichten um noch L Frames machen zu können. Im Sommer 3-4 Nächte?


    Überhaupt, 20x RGB und 60xL ??? Ist wohl zu Einfach, da hast du die mit Filter entweder unterbelichtet oder den L Kanal ausgebrannt, müssen auch die Belichtungszeiten passen, sonst bringt das nicht viel.


    Gruß Frank

  • Hallo Frank,


    ich mache meist nur 3 Minuten Belichtungen.

    Ich habe gestern Nacht mal vdB 2 anvisiert und habe dieses Mal nur RGB mit einem synthetischen Luminazbild kombiniert.

    Das ist dabei rausgekommen: 24x180s R, 21x180s G, 21x180s B



    Mir fehlt jetzt natürlich der Vergleich, wie das Ergebnis aussehen würde, wenn 30xLum, 10xR, 10xG und 10xB aufgenommen hätte.

    Aber prinzipiell wüsste ich jetzt nicht, warum ich hier Luminanzbilder aufnehmen sollte, da das Objekt als Reflexionsnebel nicht so wahnsinnig viel Tiefe hat.


    Und das war ja meine Ursprungsfrage. Lohnt es sich bei so detailaschwachen Objekten Luminanz aufzunehmen?


    Viele Grüße


    Sebastian

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • Hallo Frank,


    Du meinst also, Luminanz lohnt sich nicht?

    Sagst aber, dass da noch mehr Details sind? Also scheitert es eigentlich nur an der Gesamtbelichtungszeit der RGB Aufnahmen?

    Im Grunde genommen ist das Luminanzbild ja nichts anderes als die drei RGB Aufnahmen mit einem Mal aufzunehmen.


    Ich bin mir halt unsicher ob Luminanz aufnehmen das richtige ist, oder nur R, G und B.


    Viele Grüße


    Sebastian.

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • na vdB 2 zeigt alles, dafür lohnt nicht, was ist mit dem Dunkelzeug drumrum?

    im extremfall bekommt L 3x so viel Licht ab, es brennen mehr Sterne aus? deswegen mein ich ja selbe Belichtungszeit wäre komisch, da musst du eventuelldie Belichtungszeit für L anpassen

    du hast die 294 in SW und Farbe und fette Montierung, könntest mit zwei Teleskopen auf einmal


    Gruß Frank

  • Im Grunde genommen ist das Luminanzbild ja nichts anderes als die drei RGB Aufnahmen mit einem Mal aufzunehmen.

    Bei einer Farbkamera ist das so, ja, also z.B: denen mit klassischer Beyermatrix.


    Dazu muss man aus meßtechnischer Sicht aber sagen, dass die klassische Beyer 2 Grünpixel hat, um diesen wichtigen Spektralbereich zu betonen. Und: Die 3 Farben sind idealerweise so ausgelegt, dass das "Einsortieren" der Frequenzen in die 3 "Töpfe" so passiert, wie es auch das Augu tun würde (soweit das eben technisch geht) - weil nur dann die Farben korrekt sind. Heißt: Wenn ich ein Farbbild will, nutze ich die RGB-Sensoren. Wäre nun die Frage, ob die zeitweilig (u.a. von mir !) propagierten RGBV (also 3 + Violett) für Astro nicht zweckmäßiger wären, weil die z.B. echtes Violett von gemischtem R+B unterscheiden, also 4 Spektralanteile auffangen, weil im Astrobereich die Grünbetonung IMO nicht relevant ist.


    Heißt im weiteren: Wenn ich bestimmte Spektralanteile suche, ist es besser, Beyer zu umgehen und selber zu filtern. Zudem hat die Beyermatrix aufgrund ihrer geometrischen Beschaffenheit einige Beugungseffekte, die Unschärfe bringen. Ein reiner SW-Sensor, der keinen Filter hat, hat dieses Problem nicht und sammelt sogar noch etwas mehr Licht, als ein Sensor mit Beyer-Raster. Hinzu kommt noch mindestens ein weiterer Effekt, nämlich die Abbildungswirkung bei Optiken + die Eindringtiefe des Lichtes in den Sensor: Wenn der optimale Fokus für z.B. rot einige hundertstel mm tiefer liegt, kann man mit getrennt aufgenommenen Bildern jeweils die Schärfe nachregeln. Bei Mikroskop-Makros kann man das deutlich sehen. Wenn man jetzt weiterdenkt und hat eine preiswerte Optik in seinem Linsenteleskop (kein Achromat) dann gibt es schärfentechnisch für ein zeitgleich aufgenommenes Bild eben nur einen Kompromiss für die Fokuseinstellung. Mit getrennt aufgenommenen Bildern sollte man da mehr Schärfe rausholen können.


    Natürlich gibt es ein Problem mit der Belichtungszeit, der Nachregelung und sicher auch der Gesamtaufnahmezeit.


    Was mich diesbezüglich bewegt (und das war meine Zwischenfrage) ist ob es gfs zweckmäßig ist, beides zu kombinieren, also mit einer Kamera L-Bilder zu machen und mit einer zweiten Farbbilder zu gewinnen und diese Information zu überlagern. Beim Prozessieren von Beyer-Sensoren werden auch Informationen aus allen Pixeln herangezogen, um Punkte und Kanten gleicher Helligkeit zu finden und damit die Farben besser zu interpolieren (-> "chromaresampling"), als es bei isolierter Betrachtung der Einzelfarbbilder möglich wäre.

  • hallo Jürgen


    Eindringtiefe? na ja bei der Bayermatrix wird ohnehin interpoliert es ist nur jedes 4. Pixel blau oder rot, die Schärfe soll ja vom Luminanz kommen, was ja nicht geht weil wegen der Unterschiedlichen Eindringtiefe eh unscharf :D der Theorie nach ist L Kanal sinnlos

    so nur mit Theorie kommen wir nicht wirklich weiter.


    Gruß Frank

  • Ich bin da ein bischen weiter, als nur Theorie :) Ich habe ja solche Sensoren mitentwickelt und baue System damit / dafür. Der Punkt ist der, dass man bei industriellen Kameras kaum direkt an die Sensordaten kommt, u.a. weil Defektpixel und anderes geschönt werden und selbst das "Rohbild" schon vorprozessiert ist. Und ja L aus einem BAyermatrixsensor hat einen sehr begrenzten Wert.


    "Eindringtiefe": Sensoren haben eine Ausdehnung in der Z-Achse was dazu führt, dass das Absorptionsvermögen in der Tiefe für Rotlicht besser ist. Damit gibt es die Option den Fokus für unterschiedliche Wellenlängen unterschiedlich zu verstellen. Da herein spielt die Abbildungswirkung der Linsen, die unterschiedliche Wellenlängen unterschiedlich brechen. In der Theorie bekommt man es hin, alles auf eine Tiefe zu fokussieren und dies sogar mit dem Sensor zu korrelieren. Im Detail gibt es da Abweichungen. Wenn man sehr kleine Objekte abbilden möchte, die nur wenige Sensorpixel überstreichen, wird das relevant,

  • Hallo zusammen,


    ich möchte noch einmal darauf hinweisen, dass es nicht um OSC Kameras mit Bayermatrix geht.


    Ich wollte nur ergründen, ob es bei den empfindlichen Mono-Sensoren nicht ausreicht nur RGB-Filter zu nutzen.

    Früher (und auch heute) wurde um Zeit zu sparen, Luminanz aufgenommen, und die Farben kamen von wenigen RGB-Bildern.


    Ich bin der Meinung, dass es durch die Quanteneffizienz der Sensoren eigentlich ausreichen müsste, dass man auf Luminanz verzichtet.

    Da bin ich mir aber leider nicht sicher.


    Viele Grüße


    Sebastian

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • Hallo Jürgen


    ach du bist schuld ^^ , kann man die Eindringtiefe bei Bayermaskenchip nicht mit den Microlinsen steueren?


    tatsächlich ist mir Fokusunterschied zwischen R, G, B noch nicht aufgefallen, wird am Seeing liegen, man könnte für SW Kamera die Filter aber auch parfocal machen, was dann hieße sie sind je nach Farbe andere Dicke, vielleicht hatte ich auch nur Glück


    Gruß Frank

  • Hallo Sebastian

    Zitat

    Ich bin der Meinung, dass es durch die Quanteneffizienz der Sensoren eigentlich ausreichen müsste, dass man auf Luminanz verzichtet.

    nah früher gab es Outers4 und die blaue Blase unter dem Cresentnebel auch nicht, wenns an der Quantenefizenz lag hätte man nur länger belichten müssen, hat aber wohl doch nicht sollen sein.


    Gruß Frank

  • Hallo zusammen,


    bei der Verwendung von den drei Filtern kann man in N.I.N.A. ja auch erst einmal den Filter Offset Calculator verwenden.


    Um noch einmal zum ursprünglichen Thema zu kommen. Ich habe jetzt noch bei CloudyNights einen Thread gefunden, der der Frage nachgeht.


    LRGB versus RGB - a fascinating debate at the highest level - Beginning Deep Sky Imaging - Cloudy Nights
    Page 1 of 5 - LRGB versus RGB - a fascinating debate at the highest level - posted in Beginning Deep Sky Imaging: An innocent post from someone fairly new, in…
    www.cloudynights.com


    Und hier bringt jemand Bilder von M51 mit 900s Belichtungszeit Luminanz und 2700s RGB mit synthetischer Luminanz.

    Das Luminanzbild ist hier der eindeutige Gewinner, obwohl es nur ein drittel der zeit benötigt hat.


    Dann scheine ich mit meinen Überlegungen eher auf dem Holzweg zu sein und sollte die Luminanz wieder in die Sessions mit aufnehmen.


    Viele Grüße


    Sebastian.

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • Das sind aber eigentlich 2 Überlegungen in einem:


    1) Reichen wenige Farbbilder, um einen ordentlichen Farbeindruck zu machen

    2) Ist das spektrale Absorptionsvermögen der Sensoren ausreichend, um trotz Filterung ausreichend scharfe / entrauschte Bilder zu bekommen.


    Zu 1) könnte man so vorgehen, dass man die Farbbilder entzerrt, per SW-Filter entrauscht und als Zusatz aufmischt. Farbeindruck nicht scharf aber gut genug.
    Zu 2) wird es interessanter:

    Wenn ein Sensor das gesamte Spektrum absorbieren soll, dann muss er technologisch so beschaffen sein, dass (u.a. infolge der Dotierung) der Bandabstand gering genug ist, dass auch niederenergetische rote Photonen einen Quantensprung auslösen können (Elektron-Loch-Paar-Generation). D.h. aber dass die Effizienz für blaue Photonen nicht gut sein kann. Das Problem hat man z.B. auch bei Solarzellen. Mit Beyer oder ohne, muss das für die Kamera so geregelt sein. Ich würde daher klar sagen, dass die Quanteneffizienz deshalb limitiert ist. Professionelle Farbkameras fürs TV und industrielle / medizinische Anwendungen haben daher auch einen Strahlteiler und benutzen drei getrennte Sensoren parallel, welche in sehr hochwertigen Systemen auch optimiert sind, d.h. der Sensor für blaue Photonen kommt mit größerem Bandabstand und absorbiert daher blaue Photonen besser, der rote hat z.B. einen Blaufilter und nutzt diese Photonen gar nicht, da sie auch noch ein Anregungsproblem machen würden -> "Zwischennivaurekombination").

    Bei den hier diskutierten CAMs wird aber i.d.R. ein Sensor zu Anwendung kommen.


    Ob da nun 3 nacheinander aufgenommene RGB-Bilder über getauschte Filter ein ausreichendes Ergebnis liefern, hängt in erster Linie an dem Absorbtionsprofil der Filter, würde ich sagen. Theoretisch kann da das gleiche herauskommen aber ein virtuelles Luminanz wird wahrscheinlich nicht exakt mathematisch denselben L-Wert liefern, wie ein echtes: Entweder ist die Farbtrennung sehr scharf und man verliert etwas L oder man hat mehr mehr virtuelles L bei mehr Farbüberlappung und damit einen stärkeren Weissanteil.

    Das müsste man ausmessen. Und man müsste die Zeit veranschlagen, die eine zusätzliche L-Serie kostet und es den R,G,B Zeiten zu schlagen.

    Mit Bezug auf meinen Beitrag weiter oben, würde ich gezielt Filter einsetzen, die nur das durchlassen, was ich jeweils sehen will. Das muss nicht das Rot sein, dass mir das Auge liefert, sondern könnte auch ein niederfrequentes Rot+IR sein, dass ich dann in den R-Kanal des Bildes mische. Bei Mikroskopen wird es z.B. so gemacht, dass die Information, die von der UV-Kamera kommt (Fluoreszenmikroskopie) einfach nochmal in R+B hinzugemischt wird, während ein echtes R+B abgeschwächt wird. Der Chirurg sieht damit kein Violett, was es im Körper eh kaum gibt, erkennt aber am lila Ausschnitt das Krebsgebiet, das ihm eingespiegelt wird.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!