LRGB für Dummies;-)

  • Hallo,


    Seit kurzem stehe ich mit einem sehr kompetenten astrokollegen in Verbindung. Dieser hat früher viel fotografiert und zur Zeit spechtelt er. Wenn er wieder fotografieren würde , dann nur lrgb. Nun habe ich mich eigentlich noch nicht mit diesem Thema auseinandergesetzt aber schon mal im Internet recherchiert. Dort wird viel über die Vorgehensweise geschrieben, so zum Beispiel das ein sw Bild mit dem l Kanal aufgenommen wird und jeweils ein bild r , g, b. Diese 4 Sachen werden in Programmen verwuselt und ein farbiges Bild entsteht. In einem anderen forum habe ich gelesen, das für die farbkanäle unterschiedliche Belichtungszeiten nötig sind, da der monochrome chip für jeden farbkanäle eine andere Empfindlichkeit besitzt. Nun weiß ich natürlich nicht , ob das stimmt. Ziel dieser Aktion ist es, ein gleichmässiges farbspektrunm für die 3 Farben zu bekommen, also wenn ich 256 Farbstufen für rot ,grün oder blau habe, zum beispiel Farbstufe für rot 10, für grün 10 und für blau 10. Führe ich diese Farben zusammen entsteht ja die graustufe mit der Nummer 10. Nun bin ich ein mensch, der nicht nur fragt wie was geht, sondern auch warum was wie funktioniert. Mein Problem ist jetzt, woher kommt die Farbe? Alle 3 Kanäle gemischt ergibt eine graustufe und zu diesem grau kommt doch noch das grau aus der sw Aufnahme dazu. Vielleicht bin ich ja völlig auf dem Holzweg und hab was völlig falsch verstanden. Wenn ich mir irgendwann eine monochrome ccd kaufen will, würde ich gerne wissen , was die Programme wie machen, also das Prinzip, damit Schöne Farbaufnahmen entstehen.


    Vielleicht kann da mal einer was dazu schreiben. Ich finde es sehr interessant und lerne gerne dazu.



    Im voraus vielen dank und viele grüsse

  • Hi Alex,


    woher kommt die Farbe an deinem Monitor? Der arbeitet auch nur mit den 3 farbige Pixeln. Aber je nach Farbe werden diese einzelnen Pixel unterschiedlich stark zum Leuchten gebracht- dein Auge mischt daraus dann eben die Zwischentöne.


    Bei der RGB-Aufnahme ist das ähnlich. Ein rein rotes Objekt ist nur auf der R-Aufnahme sichtbar, da z.B. mit dem Wert 100%. Aber ein farblicher Zwischenton hinterlässt z.B. auf der G-Aufnahme etwas mit 40% und auf der R-Aufnahme was mit 60%. Die beiden Anteile ergeben beim Überlagern der Bilder dann genau den Farbton der diesen Anteilen entspricht. https://de.wikipedia.org/wiki/Additive_Farbmischung


    Bezüglich Belichtungszeiten- sehr oft werden eigentlich gleich lange Belichtungen für RGB gemacht. Hat das Bild einen Farbstich zieht man diesen ja per EBV wieder raus.


    Gruß
    stefan

  • Hallo Stefan,


    Mit der farbmischung rgb weiß ich ja. Wahrscheinlich hab ich einen Denkfehler beim filter. Angenommen ich nehme Jupiter auf und nur der rote Fleck ist wirklich rot. Auf meiner r Aufnahme würde ich dann nur den roten Fleck erkennen?! Das Bild wird nicht insgesamt rötlich eingefärbt? Wenn theoretisch kein grün da wäre , würde ich auf der g Aufnahme nichts sehen?! Der l Kanal ist für die Zeichnung? !
    Ich denke der Groschen ist gefallen. Es ist nicht nur ein einfärben des Bildes, sondern ein herausfiltern einzelner farbanteile. Nun nimmt mein monochromer chip ja keine Farben auf. Wie filtert er also Farben heraus, die er ja als sw chip gar nicht erkennen kann. (Bestimmt wieder falsch geschlussfolgert)
    So einfach glaube ich ist es nicht oder meinst du, dass aus den drei rgb Bildern ein sw Bild erzeugt wird, wo jeder grauton einer Farbe entspricht. Diese wird vom PC entsprechend eingefärbt.
    Also erhalte ich 3 graustufenbilder , welche übereinandergelegt werden. Es ist sozusagen eine Mischung aus z. Bsp 256 mal 256 mal 250 graustufen. Das Ergebnis ist ein Bild mit entsprechender graustufenbittiefe. Jede dieser graustufen ist eine Farbe zugeordnet und dies wird vom Programm eingefügt.


    Viele grüsse

  • Hi Alex,
    nochmal kurz und bündig direkt mitten ins Zel:
    Du nimmst den L-Kanal mit einer monochromen Kamera ohne Farbfilter auf, so dass die Bildqualität (ggf. nach Stacken mehrerer solcher Bilder) Deinen Erwartungen entspricht. Das erzeugt Bild besteht aus Graustufen. Da Du keine Filter im Strahlengang hast, sammelst Du die meisten Photonen pro Belichtungszeit und erzielst somit das beste Signal-Rausch-Verhältnis (SNR). Diese Bilder kannst Du auch noch weiter stacken.
    Die RGB-Kanäle nimmst Du mit Farbfiltern (ebenfalls mit der monochromen Kanera) auf. Die Bilder bestehen ebenfalls aus Graustufen, aber jeder Kanal repräsentiert eine Farbe. So wie früher bei Schwarz-Weiss-Filmen mit Filtern. Diese drei Bilder benutzt Du, um mit Hilfe von additiver Farmischung die Farbinformation zu rekonstruieren: Rotwert=Grünwert, Blauwert=0 entspricht gelb etc. Bei diesen Bilder ist es sinnvoll, einen Weissabgleich mit einer Grautafel zu machen, damit das Bild hinterher keinen Farbstich hat.
    Zum Schluss kolorierst Du das L-Bild, das ja das beste SNR hat anhand der Farbinformation aus dem RGB-Bild.
    DS, Holger

  • Hallo Holger,


    Dir auch vielen dank. Der Schuss saß[:)]. Wie im link im Beitrag zuvor werden alle 3 graustufenbilder eingefärbt und übereinandergelagert. Ich hatte erst gedacht, diese graustufenbilder werden erst überlagert und dann eine Farbe zugeordnet.
    Intersannte sache.


    Vielen dank nochmal und dir nen schönen abend

  • In diesem Zusammenhang kann ich das gerade (10/2015) in der Erstausgabe erschienene Buch:


    "Astrofotografie: Von der richtigen Ausrüstung bis zum perfekten Foto"
    von Thierry Legault
    im dpunkt.verlag
    ISBN-13: 978-3864902574 empfehlen.


    Ich bin zwar noch am Anfang des Buches, kann aber jetzt schon sagen: Das Buch in bezüglich Infomationsgehalt, Vollständigkeit, Lesbarkeit und Aufmachung einfach TOP! In meinen Augen könnte es ein Standardwerk der Astrofotografie werden, wenn es dies nicht schon ist.


    Zudem lässt sich der Text extrem gut lesen - fast schon wie ein Roman ;) - und oft, wenn man im Lesen weiterdenkt ("Man könnte dann doch ..."), so kommt die Bestätigung oder ein Hinweis im nächsten Absatz. Da wird wirklich kaum was ausgelassen. Gut gelungen ist auch die Übersetzung ins Deutsche von Volker Haxsen.


    Sodele, nun brauche ich meine Beschreibung nur noch in Amazon Rezensionen kopieren. ;)


    Nein, ich bekomme keinerlei Provision. Das ist meine ganz persönliche, unvergütete Meinung.


    Viel Spaß beim Schmökern!


    Jörg

  • Hallo,


    Vielen Dank nochmal allen für die schnelle Aufklärung. Naja es gibt halt keine dummen Fragen.
    Stefan ...bestimmt hast du das richtige gemeint, nur der Hinweis auf die 3 sw Bilder je Kanal und deren Einfärbung hat gefehlt und da war der Groschen nur halb durch
    Danke Andreas für den tollen link, auch Holger hat sehr zur erhellung beigetragen und zu guter Letzt werde ich mir mal überlegen bei Amazon einkaufen zu gehen.
    Alles in allem eine tolle Sache und was für die Zukunft. ...


    Allen einen schönen Abend und viele grüsse

  • Hallo Alex,


    Ich habe das Buch mal bestellt! Also falls mir die Haare beim Lesen vor lauter Dampf unter der Schädeldecke ausfallen ... dann borg ich es Dir aus! Kostet nix :-)!
    Danke Jörg! Hoffe, dass dein Tipp gut ist :-)! Die Kritiken lesen sich schon einmal nicht schlecht!



    Liebe Grüße vom Dreas

  • Hallo Dreas,


    ich stehe zu meiner Meinung! Allerdings bin ich noch nicht ganz durch, glaube aber, es wird Dir gefallen. Ich würde mich natürlich über Deine Meinung sehr freuen. Auch wenn Du mich nach dem Lesen auf Beteigeuze und in die Fänge der Vogonen wünschst. ;)


    Es liest sich aber wirklich gut und so werden Dir die Haare schon nicht ausfallen, keine Sorge!


    Jörg

  • Hallo nochmal,


    Nachdem das hier ja alles wunderbar erklärt wurde, hab ich noch eine frage zur praktischen ausführung. Bei einer farbkamera wird ja zum beispiel jedes Pixel mit 5 min in r g und b belichtet. Da ja bei lrgb jede Farbe einzeln gefiltert wird , bedeutet das für mich , die Belichtungszeit müsste doch vervierfacht werden. 5 min. Für jeden kanal. Herauskommen müsste doch ein bild, das dem 5 min Farbbild von der belichtung her entspräche. Ich meine nicht den Kontrast und die Auflösung, die in der lrgb Aufnahme sehr wahrscheinlich besser ist. In der Summe müsste ich doch im Endeffekt ein Bild haben , was genau wie das Farbbild 5 min. Belichtet wurde. Liege ich da falsch und muss man sich für diese aufnahmetechnik viel mehr Zeit lassen?



    Viele grüße und allen einen schönen Dienstag


    Ps:Nun kann es ja sein , das monochrome ccd Kameras, empfindlicher sind und eventuell deshalb kürzer belichtet werden kann. Nur um wieviel eventuell kürzer? Gibt es eine aussagekräftige grösse für die Empfindlichkeit. Ich frag deshalb nochmal, weil ich mir mal die technischen Daten der asi 120 mm und mc angeschaut habe. Beides dasselbe Modell einmal mono, einmal farbig. Den einzigen wert, der der Empfindlichkeit , so denke ich, nahe kommt, ist die quanteneffizienz und da steht bei beiden eine 75. Ist es nun so, das monochrome Kameras empfindlicher sind und deshalb die Aufnahmedauer für die einzelnen Kanäle veringert werden kann oder liefern sie nur kontrastreichere Bilder? Ich verweise da nochmal auf das zuvorgeschriebene....Aufnahmedauer pro Kanal und daraus resultierende Dauer der Aufnahme für ein Bild.
    Ich tappe ein wenig im Dunkeln.
    [:)]

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: der alex</i>
    <br /> Bei einer farbkamera wird ja zum beispiel jedes Pixel mit 5 min in r g und b belichtet. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Bei den Farbkameras mit einer RGB-Matrix wird nicht jedes Pixel in R, G und B belichtet sondern ein Pixel jeweils nur mit R, oder G oder B. Ein Algorithmus verrechnet danach die monochromen Helligkeitswerte der benachbarten und nach R, G und B codierten Pixel und rekonstruiert so für jedes Pixel einen Farbwert. Dieser Wert wurd in den Pixeln nie gemessen, sonder ist ein aus den Nachbarpixeln gemittelter Wert. Das bedeudet auch, dass Farbkameras die nach dieser Methode arbeiten eine niedrigere Auflösung als die physikalische Pixelgröße besitzen. Und daher auch niedriger als SW-Kameras.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Da ja bei lrgb jede Farbe einzeln gefiltert wird , bedeutet das für mich , die Belichtungszeit müsste doch vervierfacht werden. 5 min. Für jeden kanal. Herauskommen müsste doch ein bild, das dem 5 min Farbbild von der belichtung her entspräche. Ich meine nicht den Kontrast und die Auflösung, die in der lrgb Aufnahme sehr wahrscheinlich besser ist. In der Summe müsste ich doch im Endeffekt ein Bild haben , was genau wie das Farbbild 5 min. Belichtet wurde. Liege ich da falsch und muss man sich für diese aufnahmetechnik viel mehr Zeit lassen?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Bei LRGB-Technik ist es nicht nötig die Farbkanäle genauso lange zu belichten wie den Luminanzkanal. Information über Schärfe und Kontrast und Helligkeit ist vor allem im Luminanzbild. Dieses sollte von guter Qualität sein. Die RGB-Bilder können ruhig etwas verrauschter und unschärfer sein. Dürfen also kürzer belichtet sein oder sogar von einer minderwertigeren Aufnahmeoptik stammen. Diese Reduktion ist möglich, weil unser Sehapparat evolutionär Helligkeitsinformationen stärker wahrnimmt als Farbinformationen.


    ciao,
    Jo

  • Hallo jo,


    Vielen Dank. Ich hab da unterschiedliche Angaben zum Pixel gefunden. Auf einigen ist jeweils der rot ,grün oder blau filter über dem chip zu jeweils einem Pixel erklärt, bei anderen ist es ein Pixel bestehend aus drei farbfiltern also ein Pixel besitzt alles 3. Ich muss da heute nachmittag nochmal schauen. Hier der link


    http://mascil.ph-freiburg.de/a…sensor-kamera#Funktion_02


    Nun bleibt trotzdem die frage offen, belichte ich ein Farbbild 5 Minuten, so fällt doch auf den Pixel mit dem grün auf der Farbccd 5 Minuten Licht , gleichzeitig fällt auch auf den roten Pixel 5 minuten Licht und auf den grünen auch. Beim sw chip erhalte ich ja die farbinformation deshalb, weil ich jedes Pixel nacheinander mit rot , grün und blau belichtet. Um jetzt gleich lange mit rot zu belichten, müsste ich doch den rotfilter auch 5 Minuten vorm chip haben, grün und blau auch. Der Unterschied ist doch, das ich es beim ersten gleichzeitig mache und beim letzten hinereinander. Hier bekommt natürlich ein Pixel alle 3 Farben ab . Dadurch könnte man vielleicht sagen, die " wirksame " fläche verdreifacht sich beim sw chip. Da ich für ein "rgb" Pixel oder besser die Darstellung einer Farbstufe beim monochromen chip nur einen Pixel brauche und beim farbigen chip für eine Farbstufen Darstellung 3 Pixel.
    Anders gesagt, hätte ich jeweils einen Pixel r und g und b mit 1 quadratmilimeter fläche, so ist die gesamte Fläche 3 quadratmilimeter. Ein quadratmilimeter filtert rot , der andere grün und der letzte blau. Um die entsprechende farbinformation zu erhalten, muss das Programm alle 3 übereinanderlegen und somit wird ja die entsprechende Farbe auf einem quadratmilimeter dargestellt, notwendig sind aber 3.
    Die eigentliche Frage ist , wenn ich mit einer asi 120 mc ein bild mache , welches 8 Minuten belichtet wird, reicht es da mit der monochromen Variante aus , um die gleiche belichtung zu ereichen , jeweils 2 Minuten mit rot filter , 2 min. Grün und 2 min. Blau und 2 Minuten l zu belichten, was in der Summe ja auch 8 min. Sind aber jeder Kanal halt nur 2 oder muss ich mehr Zeit einplanen?
    So ganz klar ist es mir noch nicht aber ich werde dann nochmal nach der Arbeit Googlen.


    Viele grüsse und einen schönen tag

  • Ich hatte dir doch den Hinweis auf die verminderte Zahl der für einen Spektralbereich nutzbaren Pixel gegeben.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: der alex</i>
    <br /> Um jetzt gleich lange mit rot zu belichten, müsste ich doch den rotfilter auch 5 Minuten vorm chip haben, grün und blau auch. Der Unterschied ist doch, das ich es beim ersten gleichzeitig mache und beim letzten hinereinander.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Fehlschluß. Denn in der RGB-Matrix sammeln eben nicht alle Pixel für einen Spektrabereich gleichzeitig Licht wie bei der RGB-Filtertechnik. Bei der Bayer-Matrix wird nur jedes vierte Pixel mit Rot, nur jedes vierte Pixel mit blau und nur jedes zweite mit Grün belichtet. Damit erfährt der Sensor z.B. im Rotbereich in 5 min nur 25% also nur 1,25 minuten effektive Belichtung bezogen auf die gesamte Sensorfläche.



    Um die gleiche Informationsmenge bzw. Belichtung zu erhalten braucht man man in der RGB-Filtertechnik eben nur 1,25 Minuten in Rot 1,25 Minuten in Blau und 2,5 min in Grün belichten.


    Belichtung = Lichtstrom * Zeit / Fläche


    Beispiel: Die Bayermatrix viertelt den nutzbaren Lichtstrom im Spektralbereich Rot und damit hat man bezogen auf die gesamte Sensorfläche nur ein viertel der Belichtung. Das führt dann bereits zu einer vier mal längeren Belichtungszeit bei Verwendung der Bayer-matrix selbst gegenüber der Rotfilteraufnahme einer SW-Kamera!


    Die Lichtmange für Rot bei einer Bayermatrix bei 5 minuten Belichtungszeit ist genauso hoch wie bei 1,25 Minuten mit Rotfilter bei SW-Sensor.


    Ciao,
    Jo

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: der alex</i>
    <br />Hallo jo,


    Hier bekommt natürlich ein Pixel alle 3 Farben ab . Dadurch könnte man vielleicht sagen, die " wirksame " fläche verdreifacht sich beim sw chip. Da ich für ein "rgb" Pixel oder besser die Darstellung einer Farbstufe beim monochromen chip nur einen Pixel brauche und beim farbigen chip für eine Farbstufen Darstellung 3 Pixel.
    Anders gesagt, hätte ich jeweils einen Pixel r und g und b mit 1 quadratmilimeter fläche, so ist die gesamte Fläche 3 quadratmilimeter. Ein quadratmilimeter filtert rot , der andere grün und der letzte blau. Um die entsprechende farbinformation zu erhalten, muss das Programm alle 3 übereinanderlegen und somit wird ja die entsprechende Farbe auf einem quadratmilimeter dargestellt, notwendig sind aber 3.


    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">



    Fehlschuss?


    Erstmal Hallo, denn soviel zeit muss sein, (Netiquette und so)
    Ja ich hatte deine Antwort gelesen. Ich wollte es halt nur genau wissen, sozusagen einfache Frage und einfache Antwort, so nach dem Motto , muss ich 4 mal länger belichten? Antwort : Nein nur ein Viertel so lange weil...



    Ich kann in deiner Antwort leider nur Schlüsse auf den Aufbau eines farbchips erkennen und das dieser der jeweils 1 Pixel nur eine Farbe durchlässt. Deine Schlussfolgerung ist die geringere Auflösung. Ich hab ja verstanden,denn wenn du meine Antwort durchliest . Im Zitat oben wirst du es sehen. Speziell der erste Satz, der sich auf die monochrome Variante bezieht. Das ist so gemeint, dass der ganze monochrome chip alle 3 Farben bekommt, nacheinander, Währenddessen der rgb chip jeweils nur ein Drittel. Ist vielleicht ein wenig verquastet ausgedrückt. Deine zweite Antwort beantwortet meine frage halt besser und die letzten kleinen Fragezeichen sind ausgeräumt. Es ist halt kein so leichtes Thema und da besteht die Gefahr bei Antworten, die für den Profi logisch sind und durch ihn in zwei Sätzen erklärt werden, beim Anfänger schon noch fragereichen hinterlassen.
    Danke nochmal, denn wenn man sich mal Do eine kamera zulegt, sollte man wissen , was passiert oder wie es funktioniert.


    Ciao

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: der alex</i>Das ist so gemeint, dass der ganze monochrome chip alle 3 Farben bekommt, nacheinander, Währenddessen der rgb chip jeweils nur ein Drittel.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Schau dir das Bild der Bayermatrix mal genau an. Es sind jeweils für R und B 1/4 und für G 1/2 und nicht jeweils 1/3.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Die eigentliche Frage ist , wenn ich mit einer asi 120 mc ein bild mache , welches 8 Minuten belichtet wird, reicht es da mit der monochromen Variante aus , um die gleiche belichtung zu ereichen , jeweils 2 Minuten mit rot filter , 2 min. Grün und 2 min. Blau und 2 Minuten l zu belichten, was in der Summe ja auch 8 min. Sind aber jeder Kanal halt nur 2 <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Theoretisch ja, denn bei der Bayermatrix sind es effektiv auch nur 2 für R und B.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">oder muss ich mehr Zeit einplanen?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Nein. Es kommt aber in der Praxis aufs Objekt an. Beispiel: Bei einem Objekt mit deutlich überwiegend H-alpha-Emission könnte man den R-Kanal kürzer belichten und dafür den L-Kanal länger. Das bringt insgesamt mehr Details.



    ciao,
    Jo

  • Du ich glaube, dass das schon erkannt wurde! Es ging um eher Grundlegendes nicht um das Zählen von Fotodioden in der Matrix! Grundlegendes kann gut mit Gedankenexperimenten erklärt werden! Wäre mal ein Ansatz oder?

  • Ok , das hatte ich gesehen. Ich habe sie jedoch nicht ausgezählt aber erkannt , daß die Aufteilung nicht zu jeweils ein Drittel erfolgt. Der einfachheithalber habe ich über den Daumen, ein Drittel geschrieben. Ist nicht korrekt, ok.


    Viele grüsse

  • Die Lichtempfindlichkeit von digitalen Sensoren (Kameras) hängt von vielen Faktoren ab. Wichtigste Merkmale sind natürlich die Sensor-/Pixelgröße, als auch die Quanteneffizienz bei einer bestimmten spektralen Empfindlichkeit. Das lässt sich oft nicht einfach linear skalieren!


    Ein wesentlicher Unterschied zwischen Monochrom- und Farbkameras ist die Implemenierung eines RGB Farbfilters nach dem sogenannten Bayer-Pattern, womit jeweils 4 Pixel mit einem roten, einem blauem und zwei grünen Pixelfiltern zu einem RGB Pixel zusammengefasst werden. Die eigentliche RGB Auflösung wird somit im Prinzip verringert. Durch Softwarealgorithmen wird zwischen den unterschiedlich farbempfindlichen Pixeln jedoch wieder interpoliert, so dass fast immer die RGB Auflösung, wie bei der (fast) baugleichen monochromen Kamera angeben wird.


    Anders ausgedrückt: Wenn rotes Licht (bei sagen wir mal 660nm) auf den Sensor trifft, so wird bei einer Farbkamera nur eines (oder im Falle von 'Grün' zwei) der 4 Bayer Pixel angeregt. Bei einer monochromen Kamera werden jedoch in allen 4 Subpixeln Elektronenpaare gemäß der Quanteneffizient erzeugt. Insofern wäre die monochrome Kamera hier 4 Mal empfindlicher, insofern die Auflösung um Faktor 4 durch Zusammenfassung von 4 Subpixeln in 1 Ausgabepixel reduziert wird. Falls nicht, so bleibt die Empfindlichkeit gegenüber der RGB Kamera erhalten und es erhöht sich nur die Auflösung.


    Dies soweit nach meinem Kenntnissstand ...


    Jörg

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!