LRGB für Dummies;-)

  • Also nochmal zusammenfassend: bei gleicher Pixelgröße liefert die monochrome Kamera eine (in jede Richtung) doppelt so große Auflösung wie eine Farbkamera, oder: bei gleicher Auflösung kann das Pixel (in jede Richtung) doppelt so groß sein - und damit 4mal mehr Licht sammeln.
    Außerdem wird bei Farbkameras das Bild immer durch Interpolation berechnet und nicht direkt aus dem Sensor ausgelesen - der Algorithmus kann dabei Artefake erzeugen oder Details unterdrücken.
    Wenn man ein L-RGB Bild mit 20min L, und 3x5min RGB aufnimmt, dann hat man den Detailreichtum einer 20 Minutenbelichtung und einigermaßen realistisch angenäherte Farben. Ein RGB Bild mit 3x20min enthält denselben Detailreichtum und dazu pixelgenaue Farben. Mit einer Farbkamera müsste man dieses Bild für gleichen Detailreichtum dann 80 Minuten belichten, weil die Pixel ja nur noch ein Viertel so klein sind.
    DS, Holger

  • Hallo zusammen,


    Vieles von dem was schon geschrieben ist korrekt und wenn man genauer in die Sache reinschaut auch wieder nicht.


    Keine Kamera gibt direkt Werte aus die vom Chip kommen sondern jedes einzelne Pixel wird berechnet, kalibriert, ...
    Die Fertigung der Imagimg Bausteine hat Toleranzen die z.B. durch Kalibrationstabellen in der Kamera ausgeglichen werden.
    Die Auflösung einer Farbkamera mit Bayermatrix ist auch nicht 1/4 der Pixelanzahl.
    Auch hier wird durch verschiedene Algorithmen, die die Nachbarpixel mit nutzen, interpoliert und dadurch wieder eine hohe Auflösung erzeugt. Das nennt sich Debayern und jedes gute Bildbearbeitungsprogramm kann das. Wie schon vorher erwähnt sind immer 4 Pixel in einer Bayermatrix kombiniert, 2xGrün, 1xRot und 1xBlau. Bei Grün ist das menschliche Auge eben am empfindlichsten.


    Bzgl. L-RGB. Da die hellen und dunklen Bereiche eines Bildes massgeblich für die Details verantwortlich sind verwendet man bei Monochrom CCD-Kameras mit Farbfiltern einen weiteren Trick um die Belichtungszeit zu reduzieren, das sog. Binning.
    Die L-Aufnahmen die man meist ohne Filter oder einem UHC Filter macht, werden mit 1x Binning belichtet d.h. die Auflösung ist hoch. Die Farbkanäle macht man mit geringerer Belichtungszeit (meistens 1/2 oder 1/4) und 2x Binning. Bei 2x Binning werden 2x2 (also 4) Pixel verwendet um Licht zu sammeln. Die Auflösung dieser Bilder ist also nur die Hälfte. Am erzeugten L-RGB Bild sieht man das aber so gut wie nicht weil die Details über L kommen. Die Farb- und Kontrastabstimmung macht man am Computer.


    Gute Bildverarbeitungsprogramme beherrschen diese Kombination sehr gut und im Endeffekt entscheidet man selbst (oder die Kollegen im Forum[:D]) wie gut man die Farbabstimmung getroffen hat. Das kann man aber immer nachbessern.


    So ich hoffe ich hab nicht für Verwirrung gesorgt.[:D]

  • Hallo Roger,


    Eigentlich hast du nicht für Verwirrung gesorgt. Du hast es doch prima erklärt.
    Natürlich werfen hier die antworten auch gleich wieder fragen bei mir auf aber ich hoffe man hat Geduld mit mir[:)]
    Zum Thema Auflösung gibt's noch einige Unklarheiten.
    In einem link auf der Seite 2 hier im thema , wurde beschrieben , das 1 Pixel bei Farb ccd drei filter besitzt. In einigen anderen Beiträgen hier wurde geschrieben 1 Pixel für rot , 1 Pixel blau, 2 Pixel grün. Wie ist denn nun die zählweise?
    Beispiel:
    Ich habe 2 identische chips , einen mono , einen Farbe
    Beide haben 10 mal 10 Pixel , also 100. Ist es so, dass der farbchip 25 rot filternde , 25 blau filternde und 50 grün filternde Pixel hat? In diesem falle würde ja aus 4 Pixeln die Farbe für einen Punkt berechnet?.
    Die Auflösung sinkt demnach auf 25 Prozent des monochromen Chips. (Roger , dass dient nur zum Verständnis des Prinzips, du hast ja geschrieben, das es nicht ganz so ist) Beide hätten demnach gleich viele Pixel aber der farbchip ist niedriger auflösend oder ist es so, dass 1 Pixel des Farbccd die 3 filter besitzt? Das wäre dann in meinen Augen dieselbe Auflösung , wie beim mono chip, denn hier wird ja dann jeder der 100 Pixel zur farbmischung genutzt, d.h. jede der 100 Pixel besitzt seine eigene Farbstufe. Das jeder dieser Pixel nur 25 Prozent rot 25 Prozent blau und 50 Prozent grün "abbekommt" ist in meinen Augen wichtig für die belichtung.
    Wenn also eine farbkamera 10 megapixel hat , besteht dann jeder Pixel aus den 3 farbfiltern oder teilen sich die 10 megapixel zu 25 Prozent auf rot und blau und 50 Prozent grün auf?
    Ich Bitte gleich mal um Nachsicht aber ich möchte das wirklich richtig begreifen.
    [:)]


    Viele grüsse und einen schönen tag

  • Hi,


    Jo hat doch ein paar Beiträge vorher eine schöne Grafik eingehängt- eindeutig zu sehen- 1xR - 1xB - 2x G


    Der Text in deinem Link stimmt so nicht oder bezieht sich von der Beschreibung her auf den da gemachten Versuch. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die Auflösung sinkt demnach auf 25 Prozent des monochromen Chips.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Prinzipiell ja, aber durch das Debayern wird zwischen den benachbarten Pixeln hochgerechnet und es werden damit z.B. für R-Werte für ein B oder für die G Pixel errechnet die vom Sensor so nicht aufgenommen wurden.



    Hi Roger, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bei 2x Binning werden 2x2 (also 4) Pixel verwendet um Licht zu sammeln. Die Auflösung dieser Bilder ist also nur die Hälfte. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Nö, bei 2x2 Binnig liegt die Auflösung nicht bei der Häflte sondern nur bei einem Viertel.


    Gruß
    Stefan

  • Hallo Stefan,


    Danke dir. Es steht da Aussage gegen Aussage und so weiß man nicht, wer halt recht hat.Im erwähnten Beitrag ist ja die Matrix dargestellt und nicht die Pixel Aufteilung. Es steht aber darüber . Wenn es nicht da stehen würde , könnte man aus dem bild keine schlüsse ziehen. Ich hab bloss immer ein problem damit, wenn Leute sich wirklich Mühe geben , wie im link, das alles experimentell versuchen nachzuweisen und das auch ins Netz stellen, dass dann bei solchen grundlegenden Sachen eine irrtümliche Angabe gemacht wird oder vielleicht sogar eine falsche. Ich meine sie haben sich ja auch gründlich Gedanken gemacht. Also ist es nun wirklich so, dass sich die Pixel auf einem chip zu jeweils 25 Prozent r , 25 blau und 50 prozent grün aufteilen und jedem Pixel ein jeweiliger farbfilter vorgeschaltet wird. Das deckt sich ja auch mit der Aussage , das monochrome kameras im Vergleich zu ihren farbigen Ablegern , eine höhere Auflösung besitzen.
    Sehr schön.



    Einen schönenTag und viele grüsse

  • Alex,
    auch in einer Farbkamera steckt ein "monochromer" CCD- oder CMOS-Chip - die zählen nämlich alle nur Photonen. (fast egal welcher Farbe). In der Farbkamera sind eben bloss Farbfilter davor, die nur das Licht eines Spektralbereichs durchlassen. Das würde im Extremfall(!) bedeuten, dass die Abbilder zweier winziger Sternlein, die zufällig exakt auf die grünen Pixel der Bayermatrix im Farbchip fallen, mit einem monochromen Chip als zwei Sterne aufgelöst werden, während ein Farbbild an dieser Stelle lediglich einen deutlichen Grünstich bekommt, weil rot und blau eben keine Farbanteile anzeigen. Zum Glück ist jedes Objekt immer ein paar Pixel groß und das Ding mit der Interpolation klappt meiste ganz gut. Trotzdem kann ein Farbchip gemäß dem Nyquist -Theorem nicht mehr Details ausflösen als derselbe Chip ohne Bayermatrix. Alles andere ist "Telezoom"-Magie, die nicht wirklich funktioniert.
    DS, Holger

  • Hallo Holger,


    Das hab ich schon begriffen. Es ist vielleicht auch schwierig zu erklären, was ich meine. Mmh.
    Naja ich versuche es nochmal an einem Beispiel.


    Ich habe 2 ccd Chips mit einem Raster 10 mal 10. Die Kästchen sind alle gleich gross. Der erste ist ein monochromer chip mit 100 Kästchen , welche 100 Pixel repräsentieren. Das zweite Raster ist der farbchip. Auch hier hab ich ein Raster von 100 und über diesen 100 Kästchen liegen 25 rotfilter , 25 blau filter und 50 grün filter. Fast man 4 dieser Kästchen zusammen, erhält man eine Farbe. Das Raster hat wie gesagt 100 dieser Kästchen. Spricht man nun hier von 100 Pixeln oder von 25 Pixeln, da ja 4 immer zusammengefasst werden für eine farbdarstellung?
    Im umkehrschluss würde das bedeuten, daß ein vergleichbar gleichgroßer monochromer chip ,mehr Pixel enthält (hier 100) wie ein entsprechender farbchip der genauso gerastert ist. Wenn die Definition eines Pixel die wäre, das es das kleinste Bauelement zur Darstellung einer Farbe ist, dann kommt das hin. In einem monochromen chip brauche ich einen Baustein, weil schwarz weiß und in einem farbchip 4 , weil aus den 4 filtern , welche über den Dioden sitzen, eine Farbe erzeugt wird.
    Im Netz gibt es da unterschiedliche Ausführungen.
    Um zum Beispiel zurückzukommen. Wenn ich mir nun diese mit 100 gerastert kamera in sw oder in Farbe kaufen würde, was steht dann in der Beschreibung.
    Die erste Möglichkeit wäre beide haben 100 Pixel
    Die zweite wäre monochrom 100 und farbig 25.
    Als Laie würde ich im ersten Fall sagen es ist egal, beide lösen gleich gut auf, im zweiten Fall würde ich sagen, ok ich will die hochauflösenden Bilder und deshalb entscheide ich mich für die monochrome Variante.


    https://www.uni-muenster.de/ZIV/Lehre/MM_HWK/V001S03.htm
    Ich hoffe es ist zu verstehen


    Viele grüsse

  • Die Farbvariante löst 'ein Viertel so gut' auf: 50x50 statt 100x100 - bestenfalls 65x65. Das ist einfach eine mathematische Konsequenz daraus, dass man aus 4(Pixeln) x 8/16Bit (SW-Tiefe) = 32/64 Bit eingehender Information nicht mehr as 32/64Bit unabhängiger Information machen kann, also 10,7/21,3 (=32/64 geteilt durch 3) Bit pro Farbkanal und ausgehendem Pixel, da kann man bestenfalls 4/3 Pixel mit 8/16Bit pro Farbkanal draus machen. Oder man macht Telezoom-Magie und steckt irgendwelche Annahmen über das Bild in die Berechnung, das ist dann ca. so als ob Du ein 100x100 PNG erst auf 50x50 verkleinerst und dann wieder auf 100x100 vergrößerst. Sieht fast gleich aus, ist es aber nicht.

  • Hi Alex
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Fast man 4 dieser Kästchen zusammen, erhält man eine Farbe<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Nein, es werden nicht 4 Pixel zu einem zusammengefasst, sondern <b>jedes</b> der Pixel berechnet die Farbinformation aus den Nachbarpixeln.


    Gruss Jürg

  • Ja, Jürg, jedes Farbpixel geht in mehrere Ausgabepixel ein ... und wenn ich noch so viele Linear- oder sogar Nichtlinearkombinationen bilde, erhöht das immer noch nicht den Informationsgehalt. Und wenn ich die vorhandene Information auch noch auf 3 Farbkanäle aufteile, dann hat jeder Kanal eben noch ein Drittel der Information, das reicht dann für 1 Drittel der Auflösung (s. mein Beispiel mit dem PNG).

  • Hallo Jürg,


    Mir brummt der Kopf. Es geht um die Definition des Pixel. Was genau ist dieser. Der rote filter oder der blaue oder der grüne? Du schreibst, " jedes der Pixel berechnet die farbinformation aus dem Nachbarpixel "


    Wie soll man das verstehen?
    Nicht böse sein aber das ist hier ein ganz neuer Aspekt.
    Ist es so gemeint, dass sich zum Beispiel der "blaue "Pixel Informationen vom roten bezieht. Stellt dann dieser "blaue " Pixel einen farbPunkt dar? Also würde mein 100 mal 100 farbchip genau wie der monochrome 100 mal 100 Pixel haben? Ist dann die Auflösung g nicht gleich oder meinen wir das gleiche und drücken uns nur unterschiedlich aus. Ich bin der Meinung , daß zur Darstellung eines Punktes mit entsprechender Farbe 4 Pixel oder RasterQuadrate (je nachdem was man unter einem Pixel versteht) gebraucht werden. Das verstehe ich unter zusammenfassen.
    Starrookie: jetzt sprechen wir von farb und ausgabepixel . Was ist denn nun die Angabe der megapixel , der farb oder der ausgabepixel? Das war doch meine frage.


    http://lexikon.martinvogel.de/pixel.html


    Ein interessanter Artikel, der meine frage gut beantwortet, speziell die aussage zur Bewerbung der Kameras mit der megapixelAnzahl.
    Gruß alex

  • Hallo Jürg, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Nein, es werden nicht 4 Pixel zu einem zusammengefasst, sondern jedes der Pixel berechnet die Farbinformation aus den Nachbarpixeln.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Nicht die Pixel berechnen das, dieses wird durch die Firme- oder Software gemacht, welche das Debayern erledigt. [:)]


    Die SW weiß ja nicht- ist nebenan im grünen Pixel auch rot enthalten oder ist dort rein grünes Licht eingetroffen. Nimmt man eine größere rote Fläche auf würden ja die grünen und blauen Pixel erst mal fehlen. Durch das Debayern werden diese aber durch rot ersetzt. Die SW erkennt ja eine Reihe roter Pixel neben- und untereinander und fügt eben dann für die (nicht durch rot belichteten) blauen und grünen Pixel an der Stelle rot ein.


    Dabei treten aber Fehler auf. Mach ein Foto von einem von mir aus rein roten Gegenstand und lege einen andersfarbigen oder dunkelgrauen Gegenstand in diese einfarbige Fläche.


    Wenn man sich das Bild hochvergrößert ansieht erkennt man den Fehler. Es gibt keinen exakte scharf abgegrenzten Übergang. Durch das Debayern interpretiert die SW und fügt blassrote Pixel im Bereich ein, der eigentlich nicht mehr rot ist, sondern die Farbe des davorliegenden Gegenstand hat und ungekehrt.



    Hier z.B. gut ergkennbar- das normale Bild und dazu zweimal ein vergrößerter Ausschnitt- der eigentlich scharfe Übergang des grauen Ebony zum roten Tubus wird bei höchster Vergrößerung zu einem ins Rosa übergehenden Bereich.


    Würde man dieses Bild durch eine SW Kamera und getrennten Filtern aufnehmen, sollte dieser durch das Interpolieren auftretende "verwischte" Übergang nicht sichtbar sein. Daher kann man auch ruhig sagen- eine Farbkamera hat durch die Bayermatrix eine geringere Auflösung gegenüber eine SW-Kamera und der RGB-Technik.


    Gruß
    Stefan

  • Hallo,


    klar die Farbberechnung geschieht durchs Debayern[:D]


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ja, Jürg, jedes Farbpixel geht in mehrere Ausgabepixel ein ... und wenn ich noch so viele Linear- oder sogar Nichtlinearkombinationen bilde, erhöht das immer noch nicht den Informationsgehalt. Und wenn ich die vorhandene Information auch noch auf 3 Farbkanäle aufteile, dann hat jeder Kanal eben noch ein Drittel der Information, das reicht dann für 1 Drittel der Auflösung (s. mein Beispiel mit dem PNG).<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ja, die Antwort war an Alex zum Verständnis gerichtet, (100px sind nach dem "gängigen" Debayern immer noch 100px).


    Ja, die Auflösung verringert sich dementsprechend, aber nur die Farbinformationen! Die Helligkeitsverteilung ist annähernd der einer Monochromkamera. Zur Verdeutlichung, mache eine Aufnahme mit schwarzen und weissen Linien. Alle Pixel egal mit welchem Filter sprechen an auf die Weissen Linien und keines auf die Schwarzen.


    Gruss Jürg

  • Hallo Stefan!


    Ich denke, das ist wirklich gut von Dir erklärt! Insofern ist ein Pixel dann tatsächlich eine gefilterte Diode! Das was an Farbe der fehlenden Matrix fehlt wird "virtuell" dazugerechnet! Unterschied zu Monochrom, da gibt es keine Lücken, die es aufzufüllen gilt!


    Ich glaube, dass Du da Alex ein Stück weit geholfen hast! Mir persönlich hat es für das Verständnis geholfen!


    Gruß


    Andreas

  • Hallo andreas,


    Naja ich denke ich bin da ein wenig ...Entschuldigung. ..zu blöd dazu.
    Es wird hier gesagt der Nachbarpixel weiß nicht , ob rot auf in fällt,da vor ihm ja zum beispiel der grünfilter liegt. Alles klar soweit. Dann schreibt Stefan , das die durch die Software dazugerechnet werden um aufzufüllen.
    Das bedeutet aber für mich, daß der r filter rot durchlässt , der grüne grün und der blaue blau. Ich war der meinung es wird geschaut, wie die Zusammensetzung der einzelnen subpixel , 4 an der zahl, ist und aus diesen Farben, wird die Farbe für einen Bildpunkt berechnet. Also fällt zum beispiel auf alle der 4 Pixel nur Licht mit der roten und grünen spektralklasse , so lässt der rote und der grüne subpixel dieses Licht durch. Blau bekommt nichts. Die Summe aus diesen ergibt gelb und das wird als bildpunkt dargestellt. So entstehen aus 12 Millionen Pixeln 3 Millionen bildpunkte. Jetzt könnte man ja schauen , wie die weniger gewordenen Bildpunkte nebeneinander aussehen . Liegen rot und rosa nebeneinander würde ich sie mit einem hellen rot auffüllen.
    Naja aber bei Stefan gibt es kein gelb da gibt es nur rot grün und blau ,jedenfalls lese ich das so heraus.


    Viele grüsse

  • Hallo Alex,


    Nein, es gibt keine Subpixel.
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das bedeutet aber für mich, daß der r filter rot durchlässt , der grüne grün und der blaue blau<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Korrekt!


    Aus den drei Grundfarben lassen sich alle Farben mischen.
    Rot + Grün = Gelb
    https://de.wikipedia.org/wiki/Additive_Grundfarbe


    Gruss Jürg

  • Hallo Jürg,


    Jetzt definiere doch in Gottes nahmen mal den Begriff Pixel.
    Einfach immer Brocken reinzuwerfen hilft nicht weiter.
    Bitte beantworte mal meine fragen. Ließ dir bitte mal die links durch. Da steht was von verarsche. Ich kann mit deinen ultrakurzen einwürfen nichts anfangen.
    Also konkret.
    1 . Ist ein Pixel ein bauteil , wo ein einzelner farbfilter davor Sitz?
    2 . Werden zur Darstellung eines bildpunktes 4 dieser "pixel" benötigt rot, blau, grün, grün?
    3. Entsteht aus der Zusammensetzung dieser 4 "pixel"ein bildpunkt?
    4. Veringert sich dadurch um den Faktor 4 die bildpunkt zahl?
    5. Ist die Angabe megapixel der hersteller die korekte Darstellung
    Der Aufnahme?
    6. Wenn nicht , werden diese Lücken aufgefüllt?
    7. Die verlinkten Beiträge beschreiben ja dieses Problem. Schreiben die die Unwahrheit?


    Das sind ieben konkrete Fragen. Wenn du Lust hast, kannst du sie Kongret beantworten.


    Gruß

  • Hallo Alex,


    "So entstehen aus 12 Millionen Pixeln 3 Millionen bildpunkte. "


    Mein Gott, ist das so schwer zu verstehen?


    Die 12 Mio Pixel Kamera hat 6 Mio sw Pixel mit Grünfilter, 3 Mio mit Rotfilter und 3 Mio mit Blaufilter.
    Die Software macht daraus ein Bild mit 12 Mio farbigen Pixeln (Stichwort Debayern).


    Dass dabei die Auflösung verglichen mit einer sw-Kamera leiden muss, ist ja klar.


    Eins noch: du scheinst alle Links und Hinweise zur additiven Farbmischung total zu ignorieren.
    Anders kann ich mir deine (mehrmals gestellte) Frage zur Farbe gelb nicht erklären.
    Nimm mal eine Lupe und schau dir den Bildschirm deines Farbfernsehers genauer an, vielleicht geht dir dann ein Licht auf.


    Gruss
    Günter


    Gruss
    Günter

  • Hi Alex, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Jetzt definiere doch in Gottes nahmen mal den Begriff Pixel. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Ist doch nicht so schwer- 1 Pixel ist exakt eine lichtempfindliche Stelle auf dem Chip.


    Bei einem Farbchip sitzt über jedem einzelnen Pixel ein Micro-Farbfilter- eben in der schon gezeigten Anordnung- 1 Pixel Grün, das daneben Blau, das darunter in der nächsten Zeile auch Rot und das vierte zugehörige zu dem Quartet ist das zweite grüne.



    Es gab schon Leute die ihre DSRL "vergewaltigt" haben und die Bayermatrix mechanisch durch kratzen, abschaben oder wie auch immer entfernt haben. Dadurch erhielten sie eine DSRL ins SW.


    Und wenn man die Angabe mit von mir aus z.B. 400x400 Pixel bei einem Farbchip nimmt dann hat dieser Chip tatsächlich 1600 einzelne Pixel.


    Von diesen sind dann 400 Pixel mit rotem Filter, 400 mit blauem Filter und 800 Pixel mit grünem Filter.


    Das Farbbild entsteht durch das Debayern- hat ein rotes Pixel z.B. 50% Sättigung und die grünen daneben haben 80% und Blau hat nix dann wird als Ergebnis eben der rote Bildpunkt auch mit 50% und die beiden grünen mit 80% im Bild erscheinen- für den "leeren" Bildpunkt unter dem blauen Filter würde die Software dann einen Mischwert aus dem roten und den beiden grünen Pixeln errechnen.


    Dein Auge erkennt dann bei dem Foto den Anteil 50% Sättigung Rot und zwei Bildpunkte Grün mit Sättigung je 80% und den ergänzten Bildpunkt mit einem errechneten Mischwert- dein Auge macht dann entsprechend der Erklärung Farbmischung aus dem Link von Jürg den Farbton daraus.


    Vergrößerst du aber bis die Einzelpixel sichtbar werden siehst du eben den aus der aufgenommen Intensität errechneten Farbton.


    Und das gilt dann auch für die weiteren daneben oder direkt darunter liegenden Pixel- da steckt ja auch eine Information drin und die wird dann wieder mit den benachbarten Pixeln verrechnet.


    Aus den 4 Bildpunkten ensteht nicht ein einzelner, jedes Pixel ist hinterher auch in deinem Bild am Rechner sichtbar, aber der ursprüngliche Inhalt jedes Pixels ist eben mit den Verrechnungen durch die Nachbarpixel unter Umständen etwas verändert.


    Die Hersteller geben natürlich die komplette Anzahl Pixel an- für mein Beispiel eben 1600. Machst du mit dem Chip ein Bild einer rein roten Fläche bringen aber nur 400 Pixel tatsächlich Bildinformation.


    Erst durch das Debayern und das damit verbundene Hinzurechnen werden dann auch die fehlenden 1200 Bildpunkte nachträglich mit der Information "Rot" aufgefüllt.


    Dein verlinktes Beispiel ist unglücklich. Die nahmen 3 Filter und 3 Sensoren und benannten das als 1 Pixel- das ist bei dem Farbchip mit Bayermatrix definitiv nicht so.



    Hi Jürg, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die Helligkeitsverteilung ist annähernd der einer Monochromkamera. Zur Verdeutlichung, mache eine Aufnahme mit schwarzen und weissen Linien. Alle Pixel egal mit welchem Filter sprechen an auf die Weissen Linien und keines auf die Schwarzen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Hm, auch nicht ganz. Auch in dem Fall werkelt die Debayer-SW ein wenig am Bild herum und setzt an dem Übergang Graustufen ein. Du hast also auch da keinen harten Strich, ich hab mir vorhin extra mal verschiedene Fotos angeschaut und man sieht das sehr deutlich.


    Gruß
    Stefan

  • Hallo Günter,
    Danke für die blumen. Muss nochmal nachsehen, wo ich mehrmals die frage gestellt habe. Farbmischung ok. Wieso ignorieren. Mir ist klar wie Farben gemischt werden. Ich hatte das mal im meisterlehrgang. Vielleicht bringe ich da auch was durcheinander aber zur Darstellung einer Farbe werden doch immer rot grün blau gebraucht. Wenn diese drei Farben gebraucht werden, könnte man ja sagen, dass zur Darstellung 4 Pixel gebraucht werden also , kann man die zusammenfassend als ein Pixel zur Darstellung einer Farbe betrachten. Also 4 Pixel , welche unterschiedlich leuchten , erzeugen eine Farbe.
    Ja du schreibst 12 Millionen Pixel sind 6 Mill grün , 3 Mill. Blau und 3 Mill. Rot. Sehr schön. Nur unterscheiden sich da die Ansichten und wenn du meine Beiträge mal genau gelesen hättest, würdest du auch meine fragen verstehen. Das Ware reale Bild ist halt ein 3 Mill. Pixel Bild und der Rest ist gerechnet. Meine Meinung. Nur sagt einem das keiner beim Kauf. In einigen links ist man der Meinung , dass man durchaus 4 Pixel als einen betrachten kann. Nur wie macht es die Industrie. Hättest du meine Antworten gelesen, hättest du das verstanden.


    Ich hätte es ins Anfänger forum reinstellen sollen. Nichts für ungut.
    Aber der eine antwortet grusslos. Ich hab mal gelernt , das der Respekt es verlangt eine anrede zu formulieren, der andere benutzt einen Satz, der dritte kommt mit hochkomplexen Rechnungen und bringt noch die Bit tiefe ins spiel. Zusammenfassend kann man sagen , dass bei mir der Eindruck entsteht hier vorgeführt zu werden.


    Mag sein, dass ich manchmal nerve aber wen es nervt wie anscheinend dich , der muss auch nicht antworten.
    Positive Ausnahme , meist Stefan. Der versucht es Schritt für schritt sachlich zu erklären. Danke.


    http://lexikon.martinvogel.de/pixel.html


    Ließ dir das mal durch Stefan, das war meine frage. Ist doch nicht verkehrt geschrieben. 4 Pixel erzeugen im Auge durch unterschiedliches leuchten eine farbe. Sollte eine nicht angeregt sein wird sie berechnet. Was ist denn so falsch daran. Mir ging es doch nur darum , wieviel Bildinformation denn bei einer vergleichbaren farb ccd echt sind im Verhältnis zur mono . Das mit dem auffüllen hab ich nicht gewusst.


    Habe fertig mit diesem Thema.


    Nochmal was zum lesen.
    Gruss
    Ps . Das mit dem 3 Mill. Bild nehme ich zurück. Danke nochmal Stefan, für deine ausführliche Antwort. Die hilft weiter.

  • Hallo Alex,


    Also ein Kamerachip hat z.B 1000x1000 Pixel.
    Jeder Pixel ist in dem Zusammenhang ein Sensor (Bauteil) welcher elektrische Ladung Speichern kann. Wenn nun Licht egal in welchem Farbspektrum auf den Sensor trifft entsteht eine elektrische Ladung. Je mehr Licht gesammelt wird desto größer die Ladung.


    Ein Kamerapixel kann also keine Farbe speichern nur die eingetroffene Energie. Ob SW oder Color Kamera ist erstmal Wurst.
    Eine ASI 120mm oder ASI 120mc hat die gleiche Anzahl Pixel.
    Bei der Farbkamera sitzt aber tatsächlich auf jedem Pixel ein einzelner Farbfilter. Jedes Pixel hat seinen eigenen Filter rot, blau oder grün in der Anordnung der "Bayern-Matrix" wie im gepostetn Bild.


    Jedes Pixel (Ausser die am Rand) grenzt an 8 Nachbarpixel. Die Farbe wird deshalb aus der Mischung der 9 Pixel berechnet (nicht zusammengefasst sondern jedes Pixel hat ja wieder Nachbarn).
    Die Bildpunktzahl verringert sich deshalb nicht.


    Die Megapixelzahl der Hersteller stimmt.
    Aufgefüllt wird nichts aber es entsteht natürlich eine Mischung siehe Bild von Stefan Grenzkante rot/grau = rosa


    Gruss Jürg

  • Danke Jürg,


    Ich will nicht weiter drauf rum reiten, verweise trotzdem mal auf den link in meinem vorherigen Beitrag. Da erkennt man mein Dilemma. Da steht was von Pixeln , die aus 3 subpixeln zusammengesetzt sind, welche die drei Farben heraus filtern und es steht auch was von veringerung der bildpunkt zahl.


    Viele grüsse

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!