CCD Kamera, Warum Color und SW Varianten?

  • Hallo zusammen


    Da ich mir zur Zeit einige CCD Kameras anschaue stellt sich mir immer wieder die Frage warum Kameras in Farbvariante und in SW Variante angeboten werden.


    Ich weiss das man mit einer SW Kamera mit Filtern LRGB Aufnahmen in Farbe erstellen kann dies jedoch die recht teuren Filter und einen Filterwechsler zu vereinfachung mit sich bringt. Und zudem man noch die 4 fache Belichtungszeit brauch.


    Aber wozu das ganze?
    Da kann man doch gleich die Farb CCD Kamera für den selben Preis kaufen und sich die Filter Problematik sparen.


    Da muss es doch irgendwelche Vorteile geben. Währe dankbar wenn mir hier jemand das ganze erklären könnte.

  • Hallo Oli!
    Zum einen hast Du bei SW Kameras durch den Wegfall der Bayermatrix das vierfache Auflösungsvermögen, zum anderen kannst Du durch die Wahl geeigneter Filter noch viel mehr machen als RGB Aufnahmen, z.B. diskrete Wellenlängen herausfiltern oder spezielle Photometrie betreiben.
    Gruß´und CS Christoph

  • Hallo,


    das Problem ist, dass es eigentlich keine Farb CCDs gibt. Ein CCD ist immer ein recht breitbandiger Sensor. Um ihn für bestimmte Farben einzugrenzen müssen ihm Farbfilter vorangestellt werden. Hier gibt es nun zwei Techniken.


    1. Man nimmt einen breitbandigen CCD Sensor (ein sogenannter Schwarzweiß Sensor) und bringt im optischen Weg ein Farbfilter ein. Dies erfordert nun 3 Aufnahmen mit verschiedenen Farbfiltern für die Kanäle RGB. Vorteil dieser Variante ist, dass in jedem Farbkanal des Bildes die volle Pixelauflösung des CCD Aufnehmers zur Verfügung steht. Nachteil ist, dass etwa 3 mal solange belichtet werden muss, einmal für jede Farbe.


    2. Man bringt die Farbfilter direkt über die Pixel des Sensors an. Dieses Verfahren hat den Vorteil, das man mit einmal Belichten alle drei Farben erhält. Der Nachteil gegenüber der ersten Variante ist aber, dass sich die effektive Auflösung des Sensors reduziert. Da nun mehrere Pixel für ein Farbiges Pixel zusammengefasst werden müssen.


    Ein weiterer Nachteil der Variante 2 ist, dass man auf die Farben rot, grün und blau beschränkt ist, welche für die allgemeine Fotografie zwar ideal sind. Astronomisch interessant sind hingegen aber zum Beispiel auch der Infrarot Bereich. Auch gibt es für amateurastronomische Zwecke Farbfilter, welche gezielt die Spektrallinien der Quecksilberdampf bzw. Natriumdampf Straßenlaternen ausblenden. Dies ist bei einem gewöhnlichen RGB CCD nicht gegeben.


    Viele Grüße,
    Roland

  • Hi Oli, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Und zudem man noch die 4 fache Belichtungszeit brauch<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Ja, weil du ja jede Farbe und auch Luminanz einzeln belichtest. Aber bei einer Farb-CCD musst du für die gleiche Information auch länger belichten da ja 4 Pixel zusammengefasst sind und die Farbfilter der Bayermatrix somit das eintreffende Licht aufteilt.


    Schau dir mal diese Seite an- da findest du eigentlich alles erklärt- zur Belichtungszeit "round 6"


    http://helixgate.net/Xm-XCM-1A.html


    Gruß
    Stefan

  • Ok das ist jetzt halbwegs einleuchtet für mich.
    Also hat zum Bespiel eine CCD Kamera wie diese RGB und SW Variante.


    http://www.teleskop-express.de…ehlt--Sony-ICX618ALA.html


    http://www.teleskop-express.de…ehlt--Sony-ICX618ALA.html


    Beide Effective pixel: 640*480 , aber wenn es die selbe Pixelanzahl ist wie kann die Auflösung dann höher sein. Das verwirrt mich im moment.


    Ich bin echt hin und her gerissen ob ich mit der CCD Technik als Einsteiger noch einige Jahre warten sollte und mir lieber eine Canon EOS1100 hole und diese bei Teleskop Express modifizieren lasse. Zudem ich dann auch nicht immer einen Rechner mit ins Feld nehmen muss. Als Frage nebenbei währe das besser für mich geeeignet undabhängig vom Threadthema?

  • Hallo Oli,<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Zyrusthc</i>
    <br />Beide Effective pixel: 640*480 , aber wenn es die selbe Pixelanzahl ist wie kann die Auflösung dann höher sein. Das verwirrt mich im moment.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Die Auflösung des Bildes wird in beiden Fällen 640*480 sein. Aber das Farbbild wird etwas unschärfer sein als das Monochrombild, weil dort ja durch das Debayern jeweils 4 Pixel zu einem Bildpixel zusammenfasst werden und jedes Pixel in 4 resultiremde Bildpixel eingerechnet wird.
    Aus diesem Grund zeigt die Monochromkamera etwa 1/3 mehr Bilddetails.


    Gruss Heinz

  • Ok das habe ich jetzt verstanden.


    Und kann mir jemand noch was zu meiner anderen Frage sagen was für mich als Anfänger besser währe. Den mit einer CCD inklusive Filterrad und Filtern liege ich bei 700€ und hätte die Nachteile immer einen Rechner mitzuhaben und die 4fache Belichtungszeit. Eine neues Canon EOS 1100Da kostet mich hingegen nur 600€ und macht mich flexibler. Mir fällt die Entscheinung sehr schwerr. Zudem hab ich mit der DSLR auch eine wesentlich höhere Auflösung.

  • Hallo Heinz,


    die Auflösung kann nicht gleich sein- bei der Farbversion werden ja durch die Bayermatrix 2x2 Pixel zu einem "Farbpixel" zusammengefasst.


    Demzufolge müssten effektiv für die Auflösung rechenbar nur noch 320x240 Pixel gelten. Damit ist die Angabe auf der Händlerseite eigentlich nicht mehr richtig da die 640x480 sich zwar auf die Anzahl der Pixel bezieht, die Bayermatrix das dann aber reduziert.


    (==&gt;) Oli,


    was willst du eigentlich für Objekte mit der Kamera aufnehmen? Die verlinkten Versionen sind eher für Planeten geeignet, da ist die Kühlung dann eigentlich nicht nötig. Für Langzeitaufnahmen bei Deepsky schon eher, aber da hast du mit dem doch recht kleinen Chip dann nur einen winzigen Ausschnitt am Himmel- reicht noch für kleine planetarische Nebel, für größere Objekte darfst du dann puzzeln.


    Zur DSRL- für Planeten nutzt dir die höhere Auflösung garnichts- da reicht der kleine Chip voll aus. Die Auflösung wird durch die Teleskopöffnung begrenzt. Dazu kommt noch- man macht für Planeten keine einzelnen Bilder sondern Videos mit ein paar hundert Einzelbildern drin- diese werden dann per SW verwurschelt. Das bekommst du mit einer DSRL nie so hin.


    Für Deepsky und Langzeitbelichtung bekommst du mit der DSRL wiederum einen großen Bildausschnitt drauf- dafür zeigt dir dann der Chip sein Eigenrauschen. Wobei laut Erfahrungsberichten auch der 618-er Chip starkes rauschen bei längeren Blichtungen zeigt- ob die Kühlung bei dieser Kamera das komplett beherrscht kann ich nicht sagen. Aber alle anderen Hersteller nutzen den 618er Chip ausschließlich für Planetenaufnahmen wegen der hohen Empfindlichkeit. Und die ist eben ungekühlt bereits im Sekundenbereich für Langzeit mit starkem Rauschen sichtbar.


    Gruß
    Stefan

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    <br />die Auflösung kann nicht gleich sein- bei der Farbversion werden ja durch die Bayermatrix 2x2 Pixel zu einem "Farbpixel" zusammengefasst.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Hallo Stefan,


    das ist nicht ganz richtig, da jedes Pixel des Aufnahmesensors normalerweise 4 mal verwendet wird, wie ich auch schon oben geschrieben habe. Darum hat das resultierende Bild die gleiche Pixelanzahl wie der Chip.


    Siehe http://i23.photobucket.com/albums/b368/industry7/Bayer.png


    Genau genommen hat das resultierende Bild eine Spalte und Reihe weniger Pixel als auf dem Chip genutzt werden. Aber die haben sowieso immer etwas mehr Pixel als nominal angegeben wird.
    Der Sony ICX098 hat z.B. effektiv 659×494 Pixel.


    Gruss Heinz

  • (==&gt;)stefan-h
    Also ich möchte Hauptsächlich damit DeepSkyFotografie betreiben. Für Planeten habe ich eine Webcam Philips spc900. Also es geht mir nur um die DeepSky Objekte. Nebel,Galaxien,Kugelsternhaufen.


    Bisher fotografiere ich mit meiner Pentax k5 , welche schon bei zb. ISO1600 10x150Sek addiert so gut wie rauschfrei ausfallen. Das Problem meiner Überlegung einer Neuanschaffung beruht auf der fehlenden Rotempfindlich das ich HA Regionen nur sehr sehr schwach abbilden kann.


    Also was die Pixelproblematik der CCD SW/RGB angeht bin ich jetzt wieder verwirrt, aufgrund der Unterschiedlichen Aussagen hier.

  • Hallo Oli,


    das Argument, eine SW-CCD löse besser auf, als eine Farb-CCD hat oft nur theoretischen Belang. Durch die geeignete Auswahl eines Chips passend zur Aufnahmebrennweite kann der Unterschied meistens vernachlässigt werden. Der Grund dafür ist das Seeing (Luftunruhe).


    Beispiel:


    Ich selber habe ein Teleskop mit 1.620mm Brennweite und einen Chip mit 7,4µm kleinen Pixeln.


    Das ergibt einen Abbildungsmassstab von ca. 0,94"/pixel.
    Da meine Kamera eine Bayermatrix hat, also eine Farbkamera ist, werden pro Zeile und Spalte 2 Pixel zusammengefasst.


    Daher vegrößert sich der Abbildungsmasstab auf ca. 1,88"/Pixel.


    Mein Seeing am Beobachtungsort ist meistens 3-4". Das heißt, der Auflösungsgewinn wird vom Seeing verwaschen, SW- und Farb-CCD haben im Bildergebnis diesselbe Auflösung.


    Man muss sich also darüber im Klaren sein, wie gut


    1.) das Seeing am Beobachtungsort im Mittel ist
    2.) Welche Brennweite man hauptsächlich verwenden möchte
    3.) Wie groß die passende Pixelgröße sein sollte.


    Dann gibt´s meistens eben nur einen rein theoretischen Vorteil von SW-CCDs ggü. einer Farbkamera was die Auflösung angeht.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!