Unterschied Mono-DSLR und Mono-CCD

  • Hallo Leute,


    Was spricht gegen eine Mono DSLR im Vergleich zu einer Mono-CCD? Was sagen da die "Profis" dazu?
    Es gibt ja jetzt schon die ersten so fertig zu kaufen (centralds.net)
    Die Mono gibts halt (noch?) nicht gekühlt. In Farbversion gibt es sie gekühlt.


    Also Luminanz mit der Mono, die Farben dann von der normalen DLSR.


    Momentan wird mir die zwar noch nicht so viel bringen, da meine BB-Kenntnisse noch ziemlich bescheiden sind, aber in Zukunft könnte ich mir schon so ein Teil vorstellen.


    Die bekanntermassen einfache Handhabung gefällt mir an der DSLR.
    Ist das eine Option für die Zukunft oder eher nicht?



    mfg.
    Thomas

  • Hi Thomas,


    ich glaube, eher nicht...


    Wenn wir mal annehmen, dass die erzielbaren Ergebnisse identisch wären - wo liegt der Vorteil der DSLR? Normalerweise in der Unabhängigkeit in Punkto Stromversorgung. Das ist aber spätestens mit der Peltier-Kühlung auch nicht mehr gegeben.


    Aber sind die erzielbaren Ergebnisse identisch? Bei weitem nicht...


    Das Problem ist, dass bisher kein Hersteller (außer irgendeinem 40.000,- EUR Teil) eine DSLR anbietet, die von Hause aus schon monochrom ist. Nachträglich "monochromisierte" bzw. debayerte Kameras haben aber einen gewaltigen Nachteil: Mit der Bayermatrix wird gleichzeitig (bzw. noch vorher) die Schicht mit den Mikrolinsen abgeschabt. Und je mehr ich von monochromen DSLRs höre und darüber nachdenke, desto mehr wird das ganze Thema allein durch diesen Aspekt völlig sinnfrei.



    Wie stark die Effektivität eines Chips durch die Mikrolinsen gesteigert wird, hängt von der Pixelgröße ab. Die Leiterbahnen, welche die lichtempfindliche Fläche verdecken sind immer gleich breit (nämlich so schmal, wie es eben noch machbar ist) und je kleiner die Pixel werden, desto weniger lichtempfindliche Fläche bleibt übrig.
    Wenn also von großen Pixeln nur 20% durch die Leiterbahnen verdeckt werden, sind es bei kleinen Pixeln entsprechend mehr - in dem Bild oben 60%
    Raspelt man die Mikrolinsen ab, die diesen Verlust an Fläche kompensieren, nimmt man dem Chip also 60% seiner Effektivität. Ganz ehrlich? Da lasse ich lieber die Mikrolinsen und die Bayermatrix auf dem Chip [8D]



    Und selbst wenn das alles kein Problem wäre: Eine gekühlte Mono-DSLR hat m.E. keine Vorteile gegenüber einer "richtigen" CCD-Kamera. Wenn man sich da selbst etwas bastelt, kann man mit dem Kompromiss leben und hat erstmal ein wenig Geld gespart, während man weiter auf eine CCD spart. Aber das war ja nicht deine Frage. Du möchtest das ganze ja fertig kaufen und das wird nicht billiger als eine CCD. Schau dir doch die Preise für die kommerziell umgebauten DSLRs mit Kühlung an...


    Und zu guter Letzt bleibt ein CMOS-Chip halt immer ein CMOS-Chip. Während der für viele Anwendungen der CCD langsam den Rang abläuft, hat der CCD-Chip gerade für die Astronomie weiterhin einen großen Vorteil:


    In der Astro-Fotografie gibt es neben dem eigentlichen Objekt nämlich immer noch sehr viel Hintergrund - also Bereiche, die eigentlich schwarz sein sollten. Durch den Umstand, dass ein CMOS-Chip nicht wie ein CCD-Chip zeilen- und spalten-weise durch einen Verstärker ausgelesen wird, sondern für jedes Pixel seinen eigenen Verstärker hat, gibt es immer kleine Abweichungen im ausgelesenen Wert. Das hat dann den Effekt, das gerade der Hintergrund, der eigentlich schwarz sein sollte, in allen Farben herumschmiert. Zwar läßt sich das durch dithern und die richtige Stacking-Methode kompensieren - einen wirklich flachen Hintergrund gibt es aber trotzdem nur mit einem CCD-Chip.



    Und ein letzter Punkt: Wenn man darüber nachdenkt, ob das Preis-/Leistungsverhältnis einer gekühlten S/W-DSLR mit einer gekühlten Astro-CCD vergleichbar ist, wird man bei APS-C-Chips keine Chance haben. Astro-CCDs mit KAF-8300-Chips bekommt man unter 2000,- EUR und dafür wird man keine gekühlte DSLR bekommen, bei der noch jemand die Bayermatrix abgeraspelt hat - außer, man macht es selbst...
    Vermutlich kommt jetzt aber schnell jemand um die Ecke und sagt, dass die Rechnung mit Vollformat-Chips besser aussieht. Weil eine abgeraspelte und gekühlte 6D könnte evtl. schon mit einer Vollformat-CCD konkurrieren, die es nicht unter 5500,- EUR gibt.
    Dazu braucht es aber auch eine Optik, die das Vollformat komplett ausleuchtet und sinnvoll mit den kleinen Pixeln einer DSLR zu verwenden ist. Das sind aber in erster Linie Teleobjektive - z.B. die L-Serie von Canon.


    Und jetzt denk mal darüber nach, wie Du zwischen das Objektiv und die umgebaute Kamera das Filterrad setzen willst[:D][:D][:D]


    Gruß
    Klaus

  • Auch so ein Blödsinn;-)


    Wenn man eine CCD mit Display haben will, kauft man sich für kleines Geld ein 8" Windows-Tablet und betreibt die CCD halt damit. Guiding inklusive...


    Gruß
    Klaus

  • Hallo,


    Eine monochrome DSLR macht nur Sinn, wenn sie schon ab Werk so ausgelegt ist. Also, ohne Bayermatrix und mit Mikrolinsen. Die Aperturen liegen offenbar gerade bei kleinen Pixeln nur noch bei 20-25% der Pixelfläche. Ohne Mikrolinsen geht die Empfindlichkeit drastisch in den Keller.


    Was die Frage CMOS vs. CCD angeht, ist das Rennen praktisch schon entschieden. Die besten CMOS-Sensoren brauchen sich vor CCD nicht mehr zu verstecken. Und sie werden weiter verbessert.
    Allerdings macht im Vergleich eine Spezialkamera sicher immer eine bessere Figur als eine DSLR, die niemals speziell für Astroanwendungen ausgelegt sein wird.


    Die besten CMOS-Sensoren haben ein so niedriges Ausleserauschen, dass lange Belichtungszeiten völlig überflüssig werden. Statt dessen wird hinterher das Digitalsignal aufakkumuliert. Damit ist auch der pixelabhängige Dunkelstrom kaum noch ein Problem, und der mögliche Dynamikumfang der Aufnahmen erhöht sich enorm. Außerdem werden Offset und Gain in modernen Kameras zum Teil über im Werk ermittelte Korrekturdaten pixelweise korrigiert.


    Unsere Profikollegen verwenden für die Astronomie mittlerweile eine Chiptechnologie, die kaum für andere Anwendungen brauchbar ist und Amateuren nicht zur Verfügung steht: Deep Depletion CCDs mit Rückseitenbelichtung. Die werden jeweils speziell für ein bestimmtes Projekt produziert, mit enormem Aufwand. Die Hersteller verdienen trotzdem nicht viel daran. Ein Beispiel ist die Primärfokuskamera des Subaru-Teleskops auf Hawaii.


    Also, Fazit für uns: Auch eine Monochrom-DSLR wird für Amateurastronomen immer ein Kompromiss sein, selbst wenn sie ab Werk mit S/W Chip kommt.
    Aber das liegt nicht an einer Überlegenheit von CCD gegenüber CMOS.


    Ansonsten ist das alles "Jammern auf hohem Niveau", wenn man mal anschaut, was uns Amateuren heute möglich ist!


    Gruß,
    Martin

  • Hallo Allerseits,
    toll, endlich wieder eine Diskussion CMOS vs CCD.
    Bezüglich Option für die Zukunft bin ich nicht ganz Klaus Meinung, dass DSLRs nur im Punkto Stromversorgung vorteilhaft sind und den monochromen (und gekühten) CCDs nicht das Wasser reichen können.
    Prinzipiell sind moderne CMOS-Sensoren den CCDs technologisch meilenweit voraus:
    - extrem niedriges Ausleserauschen 3e-(rms) zu 10e-(rms), man müsste theoretisch 3 mal so lange mit der CCD belichten
    - extrem hohe Auslesegeschwindigkeit (100ms für 20Mpixel), im Vergleich braucht der KAF16803 bei 1MHz, 17s pro Bild
    - preislich ist mit den CMOS-DSLRs der Massenmarkt adressiert, wohingegen ich die CCD doch eher wieder in einen Nischenmarkt zurückgedrängt sehe
    - extrem niedriges Dunkelstromrauschen (teilweise um Faktor 100besser, bei gleicher Temperatur)
    - bessere Quanteneffizienz, wenn man das Bayern-Pattern mal außen vorlässt
    Problematisch sind bei den CMOS-Dslrs eigentlich nur 2 Punkte, welche es aber hinsichtlich Astrofotografie in sich haben:
    - für Flat-, BIAS- und Dark-Kalibrierung ist Temperaturstabilisierung unbedingt erforderlich, sonst handelt man sich unschönes zusätzliches Rauschen ein
    - für gewöhnlich haben DSLR-CMos Sensoren eingebaute Farbfilter, sogenannte Bayer-Pattern. Ohne diese wäre die Quanteneffizienz (frontilluminated) bei etwa 70%. Man kann diese zwar wie oben geschrieben "abschrubbeln", aber leider sind Mikrolinsen oben auf den Filtern drauf, welche dann auch mit weg sind. Aber anders als oben beschrieben, sind die Auswirkungen der Mikrolinsen nicht so extrem, wohl eher 1/3 weniger Quanteneffizienz, da die Farbfilter eh etwas Licht schlucken und beispielweise die neueren Sony-Sensoren teilweise in 65nm-Technologie extrem fein verdrahtet sind und der eigentliche Photosensor im Verhältnis zur Verdrahtung recht groß ist. Siehe bspw. hier dargestellte Pixel-Querschnitte von modernen DSLR-Sensoren https://www.chipworks.com/abou…eras-part-i-nikon-vs-sony .
    Dann bleiben meiner Einschatzung nach noch Netto etwa 40-50% Quanteneffizienz, ohne die Filter und die Mikrolinsen. Eigentlich nicht viel schlechter als "normale" Kodak CCDs. Es gibt aber neuerdings rückseitenbeleuchtete Vollformat CMOS-Sensoren (bspw. in der Sony a7R II), welche eh schon ohne Mikroslinse daherkommen. Wenn da mal einer die Filter abschrubbeln würde, wer weiss.
    Die Bayer-Pattern Farbfilter sind auch prinzipiell nicht so Vorteilhaft für ernstahfte Astronomie, da sie erstens Licht schlucken (nur 70-80% Transmission, Interferenzfilter dagegen haben fast 100%) und auch keine schönen definierten Durchlasskurven haben. So zeigen die Blau- und Grünfilter im Infraroten wieder etwa 20% Transmission.
    Gruß Tino

  • Hallo Tino,


    alles schön und gut, aber der eine Satz regt mich auf:

    Code
    - extrem niedriges Ausleserauschen 3e-(rms) zu 10e-(rms), man müsste theoretisch 3 mal so lange mit der CCD belichten


    Das gilt doch nur für den akademischen Fall "kein Hintergrund", "kein Dunkelstrom" und kein Shot Noise bzw. ein Signal an der Nachweisgrenze (also am unteren Histogrammrand)
    Das S/N für den übrigen Teil (ich sage mal über 90% des Dynamikbereichs) des Bildes hängt in der Regel deutlich weniger bis fast gar nicht vom Read Noise ab.


    Für die Kurzzeitbelichter ist es etwas wichtiger, aber sobald du ein paar hundert ADUs (natrülich in raw von 14bit) zusammen hast, ist der read noise kein Thema mehr.



    Viele Grüße
    Norbert

  • Hallo Norbert,
    ich hab schon drauf gewartet ;) Schlussendlich sind es aber nur die 3 Parameter, Read-Noise, Dunkelstrom und Quanteneffizienz, (und im Grunde genommen die zeitliche Unveränderlichkeit/Stabilität/Reproduzierbarkeit) welche die Kamera ausmachen. Der Read-Noise (und die QE) bestimmt die SNR bezüglich Grenzgröße, bei genügend Photonen ist eigentlich nur noch die QE das Kriterium und natürlich wie stabil die Signatur der Elektronik (BIAS, DSNU, PRNU) steht, damit man sie mit BIAS, FLAT und DARK korrigieren kann. Vorteile hat hier die gekühlte und extra stabilisierte CCD, aber hauptsächlich nur weil hier die BIAS- und Dark-Korrekturen besser greifen.
    Viele Grüße
    Tino

  • Hallo Tino,


    jetzt reden wir aneinander vorbei.
    Mich stört nur der Satz, dass man mit einem 1/3 read noise nur ein 1/3 der Belichtungszeit braucht. (die Frage ist wofür ?)
    Wenn man das auf die gesamte Bildqualität bezieht, und das werden einge hier so verstehen, stimmt das einfach nicht, da spart man vielleicht 10% unter realen Bedingungen.
    Wenn es um die Erkennung eines Objekts mit der Grenzgröße geht, hast Du natürlich recht.


    Viele Grüße
    Norbert

  • Hallo,


    Danke für eure Antworten und Klaus für deine ausfürlichen Infos zu den Mikrolinsen!


    Habe ich das in etwa richtig Verstanden:
    Die Mikrolinsen fangen praktisch das Licht ab, dass eigentlich zwischen den Pixeln verloren gehen würde.


    Jetzt die Ultimative Frage: Das müsste eigentlich heissen ohne Mikrolinsen geht damit die Auflösung flöten?[:(] Das wäre nämlich mein Hauptgrund,(in kombination mit der schnellen/einfachen Handhabung, kein Laptop usw.) für die Verwendung einer solchen. Also das Licht und somit Details zwischen den Pixeln wird einfach nicht gesehen.
    Wenn das so ist, dann hat sich die Sache eigentlich schon erledigt.


    Mit weniger Effizienz alleine könnte ich leben. Eine Nacht mit der Mono DSLR durchlaufen lassen, ne andere Nacht die mit dem Bayer Muster drauf. Kein guter Plan für gute Auflösung? Die besten (Wetter)Bedingungen hab ich hier sowieso nicht, ich knipse über eine 24H-Tankstelle, Wettbewerbsambitionen hab ich auch nicht[;)]


    Ich kann das noch nicht so genau einschätzen. Klar, hinterher ist man immer schlauer wenn man mal verschiedenes Equipment "durch" hat.



    mfg.
    Thomas

  • Hallo Norbert,
    ich denke nicht, dass wir aneinander vorbeigeredet haben.
    Du hast natürlich recht, dass der Read-Noise hauptsächlichen Einfluss auf die Grenzgröße und das SNR bei geringen Signalintensitäten hat, nur da gilt strenggenommen die oben aufgeführte Abhängigkeit.
    Wenn man sich den mittleren und höheren Signalintensitäten widmet, ist eigentlich nur noch die Quanteneffizienz ausschlaggebend, da das Shot-Noise sich eigentlich auf die generierten Elektronen bezieht. Hier hat aber, wie ich oben schon geschrieben habe, die Signatur der Elektronik (BIAS, DSNU, PRNU) einen großen Einfluss. Um sinnvoll zu korrigieren, muss diese möglichst unveränderlich sein, womit hauptsächlich eine stabile Temperatur der Elektronik und des Sensors gemeint ist.
    Wie stark sich diese Effekte nun aber bemerkbar machen, ist prinzipiell auch noch von den natürlichen Gegebenheiten abhängig, wie Himmelsqualität, Seeing usw. Auf diese hat man aber im Zweifelsfall wenig bis gar keinen Einfluss, auf die Wahl der Kamera schon eher.
    Im Zusammenhang mit dieser Diskussion wollte ich nur hinweisen, dass CMOS-Sensoren prinzipiell den CCDs überlegen sind, nur im speziellen Fall der Astrofotografie noch zusätzlichen Wert auf Temperierung und Stabilität gelegt werden muss, damit das Bildergebnis stimmt.
    Es ist nur eine Frage der Zeit, wann der DSLR-Massenmarkt mit den dämlichen BayerPattern mal großformatige, rückseitenabgedünnte, monochrome Sensoren produziert, dann muss man diese nur noch in ein gekühltes Gehäuse mit stabilisierter Elektronik integrieren und voila, CCD ist passee.
    Gruß Tino

  • Hallo Thomas,
    die Mikrolinsen haben eigentlich erstmal nichts mit der Auflösung zu tun, denn sie machen im Grunde genommen keine richtige Abbildung, sondern erhöhen nur den Füllfaktor. Dh sie stellen nur sicher, dass das Licht nicht auf die unsensible Verdrahtungsfläche fällt und man sozusagen Licht verschwendet. Also ist hier prinzipiell nur die Quanteneffizienz beeinflusst. Dies gilt aber im grundegenommen nur, solange die Spotgröße des Teleskops sich auf mehrere Pixel verteilt. Wenn der Spot dagegen klein ist, gegen die Pixel, handelt man sich einige Probleme ein. Die Spotgröße korreliert übrigens recht gut mit der F-Zahl, F/4 bedeutet etwa FWHM 4um Spotdurchmesser, ohne Seeing und sonstige Fehler.
    Gruß Tino

  • Hi Thomas, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die Mikrolinsen fangen praktisch das Licht ab, dass eigentlich zwischen den Pixeln verloren gehen würde.


    Jetzt die Ultimative Frage: Das müsste eigentlich heissen ohne Mikrolinsen geht damit die Auflösung flöten?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Nein, die Auflösung kommt ja von der Anzahl der Pixel bezogen auf die Chipgröße. Und an der änderst du damit ja nichts.


    Aber du machst die Pixel damit sozusagen kleiner, die effektiv lichtsammelnde Fläche ist ohne die Linsen eben kleiner. Was du mit dem Entfernen der Maske schaffst- jedes einzelne Pixel erhält nun immer Licht, mit der Farbmaske sammeln ja nur die rot maskierten Pixel auch rotes Licht ein (also nur eines von vier), ohne die Farbmaske sammeln alle Pixel rotes Licht. Gilt ebenso für blau und bei Grün sind es 4 statt 2. So betrachtet erhöht sich die Auflösung ohne die Farbmaske.


    Wie groß nun der Lichtverlust durch den Wegfall der Linsen ist und wie groß der Gewinn durch die größere Anzahl der mit Filter nutzbaren Pixel ausfällt müsste man wohl experimentell ermitteln. Genau Angaben zu den Chips bzw. den Microlinsen wird man kaum finden.


    Bezüglich Auflösung- die wird eh einmal durch die Öffnung des Teleskops begrenzt und natürlich durch die Auswirkung des Seeings. Die theoretisch mögliche Auflösung des Chips wirst du wohl kaum erreichen können.


    Gruß
    Stefan

  • Hi Stefan,


    Also wenn ohne Mikrolinsen die Auflösung nicht herabgesetzt wird, und ich das durch das Seeing diese (theoretisch mögliche)Auflösung eh nicht nutzen kann, was ist dann der Vorteil/Reiz an der Mono?


    Ist es eher der Vorteil dass man alle 4 Einzelbilder (LRGB) getrennt von einander aufnimmt?


    Also die Pixel werden praktisch kleiner.
    Also auch der Dynamikbereich, Empfindlichkeit, wird noch kleiner?



    mfg.
    Thomas

  • Hi Thomas,


    stell dir doch ein rein mechanisches Beispiel vor. Einen Karton in dem du Reagengläser anordnest, schön in gleichen Abständen (auch mit Luft zwischen den Gläsern) in vielen Reihen.


    Microlinsen: jedes Glas bekommt einen kleinen Trichter (die berühren sich bei optimaler Ausnutzung) um seine Öffnung zu vergrößern = höhere Empfindlichkeit


    Dynamikbereich: Wieviel passt in das Glas rein (full well capacity) und wie genau kann ich das anhand der am Glas angebrachten Teilung z.B. in ml ablesen- sind nur 8 Messmarken dran (=8bit) oder 10 oder 16..


    Farbmaske: Du deckst je 3 Trichter ab wenn du rotes Wasser aus der Dusche drüberplätschern lässt, ebenso 3 abgedeckt bei blau und 2 abgedeckt bei grün. Oder du nimmst klares Wasser, alle Trichter offen und sagst hinterher- in dem Glas ist rot, in dem ist blau und in den beiden ist grünes Wasser (Prinzip Bayermatrix)


    Microlinsen runter ist gleich Trichter abnehmen, Farbmatrix entfernen bedeutet- bei dem roten Wasser sind alle Gläser offen.


    Am Dynamikbereich ändert sich nix, der maximal Inhalt bleibt gleich, die Empfindlichkeit jedes Glases wird kleiner, der Trichter fehlt. In Summe hast du bei rotem Wasser aber alle Gläser voll und nicht nur 1/4.


    Empfindlichkeit: hängt davon ab welche Öffnung das Glas im Verhältnis zum Trichter hat- oder eben wie groß das Pixel tatsächlich ist und wieviel größer die Microlinse ist.


    Der Hauptvorteil dürfte im Bereich Schmalbandaufnahmen liegen. Ein OIII Filter lässt nur Licht für die grünen Pixel durch, mit einem h-alpha Filter bekommt nur das eine rote Pixel Licht ab, bei sw dagegen sammeln für grün eben doppelt soviel Pixel Licht ein, bei h-alpha viermal soviel. Beherrscht die Kamera dann ein 2x2 Binning wird so gesehen 4x soviel Licht erwischt, bei der Bayermatrix würde von den gleichen 4 Pixeln ja nur das rote arbeiten.


    2x2 Binnig mit den Glasröhren- du schüttest den gesammelten Inhalt von 4 Gläsern zusammen.


    Das Beispiel kann man erweitern- Blooming: ein Glas ist früher voll als andere, es läuft Wasser über und kommt ins Nachbarglas


    Chiprauschen: du duscht mit 100% reinem Alkohol und in den Gläsern ist noch Restwasser drin- Ergebnis, dein Alkohol wird verdünnt.


    Ausleserauschen: 100% Alkohol in die Gläser, beim Umschütten in deine Messvorrichtung benutzt du mit Wasser benetzte Gefäße. Schneller Auslesen, du säuberst deine Messvorrichtung nicht richtig da du zu schnell arbeitest. [:D]


    Gruß
    stefan

  • Ich hab selber eine Mono D5100 welche mich in Summe 450,- gekostet hat (hat erst beim zweiten Anlauf geklappt :)). Der Unterschied in der Empfindlichkeit ist aber auf jeden Fall beachtlich. Das Wegfallen der Mikrolinsen wird durch das Wegfallen der Farbmatrix mehr als ausgeglichen.
    Der Grund warum ich mir das Ganze angetan hab war in erster Linie Spaß am Basteln und das Liebe Geld :)
    Langfristig will ich natürlich auch eine gekühlte CCD haben, aber vorerst muss erstmal die Mono DSLR reichen.

  • Hallo


    Wenn Ihr mal was aus der Praxis sehen wollt dann schaut mal über den Tellerrand zu den "Balkonauten" im Nachbarforum. Dort hat der Astrofreund "Chriz1989" eine Kamera umgebaut und genau beschrieben. Und.....Er hat auch Beispielfotos mit den Erfahrungen gezeigt. Praxis versus Theorie! Ich liebe die Praxis
    [:)][:)][:)]


    Guten Rutsch ins neue Jahr wünscht Reiner

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!