CCD-Auswahl

  • Hallo,
    ich möchte mir gerne für mein Setup eine SW-CCD der unteren bis mittleren Preisklasse zulegen, obwohl ich gerade erst eingestiegen bin.
    Das liegt vorallem daran, dass ich in Berlin wohne (zwar am Rand, aber es ist trotzdem hell ohne Ende) und entsprechend breitspektral nicht viel zu gehen scheint. Entsprechend wäre Schmalband wohl das einzige, das möglicherweise funktioniert und passenderweise finde ich Nebel in Hubble-Palette ein sehr ansprechendes Ziel.
    Ursprünglich waren zwar Galaxien eher das Ziel, aber da werde ich mich dann wohl darauf beschränken sie beim gelegentlichen Alpenurlaub abzulichten.
    Mein Setup ist 8"GSO Newton f5 auf NEQ6, als KomaKorrektor wird der Paracorr eingesetzt, so dass ich bei insgesamt 1150mm Brennweite bin (f/5.75). Gegeuidet wird per OAG und ALCCD5L-II.


    Die Frage ist nun welche CCD sich da passend einfügen würde.
    Häufig wird ja eine mit KAS8300 empfohlen. Da würde ich dann wohl Richtung ATIK383L+ schauen. Allerdings befürchte ich, dass die Pixel für die Brennweite doch etwas klein sind (Oversampling - wobei das ja auch nicht unbedingt schlimm sein muss). Außerdem ist der Chip nicht quadratisch, gerade da ich wohl das eine oder andere Mosaik bei größeren Nebeln für Gesamtansichten brauchen werde (leider sind die Chips ja keine Vollformate^^), wäre dies aber recht angenehm.
    Das heißt keinesfalls, dass ich den 8300er ausgeschlossen habe, ich möchte nur meine Bedenken darlegen.
    Gut gefallen tut mir auch die Atik4000LE (bzw. Artemis 4021 mit gleichem Chip), eben wegen der größeren Pixel, der quadratischen ChipForm und des angeblich besseren Rauschverhaltens.
    Dafür ist die Auflösung natürlich deutlich geringer.


    Oder auch etwas ganz anderes.


    Bin für jeden Input dankbar,


    Schöne Grüße
    Stefan

  • Hallo Stefan


    bis auf 1"/Pixel kannst du ruhig gehen, müsste eigentlich noch ganz gut passen für den 8300er Chip,
    aus meinen Erfahreungen rauscht der wenn man RGB ungebinnt aufnimmt etwa so wie meine Canon 1000D bei 10° Chiptemperatur, hatte da echt schon Zweifel, die zerstreuen sich dann erst wieder wenn man Schmalband macht. 2xbin ist bei dem Chip kritisch, es kommt bei hellen Sternen zu einer Art blooming.


    kannst dir ja das mal durchlesen, die Quantenefizenz, Pixelgröße, mit oder ohne Antiblooming, ind da noch verschiedene Chipgrößen, so ohne weiteres kommt man nicht ohne Kompromiss raus, ich hätte gerne einen Sonychip so groß wie den 8300 und auch dessen Pixelgröße
    http://www.astronomicum.de/mod…ms&file=viewtopic&t=11884
    ach so du musst es auch schaffen auf die 55mm bis zum Chip Filterrad und OAG unterzubringen.
    Volle Möglichkeiten hast du erst wenn du ein 7er oder 8er Filterrad hast, wenn man wechseln muß und zum RGB nicht auch mal nebenbei Ha ärgert man sich für eine lange Zeit. Koseqent wäre eigentlich sowas wie die QSI mit internem 8er Filterrad, da wäre zu prüfen ob die durch intern kleinern Filter und die Kompaktheit den Mehrpreis wieder einfangen, ich habe allein schon 31mm Filter für zusammen 2000€, hätte in 2" wohl 3300€ gekostet, da ich eine Moravian mit internem Filterad ausgesucht hatte war dann noch 200€ für ein zweites Filterrad fällig :(


    alles nicht so einfach


    Gruß Frank

  • Also erst einmal vielen Dank :)
    Die 55mm werde ich problemlos einhalten können, OAG und Filter sind recht kurzbauend und die meisten Chips gibt es ja auch in schmalen Gehäusen.


    Ein großer Sony wäre wirklich super. Aber der 694er ist mir im Prinzip schon zu klein. Außerdem bin ich bei der Pixelgröße bei 0,8"/px und das erscheint mir bei den hiesigen Bedingungen schon sehr wenig.


    Im Prinzip landet man dann bei folgenden Kriterien:


    -geeignet für 1150 und 750mm Brennweite (ein kleiner Apo kommt irgendwann dazu mit ca. 750mm)
    -chip groß genug für flächige Objekte
    -Hauptziele sind Emissionsnebel und ab und an Galaxien
    -Primär mit Schmalband


    Dann bleiben halt im Prinzip nur 8300 oder 4021 übrig, da der Sony 694er einfach zu kleine Pixel zu haben scheint.
    Und hier bin ich einfach zu einem Vergleich nicht ganz in der Lage. Der 8300er scheint ordentlich zu rauxchrn, dafür ist die Kühlung der Kamera wesentlich besser. Die Auflösung ist beim 8300er auch höher, dafür sind die Pixel eig etwas klein, ein wenig leerauflösung ist also ohnehin dabei.
    Die QE vom 4021 ist im halpha eher bescheiden, aber mit schmalband kann man ja auch einfach länger belichten und das rauschen ist ja geringer, d.h. ist das rauschverhältnis vllt ähnlich.


    Dann hat der 4021er die wesentlich höhere FWC...


    Naja, ist wohl eine Wahl ohne klare Antwort..

  • Hallo Stefan,


    vielleicht kann ich noch etwas beitragen. Selber verwende ich eine Kamera mit dem KAI4022. An sich wirklich ein sehr schöner chip, aber generell etwas schwach auf der Brust. Besonders für primär Schmalband würd ich den nicht empfehlen. Eine nicht wesentlich erhöhte FWC macht bei Schmalband meines Erachtens keinen Unterschied. Und bzgl. Rauschverhalten und notwendigen Kühltemperaturen (-5°C und tiefer) würd ich KAI4022 und KAF8300 als sehr ähnlich einstufen. Der beste chip zurzeit ist schon der von Dir erwähnte Sony!


    Grüsse,
    Jan

  • Hallo,
    das verstehe ich jetzt als Anfänger leider nicht so ganz.
    Ich hätte gedacht, dass die abfallende QE gerade bei Schmalband egal ist, da ich ja ha "einfach" ~30% länger belichten kann.
    Das Problem hätte ich jetzt intuitiv eher bei Luminanzaufnahmen über das gesamte sichtbare Spektrum gesehen, denn dort kommt ha dann natürlich relativ gesehen zu kurz was ggf. beim Einfärben des Rotkanals problematisch werden könnte und Falschfarben verursachen könnte. Wobei man selbst das ja durch aufaddieren eines zusätzlichen ha auf die Luminanz in den Griff kriegen sollte?


    Oder denke ich da völlig falsch?
    Bzw. war mit schwach auf der Brust vllt gar nicht die QE gemeint?
    Würde mich jedenfalls freuen, wenn du noch einmal erläutern könntest, warum der 4022er nicht so gut für Schmalband geeignet ist.


    Der Sony ist mir leider wirklich zu klein und im Prinzip tendiere ich gerade wegen Pixelgröße und geringerer Breite (daher weniger Vignettierungsgefahr) bei gleicher Fläche eher zum KAI.

  • Hallo Stefan


    es ist einfach nicht gegeben wählen zu können, wenn du den größeren Chip willst musst du den nehmen und in den Sauren Apfel beißen das wegen der geringeren Quantenefizenz der SN schlechter ist und du auch deswegen länger belichten musst, alternative müstest du mit dem kleinem Sony ein Mosaik machen, ist auch nicht besser.
    bei Luminaz, das schwache Ha wird ja vom stäkerem Hbetha gepuscht, das könnte schon wieder in etwa passen, bei RGB belichtet man die Kanäle angepasst unterschiedlich lang oder vertraut auf Filter die für den Chip angepasst sind.
    bei Galaxien punktet der Kai ja mit der Blaustärke, gut für die schwachen Ausläufer, rot gibt es d in Ha Knoten, die kann man ja mit Ha Filter reinarbeiten


    Wie bist du auf 30% für Ha gekommen? ja länger als bei dem Chip O3, aber selbst im O3 musst du mit dem Chip 1,35x länger belichten für das Signal was der Sonychip sammeln würde, für Ha müsstest du dann 2,5x so lange belichten. Das ist bitter aber Andere schaffen es mit dem Chip ja auch.


    Gruß Frank

  • Hallo Stefan,


    Frank hat ja schon einiges ausgefuehrt. Ich brauche den KAI4022 seit 6 Jahren. Wenn Du an Deinem Standort am Rand von Berlin wenigstens Teleskop ueber mehrere Naechte stehen lassen kannst (oder sogar eine Sternwarte hast), dann geht es mit dem KAI4022 auch gut mit Schmalband. Ich muss mobil sein und hab selten mehr als eine Nacht zur Verfuegung, dann ist mit der verfuegbaren Zeit nicht viel mehr als eine gute Anbelichtung der helleren Objekte moeglich. Hier ein solches Beispiel:


    http://www.astrotreff.de/topic…HIVE=true&TOPIC_ID=137766


    http://www.astrotreff.de/topic…HIVE=true&TOPIC_ID=141260


    Das war uebrigens mit einem 140mm-Refraktor, was ich als von der Oeffnung her als untere Grenze fuer Schmalband mit KAI4022 anschaue. Da bist Du also mit dem 20cm-Newton gerade ausreichend situiert.


    Zur QE bzw. spektralen Empfindlichkeit: Bei OIII und Hbeta betraegt die QE gegen 55%, bei Halpha nur noch 35%. Halpha muss also fast doppelt so lange belichtet belichtet werden, wenn man die spektrale Empfindlichkeit korrekt ausgleichen will! Noch schlimmer ist es fuer SII, da sind es nur noch ca. 25%. Meine damaligen 7x10min. waren komplett zuwenig fuer einen schoenen SII-Kanal.


    So arbeitet man aber nicht bei der Hubble-Palette, sondern nimmt pro Kanal die intuitiv notwendige Belichtungszeit fuer eine gute Tiefe und mit zunehmender Anzahl erreicht man die Rauschverbesserung. Bei der nachfolgenden Zusammensetzung des Falschfarbenbild ist es dann wurscht, ob man die spektrale Empfindlichkeit des Sensors ausgeglichen hat oder nicht. Deshalb ist hier der KAI4022 deutlich im Nachteil gegenueber den anderen zwei erwaehnten Sensoren. Natuerlich kann man aber trotzdem gut Schmalband aufnehmen, einfach mit 2-3x hoeherem Belichtungsaufwand!


    Fuer Luminanzen siehst Du es komplett richtig, man nimmt also zusaetzliches Halpha auf und addiert es auf Luminanz sowie Rotkanal. Habe ich selber schon mehrfach gemacht und funktioniert bestens. Uebrigens geht selbst an Stadtraendern viel mit SW-CCD, da kommt Dir dann die etwas hoehere FWC des KAI4022 entgegen.


    Schoene Gruesse,
    Jan

  • Hallo,
    vielen Dank, dann verstehe ich wie es gemeint war.
    Viel Zeit habe ich leider auch nicht wirklich, kann das Teleskop aber zumindest im eigenen Garten arbeiten lassen. Stehen lassen kann ich es da zwar wetterbedingt auch nicht, aber ich hoffe zumindest in eingermaßen regelmäßigen Abständen aufbauen zu können, da ich ja nicht wegfahren brauche.
    Insofern denke ich schon, dass ich im Laufe von einigen Wochen mehr als eine Belichtungsnacht pro Objekt zusammenbekommen sollte, so ich es dann brauche.


    Ich muss also S-II und H-alph ca. doppelt so lange belichten wie O-III, also beispielsweise 5x10min O-III, 8x10min H-alph und 10x10min S-II?
    Und im Falle von L-RGB belichte ich L,R,G,B und ha ungefähr gleich, addiere ha aber auf R und L. Das scheint mir soweit klar zu sein. Kann ich theoretisch nicht auch S-II auf die L aufaddieren? Bringt das nicht mehr genug Gewinn für die Belichtungszeit oder warum macht man das nicht?


    Wo du gerade Hb erwähnt hast: Ich habe bisher noch kein Bild gesehen in dem Hb verarbeitet wurde. Wie würde man das denn da zuweisen? Ein vierter Farbkanal oder einfach zu O-III (Wellelänge ist ja recht ähnlich) ergänzen?


    (==>)Frank: Es ging mir um den Unterschied zwischen KAF8300 und KAI4021. Da ist die QE vom KAI bei Halpha bei ca. 35%, beim KAF ca. 45% und das wäre ja dann ca. 1/3 mehr. Beim S-II ist es natürlich schon 25% und 40+% und entsprechend schon wesentlich mehr Unterschied.
    Wobei ich mich auch Frage, ob sich das nicht wegen der Pixelgröße wieder rausrechnen müsste.
    Die absolute Anzahl registrierter Photonen eines Pixels setzt sich ja zusammen aus N(reg)=Q(eff)*N(einfallend). N(einfallend)= j(Phot)*A*t mit j als konstante Photonenstromdichte (Photonen pro Zeit und Fläche) A als Fläche des Pixels und t als Aufnahmezeit.
    Nimmt man nun also zwei Kameras mit verschieden großen Pixel und belichtet gleich lange, erhält man N1(reg)/N2(reg)=Q1(eff)*A1/(Q2(eff)*A2).
    Wenn jetzt Kamera 1 den KAF8300 und Kamera 2 den KAI4021 verwendet und man das ganze mal bei S-II durchspielt, dann komme ich mit Q1(eff)=0.4 A1=5.4*5.4 (um)^2 ,Q2(eff)=0.25 und A2=7.4*7.4 (um)^2
    auf N1/N2= 0.85.
    Demnach würde die KAI bei gleicher Belichtungszeit sogar mehr Photonen pro Pixel registrieren und man könnte für ein gleichartiges Ergebnis entsprechend sogar kürzer belichten. Und das bei S-II, bei O-II ist das natürlich noch extremer.
    Das ganze setzt nat. voraus, dass man kein binning verwendet, aber das scheint ja beim KAF ohnehin eher mäßig zu funktionieren.
    Oder denke ich da irgendwie falsche, nach dieser Logik müsste ich mit dem KAI ja sogar weniger Zeit aufwenden und er wäre entsprechend gerade unter Zeitknappheit besonders gut geeignet.


    Gruß, CS
    Stefan

  • Hi Stefan,
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ich muss also S-II und H-alph ca. doppelt so lange belichten wie O-III, also beispielsweise 5x10min O-III, 8x10min H-alph und 10x10min S-II?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Nein, das ist nicht als Gesamtbelichtungszeit zu verstehen. Im Prinzip sollte man jeden Schmalbandkanal solange belichten wie es geht, d.h. ohne dass z.B. Fokusdrift, Bildfeldrotation etc. auftreten. Mit der Anzahl frames reduziert man dann das Rauschen, welches in jedem auch noch solange belichteten frame auftritt. Wirklich gute Schmalbandaufnahmen umfassen mindestens 20-30 frames pro Kanal! Und natuerlich braucht es dazu die beste Kalibration der Einzelframes.
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Ich habe bisher noch kein Bild gesehen in dem Hb verarbeitet wurde. Wie würde man das denn da zuweisen? Ein vierter Farbkanal oder einfach zu O-III (Wellelänge ist ja recht ähnlich) ergänzen?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Hbeta ist ja normalerweise 29% der Intensitaet von Halpha, also ohne weitere Bildinformation (ausgenommen der Rotverfaerbung). Macht fuer mich fotografisch keinen Sinn, ausser visuell kann man mit so einem Filter einige Halpha-Nebel sehen.


    Gruesse,
    Jan

  • Hallo


    das Hbetha ist im Luminanz eben drin, meine Vermutung war das eben deswegen die rotblindheit im Luminanz nicht so auffällt.


    aber kann man mit Hbetha einige Halpha Gebiete sehen und normalerweise 29% ??
    entweder kann man alle sehen oder 29% ist eben nicht normal.


    Gruß Frank

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: TheCCDAstronomer</i>
    <br />Hi Stefan,
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ich muss also S-II und H-alph ca. doppelt so lange belichten wie O-III, also beispielsweise 5x10min O-III, 8x10min H-alph und 10x10min S-II?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Nein, das ist nicht als Gesamtbelichtungszeit zu verstehen. Im Prinzip sollte man jeden Schmalbandkanal solange belichten wie es geht, d.h. ohne dass z.B. Fokusdrift, Bildfeldrotation etc. auftreten.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Hallo,
    das verwirrt mich jetzt doch schon wieder. Also ist es nicht Gesamtbelichtungszeit, sondern Belichtungszeit pro Frame, die ich relativ gesehen anpassen muss. Aber jetzt soll ich andererseits jeden Frame belichten solange es geht? Wie passt denn das zusammen?


    Also einmal an einem konkreten Beispiel: Wie lange würde ich die drei Schmalbandframes jeweils belichten, um eine ausgewogene Aufnahme zu erhalten, wenn ich von jeder Frameart jeweils gleichviele aufnehme?
    Mein Ansatz wäre jetzt mit S-II zu schauen wie lange es max. geht, davon dann x Aufnahmen zu machen und dann jeweils ha und O-III ebenfalls x Aufnahmen mit prozentual kürzerer Belichtungszeit.
    Oder ist es so zu verstehen, dass ich einfach alle drei Kanäle möglichst viel belichte und dann die schwächeren Kanäle später beim Zusammenfügen in der EBV entsprechend mehr gewichte? Aber selbst dann sollten doch mehr frames für die schwächeren Kanäle günstig sein, denn zum Hochskalieren sollte das Rauschen doch möglichst geringer ausfallen, oder?


    Ich habe mich jetzt übrigens fast sicher für eine Kamera mit KAI4021 entschieden und werde sie wohl in ein paar Tagen ordern.
    Hauptgründe waren, dass der Ausgleich der unterschiedlichen QE zwar gemacht werden muss, aber nicht übermäßig problematisch zu sein scheint.
    Durch die größeren Pixel scheint nach obiger Rechnung die Belichtungszeit gegenüber dem KAF sogar eher kürzer zu sein, jedenfalls nicht deutlich länger.
    Die Pixelgröße passt wesentlich besser zu meinem Setup und dem regulären Seeing in meiner Gegend, die 8MP des KAF könnte ich nahezu nie ausfahren und würde entsprechend nur mit Oversampling-Problemen kämpfen, da ich nicht binnen möchte.
    Der quadratische Chip ermöglicht mir die Nutzung der günstigen 1.25" Filter.
    Und zuletzt scheint die höhere FWC ja die Chancen zu erhöhen, dass ich von meinem Garten aus doch mal eine Galaxie erwische ;)




    Mir fiel dann auch irgendwann ein, dass H-a und H-b ja zwangsläufig immer vom gleichen Ort kommen und daher getrennte H-b nicht soviel bringt ;)


    Gruß
    Stefan

  • Hi,
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Oder ist es so zu verstehen, dass ich einfach alle drei Kanäle möglichst viel belichte und dann die schwächeren Kanäle später beim Zusammenfügen in der EBV entsprechend mehr gewichte?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Genau!
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ich habe mich jetzt übrigens fast sicher für eine Kamera mit KAI4021 entschieden ... Der quadratische Chip ermöglicht mir die Nutzung der günstigen 1.25" Filter.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Wirst sicher mit dem chip happy sein, und 1.25"-Filter sind wenn so nah wie moeglich immer ausreichend. Galaxien gehen tiptop mit dem Sensor, hier ein eigenes Beispiel (3x10min. Luminanz an einem 15cm F/8-Refraktor):


    http://www.the-ccd-astronomer.ch/bilder/n4565_ganz.jpg


    Gruesse,
    Jan

  • Hallo


    bei Kameras mit internen Filtern schafft man es mit 1,25 oder 31mm auch beim 8300er Chip, meist aber zu wenige Filter möglich.


    hast du schon lange genug drüber nachgedacht über die Kamerawahl, ist auch irgendwie toll du musst nie den Chip für ein Objekt drehen.
    wenn es machbar ist sollte man die schwache Farbe durch mehr Belichtungszeit oder Einzelbilder ausgleichen, die farbe rauscht sonst nach dem Anheben stärker.
    Ist aber auch eine Frage der Dominanz, für klitzekleine Halphaknoten in Galaxien lohnt das wohl wenig, bei M20 sieht es schon anders aus.
    Viel Spaß dann wenn du die Kamera endlich hast, ab nächsten Neumond geht ja auch wieder was.


    Gruß? Frank

  • Ich habe vor einer Weile mal ein xls gemacht, mit dem man die Eigenschaften eines Sensors bewerten kann. Ich denke das passt hier zum Thema. Man braucht ein Datenblatt für den jeweiligen Sensor.


    Das excel file ist hier zu finden:
    https://app.box.com/s/ot4yde50x8os4qaygocj


    Im ertsen Tab kann man die Daten seines Sensors eingeben und dann mit Temperatur und Belichtungszeit berechnen wie viel Rauschladung man in den Pixeln erwarten kann. Das wird dann über die Empfindlichkeit (B2) in eine Rausspannung (B18) umgerechnet.
    Das Verhältnis von Sättigungssignal und Rauschsignal ist dann der verbliebene Dynamikbereich des Bildes.
    Im konkreten Fall sieht man, daß bei 10°C und einer Minute Belichtung, das Sättigungssignal nur 239 mal größer werden kann als das Rauschen. Folglich ergeben sich 8bit für diesen Zweck. Damit kann man immerhin bis 256 zählen. Bzw. nur die obersten 8 bit haben wirklich eine Bedeutung.


    Mit dem 2. Tab habe ich mal versucht herauszubekommen was man mit dem Sensor noch beobachten kann. Für ein MAG9 Objekt zeigt sich, daß es ein Pixel schon nach 1sec sättigen könnte wenn denn alle Photonen auch treffen würden.
    Für ein MAG14 Objekt würde diese Sättigung nach 100sec eintreten.
    Bei einem MAG18 objekt, sieht man mit Hilfe des 1.Tabs, daß man kühlen muß um da noch was zu sehen.


    Ich denke das deckt sich mit den gängigen Erfahrungen oder?

  • Hallo Thomas,


    zur Berechnung der Dynamik teilst Du die Kapazität durch den gesamten Dunkelstrom. Das ist meines Erachtens nicht richtig.
    Eigentlich muss hier durch die geometrische Summe aus Dunkelrauschen (nicht Dunkelstrom) und Ausleserauschen dividiert werden.
    Das Dunkelrauschen ergibt sich aus der Wurzel des Dunkelstroms, somit käme man statt der knapp 190 Elektronen aus deinem Beispiel nur auf etwa 20 Elektronen Gesamtrauschen, und eine verbleibende Dynamik von 2000:1


    Viele Grüße
    Norbert

  • Hallo Norbert,


    danke für den Hinweis, sehr interessant.
    Habe eine APP-Note von Kodak gefunden, die auch einige Formeln mit Wurzel zeigt. Ich bin noch auf der Suche nach einer Erklärung für die Wurzel und vermute die Verteilungsdichte des Rauschens.


    Mir ist die Bandbreitenbezogene Rauschleistung aus der HF-Technik ein Begriff (dBm/sqrt(Hz)). Wie das aber bei dem von der Belichtungszeit abhängigen Rauschstrom eines Bildsensors ist würde ich gern noch mal vertiefen.


    Viele Grüße, Thomas.

  • Hallo Thomas,


    die vollständigste Darstellung hab ich leider nur in Büchern gefunden (Bibelstatus: Astronomical Image Processing v. Berry/Burnell)
    Im Internet (Google halt nach dark current noise) gibt's von Truesense und QSI kurze brauchbare Abhandlungen. Den Link zu Mischa Schirmers Seite finde ich leider nicht mehr.


    Wie auch immer: Dark Noise ist eigentlich einfacher zu verstehen als das ganze HF Gedöns. Der Dunkelstrom (in e-/pix/sec) ergibt einen Sockelbetrag, der die nutzbare Full Well reduziert. Das Rauschen ergibt sich, wie beim Signal selbst, aus der Wurzel der Anzahl der Elektronen.
    Die "komplizierten" Größen (1/f Noise, Flickernoise, Resetnoise etc) muss man gar nicht verstehen, sie verstecken sich im Read Noise, den wir als fix für jeden Auslesevorgang betrachten.
    Da Dunkelstrom, Nutzsignal und Hintergrund aufgrund ihrer "zufälligen" Entstehung die gleiche Statistik haben, ist das Gesamtrauschen einer CCD in sehr guter Näherungen nur von der Intensität (Summe Dunkelstrom,Hintergrund und Nutzsignal) und ganz geringfügig vom Read Noise abhänging. Bei deinem 1401er Kodak chip hast Du bei 40000 e- Intensität somit eine Standardabweichung von mindestens 200e- (genaugenommen Wurzel(40000 + Read Noise^2)) Das wird dann noch wichtig, wenn Du bei deinem Projekt den Konversionsfaktor e/ADU einstellst. Aber das führt hier zu weit.



    Viele Grüße
    Norbert

  • Habe mal die Wurzel bei der Berechnung der Rauschspannung hinzugefügt. Nun ist das Ergebnis nicht mehr gar so ernüchternd.


    Dennoch, wenn man eine Kamera findet die mehr als 12bit Auflösung verspricht, dann lohnt es sich schon mal hinzusehen unter welchen Umständen man das dann auch bekommt.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!