Beiträge von Nobbi im Thema „deutliche Verbesserungen beim Ausleserauschen“

    Hallo Manfred,


    von den Quellen, die Du aufführst, sind aber bestenfalls zwei oder drei weiterführend, die anderen sind populärwissenschaftlicher Natur und enthalten reichlich Fehler (im messtechnischen Sinne).
    Und wenn keine Fehler drin sind, sind sie meistens nicht verständlich.
    Und das meiste, was aus der "Kamera-ecke", sprich Tageslichtfotografie kommt, ist für unsere Diskussion nur sehr bedingt brauchbar.
    Das liegt aber auch daran, dass jeder unter dem Begriff Rauschen was ganz anderes versteht. Die Tageslichtler sagen zB, hohes Iso bringt mehr Rauschen. Klar, sieht jeder. Das das bei gleicher Belichtungszeit nicht wahr ist, steht da nirgends. Und das dafür dann der Shot Noise verantwortlich ist ? Fehlanzeige. Der erste Wikipedia Artikel und Hohmann EDV und DSS gehen da noch halbwegs, sind aber nicht vollständig oder überspringen einiges, was zum Verständnis notwendig wäre.


    Die ganzen bekannten Formeln, die in der wissenschaftlichen Literatur dazu existieren, basieren auf den SNR Berechnungen, die man an einem einzelnen Pixel durchführt. Theoretisch müsste man den mit einem konstanten Signal belichten, und die Messwerte über die Zeit auftragen. Daraus kann ich Mittelwert und Standardabweichung, und somit das SNR angeben. Je mehr dieser eine Pixel "zappelt", desto größer wird das Bildrauschen, weil ja auch die Nachbarpixel mit ähnlicher Intensität gleich große "Fehlerbalken" aufweisen.
    Die praktische Messung dieses Rauschens kann man durch Subtraktion zweier identischer Bilder vereinfachen, das SNR kann aber immer nur für Bereiche ähnlicher Intensität angeben. Man misst sozusagen an jedem Pixel nur zweimal, dafür aber millionenfach parallel.


    Wenn man seine Kamera einmal charakterisiert hat, kann man sehr wohl jedes Rohbild in Hinblick auf die Anteile von Readnoise, Darknoise und Shotnoise zerlegen, lediglich die Unterscheidung von Nutzsignal und Hintergrund ist nicht ohne weitere Referenzmessung möglich.


    Es geistern auch ein paar Artikel in der Szene herum, bei denen Bildern ein einzelner "Rauschwert" zugeordnet wird. Meist ist das dann die Standardabweichung am ganzen Bild berechnet worden. Das ist zwar ein Indikator, aber keine sinnvolle Größe, da die fixed pattern Struktur immer mit drin ist (man stelle sich die Aufnahme eines Stück melierten Teppichbodens vor, da kann man ausbelichten wie man will, die Standardabweichung geht nicht runter...)


    Das, was bei Clark Vision und Christian Buil zu finden ist, ist weitgehend in Ordnung, aber eben auch etwas zu überladen beschrieben.
    Am besten finde ich immer noch die Beschreibung in Berry/Burnell, ist halt leider nur in Englisch und hat zu wenig DSLR spezifischen Bezüge



    Zeit, das das Wetter besser wird, mir rauscht der Schädel


    Viele Grüße

    Manfred,


    Ralf hat schon recht, aus Einzelbildern holst Du keine verlässliche Information.
    Die Standardabweichung von Bias - Bias (geteilt durch Wurzel 2) ergibt das Ausleserauschen,
    Die Standardabweichung von Dark - Dark (geteilt durch Wurzel 2) ergibt die geometrische Summe aus Auslese- und Dunkelrauschen. Damit kann man den Wert des Dunkelrauschens allein auch berechnen.


    Nimmst Du nur Einzelbilder, hast Du mit Hotpixeln, Gradienten und sonstigen Strukturen ziemlich verfälschte Werte, eben das Fixed Pattern, das physikalisch gesehen gar kein Rauschen ist.
    Wenn die Kamera homogene Bilder liefert, ist das nicht so tragisch, aber:


    Den Shot NOise kannst Du nur (!) über eine Differenzmessung zweier Lights bestimmen.
    Würdest Du eine Intensität messen, und durch die zuvor gemessenen Rauschwerte teilen, bestimmst Du nicht das SNR, weil Du dann eben genau den Shot Noise nicht berücksichtigst, der sich ja in der Schwankung des Signals selbst bemerkbar macht. Und das geht eben nur aus der Mehrfachmessung hervor.


    Viele Grüße
    Norbert

    Tino,


    hast Du hier schon mal geschaut:
    http://www.scienceticker.info/news/EEVZpkplEFnuMDCrFG.shtml
    Sotwaremäßig ist das echt ein Problem mit Lucky Imaging, wenn nur diffuse Objekte da sind, woher soll man bei den relativ verrauschten Einzelbildern dann sehen, wie die Seeing-Qualität wirklich ist ? Die Max-Planckler haben sich da nicht umsonst an Sternhaufen gehalten...
    Aber wer mir vor zwanzig Jahren von Programmen wie Avistack und Co erzählt hätte, den hätt ich damals auch nur belächelt.
    Ein anderes Problem an deiner Aufnahme: das horizontale Blooming.
    (weiß jetzt nicht, wierum Du ausgelesen hast, eventuell siehst Du hier schon das Verschmieren durch den FrameTransfer Betrieb, das wäre auch ein Hindernis beim Lucky Imaging. Könnte aber auch ein schlecht eingestelltes Clocktiming sein.


    Martin: Je kürzer Du ausliest, desto weniger Photonen hast Du. Dein Objekt schickt die Photonen nicht schön regelmäßig auf die Reise, die Entstehungsprozesse sind statistischer Natur, und wenn Du im Schnitt 100 Photonen hast, kommen eben mal 100+/- 30 pro Pixel an. Im täglichen Leben hast Du es mit Milliarden und mehr von Photonen zu tun, da fällt der prozentuale Fehler nicht so auf.
    Die Kamera von Tino hat bei den angegebenen Einstellungen ein effektives Ausleserauschen von unter 1 Elektron rms, daher kann er durchaus ein paar einzelne Photoelektronen sehen, aber sowohl Signal als auch der Dunkelstrom erscheinen jetzt nicht mehr schön gleichmäßig, sondern äußert sich in einzelnen Punkten, die statistisch übers Bild verteilt sind. Die sind wiederum aber auch nicht alle gleich hell.
    Das Bild sieht aber immer verrauscht aus, weil der Signalpegel einfach zu niedrig ist. Je rauschärmer eine Kamera, desto niedriger ist die Nachweisgrenze, aber je niedriger diese ist, desto weniger Photonen hast Du, entsprechend verrauscht sieht es aus.
    Das ist der gleiche Grund, warum ein Bild mit hohem Iso und mehr Licht mehr rauscht, obwohl das Ausleserauschen niedriger ist: Du verwendest weniger Photonen !
    Deswegen platzt Frank auch immer der Kragen, wenn bei jeder neuen Kamera lautstark verkündet wird, wieviel Belichtungszeit man "sparen" kann.


    Eine kleine Bemerkung zur Sensorgen Seite: Wie kommen die denn bei einigen Kameras auf 278% QE ? Ich glaube, da wird auch einiges an Schrott gesammelt...


    Viele Grüße
    Norbert

    Hallo Zusammen,


    also das Ausmessen einer Kamera ist an sich nicht schwer, mman braucht nur zwei saubere Flats und zwei Bias Aufnahmen. Das Programm sollte aber ohne Skalierung die Rohdaten in jedem Farbkanal getrennt öffnen können. Daraus folgt Ausleserauschen und Verstärkung (e-/ADU)
    Dunkelstrom ist schwieriger, weil die meisten Rohdaten von DSLRs bezüglich des Bias schon zurechtgeschoben werden. Darauf wird in CCD-Messanleitungen nicht eingegangen. Hier kann man nur aus dem Anstieg des Ausleserauschens bei Langzeitbelichtung auf den Dunkelstrom rückschließen
    In Maxim DL gibts ein Menü, dass das die Gainbestimmung automatisch macht, in Fitswork ist es ein Krampf,bis man allein die Farbkanäle ohne Verrechnung zur Verfügung hat.


    Viele Grüße
    Norbert

    Hallo Martin,


    das ist doch kein Widerspruch. Das Ausleserauschen erhöht sich mit der Wurzel aus der Aufnahmezahl, d.h. in deinem Beispiel um ca. 25. Dann ist es eben nicht mehr vernachlässigbar gegen die anderen Rauschquellen. In der einzelnen 600 sek Aufnahme ist es dagegen vernachlässigbar. Hätte die Kamera kein Ausleserauschen, wäre es in der Tat vom S/N das Gleiche, ob man in einem Zug aufnimmt oder stackt.
    Das Gesamtrauschen hängt aber vom Signal selbst, dem Hintergrund und dem Dunkelstrom ab, die alle proportional zur Zeit sind. Da das Auseserauschen zeitunabhängig ist, fällt es bei langer Belichtungszeit schnell in die Bedeutungslosigkeit.


    Gruß
    Norbert