Binning in der Kamera oder mit Software

  • Guten Tag,


    da ich noch nicht allzulang mit einer Astrokamera fotografiere, habe ich die Vorteile des Binnings zu erkunden erst einmal zurückgestellt. Meine Kamera hat 3,76 µm große Pixel. Auf Aufnahmen mit 530 mm Brennweite schauen kleine Sterne mit 2x2-Binning pixelig aus. Da würde ich es nicht nehmen. Bei Aufnahmen mit 1030 mm halte ich es für angemessen.


    Hier meine Frage. Ist es nun besser, die Kamera das Binning machen zu lassen oder ist es besser das Binning an einer bestimmten Stelle der Bildbearbeitung einzuschieben, z.B. nach dem Kalibrieren der Einzelaufnahmen? Für Aufnahmen mit CCD-Kameras war klar, dass die Kamera das Binning machen soll. Nun habe ich eine CMOS-Kamera, da ist mir das nicht klar. (Ein Vorteil des Binnings in der Kamera, der aber bei den heute üblichen Speicherkapazitäten keine große Rolle mehr spielt, ist, dass die Bilddateien nur 1/4, 1/9 usw. an Umfang haben. Auch gehen die meisten Verarbeitungsschritte mit kleineren Dateien schneller.)


    Eure Erfahrungen wären mir sehr willkommen.


    Gruß von Heinrich

    TEC Apo 140/980 mm, GSO 10" RC, Takahashi Epsilon 160ED, QHYCCD268M, QHYCCD178M, Canon EOS 70D, Losmandy G11

  • Hallo


    der Unterschied ist das bei CCD zusammengeschaltete Pixel mit einem mal ausgelesen werden, nur einmal ausleserauschen

    bei CCD werden die Pixel einzeln ausgelesen, binning erst danach,

    nun werkelt die Kamera mit 16bit, auf dem Rechner würde diese Mitteln schon mit 32bit ausgeführt.

    ich würde vermuten das dann bei hoher Bildanzahl durch die Menge der Varianzen das Signal glatter wird.

    Vermutlich noch besser das binning erst nach dem Stacken

    das wird stark von der Menge der zu stackenden Bilder abhängen, ob es vom Rauschen besser ist, ob es nun 20Bilder oder 2000Bilder sind


    Gruß Frank

  • Grüß Euch,


    rein theoretisch ist es natürlich sinnvoller, die "überflüssigen" Daten erst mal mitzuschleppen, und in der EBV wegzuwerfen. Zurückholen kann man sie ja hinterher nicht mehr.

    Ein weiterer Vorteil wäre auch die Hotpixel Korrektur, ein Hotpixel würde eben bei 2x2 schon 4 Pixel anstecken.

    Der andere Punkt, den Frank schon angesprochen hat, ist die auf 16bit beschränkte Ausgabe. Das habe ich bei meiner 14bit ASI mal genauer angeschaut:

    In den 16bit FITS Daten sehe ich bei 1x1 Lücken im 16bit Histogramm, die darauf beruhen, dass die 14bit Rohdaten im Treiber einfach mit 4 multipliziert werden. Ddaurch kommt eben nur jeder vierte Zahlenwert vor.

    Bei 2x2 Binning sind die Lücken weg.

    Es sieht so aus, als würde bei 2x2 Bining nicht gemittelt, sondern schlicht summiert, und die 16bit somit richtig ausgenutzt. D.h. für diese Kamera wäre bei 2x2 Binning keinerlei Effekt in bezug auf das Gesamtrauschen zu erwarten.

    Das ist eher eine akademische Diskussion, unter praktischen Bedingungen dürfte selbst bei "echten" 16bit Kameras kein großer Effekt beim Binning in der Kamerafirmware zu sehen sein, ich würde die Entscheidung rein vom räumlichen Sampling abhängig machen. Man darf auch nicht vergessen, dass man ja auch beim nachrträglichen Softwarebinning je nach Programm ja auch selbst darauf achten muss, dass man wirklich mit 32bit arbeitet usw.

    Praktisch habe ich mir das ganze aber nicht angeschaut, vielleicht gibts da ja auch noch andere Argumente.


    Gruß

    Norbert

  • Ein weiterer Vorteil wäre auch die Hotpixel Korrektur, ein Hotpixel würde eben bei 2x2 schon 4 Pixel anstecken.


    Gruß

    Norbert

    Hallo


    Das geht davon aus das die Pixel schon beim belichten zusammengaschaltet sind, bei CCD möglich bei CMOS nicht.

    Ob addiert oder gemittelt spielt keine Rolle, addiert ist in sofern wesentlich leichter da es keine Kommastellen produziert.

    Hotpixel bei 2x2? Nehmen wir an voll gleich 1

    Dann ist 0,5+0,5+0,5+1 = 2,5

    Machst du ein Dark 0+0+0+1 = 1

    Wäre nach Dark Abzug dann 1,5 statt der vermutlich richtigen 2

    25% daneben

    So kann man das nicht rechnen, was wäre bei 5+5+5+1000???

    Ohne Binning wäre da aber eine Null

    Eigentlich müsste ein Hotpixel durch den Mittelwert der Nachbarpixel ersetzt werden

    Dithern ist immer gut, das bringt den Fehler auch ohne Dark schnell unter 10%

    Bei Sigmastack sollte man da gar nix mehr von sehen

    Ab einer gewissen Bildanzahl bringen Darks keine Verbesserung


    Gruß Frank

  • Hallo Frank,


    es ging mir bei den Hotpixeln nur um den Vergleich oversampled vs. gebinnt, völlig unabhänghig von der Biningmethode. Und ich gehe davon aus, dass man in beiden Fällen vor dem Softwarebinning kalibriert, sei es mit Darks, Dithering oder einem Softwarefilter (räumlicher Kernel oder sigma-clipping) , dann ist der Restfehler nach dem Binning kleiner.

    Dass man das gebinnte Bild immer von Hotpixeln befreien kann ist trivial, aber im Falle des Oversamplings habe ich geringfügig mehr echte Info im Rohpixel, als beim direkt kameragebinnten Bild.

    Praktische Relevanz hat es m.E. aber keine.



    Gruß

    Norbert

  • Hi,


    bei CCDs macht man on-chip Binning, wenn/weil man das Rauschen pro (gebinntem) Pixel minimal halten will. Binnt man on-chip kommt das Ausleserauschen nur 1x pro 1 gebinntem Pixel (also sagen wir bei 2x2 Binning auf das summierte Signal von 4 Pixeln) drauf. Im Gegensatz dazu: Wenn man jedes physikalische Pixel einzeln ausliest, dann kommt auf jedes Pixel das Ausleserauschen und wird beim Software-Bin 4x MIT aufsummiert...


    ABER: Man muss sich genau ausrechnen ob das Ausleserauschen im Vergleich zum ShotNoise (also dem statistischen Rauschen der Photonen-Zählrate, normalerweise SQRT(n)) überhaupt relevant ist !!! (a) Wenn man breitbandige 'Fotos' macht (Direct Imaging in Breitbandfiltern wie BVRI) ), dann ist der Himmel oft so hell, dass das Rauschen des Himmels sowieso alles dominiert. Dann braucht man also auch nicht auf dem Chip zu binnen. WENN man aber (b) sehr schmalbandiges Imaging (Linienfilter) macht ODER Spektroskopie, wo pro Pixel der Himmelshintergund sehr wenige Photonen enthält, DANN kann das on-chip Binning plötzlich die Lage beim Rauschen verbessern. Dann ist on-chip binning besser - vom Rauschen her !!!


    Nachteile von on-chip bin:

    - Cosmics werden breiter !

    - Auflösung geht runter (bei Spektroskopie evtl. auch spektrale Auflösung)


    I.a. muss man das alles ausrechnen unter Berücksichtigung von

    - Konversionsfaktoren e- --> Count

    - Ausleserauschen des chips in e- (Ausleserauschen ist normalerweise abhängig vom eingestellten Konversionsfaktor)



    So ist es bei CCDs - Wie das bei CMOS = DSLR chips ist, weiss ich aberleider nicht.


    Gruss, Peter

  • Moin Heinrich,


    was möchtest Du mit dem Binning erreichen?


    Mit Binning steigerst Du die Empfindlichkeit und die "full well capacity", d.h. wie viele Elektronen in ein Pixel passen und erkaufst Dir das dann mit geringerer Auflösung. Durch die erhöhte full well capacity bekommst Du mehr Dynamik (kannst länger belichten). Daher macht Binning tatsächlich nur in Hardware, also on-chip Sinn. Stell Dir die Pixel als Eimer vor.... bei 2x2 binning hast Du vierfache "Kapazität", bevor der Eimer überläuft. Ohne hardware binning läuft ein Eimer (bei 2x2 binning: 4 mal) schneller über. Hast Du bei der Belichtung die full well capacity überschritten, kannst Du mit der Software nichts mehr retten. Informationsverlust an der Datenquelle.


    Ich sehe an Deiner Ausrüstung, dass Du das binning wohl mit einer mono Cam machst. Ich habe die QHY268C und die Leute werben bei der Farbkamera tatsächlich mit Hardware-Binning. Was bei einer Farbkamera nur sehr sehr aufwändig realisierbar ist: das binning muss auf gleichfarbige (!) Pixel und nicht einfach auf benachbarte Pixel angewendet werden. Die QHY268C wendet binning auf benachbarte Pixel an. Mit dem entsprechenden Ergebnis: wertlos, Qualitätsverlust, keine Steiegrung der Empfindlichkeit. Also ein Marketing-Gag.

    Hoffe, das hat geholfen, CS

    Andreas

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!