CCD-Kamera: Bit-Tiefe vs. Fullwellwert

  • Hallo Technik-Freaks,


    ich hätte mal eine technische Verständnisfrage zum Design von CCD/CMOS-Chips bzw. Astrokameras.


    Es gibt die Anzahl der Graustufen die mit der Höhe der Bitzahl vorgegeben sind:


    12 Bit = 4096 Graustufen
    14 Bit = 16384 Graustufen
    16 Bit = 65536 Graustufen


    und es gibt die verschiedensten Fullwell-Werte der Chips.


    Wenn ich mir jetzt einen "Farbverlauf" vorstelle mit 65536 Graustufen (16 bit) der z.B. von 1 e bis 65536 e (e = Elektronen) geht, dann müsste doch ein CCD-Chip einen Fullwell-Wert von mind. 65536 e haben damit er alle Graustufen erfassen und registrieren kann.


    Hab ich hier schon einen Denkfehler in der Theorie oder könnt ihr mir noch folgen?


    Warum gibt es dann so viele 16 Bit CCD-Kameras wo der Fullwell-Wert kleiner 65536 e ist?
    z.B. QHY9 KAF8300 16bit Fullwell-Wert von 25500 e
    Dann kann doch der KAF8300 theoretisch obwohl der A/D-Wandler 16bit kann nur 25500 Graustufen registieren.


    Wenn dem so ist hängt doch die Graustufenauflösung bei
    Graustufen (bit) > Fullwell-Wert
    nicht vom der Bit-Zahl ab, sondern von der Fullwell-Kapazität.


    Ist mein Denkspiel so korrekt?


    Viele Grüße
    Markus

    Skywatcher EQ8 mit GSO RC 10" mit Leitrohr Vixen 80/910 mm, ZWO ASI1600MMC mit Baader Filtersatz, Software: N.I.N.A., PHD2 und PixInsight

  • Hi Markus,


    Wirklich nicht so einfach zu verstehen. Ohne den Anspruch auf volle Richtigkeit, ich bin da ja auch noch blutiger Anfänger , so mal meine Sichtweise. Die Bit Zahl bestimmt, wie viele farbabstufungen ich pro Kanal habe. So kann ich rot bei 8 Bit , in 256 Abstufungen darstellen. Lege ich zum Beispiel eine farbalette rot mit 256 Abstufungen auf den Tisch , darunter eine grün und eine blau, so ergibt nur eine Kombination aus zum beispiel 1 rot eins grün und eins blau , oder 12 r, 12 g und 12 b eine graustufe. Diese Kombi kann nur 256 mal vorkommen, also von 1,1,1 bis 256,256,256. Alles andere wird eine Farbe. Bei der fullwell Kapazität kommt es ,also meiner meinung nach an, wieviele Elektronen gesammelt werden. Ich muss da aber nochmal nachlesen. Hoffentlich, ich stimmt das so. Bin mir da nicht ganz so sicher aber dazu ist ja ein forum auch da, mal eventuell falsch zu liegen, um das dann mal richtig erklärt zu bekommen.


    Ps: hab nochmal googeln. So einfach is es nicht mit dem grau;-)


    http://www.bobbel-qlb.de/farblehre-graustufen-und-rgb.html


    Viele grüße

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Markus_B</i>
    <br />Warum gibt es dann so viele 16 Bit CCD-Kameras wo der Fullwell-Wert kleiner 65536 e ist?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Weil der Fullwell-Wert auch von der Pixelgröße abhängt. Kleine Pixel = kleine Fullwell.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Markus_B</i>Dann kann doch der KAF8300 theoretisch obwohl der A/D-Wandler 16bit ist nur 25500 Graustufen registieren.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Real ist sind es wegen dem Kamerarauschen noch weniger. Dynamikbereich = Fullwell / Kamerarauschen. Das dürfte beim KAF 8300 bestenfalls Werte von 3000-4000 ergeben.

  • Danke für eure schnellen Antworten.
    Hintergrund meiner Frage ist, dass ich mich gerade ausgiebig mit der Thematik befasse,
    welche monochrome-CCD-Kamera für meine GSO 10" RC (f=2000 mm bzw. 1340mm) die sinnvollste und preiswerteste Kamera ist.


    (==&gt;)TorstenK:
    wenn die praktisch erzielbaren Werte noch viel niedriger sind, dann würde ja 12bit auch reichen.
    oder was ist hier deine Meinung?

    Skywatcher EQ8 mit GSO RC 10" mit Leitrohr Vixen 80/910 mm, ZWO ASI1600MMC mit Baader Filtersatz, Software: N.I.N.A., PHD2 und PixInsight

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Markus_B</i><br />(==&gt;)TorstenK:
    wenn die praktisch erzielbaren Werte noch viel niedriger sind, dann würde ja 12bit auch reichen.
    oder was ist hier deine Meinung?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Prinzipiell ja, aber 16 bit AD-Wandler sind einfach Standard und für 12 oder 14 bit gibt es auch kein gebräuchliches Daten- bzw. Dateiformat. Also nimmt man halt den nächst größeren Standard. Sieht ja auch werbetechnisch besser aus... [;)]


    Zur "sinnvollsten" Kamera:
    Ich würde bei deinen Brennweiten zu 9µm Pixeln tendieren, die hätten dann auch eine hohe Fullwell. Dann den größten Chip, den dein GSO ausleuchtet. Aber preiswert wird das nicht, wie viel darf es denn kosten?

  • Hi Markus,


    Hab jetzt ein wenig Blut geleckt[:)]. Hängt denn das eine mit dem anderen zusammen. Wenn ich dich richtig verstehe , braucht es genau soviel Elektronen wie graustufen oder wie ist deine frage dahingehend zu verstehen? Die Pixel werden ja immer kleiner , zumindest bei dslr Kameras, denn die grösse des Sensors bleibt und die megapixel Zahl steigt. Im umkehrschluss würde das doch aber bedeuten, dass sich die bittiefe veringert, da die kleineren Pixel auch weniger elektronen" benötigen", bis sie gesättigt sind.
    Also wäre meine frage: hängt die bittiefe mit der full well Kapazität direkt zusammen?



    Viele grüße

  • Hallo Alex,
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Hängt die bittiefe mit der full well Kapazität direkt zusammen ?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> Antwort in Kurzform: Nein.


    Heute existierende Kameras können nicht einzelne Elektronen direkt in Graustufen des A/D-Wandlers umwandeln (das wären dann echte Digitalkameras!). Es gibt durchaus Kameras, die wirklich einzelne Elektronen/Photonen detektieren können, da wird das Signal aber so hoch verstärkt, dass der A/D-Wandler pro detektiertem Elektron mehrere bis viele Graustufen Unterschied sieht. Diese Kameras haben in dieser Betriebsart einen eher kleinen Dynamikumfang, trotz ordentlicher Bittiefe beim A/D_Wandler. Paradebeispiel dafür ist eine gute EMCCD-Kamera. Da verlassen wir allerdings vom Aufwand her den Amateurbereich.


    Die Bittiefe einer Kamera allein sagt über deren Qualität ungefähr so viel wie die theoretische maximale Vergrößerung über ein Teleskop.
    Was uns die Suppe der Bildaufnahme oft gründlich versalzt, ist das Rauschen.
    In der Praxis gibt es mehrere Quellen von statistischem Messfehler, wie man das Rauschen auch nennen kann. Für die Erkennbarkeit sehr schwacher Signale ist das Dunkel- und das Ausleserauschen entscheidend. Sind diese beiden Werte sehr niedrig, dann bringt eine feine Graustufen-Auflösung echte Vorteile.


    Bei Helligkeiten nahe der Vollaussteuerung eines Bildsensors ist die Grauwertauflösung des A/D-Wandlers in den allermeisten Fällen viel feiner als nötig. Hier dominiert praktisch immer das Photonenrauschen, das die Helligkeitsauflösung begrenzt. Dies ist analog zum Beugungsscheibchen beim Teleskop, das bei gegebener Öffnung die Ortsauflösung begrenzt. Das ist einfach ein physikalisches Limit, das man als gegeben hinnehmen muss.


    Beispiel: Bei 25.000 Elektronen Fullwell-Kapazität kann die Helligkeit in einem Einzelbild pro Pixel wegen des Photonenrauschens nur mit einem Messfehler von 1 : Wurzel aus 25.000 = 1/158 bestimmt werden. Dazu genügt sogar noch ein 8 Bit A/D-Wandler.


    Bei sichtbar aufgehelltem Himmelshintergrund im Bild wird das Limit vor allem durch das Photonenrauschen vorgegeben. In dieser Situation bringt eine Kamera mit sehr hoher Bittiefe beim Wandler kaum einen oder keinen Vorteil, da hilft nur noch eine lange Gesamt-Belichtungszeit durch Addieren vieler Einzelbelichtungen.


    In der Praxis sehe ich nur in ganz wenigen Fällen hinsichtlich der Bildqualität echte Vorteile mit mehr als 12 Bit Wandlertiefe.
    Bei dem extrem niedrigem Ausleserauschen vieler moderner Kameras sind kleinere Pixel dagegen kein gravierender Nachteil mehr, so lange es sie in genügender Menge gibt.


    Fazit: Die Sache ist leider nicht so einfach, dass wenige simple Daumenregeln zur Kamera-Auswahl genügen. Wer eine eigenständige qualifizierte Entscheidung treffen will, muss sich leider erst mal einige Grundlagen aneignen. Und dann mehrere technische Daten der Kameras gegeneinander und mit Blick auf den geplanten Einsatz abwägen.


    Gruß,
    Martin

  • Hi Markus,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Markus_B</i>
    <br />Hallo Technik-Freaks,
    ...
    Warum gibt es dann so viele 16 Bit CCD-Kameras wo der Fullwell-Wert kleiner 65536 e ist?
    ...
    Viele Grüße
    Markus
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Die Camera Chips bieten ja auch Binning an, also das zusammenfassen mehrerer Pixel zu einem Analogwert am CCD Ausgang. Da werden dann entsprechend dem Bild der Eimerkette beim CCD 4 oder 9 oder 16 Eimer in den Ausgangseimer gekippt bevor der vom AD Wandler abgeholt wird. Da sind 16Bit dann schon notwendig.


    Clear Skies,
    Gert

  • Hallo Martin,


    Vielen Dank für deine ausführlichen Erläuterungen. Ich denke, ich werd mich da mal genauer belesen müssen. Ist alles nicht so einfach, wie aus einem lichtteilchen, was auf den chip trifft, ein bild mit den dann auch noch zutreffenden Farben entsteht. Das poblem ist meist, dass das geschriebene meist für fortgeschrittene gescndhrieben ist und ein quereinsteiger oder Anfänger, nach den ersten zeilen, die Flinte ins Korn wirft. Werd mal googeln, was es dazu so gibt.
    Also vielen dank nochmal und einen schönen abend

  • Hallo Gert, Martin_B, TorstenK und der_Alex,


    sehr interessante Antworten! besonders die Ausführung von Martin_B.


    Meine Grundgedanke war nur die Theorie, da mir die Verhältnisse Fullwell und Bit beim Studieren der Angebote aufgefallen sind.
    Die Praxis darf man natürlich auch nicht außer Acht lassen. Das die Thematik nicht einfach ist hab ich schon gewusst.


    Trotzdem finde ich das mein anfänglicher theoretischer Gedankengang nicht komplett falsch ist, da ja unterschiedliche Elektronenmengen gesammelt werden wenn die Sterne unterschiedliche Helligkeiten haben oder wenn man den Mond ablichtete gibt es ja auch viele verschieden feinen Grauabstufungen,
    wo ich mich dann schon frag 16bit würde 65K Graustufen ermöglichen, die "Eimer" laufen aber bei 25K über!


    Momentan hab ich leider nicht das Geld zur Verfügung um mir eine gute CCD z.B. Moravian G3-16200 zu kaufen und frag mich ob ich mit einer Zwo ASI gekühlt auch glücklich würde?


    Herzlichen Dank für eure detailierten Antworten
    Markus

    Skywatcher EQ8 mit GSO RC 10" mit Leitrohr Vixen 80/910 mm, ZWO ASI1600MMC mit Baader Filtersatz, Software: N.I.N.A., PHD2 und PixInsight

  • Moin Markus,


    Ich hab bei baader nachgelesen und kann deine frage jetzt gut verstehen. Es wird geschrieben, dass die einfallenden photonen linear in elektronen umgewandelt werden. Der graustufen wert wird von Wandler bestimmt. Wenn ich nun , bei 8 Bit, 256 graustufen habe, benötigt es 256 elektronen , um alle darstellen zu können. 1 steht für schwarz , 256 für weiß. Man kann ja aus 3 elektronen, theoretisch keine 256 graustufen darstellen. Sollte aber bei besagten 3 elektronen das Fass voll sein, was dann?
    Irgendwie hab ich es auch noch nicht richtig begriffen und hoffe, es gibt da jemanden, der das nochmal erklärt. Dein Einwand, dass der graustufen wert in diesem Fall von der full well Kapazität vorgegeben wird, ist da schon berechtigt.
    Ganz klar ist mir das auch nicht. Es hat ein bissl gedauert, bis ich durch nachlesen auf besagter Seite begriffen habe, was du meinst.
    Sehr interessanter Beitrag von dir.



    Viele grüße und einen schönen tag

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: der alex</i>
    Wenn ich nun , bei 8 Bit, 256 graustufen habe, benötigt es 256 elektronen , um alle darstellen zu können. 1 steht für schwarz , 256 für weiß. Man kann ja aus 3 elektronen, theoretisch keine 256 graustufen darstellen. Sollte aber bei besagten 3 elektronen das Fass voll sein, was dann?
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">



    Hi Alex


    Martin hat es ja schon realitätsnah geschildert, dann bring' ich nochmal die stark vereinfachte Milchmädchenrechnung:


    Einschub: bei 256 Graustufen steht die 0 für schwarz und die 255 für weiß


    Nehmen wir mal an, der AD-Wandler kennt (glatter Wert) 100 Graustufen und die Fullwellkapazität ist 99 und Rauschen null und alles linear, dann entspräche bei dieser idealen Kamera ein Elektron einem Graustufenwert im fertigen Bild. 99 = weiß, 0 = schwarz, 17 = dunkelgrau etc.


    Jetzt hat aber die Fantasiekamera pro Pixel plötzlich nur 20 Elektronen nach oben Platz. Dann wird der AD-Wandler nur noch Fünferschritte machen.


    0e = 0
    1e = 5
    2e = 10
    20e = 99


    Dann werden 80 mögliche Zwischengraustufen (1-4, 6-9, 11-14, etc.) nicht genutzt. Unter Umständen zählt der AD-Wandler die bis zu 20 Elektronen und multipliziert das Ergebnis mit einem festen Wert, um auf die nötigen 100 (99) zu kommen, hier wäre der Multiplikator 5. Das Histogramm sieht dann aus wie ein Kamm. Ein ähnlicher Verlust tritt auf, wenn Du in einem Bild den Kontrast massiv erhöhst.


    Stell Dir vor, du kannst in Millimetern messen, Deine zu messenden Gegenstände sind aber nur exakte halbe Zentimeter lang. Dann taucht eine 5,3 gar nicht auf, obwohl sie darstellbar wäre. So in etwa.


    Viele Grüße
    Stick

  • Hallo,
    vielleicht kann ich aus technischer Sicht nochmal etwas Licht ins Dunkel bringen.
    Als erstes hat man einen Pixel, welcher das einfallende Licht in Elektronen umwandelt. Dieser ist eigentlich ein kleiner Kondensator aus Silizium mit Potentialwällen drumherum.
    Der Auslesevorgang zählt dann nicht etwa die Elektronen, sondern mißt eigentlich nur die Spannung am Kondensator. Diese kann man mit beliebiger Auflösung messen, meinetwegen 12, 16 oder auch 18bit. Technisch kein großes Problem. Wenn der Kondensator nun nur 10000 Elektronen aufnehmen kann, kann man zwar auch mit 16bit (65535 Stufen, ergibt 6,5Stufen/je Elektron) messen, aber da nur ganzzahlige Elektronen drin sind, ist das Meßergebnis quantisiert also alle 6,5Stufen ein Sprung. Also es wird eigentlich feiner gemessen als es nötig ist. Dies ist die Idealvorstellung. Die reale Messung kann bei gewöhnlichen CCDs nicht jedes einzelne Elektron messen, sondern eigentlich nicht viel besser als bestenfalls etwa 3 Elektronen, hauptsächlich durch das Rauschen. Normale CCDs haben meist 10Elektronen Rauschen. Dh. bei 50000e- FullWell und 10e- Rauschen hat man reale 5000Stufen, 12bit (4096 Stufen) wäre ein bisschen zu wenig, 16bit ist ok. Man sollte das Rauschen prinzipiell mit einer höheren Auflösung messen, als augenscheinlich notwendig, da sonst mglw. Problem beim Stacking auftreten. Dies ist aber nicht so leicht zu erklären und würde den Rahmen sprengen. In der Realität ist übrigens die Auflösung des Analog-Digitalwandlers nicht 12 oder 16bit, sondern es ergeben sich durch technische Randbedingungen geringere Auflösungen. Dies wird auch als ENOB (effective number of bits) bezeichnet. Diese liegt dann 1 bis 2bit unter den angebenen Werten. Dh. 16bit hat in den meisten Fällen schon seine Bedeutung.
    Gruß Tino

  • Halo Tino,


    Das hast Du ganz hervorragend und verständlich erklärt!
    Ich möchte noch was zum Rauschen ergänzen:


    Was bedeutet eigentlich "10 Elektronen Rauschen"?


    Nehmen wir an, bei konstantem Signal bekommen wir in einem bestimmten Pixel 100 Elektronen pro Bild.
    10 Elektronen Rauschen bedeutet nun, die Standardabweichung vom Messwert beträgt 10 Elektronen. Dann messen wir bei 50% der Bilder einen Wert zwischen 90 und 110 Elektronen, die restlichen 50% liegen außerhalb dieses Bereichs. 99% der Bilder liefern einen Messwert zwischen 50 und 150 Elektronen, und 1% haben eine noch größere Abweichung.


    Nachtrag: Wegen der Photon Shot Noise wird das Rauschen bei höherem Signal ganze erheblich größer sein als als 10 Elektronen. Eigentlich könnte man daher bei einer realen Kamera mit einem logarithmisch arbeitenden Wandler mit sehr viel weniger Bits auskommen. Das hat sich wohl auch deshalb bisher nicht durchgesetzt, weil die Weiterverarbeitung solcher Bilder bisher schwieriger war.


    Beim Stacking sollte in jedem Fall besser addiert werden, nicht gemittelt. Unsere Kamerasoftware in der Firma arbeitet intern mit 32 Bit Grauwertumfang, um echte Bildaddition zu ermöglichen. Ich glaube, diverse Astronomie-Bildverarbeitungssoftware kann das auch?


    Gruß,
    Martin

  • Vielen dank an alle. Es ist schon alles nicht so einfach, wenn man das zum ersten mal hört bzw. Sich damit beschäftigt. Im Prinzip hat dann der Markus doch recht mit seiner annahme. Ich hoffe , er nimmt es mir nicht übel, wenn ich hier so in seinem Thema vorgeprescht bin aber es ist doch ziemlich interessant.


    Also allen einen schönen tag

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Beim Stacking sollte in jedem Fall besser addiert werden, nicht gemittelt. Unsere Kamerasoftware in der Firma arbeitet intern mit 32 Bit Grauwertumfang, um echte Bildaddition zu ermöglichen. Ich glaube, diverse Astronomie-Bildverarbeitungssoftware kann das auch?
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Der Unterschied zwischen Addieren und Mitteln (arithmetisch!) ist gleich null. Letzteres ist ja nur ein Dividieren des Summenwertes durch die Anzahl der Bilder und die ist für alle Pixel identisch.


    Und ja. Die gängigen Astro-Bildbearbeitungs-Programme arbeiten mit 32bit/Kanal, damit eben durch Quantisierung (oder Überlauf) keine Information verloren geht.


    Gruß


    ullrich

  • Auch von mir vielen Dank an Alle!
    bin dir nicht böse der_Alex dafür ist doch ein Forum da.


    Ich glaub da hab ich ein sehr interessantes sinnvolles Thema angeprochen und fasse für mich erstmal so zusammen:
    1. 16bit ist klar zu bevorzugen
    2. der FullWell sollte möglichst hoch sein um viele Graustufen abbilden zu können.


    Viele Grüße
    Markus

    Skywatcher EQ8 mit GSO RC 10" mit Leitrohr Vixen 80/910 mm, ZWO ASI1600MMC mit Baader Filtersatz, Software: N.I.N.A., PHD2 und PixInsight

  • (==&gt;)Ullrich:
    *Haarspalter-Modus an*
    Der Unterschied zwischen Mitteln und Addieren ist bei Festkommazahlen nicht gleich null.
    Außer Du schreibst die 16 Bit Bilder in die oberen 16 Bit eines 32 Bit Registers und mittelst dann. So können die "unteren" 16 Bit die feinere Auflösung durch den erhöhten Dynamikumfang abbilden.
    Das ist dann aber kein einfaches Mitteln mehr, denn Du hast zuvor mit 256 multipliziert. Dann kommt allerdings mit viel komplizierteren Rechenschritten bis auf einen Skalierungsfaktor exakt das Gleiche raus wie bei einer einfachen Addition in das 32 Bit Register .
    *Haarspalter-Modus aus*


    (==&gt;)Markus:
    3. Das Dunkelrauschen und das Ausleserauschen sollten möglichst klein sein.
    4. Die Quantenausbeute im benötigten Wellenlängenbereich sollte möglichst hoch sein.


    An alle: Haben wir noch was vergessen?


    Gruß,
    Martin

  • Hallo Martin,


    Deine Antwort im Haarspaltermodus ist absolut korrekt. [:D]
    Wenn du mehrere 16-bit Werte addierst (z.B. 16) bekommst du theoretisch bei Maximalwerten (16 x 65535 = 1048560) auf einen 20-bit Wertebereich (also 4-bit mehr) bei der Addition.
    Eine Mittelung verschiebt die unteren 4-bits wieder zurück um einen 16-bit Wert zu erhalten (was einer Teilung durch 16 entspricht). Dadurch schneidet man Details ab.
    Die unteren bits sind aber sinnvoll durch "Oversampling" erzeugt worden.
    Beim Oversampling wird davon ausgegangen das das unterste Bit meist durch Rauschen mal eine '1' und mal eine '0' wird.
    Das Rauschen muss weiß sein (gleichmäßig verteilt) damit das funktioniert.
    Statistisch gesehen sieht man Werte die näher an '1' waren als an '0' öfter als '1'. Addiert man alle diese Samples erhält man dann auch einen Wert der genauer ist als die Auflösung des AD Wandlers.


    Sinn macht das natürlich nur wenn das Rauschen und andere Fehler in der Signalkette nicht größer sind als die gewonnenen bits.

  • Hallo Zusammen,
    es freut mich, dass ich so ein interessantes Thema angeschnitten habe,
    und danke für die zahlreichen Antworten.


    Viele Grüße
    Markus

    Skywatcher EQ8 mit GSO RC 10" mit Leitrohr Vixen 80/910 mm, ZWO ASI1600MMC mit Baader Filtersatz, Software: N.I.N.A., PHD2 und PixInsight

  • Hallo Roger,


    die unteren verrauschten Bits kann man nach dem Addieren getrost wieder wegschieben. Das wird nach meiner Meinung nie auf ein stabiles Ergebnis konvergieren. Die höhere Genauigkeit stellt sich erst aus den Überträgen der Addition ein. Wenn die unteren drei Bits rauschen dann werden sie das auch nach nach dem Addieren von 8 Bildern noch tun. Aber die Überträge haben bei der Addition neue Bits nach links geliefert und gleichzeitig haben die Bits ihre eigene Bedeutung deutlich reduziert da man ja jetzt mehr Auflösung hat.


    Gruß, Thomas.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!