BIAS gleich Minimum vom Darkframe ?

  • Hi zusammen,
    kurze Frage an die Experde.
    Ist der Dunkelstrom (Bias) eines CCD-Bildes gleich zusetzen mit dem Minimum-Pixel-Wert eines Darkframes?
    TIA

  • Hi Peter,


    so viel wie ich weiß, enthält ein Bias Bild nur das Ausleserauschen des Chips. Dazu wird ein Bild mit der kürztest möglichen Belichtungszeit aufgenommen, um möglichst kein thermisches oder sonstiges Rauschen im Bild zu haben. Ein Darkframe dagegen ist ja so lang belichtet wie das eigentliche Bild. Somit ist im Dark das thermische und sonstige Rauschen enthalten. Daher kann ich mir nicht vorstellen, daß ein Bias der Minimum-Pixel-Wert des Darkframes ist. Ein Darkframe müßte meiner Meinung nach mehr Informationen enthalten.


    Viele Grüße,
    Martin

  • Hallo Scorpio,
    ich wußte gar nicht, daß es einen BIAS-Frame gibt! Ich dachte eher, das es ein errechneter Wert ist.
    Also wenn ich Dich richtig verstanden habe, ist es so:
    Der Unterschied vom BIAS-Frame (BF) zum Darkframe (DF) ist die Belichtungszeit und damit die Differenz aller Informationen die sich aus dem reinen Belichtungseffekt ergeben? Sprich thermisches Rauschen?


    Aus einem alten Thread habe ich von Ullrich gelernt:
    pc = pixel korrigiert
    pd = pixel darkframe
    pf = pixel flat field
    pr = pixel roh
    pmax_norm = (pf - pd)/ max(pf-pd)
    pc = (pr - pd) / pmax_norm


    Nur wo steckt jetzt der Wert des Dunkelstroms ?

  • Hallo Peter -
    Das simple Darkframe enthält ja schon das Bias-Frame.
    Ein Bias-Frame herzustellen macht normalerweise nur Sinn, wenn man das Ausleserauschen analysieren will und wenn man den Offset ermitteln muß. Es ist leicht einzusehen, daß die Elektronik so abgeglichen sein muß, daß keine negativen Pixelwerte entstehen. Dieser Offset ist im Bias-Frame genauso enthalten wie das Ausleserauschen. Der Offset ist dabei sozusagen der Background, das Ausleserauschen die 'Bildinformation' des mit kürzest möglicher Belichtungszeit aufgenommen 'Dark-'Frames.


    Dieses nur um die Erklärung von Scorpio genauer zu erläutern.


    Gruß


    ullrich

  • Hi Peter,


    das Bias hat eigentlich nichts mit dem Ausleserauschen zu tun.
    Das Bias ist vielmehr diejenige Ladung, die jedes Pixel des Chips hat, BEVOR überhaupt ein einziges Photon den Chip trifft. Die Pixel werden also quasi "vorgeladen", soweit ich weiß, weil sie sonst die auftreffenden Photonen nicht wandeln können - der Chip wäre lichtunempfindlich.
    Damit sollte das Bias idealerweise über den Chip immer den gleichen Wert haben - hat es aber nicht (jedenfalls nicht genau). Deshalb kann man aber viele Bias-Frames zu einem Masterbias mitteln und dieses dann als allerersten Reduktionsschritt vom Hellbild abziehen.


    Da kommt natürlich die Frage auf: Warum gibt es eigentlich die Bias-Korrektur? Kann man das Bias nicht gleich mit dem Dunkelbild abziehen?
    Antwort: Kann man nicht (jedenfalls, wenn man es genau nimmt - sprich, wenn man Fotometrie betreiben will. Ansonsten ist es nicht so kritisch).
    Nennen wir mal das Hellbild H. H setzt sich nun zusammen aus dem Objektbild O, dem Bias B, dem Dunkelstrom D und dem Flat F. Damit ist H = F*(O+B+D). Dummerweise ist das Dunkelbild D aber auch biasbehaftet (D = D'+B), auch hier muss man für eine vollständige Reduktion den Bias B abziehen. Und mehr noch: Vom Flat muss man Bias UND Dunkelstrom abziehen! Macht man das nicht (macht man also nur Dunkelstromkorrektur), bekommt man z. B. durch die Flatfield-Korrektur einen falschen Korrekturfaktor (da man auf das "echte" Flat ja noch den Biaswert B draufrechnet, und dann das Bild durch (F+B) teilt), und die Bilddaten werden verfälscht.
    Wie gesagt, das Ganze spielt vor allem für fotometrische Auswertungen eine Rolle, für Pretty Pictures sollte das weniger kritisch sein.


    Alle Klarheiten beseitigt? :)


    Gruß,
    Arndt

  • Hallo Arndt,
    vielen Dank für diese Erklärung, jetzt kann ich es nachvollziehen. Ich habe eine Software geschrieben (ich weiss, die 1000ste) die die Aufnahmen in Echtzeit addieren soll. Logischer Weise wollte ich die Berechnung perfekt machen und ausserdem die Auswirkungen direkt am Bildschirm sehen. Da die Software als Plugin ausgeführt ist, kann ich experimentieren und alles nachvollziehen, indem ich den einen oder anderen Filter zu- oder abschalte. Nur die genaue Verfahrensweise war mir bis gerade nicht so richtig klar.
    Meine ersten Experimente haben hezeigt, dass das Bild erheblich dunkler wird nachdem ich den Darkframe und den Flatframe abgezogen habe, was Deine Aussage bestätigt.
    Des weiteren habe ich daraus gelernt, das der Einfluß des BIAS und des Dunkelstromanteils doch wohl einen nicht zu verachtenden Anteil hat.


    Da Du Dich hier sehr gut aus zu kennen scheinst, gleich die nächste Frage :)
    a.) wie komme ich an den Dunkelstromwert? (kann er durch reine Subtraktion ermittelt werden ?)
    b.) wie erzeuge ich ein gutes Flatfield image? (Ich dachte da an spiegeln des frames in der Mitte, einmal horiz. und einmal vertikal)?
    c.) nach welchem Verfahren werden Hotpixel weggerechnet (mean value?, Nachbarpixel ?)


    ups, das waren ja gleich drei Fragen :)

  • Hallo Peter,


    hmm, gleich drei Fragen auf einmal... Das geht nun wirklich nicht... ;-)) Oder doch? *g*
    Also, mal sehen:
    ad a): Was meinst Du mit "Dunkelstromwert"? Brauchst du die Dunkelstromphotonen pro Sekunde? Oder das Dark Frame selbst? Das ist mir noch nicht so ganz klar.
    ad b): Flatfields sind so ziemlich das ekligste, was man CCD-mäßig machen kann. Es gibt bestimmt hundert Ansätze, eine gleichmäßig beleuchtete Fläche zu bekommen, goggle mal nach "Flatfield", und Du wirst sehen... :)
    Ich habe mir übrigens eine original 80x80 cm² Werbetafel in die Sternwarte gehängt, von hinten mit Leuchtstoffröhren beleuchtet (mein Teleskop ist ein bisschen groß für "Hutlösungen" o.ä.). Die mache ich einfach an, schwenke das Teleskop drauf und los geht's. Da die obere Kante des Spiegels dann etwas näher am Schirm ist als die untere, bekomme ich bei jedem Flatfield einen Gradienten mit rein, der lässt sich aber problemlos mit der entsprechenden Software wieder rausrechnen (ich nutze übrigens MIRA 6 Pro, ich glaube, Maxim oder AstroArt können sowas auch). Ich denke aber, dass die häufig genutzten "Sky Flats" für Deine Zwecke am Besten passen müssten (Aufnahme des Dämmerungshimmels).
    ad c): Hotpixel sind so eine Sache für sich. Wenn man sich so ein Dunkelbild ansieht denkt man wahrscheinlich: "Oh Mann, das ist aber verrauscht!!" Ist es aber gar nicht! Es ist nur so, dass jedes Pixel des CCD-Chips sein eigenes Dunkelstromverhalten hat, was bedeutet, dass die Pixel auch unterschiedlich schnell "volllaufen". Genau das wird aber durch einen Dunkelbildabzug vollständig behoben, solange die Pixel nicht stark vom mittleren Pixelverhalten abweichende "Volllaufcharakteristiken" haben. Dann allerdings hat man es mit Hot- oder Cold Pixels zu tun. Dabei sind noch die angenehmeren Sorte diejenigen, die sehr schnell zulaufen - "gesättigt" sind bzw. die überhaupt nicht lichtempfindlich sind. Die erkennt man nämlich sofort und kann sie dann erst mal markieren (wohlgemerkt!).
    Die "bösen" Pixel sind aber die, die scheinbar ein ganz normales Verhalten zeigen, aber doch deutlich aus der Masse der anderen Pixel ausscheren, was das Dunkelstromverhalten angeht. Das Problem dieser Pixel ist nämlich, dass sie eine andere "Schwärzungskurve" als die Masse haben, was bedeutet, dass bei der Dunkelbildkorrektur diese Pixel mit einem falschen Faktor skaliert werden, bevor sie vom Hellbild abgezogen werden. Die Folge ist ein an dieser Stelle falsch korrigiertes Bild, und wenn man dann viele Bilder aufaddiert, passiert es meist, dass man im Bild einige sehr lästige "Strichspuren" im Hintergrund hat, die genau von diesen "bösen" Pixeln stammen und verhindern, dass man den Kontrast auch mal etwas härter aufdrehen kann.
    Der langen Rede kurzer Sinn: Mach' Dir eine Hot Pixel Mask (oder besser: Bad Pixel Mask), auf der Du die ganzen Problemkandidaten einmal markierst. Die Korrektur erfolgt dann z. B. (so mach ich es auch immer) mit einem Median der das "Bad" Pixel umgebenden 8 Pixel. Dabei bleibt sogar das Bild fotometrisch nutzbar (was bedeutet, man "vergewaltigt" das Bild nicht unnötig!).


    HTH,
    Arndt

  • Hallo Arndt,
    nochmal Danke für die ausführliche Erklärung, leider....ich bin da wohl doch schwer von Begriff.
    war wohl ein Mißverständnis mit dem Dunkelstrom und dem Darkframe.
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Nennen wir mal das Hellbild H. H setzt sich nun zusammen aus dem Objektbild O, dem Bias B, dem Dunkelstrom D und dem Flat F. Damit ist H = F*(O+B+D). Dummerweise ist das Dunkelbild D aber auch biasbehaftet (D = D'+B), auch hier muss man für eine vollständige Reduktion den Bias B abziehen. Und mehr noch: Vom Flat muss man Bias UND Dunkelstrom abziehen! Macht man das nicht (macht man also nur Dunkelstromkorrektur), bekommt man z. B. durch die Flatfield-Korrektur einen falschen Korrekturfaktor (da man auf das "echte" Flat ja noch den Biaswert B draufrechnet, und dann das Bild durch (F+B) teilt), und die Bilddaten werden verfälscht.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Hier benennst Du D = Dunkelstrom und danach Dunkelbild = D = D' + B?
    Hmmm, bin jetzt ein bisschen verwirrt. Ich dachte der Dunkelstrom sei der BIAS.
    Also, für mich als langsam Denkender:
    H = Finalframe
    O = Objectframe (Raw)
    B = BIAS (Was auch immer es jetzt ist)
    D = Darkframe
    I = Darkcurrent
    F = Flatframe


    Vorverarbeitung:
    D = D' + B + I? vorrausgesetzt I ist ermittelbar für die Belichtungszeit
    -&gt; D' = D - B - I


    F = (F' + B + I + D')
    -&gt;F' = F - B -I - D'


    H = F (O + B + D)
    zur Optimierung:
    R = F(B+D)


    Echtzeitverarb.
    H = FO + R


    Dann Badpixel mean value etc


    Ich habe immer noch Schwierigkeiten die Größen richtig zuzuordnen.
    Welche Größen sind Zeit und/oder Temperaturabhängig und welche Größen können für den Moment der Aufnahme als konstant angesehen werden? Wenn ich den Flatframe mit dem Darkframe korrigiere müßte doch schon jeglicher Offset (DC-Anteil um mal elektrisch zu werden) beseitigt sein, vorrausgesetzt es sind keine zeitabhängigen Offset-Einflüsse drin. Wenn ich jetzt den F auf 1 normiere und mit meinem O multipliziere kann doch nur was falsches rauskommen da doch das F-Frame keine lineare Geschichte ist. F gibt doch nur die Empfindlichkeit bei einer bestimmten Wellenlänge für jedes Pixel bei einer bestimmten Belichtungszeit wieder. Das nützt mir doch nix [:(] Ich bräuchte doch die Verstärkung(Empfindlichkeit) jedes Pixels bei unterschiedlicher Lichtintensität um von dort aus für ein Zielpixel zurückzurechnen oder ? also sowas wie f = mx+a, wobei ich dann für jedes pixel m und a speichern würde.
    Gehen wir mal von einer linearen Fkt aus.
    Könntest Du nochmal kurz bestätigen das D = Darkframe ist und nicht Dunkelstrom?


    vielen Dank für Deine geduldige Hilfe Arndt.

  • Hallo Peter,


    OK, das mit dem Dunkelbild war wohl etwas verwirrend :)
    Also, das Dunkelbild ist zusammen gesetzt aus dem echten Thermoluminanzbild (dem eigentlichen Dunkelstrom) und dem Bias, daher auch D = D'+B. Auch hier macht sich eine fehlende Biaskorrektur beim Dunkelbild bemerkbar, denn wenn Du das nicht-Bias-korrigierte Dunkelbild vom Hellbild skaliert abziehst, es also mit einem Faktor a multiplizierst, dann wird deutlich, dass a*D' ungleich a*(D'+B). Ohne Bias-Korrektur wird also das im Dunkelbild noch enthaltene Bias ebenfalls mit a multipliziert; das Resultat ist ein a-faches Bias und das ist Quatsch mit Soße, wenn's um eine gelungene Reduktion geht (siehe Flat Field Korrektur).


    Insgesamt empfehle ich also folgende Schritte:


    1. Aufnahme von Hellbild, Dunkelbildern, Bias-Frames und Flat Fields


    2. Kombination der Bias-Frames zum Master-Bias


    3. Reduktion der Dunkelbilder um das Master-Bias
    4. Kombination der Dunkelbilder zum Master-Dark


    5. Reduktion der Flat Fields um das Master-Bias
    6. Reduktion der Ergebnisse aus 5. um das Master-Dark
    7. Kombination der Ergebnisse aus 6. zum Master Flat Field


    8. Reduktion der Hellbilder um das Master-Bias
    9. Reduktion der Ergebnisse aus 8. um das Master-Dark
    10. Flat Fielding der Ergebnisse aus 9. mit dem Master Flat Field aus 7.
    11. Kombination der Ergebnisse aus 10. zum Objektbild
    12. Filtern, skalieren und was einem sonst so einfällt :)


    Ich glaube, das war's. So reduziere ich jedenfalls immer meine Bilder.


    Gruß,
    Arndt

  • Hallo Arndt,
    na, wenn das kein Kochrezept ist[8D].
    Jetzt hat's geschnackelt.
    Es läuft wohl darauf hinaus das ich für jedes Master-X Image eine Bibliothek anlegen muß um verschiedene Belichtungszeiten und Temperaturen zu berücksichtigen.
    Das BIAS Master bewerte ich dann mal als Zeitunabhängig und nur thermisch beeinflußt.
    Mit dem Flatfield werde ich noch ein bisschen spielen müssen um alles genau herauszutüfteln.
    Meine ersten Ideen sind, die Kamera jeweils um 90 Grad zu drehen und immer die gleiche Fläche von fast dunkel bis hell durch zuleuchten. So kann ich die Werte korellieren und die Verstärkung für jedes Pixel berechnen, ohne das ich mir teures Zeug basteln muß.
    Aber ich denke es ist jetzt klar.


    PS: Hast Du schon mit dem CCDPACK von Sun gearbeitet ? Hab's im Netz gefunden und frage mich ob eine Portierung auf mein OS lohnt.


    Vielen herzlichen Dank für Deine Hilfe Arndt.

  • Hi,


    das BIAS ist praktisch nicht thermisch beeinflusst.


    Ein Flatfield darf nur verwendet werden, wenn sich die Kamera IN GENAU der gleichen Position befindet, bei der Aufnahme desselben sowie auch bei der Aufnahme der Rohbilder. Ebenso darf der Fokus NICHT verändert werden. Selbstverständlich vor dem Anwenden auch den passenden DARK abziehen.


    Mit anderen Worten: für Amateure häufig eher eine Verschlimmbesserung. Also besser eine passende Optik verwenden.

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Scorpio</i>
    <br />Hi Peter,


    so viel wie ich weiß, enthält ein Bias Bild nur das Ausleserauschen des Chips. Dazu wird ein Bild mit der kürztest möglichen Belichtungszeit aufgenommen, um möglichst kein thermisches oder sonstiges Rauschen im Bild zu haben.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Hi Scorpio,


    der elektronische Grund, warum es einen Bias gibt ist nicht das Ausleserauschen. Es ist vielmehr der Analog-Digital-Wandler. Der hat bei Werten um Null herum nämlich das Problem, dass er "negative" Werte durch Zufallsfehler in extrem hohe positive Verwandelt. Weil er halt Ganzzahlen ausgibt.


    Also füttert man beim Auslesen alle Pixelchen mit einem gewissen Mindestwert, dem Bias (auch Offset genannt). Der Wert muss um so höher sein, je mehr zufällige Fehler auftreten können. Bei der HX916 sind es satte 3000 ADUs!!! Also ca. 10% der maximalen Aussteuerung dieser Kamera (full well depth).


    Trotzdem macht sie fantatstische Bilder :)

  • Hallo beisammen,


    Um nochmal die zuerst gestellte Frage aus meiner Sicht zu beantworten. Wenn immer man ein CCD ausliest gibt es Anteile, die wirklich durch einfallendes Licht hervorgerufen worden sind und welche, die aus den physikalischen Eigenschaften des CCD und/oder der Ausleseelektronik incl A/D Wandler stammen. Wenn man dass mal als Nutzsignal und Stoersignal trennt, kommt als naechstes die Unterscheidung nach Abhaengigkeit von solchen Dingen, wie Zeit und Temperatur. Wenn man uberhaupt kein Licht aufs CCD fallen laesst bekommt man trotzdem ein Signal, das Dunkelsignal. Teile davon sind zeitabhaengig. Laenger belichten -&gt; mehr Signal. Nun ist ein 'Strom' ein Fluss von 'irgendwas' pro Zeiteinheit. Strom im Kabel sind Ladungen (Elektronen) pro Sekunde. Die spontane Erzeugung von Ladungen im CCD, durch Waerme stellt einen Strom dar. Das ist der Dunkelstrom. Dieser Strom erzeugt ueber die Integrationszeit ein Dunkelbild. Auch wenn Licht auf's CCD faellt passiert das selbe. (Hier wieder der gleiche Gedankengang: Fluss von aus Lichtquanten gebildeten Ladungen pro Sekunde ueber Zeit integriert gibt's Bild). Nun zum Restanteil im Dunkelbild. Ein reines Dunkelbild haette bei 0-Integrationszeit auch 0-Signal. Was dazu kommt ist das Bias. Das hat eine praktische Konsequenz. Wenn man haeufig variierende Belichtungszeiten hat, verwendet man unangenehmerweise viel Zeit damit die passenden Dunkelbilder zu integrieren. (Und davon gleich viele, damit man besser mitteln kann!) Wenn man aber von einem einmal gemachten Dunkelbild von z.B. 1minute ein Biasbild abzieht, hat man eine Basis um durch Multiplikation mit der Belichtungszeit und Addieren mit Bias ein Dunkelbild fuer praktisch jede Belichtungszeit synthetisch zu erzeugen. Ich glaube so ein Bild nennt man thermisches Bild (bitte korrigieren falls jemand das genauer weiss). Z.B. wenn man ein 10min Dunkelbild braucht wird das thermische Bild mit 10 multipliziert und das Bias addiert.
    Ich benutze das aber nicht, da ich versuche feste Belichtungszeiten zu verwenden und ich dafuer archivierte Dunkelbilder habe. Zur Kalibrierung des Objektbildes braucht man dann noch das Flat. Auch dafuer braucht man ein Dunkelbild (entweder ein eigens angefertigtes, oder ein per Skalierung aus Bias und thermischem Bild generiertes). Langfristig ist der Dunkelstrom im CCD recht stabil. Also muss man nicht immer neue Dunkelbilder machen. Ich benutze meine schon ein Jahr und sie funktionieren immer noch. Wenn sich was aendert ist es im Bias oder im Flat. Das Bias kann von Bauelemente Drift in der Elektronik beeinflusst sein, das Flat durch Staubflocken oder sonstige Ablagerungen auf dem CCD oder Filterglas.
    Bei den Starlight Cameras, die Sony CCDs verwenden, ist das Dunkelbild fast Null. Ein Bild von 1min. oder 10min. Integrationszeit hat fast identische Counts pro Pixel. Kodak ist das viel schlimmer. Deswegen ist ein Dunkelbild von einer sehr kurzen Belichtungszeit (1Sek) schon fast ein ideales Biasbild. Mehr Sorgen habe ich bei den Starlight Cameras mit dem Auslesen der Teilbilder, weil die Sony Chips interleaved ausgelesen werden. Aber das ist ein anderes Thema.
    Ach ja ;) wer moechte kann sich Ergebnisse von meiner MX716 (und frueher HX516) ansehen unter:
    http://www.trivalleystargazers…CD_Galery/ccd_galery2.htm
    Man sieht manchen (alten) Bildern noch die Zeiten an, als ich glaubte ohne Flat auskommen zu koennen. Das sind die besonders 'wolkigen' ;)


    Clear Skies,


    Gert

  • Hallo Gert,
    wenn dann schon mal hier alle Dunkelstrom-Experten :) zusammen sind, kannst Du mir dann auch gleich erzählen, wie Du Deine Frames gemacht hast ?
    Vor allem die Flatfields? Ich kann Toms Statement, das man ein Flat nur nehmen kann wenn alles in der Originalkonfiguration ist, nicht nachvollziehen.


    Kannst Du vielleicht auch sagen, wie die Zeiten gewählt sind, also die Abstände mit denen Du Deine Bibliothek angelegt hast ?
    Wo wir schon mal dabei sind: (Anfängerfrage)
    Warum werden die Bilder mit Filtern getrennt nach RGB und L gemacht ?
    Das man mehrere Serien macht kann ich mir ja erklären (Saturation vermutlich) aber warum nach Farben getrennt?


    PS: Deine Gallerie ist echt klasse.

  • Hi Gert,


    gute Bilder! Und der Frage nach dem Thermal Frame (also Dark-Bias) stimme ich auch zu. Nur die Aussage "als ich noch dachte ohne flats aus zu kommen" kann ich nicht unterstreichen.


    Und damit wären wir auch bei Dolph
    in


    Was soll ein Flat bewirken?


    1. Ausgleich der unterschiedlichen Sensitivität der Pixelchen.


    Das kommt aus den Anfangstagen der CCD-Produktion, wo mab durchaus auch mal 20% Differenz zwischen den "guten" Pixeln hatte, von den ganzen ausgefallenen Pixelreihen mal ganz zu schweigen :)


    Heute haben 1. grade chips alle locker besser als 5% manchmal viel besser


    -&gt; Flat wird dafür nicht mehr gebraucht


    2. Ausgleich unterschiedlicher Lichtmenge an unterschiedlichen Stellen.


    Typischerweise bei Vignettierung der Fall. Also: die Optik passt nicht zum CCD Sensor. Besser eine passende Optik verwenden, oder aber einmal ein Master-Sky-Flat machen, schwer Lowpass filtern (um das Rauschen zu verringern) und dann dieses immer verwenden. Aber: Die Beleuchtungsverhältnisse ändern sich durch andere Fokuslage, Filtereinsatz usw... Wer das nicht akzeptiert und trotzdem sein altes Flat weiterverwendet kann genauso gut in Photoshop fummeln bis es stimmt. Und hat daurch noch weniger Rauschen im Bild. Astroart hat da ein fantastisches Plugin, was das sehr gut kann.


    3. Ausgleich von Fremdpartikeln in der Optik (Donuts)


    In der Nähe der Fokalebene befindliche Partikel erzeuegen hässliche Bildstörungen. Ein GUTES Flat kann diese eliminieren.


    Natürlich müssen auf dem Flat ALLE Staubkröner genauso liegen wie auf den Rohbildern! Wenn ein Staubkorn zwischen Flat und Rohbild verrutscht, dann hat man ohne Flateinsatz EINEN Donut und mit Flat-Einsatz ZWEI Donuts im Bild. Was ist wohl besser, Dolphin?



    Nun bedenke man noch, das bei L RGB Aufnahmen 4 verschiedene Filter im Spiel sind, die natürlich 4 flats benötigen. Das alles kostet soviel Zeit, dass man dann zu wenig Zeit hat um mit vielen Rohbilder viele Photonen zu fangen. Zudem bringt ein Flat ja auch sein eigenes Rauschen ins Bild. Also bräuchte man ein Masterflat aus vielen Flats gemittelt mit wenig Rauschen...


    Meine Lösung:


    Passende saubere Optik, keine Darks, keine Flats. ALle Zeit ins Photonen sammeln (Also Rohbilder) investieren. Viele Frames machen um Zufallsrauschen sauber zu mitteln.


    Meine Optiken reichen von 12 mm bis 300 mm Fotoobjektive und 355 mm bis 1200 mm Teleskope. Kameras MX516, HX916 SAC8 und Canon EOS 300D


    Ergebnisse hier:


    http://www.licha.de/photo_reference.php?id=4&val=Tom%20Licha


    Guten Himmel und...

  • Hi Tom,
    das macht Sinn. Es war mir nicht bewußt, das die Verstärkung bei den Pixeln so gut ausgeglichen und linearisiert ist. Da Du viel mehr Erfahrung hast, gehe ich mal davon aus, das ich das Rad nicht neu erfinden muß und sodann die Flatgeschichte außen vor lassen kann. Jetzt verstehe ich auch warum Du sagtest: 'Lieber 'ne gute Optik', das war mir gar nicht klar aber leuchtet jetzt völlig ein.


    Das mit den Dark's scheint wohl eher so ein heißes Eisen zu sein [8D]. Jeder hat da wohl so seine Ansichten. Ich merke schon dass das alles andere als eine exakte Wissenschaft ist. Die Infos sind für mich jedenfalls sehr wertvoll und ich habe viel gelernt (und auch die Resultate gesehen) und das ist was zählt!
    Die Praxis wird's wohl an den Tag bringen und vielleicht kann ich in ein paar Jahren auch mal einen Anfänger davon abhalten die eierlegende Wollmilchsau zu basteln[:D]


    PS: Wenn ich mal einen Darkframe benutze, dann auch nur einen ganz kleinen ok?


    Danke für Eure wertvollen Hilfen in dieses schöne Hobby.

  • Hi Dolphin,


    es gibt Physik. Dabei gibts dann wohl nur eine richtige Antwort. Zumindest bei unseren primitiven Problemen.


    Aber der ganze Rest ist eben oft Ansichtssache. Wenn am Ende ein super Bild dabei rauskommt, ist das Ziel erreicht. Und es gibt viele Wege ;)

  • Yep! Sehe ich auch so.
    PS: Kannst Du mir dann auch gleich sagen wo die Dunkle Materie ist die alle suchen?[:D]
    Aber vielleicht brauchen wir sie ja gar nicht [:)][:)][:)]


    Nochmals vielen Dank Tom.

  • Hi Tom und Peter/Dolphin,


    Tom, prima Bilder auf Deiner Seite. Du benutzt ja die HX916, eine schicke Camera. Ich habe die MX716 (vorher die HX516). Bei den Starlight Cameras hat man ein prima Preis/Leistungsverhaeltnis. (Auch wenn es einige Dinge gibt, die ich nicht so toll finde: Ungeregelte Kuehlung + interline CCD mit VBE Problemen). Wenn ich mal ganz kritisch auf Deine Bilder gucke, kann ich sehen, dass Du keine Flats nimmst. Da koenntest Du noch ein wenig raus kitzeln! (Aber das ist ein anderer Thread;-) )


    Peter/Dolphin,
    Tom hat die Gruende fuer Flats ja schon erklaert. Es haengt von vielen Faktoren ab, ob man es sich leisten moechte auf Flats zu verzichten. Sein Statement, ohne Flats und Darks auszukommen kann ich nicht bestaetigen, aber das ist ein anderer Thread. Ich brauche sie, weil ich unter ziemlich aufgehelltem Himmel sitze. Da machen sich auch kleine Unterschiede in der Pixelempfindlichkeit bemerkbar. Ein Beispiel. Bei einer ungefilterten 120Sek Integration von meinem Balkon hat der Himmel Pixelwerte von 10000. Ein schwacher Spiralarm einer Galaxie hat z.B. Pixelwerte von 10200, also nur 200 ueber dem Untergrund. (Klingt nach wenig ist aber noch voll im gruenen Bereich) Wenn jetzt Pixelempfindlichkeiten um 5% schwanken habe ich eine Hintergrundmodulation von 9500 bis 10500. Wenn ich nun bei der Verarbeitung einen dunklen Hintergrund haben will, muss ich 10500 vom Bild abziehen und der Spiralarm ist weg. Wenn man zum CCD spechteln in eine sehr dunkle Gegend faehrt und der Hintergrund praktisch Null ist, ist das ein anderes Thema. Ich muss Tom mal fragen, wie hell sein Beobachtungsplatz ist. Ein Beispiel fuer den Effekt sieht man auf meiner Seite:
    http://www.trivalleystargazers…Galery/ngc3166_mx716.html


    Wie mache ich die Bilder.
    1. Darks. Dazu braucht man nichtmal ein Teleskop. Die Camera mit Deckel drauf nachts auf den Balkontisch (wo hoffentlich die selbe Temperatur herrscht, wie beim Beobachten) und mit den selben Integrationszeiten viele Bilder machen. Ich mache 50, die dann per Median gemittelt werden. (gut gegen Kosmische Teilchenspuren) Bei meinen Belichtungen haben sich Zeiten von 60/120/240Sek als typisch ergeben. Also mache ich Darks mit genau diesen Zeiten und archiviere die gemittelten Frames.


    2. Flats. Ich habe Mattscheiben und Lichtboxen probiert, aber keine guten Ergebnisse erzielt. Ich mache jetzt Flats vom bewoelkten Himmel in der Nacht. Der ist schoen gleichmaessig vom Stadtlicht beleuchtet und die Belichtungszeiten sind nicht zu kurz (so etwa 10-30Sek). (Ist ein Effekt der Sony CCds bei Starlight) Auch hier wieder: viel hilft viel. Ich habe etwa 20 Integrationen pro Farbkanal gemittelt und archiviert. (Dauert bei den kurzen Belichtungen zum Glueck nicht so lange!)


    LRGB Aufnahmen. Es gibt CCDs, wo vor den Pixeln mikroskopisch kleine Farbfilter (RGB) mit aufgebracht sind. (schon beim CCD herstellungsprozess) Z.B. Starlight MX7C oder SXV-H9C. Ich bin damit nicht zufrieden, weil man ja jetzt 3 Pixel braucht, um ein 'pseudo RGB' Pixel zu erzeugen. (Die Hersteller von RGB CCDs haben allerdings schon mit Verarbeitungsalgorithmen viel getan, um das auszugleichen. Ist ein anderes Thema) Ausserdem moechte ich auch mal ungefiltert (S/W) Bilder machen (ohne irgendwas zwischen dem Objekt und dem CCD), oder meinen eigenen H-Alpha filter nehmen. Deswegen habe ich eine Camera, die eigentlich nur S/W Bilder macht. Nun mache ich 3 Aufnahmen durch R/G/B Filter und kombiniere das dann in der Verarbeitungssoftware zum Farbbild (Ich benutze da AstroArt3)


    Bei CCDs lernt man viel ueber Statistik. Zur Verarbeitung gibt es z.B. ein gutes Buch von Richard Berry 'Introduction to Astronomical Image Processing'. Allerdings weiss ich nicht, ob es das auch in deutsch gibt.


    Schlusswort: Nicht verzagen. CCD Spechteln braucht einen gewissen Lernaufwand, der einfach etwas Zeit braucht.


    Clear Skies,


    Gert

  • Hallo Gert,
    erstmal hole ich mir 'ne Ohrfeige ab, denn ich finde das unbearbeitete Bild besser als das bearbeitete.Klatsch.
    So, und nun mal zum hellen Hintergrund.
    Vorrausschicken möchte ich noch kurz, das mir alle hier genannten Argumente und Statements zunächst logisch erscheinen und ich sie in meiner naiven Anfängerlaune auch nachvollziehen kann. Probleme bereiten mir allerdings der Umgang mit Verfahrensweisen bei der Bildherstellung bei völlig unterschiedlichen Kameras und damit auch völlig unterschiedlichen Ausgangsproblemen und die Mischung verschiedener Randbedingungen.
    Wenn Du jetzt von hellem Hintergrund sprichst, kann ich nicht mehr nachvollziehen, warum das dann in der Verwendung eines Darkframes bzw. Flatframes enden soll. Das sind Dinge die ich ganz einfach in der Nachbearbeitung korrigieren würde denn sie sind Teil des Objektbildes. Eine Helligkeitskorrektur durch Darkframes ist nicht was ich wollte. Das mache ich am PC. Mir ging es darum, zunächst qualitativ einen Zusammenhang zwischen den Fehlinformationen durch physikalische Eigenheiten des Equipments und der Nutzinformation herzustellenn um zu verstehen, mit welchen Größen ich es hier zu tuen habe. Mir scheint jetzt irgendwie das ganze zu 'schwarzer Kunst' zu werden, wobei jeder sein Hexenbuch pflegt aber nicht so richtig weiß wer es geschrieben hat :)
    Ich werde es einfach mal mit dem Okkultismus-Frame versuchen :)
    Versthet mich bitte jetzt hier nicht falsch, eine so kontroverse Diskussion ist für mich sehr lehrreich und interessant. Wenn sich zwei Profis auseinandersetzen finde ich das mitunter sehr belebend und ich zehre auch davon.
    Wenn ich allerdings bei diesem Thread am Ende ein Resume ziehen soll, ist das wie mit den Frames....nix mehr drin.....alles weg. Ich wäre ja schon für ein bisschen Dunkelstrom als Erleuchtung dankbar aber Ihr beiden, Tom und Gert, sitz da ja in ganz verschiedenen Ecken. Heua ist das schwer.
    ==&gt;Gert: Danke für die Sache mit dem RGB/Separation, ich wußte nicht das Ihr schwarz/weiß aufnehmt. Icch hatte jetzt wieder mit sowas gerechnet wie Empfindlichkeit abhängig von Lambda. Ich verwette meine Oma jetzt habe ich wieder was losgetreten :-))))


    Danke Ihr beiden Pixeljäger (Tom mit Messer, Gert mit Fernlenkwaffe:-)

  • Hallo Peter,


    wenn ich mich nochmal einschalten dürfte :)
    Ich kann auch nur Gert zustimmen, Darks und Flats sollten im Zweifelsfall immer gemacht werden, außer, man hat wirklich knackhelle Objekte vor sich (Kugelsternhaufen z. B. brauchen bei mir seltenst eine Bildreduktion, um schon so schick auszusehen!).
    Es geht hier aber wohl darum, dass ein typisches Deep-Sky-Objekt so im unteren Prozentbereich der Dynamik eines CCD-Chips liegt. Das heißt nichts anderes, als dass bei einer 16bit-Kamera, die ja 65536 Graustufen unterscheiden kann, ein Objekt vielleicht 1000 Graustufen über dem - wie auch immer hellen - Himmelshintergrund "belegt", vielleicht auch weniger (vor allem schwache Nebelausläufer o. ä.). D. h., man ist ganz schnell bei deutlich unter einem Prozent der Gesamtdynamik des Chips. Wenn nun aber die Pixel durch additive (Dunkelstrom) und multipülikative (Flat Field) Effekte um schlappe fünf Prozent vom "Mittelwert" abweichen, dann säuft Dir auf Deutsch gesagt das Objekt im Störsignal ab.
    Mein Fazit deshalb: Wenn Du Dir ganz sicher bist, dass Du das, was Du auf einem Bild gerne darstellen möchtest, auch ohne Darks und Flats darstellen kannst, dann lass sie einfach wech :) Ansonsten würde ich mindestens Darks, dann Biasse schießen, wenn Du aber wirklich alles rausholen willst, Kommst Du um ein Flat nicht herum. Ist letztlich Geschmackssache.


    Gruß,
    Arndt

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: dolphin</i>
    <br />Yep! Sehe ich auch so.
    PS: Kannst Du mir dann auch gleich sagen wo die Dunkle Materie ist die alle suchen?[:D]
    Aber vielleicht brauchen wir sie ja gar nicht [:)][:)][:)]


    Nochmals vielen Dank Tom.


    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ja, kann ich. Es gibt sie nicht. Sie wird nur von denen gebracuht, die ihre falschen Formeln am Leben halten wollen.


    Sehr wohl gibt es aber dunkles Bier, das wird häufig verwechselt!

  • Hi Dolphin,


    nicht verzagen, es ist doch eigentlich sehr einfach:


    Meine Methode ist was für faule, die ausschliesslich an pretty pictures interessiert sind. Ich erziele 90 oder 95% der Qualität mit maximalen Spass und Output und wenig Aufwand.


    Gert beschreibt ja, dass er gerade an diesen letzten 5% oder 10% interssiert ist. Sein Bild beweist, dass er das auch kann. Dazu braucht er auch speziellere und teurere Hardware, wie temperaturgeregelter Chip und so.


    Seine archivierten Flats nützen dann halt nichts für Staubpartikel oder Filterschwankungen, aber sind bestens geeignet, die Variationen in der Pixelempfindlichkeit (pro Farbkanal) sowie den grössten Teil der Vignettierung aus zu gleichen. Also hat auch er noch Potential mit seinen Flats, den Aufwand zu erhöhen und damit vielleicht nochmal 1%.


    Wie immer (HiFi Stereo, Instrumentbau, Rennauto) kosten die letzten 5 oder 10% richtig Geld und Aufwand.


    Von Hexenwerk ist da gar nichts, weder beim Gert noch bei mir. Und ich sehe auch nicht, dass wir bei der Erklärung der Methoden irgendeinen Widerspruch haben.


    Jetzt kann sich doch wirklich jeder seinen eigenen Weg aussuchen, oder? Ich mache gerne viele ordentliche Bildchen mit ganz unterschiedlichen Optiken. Andere versuchen die eine Optik vollständig zu optimieren und damit wenige, aber dafür herausragende Bilder zu machen. Andere Ziele, andere Methoden.

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn ich mal ganz kritisch auf Deine Bilder gucke, kann ich sehen, dass Du keine Flats nimmst. Da koenntest Du noch ein wenig raus kitzeln! (Aber das ist ein anderer Thread;-) )


    Ich muss Tom mal fragen, wie hell sein Beobachtungsplatz ist.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Hi Gert,


    mein Beobachtungsplatz ist Landhimmel, recht gut also. Zusätzlich setze ich ja gerne den SkyGlow-Filter ein, die CCD sieht den Himmel also noch etwas dunkler.


    Ich habe mir jetzt ja die ESO 300D zugelegt. Mein NVLT war für 15 mm 100% Ausleuchtung konstruiert, dass war prima für die HX916. Nun habe ich aber einen grösseren Chip von ca. 28 mm. Also habe ich die Vignettierung gemessen. Ich falle am Rand um ca. 10% ab. Also ein Fall, wo ein Flat zunehmend Sinn macht.


    Ich habe also den 300D-Adlernebel nochmal auf die gleiche Weise mit Flat zusammengebastelt. Durch das Flat kann ich jetzt die feinen Nebelränder stärker anheben. Das tat ich nun leicht über die Schmerzgrenze, so dass man im Bild nun durchaus Rauschen sieht. Aber zu Demonstartionszwecken ist es nun schon deutlich, wie viel ein Flat bei Vignettierung bringen kann. (Das Flat besteht aus 30 gemittelten TwilightFlats, guasscher Lowpass, ich wollte also nur die Vignettierung rausrechnen, nicht etwas auf einzelne Pixel oder Staubkörnchen in der Optik losgehen.


    Hier mit flat:


    http://www.licha.de/photo_high…nvlt_120s_mean26_flat.jpg


    Hier ohne:


    http://www.licha.de/photo_high…_m16_nvlt_120s_mean26.jpg

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!