Automatischer Darkframe bei der EOS

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: kopfgeist</i>
    <br />Nee, weil ein Masterdark im Idealfall *nur* statisches Rauschen enthalten soll. Darks sind ausschließlich dazu da, um statisches Rauschen zu eliminieren. Das statistische Rauschen in den Lights soll von Darks gar nicht berührt werden. Darkframes haben mit der Eliminierung von thermischem, statistischem Rauschen nichts zu tun. Letzteres bekommt man ausschließlich durch die Mittelung der Lightframes hin...


    J.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Richtig, das bestreitet auch niemand. Mit den Darks bekommst du immer mehr "Zufallsrauschen" rein.


    Aber was ist den der Unterschied ob ich den Fehler zuerst Mittle und den <b>gleichen</b> kleineren Fehler bei <b>jedem</b> Bild dazukommt oder erst im Nachhinein gemittelt wird?


    Gruss
    Jürg

  • Hallo Jürg,


    wenn du einen Fehler durch den Abzug eines verrauschten Darks in jedes Lightframe einführst und diese dann mittelst, wird sich dieser Fehler _nicht_ rausmitteln, da er eben in _jedem_ Lightframe an der _gleichen_ Stelle vorhanden ist.


    Gruß, Jannis

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Juerg_B</i>
    <br />
    Richtig, das bestreitet auch niemand. Mit den Darks bekommst du immer mehr "Zufallsrauschen" rein.


    Aber was ist den der Unterschied ob ich den Fehler zuerst Mittle und den <b>gleichen</b> kleineren Fehler bei <b>jedem</b> Bild dazukommt oder erst im Nachhinein gemittelt wird?


    Gruss
    Jürg


    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Weil du bei einem sofortigen, einzelnen internen Abzug
    a) durch die reine Subtraktion nichts mittelst und
    b) damit zusätzlich nicht reproduzierbare Fehler eingeschleust werden.
    (Zufallsrauschen Lightframe ist anders als Zufallsrauschen Darkframe
    --&gt; kann "Löcher" in den Light reißen, die bis hin zu schwarzen Pixeln reichen).


    Durch vorheriges Rausmitteln des Zufallsrauschens im Masterdark und dann erst Abzug vom Light bringst du quasi gar keinen Fehler durch Zufallsrauschen in den Lightframe.


    J.

  • Hallo,


    danke für die Antwort.


    --&gt;Jannis
    Ich gehe von der gleichen Anzahl Darks aus.
    Da sind die eben die "Löcher" immer an einer Anderen Stelle (Zufall).
    Beim Masterdark die kleinen "Mulden" immer am gleichen Ort.


    Sorry, ich kapiere es nicht.


    Gruss
    Jürg

  • Vielleicht etwas zur Veranschaulichung...:


    In jedem Lightframe ist das gewünschte Signal vom Deepskyobjekt als mehr oder weniger fixer Pixelwert vorhanden. Das statistische Zufallsrauschen lässt diese Pixelwerte nicht reproduzierbar und nicht beeinflussbar nach oben abweichen.


    Kommt nun ein einzelner verrauschter Darkframe her und wird vom Lightframe abgezogen, werden alle Pixelwerte dem Zufallsrauschen entsprechend nach unten korrigiert. D. h. im schlimmsten Fall gibt es auch Abweichungen unter den ursprünglichen Signalpixelwert sowie die Diskrepanz zum gewünschten Signalpixelwert wird größer.


    Dies lässt sich eben durch Herstellen eines sauberen Masterdarks minimieren: denn im idealen Masterdark gibt es außer den ortsfesten Pixeln (quasi) kein Zufallsrauschen, was sich negativ auf das Bild auswirken könnte. Hinzu kommt ein noch überhaupt nicht angesprochenes Phänomen der sog. Cosmics, welche ebenfalls absolut nicht reproduzierbar ganze Pixelinseln komplett sättigen, also weiß machen können. Passiert so etwas in einem einzelnen Darkframe, hast du nach dessen Abzug eine Pixelinsel mit rappelschwarzen Pixeln.


    Grüße,


    Jens

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Juerg_B</i>
    <br />...
    Sorry, ich kapiere es nicht.
    ...
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Wir möchten, dass du es verstehst. Ich versuche es mal noch knapper... [:)]


    10 Lights nach jeweiligem Abzug eines Masterdarks aus 10 gemittelten Darks:
    Du hast 10 verrauschte Bilder, die du mitteln möchtest.


    10 Lights nach je einem kamerainternen Darkabzug:
    Du hast 10 noch verrauschtere Bilder, die du mitteln möchtest.


    J.

  • Leute, Juerg hat natürlich recht, und da gibts auch nix zu verstehen.


    Die Rechenoperationen, die ich mit den Bildern jeweils anstelle, sind ineinaner umformbar. Sie liefern ein daher bei gleicher Bilder- und Darkzahl ein identisches Ergebnis. Da kann man noch so lange herumargumentieren - das ändert nix!


    Summenbild = L1 -D1 + L2 - D2 + L3 - D3 +....+ Ln -Dn =
    = (L1+L2+L3+...+Ln) - (D1+D2+D3....+Dn)



    Sorry folks, aber Addition und Subtraktion laufen nun mal so, und Klammerrechnung auch.
    Ich kann gerne die Resultate durch N dividieren. Ändert auch nix.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">10 Lights nach jeweiligem Abzug eines Masterdarks aus 10 gemittelten Darks:
    Du hast 10 verrauschte Bilder, die du mittelst.


    10 Lights nach je einem kamerainternen Darkabzug:
    Du hast 10 noch verrauschtere Bilder, die du mittelst.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das Missverständnis, dem Ihr erliegt, beruht darin, dass Ihr nicht bedenkt, dass von den einzelnen Kamera-Lights jedes Mal EIN ANDERES Kamera-Dark abgezogen wird. Dadurch mitteln sich die Fehler der einzelen Darks im endgültigen Summenbild weg. Ihr hättet recht, wenn Ihr jedes Mal das gleiche Dark abziehen würdet.

    Die Frage ist daher nur: Was ist praktischer, und was führt sicherer zu einem Resultat. Sicher ist es vorzuziehen, mehr Lights zu machen, und erst später die Darks. Dann muss man es aber auch hinkriegen, nachträglich eine entsprechende Zahl von guten Darks zu machen.


    Cheers


    Hartwig

  • Nochwas:


    (L1+L2+L3....+Ln) - (D1+D2+D3+...Dn) =
    (L1+L2+L3....+Ln) - (n* (D1+D2+D3+...Dn)/n) =


    L1- ((D1+D2+D3+...Dn)/n) + L2- ((D1+D2+D3+...Dn)/n) + L3- ((D1+D2+D3+...Dn)/n) +....+ Ln- ((D1+D2+D3+...Dn)/n)


    Letzteres ist exakt die Masterdark-Vorgehensweise, und ersteres hamwa ja schon oben gezeigt, dass sie identisch ist mit der Kameradark-Vorgehensweise.


    Hartwig

  • Hartwig, das ist die schöne Theorie, wie wir sie aus Schulbüchern lieben. Der Cosinussatz lässt sich als Sonderfall auch schön leicht auf den Pythagoras reduzieren...


    Schau mal folgendes kleines Zahlenbeispiel an...



    Ich hoffe, es kommt verständlich rüber, ich habe es auf die Schnelle gemacht.
    Es zeigt Pixelwertreihen aus drei Lights und dazugehörigen Darks. Oben ist die Methode des sofortigen kamerinternen Einzeldarkabzugs, unten die Subtraktion des Masterdarks. Die Werte des Masterdarks ergeben sich logischerweise aus dem arithmetischen Mittel der Einzeldarks. Am Ende werden die korrigierten Lights gemittelt.


    Ist nun der Helligkeitswert des jeweiligen Pixels im Dark größer als im Light, (erster Pixel im zweiten Darkframe und letzter Pixel im ersten Darkframe) unterscheiden sich die Endergebnisse.


    Folglich gibt es Abweichungen, die ich im Bild rot gekennzeichnet habe. Und genau darauf bezog ich mich in meinem vorletzten Posting. Es kommt sehr häufig vor, dass Pixelwerte im Dark größer sind als im Light ggf. durch Überlagerung von statischem und statistischem Rauschen oder den vorhin genannten Cosmics, so dass sich die Problematik eben nicht auf die natürlich prinzipiell richtige, aber eben nicht vollständige Gleichung reduzieren lässt.


    J.

  • OK, wenn ich Dich richtig verstehe, beruht der Unterschied darauf, dass Du davon ausgehst, dass die Software eventuell gebildete negative Pixelwerte als 0 wertet. Das ist allerdings nicht der Fall.


    Ich hab mal folgendes gemacht: Ich hab in PS eine TIF Datei erstellt, die einheitlich aus den RGB-Werten 30,30,30 bestand und eine andere, die einheitlich aus den RGB-Werten 70,70,70 bestand. Dann die erste in Fitswork geladen und die zweite als Dark verwendet (Funktion Bilder kombinieren/Dunkelbildsubtraktion). Wenn ich dich richtig verstehe, sollte nun 0,0,0 rauskommen.



    Und hier siehst Du, was Fitswork daraus macht. Richtig! Eine total scharze Datei. Und wundersamerweise hat das entstehende Bild die Pixelwerte -40,-40,-40.


    Denke dann wohl, dass zumindest in Fitswork das Resultat von Kameradark und Masterdarkmethode identisch wäre, oder?`


    Hartwig

  • OK, ich sehe gerade, Deepskystacker macht es nicht derartig und würde sich wie in Jens Beispiel verhalten und tatsächlich die Pixel auf 0 setzen. Und die Kamera würde wahrscheinlich auch derartige Fälle auf 0 setzen. Da ich selber meist nachträglich Darks aufnehme, guck ich mal in Fitswork nach, wie oft eigentlich negative Pixel beim Abzu eines Einzeldarks von einem typischen Einzellight vorkommen. Also ob das mehr als ein esotherischer Randeffekt ist.


    Hartwig

  • Hallo zusammen,


    grau ist alle Theorie. ;)
    Die Praxis hat mir jedenfalls gezeigt, dass der interne Dunkelabzug bei meiner 350D klar die Nase vorn hat.
    Ich denke so sollte man es auch angehen, praktisch rausfinden was mit der vorhandenen Kamera besser ist.


    Cheers
    Roger

  • Hallo Roger,


    nein, Theorie ist nicht grau. [;)] Auch eine 350D kann die Physik nicht aushebeln. Es in Ordnung, wenn Du mit dem internen Darkabzug besser klar kommst.
    Es ist aber auch gleichzeitig ein Zeichen, dass Du bei der Darkerstellung von Hand etwas falsch gemacht hast.


    Ich vermute mal Einzeldarks anstelle von Masterdarks abgezogen. Spielt aber auch keine Rolle.
    Es funktioniert natürlich auch wie FrankH sagt, vorher die RAWS mit Photoshop in Tiff umzuwandeln.
    Dabei gehen allerdings haufenweise Details verloren, aber hauptsache man hat hinterher ein schön glattes Pretty-Picture.


    Die ganze Krux und das A und O ist einfach das Debayern und die korrekte Handhabung der Korrekturframes.
    Wie das mit den Darks funktioniert hat Jens ganz richtig dargestellt.

    Ei,ei,ei.... was hatte ich denn in meiner alten Signatur stehen?


    sternengedönsige clear sky Grüsse,

    Robert aus dem Allgäu

  • Hallo zusammen,


    mir ist nicht bekannt, dass EOS Kameras Fitswork implementiert hätten [;)]. Nach Abzug des internen Darks vom Lightframe ist Endstation, im fertigen Bild kann kein Pixelwert kleiner als 0 werden.


    Die Tatsache, dass durch Kumulation von Störpixeln im Darkframe stellenweise größere Pixelwerte entstehen als im Lightframe, würde ich nicht als Randeffekt abtun. Dieser Effekt ist zugegen, auch wenn er nach Mittelung einiger Dutzend Bilder vlt. nicht mehr auffallend gegenwärtig ist. Ich kann gerne einen Darkframe einstellen, welcher teilweise gesättigte Pixel hat, während im Lightframe an gleicher Stelle nichts davon zu sehen war.


    In der Praxis denke ich aber, dass ein Großteil dessen in den Algorithmen der Spiegelreflexkameras untergeht, da diese einfach nicht dazu konstruiert sind, jungfräuliche Rohdaten zu liefern. Bei der Verarbeitung von CCD-Aufnahmen fällt der o. g. Effekt jedoch eindeutig ins Gewicht auf. Gut, dass CCD-Kameras keine interne Rauschunterdrückungsfunktion haben [;)].


    RAWs (Lights wie Darks) in Photoshop zu laden, um darin einen sinnvollen Workflow zu machen, ist Pfusch. Es fängt schon mit dem Debayering an, was einen einwandfreien Darkabzug nicht möglich macht, da die Störpixel durch Interpolation auf Nachbarpixel verteilt werden. Zudem stellen die Codecs der Hersteller allerhand mit den Bildern an, da können alle Rauschunterdrückungsregler auf 0 stehen.


    Ist aber natürlich nicht verboten, im Gegenteil, wenn jemand damit bestens zurecht kommt, ist das ja völlig in Ordnung. Ich unterziehe meine EOS-Bilder in PS auch häufig einer Schnellbearbeitung, um abschätzen zu können, was aus dem Bildmaterial rauszuholen ist.


    Letztendlich muss jeder selbst entscheiden, wie er verfährt. Es ist natürlich völlig legitim, den internen Dark zu verwenden, v. a. weil die Kamera schon einen großen Teil der Arbeit abnimmt. Wenn man meinen letztgenannten Aspekt höher wertet als Pixelnuancen, so kann gerne auf den internen Darkabzug zugegriffen werden [:)].


    J.

  • Hallo zusammen,


    also ich verfolge das Thema mit Staunen und wäre froh wenn meine EBV
    Kenntnisse soweit wären, dass ich mir über solche Details Gedanken machen müsste [;)].


    Ich frage aber jetzt doch nochmal nach:


    Wenn ich das hier nun richtig verfolgt habe, wäre es doch wesentlich sinnvoller statt einem 10min Dark beispielsweise 5x2min Darks anzufertigen und diese zu mitteln.


    Effekte wären:
    - Statische Rauschen ist berechenbar, d.h. eine Multiplikation *5 würde das gleiche Ergebnis bringen wie ein 10min Dark.
    - Statistische Rauschen ist eh nicht vorhersagbar, d.h. ob ich nun *5 Multipliziere oder das Rauschen des 10min Dark nehme ist egal.
    - Pixel die langsam volllaufen oder überlagert werden tragen bei einer Multiplikation noch Information während sie bei einem 10min Dark diese durch die Sättigung verlieren.
    - Die Gefahr von Cosmics getroffen zu werden ist nur noch 1/5 und zudem dürften diese durch die Mittelung eliminiert werden
    - Wenn man die weiter oben genannten 10-15, zur Mittelung notwendigen Darks, heranzieht brauche ich nicht 2Std. für die Darks, sondern nur noch knapp ne halbe Stunde, was dann durchaus der Abbauzeit + einem letzten Blick auf den nächtlichen Sternenhimmel entspricht.


    Oder mache ich da irgendwo einen Denkfehler?


    Grüße
    Volker

  • Hallo Jens


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">RAWs (Lights wie Darks) in Photoshop zu laden, um darin einen sinnvollen Workflow zu machen, ist Pfusch<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Mir als Anfänger stellt sich jetzt die Frage, welchen Weg Du für den RAW Import empfehlen würdest, da sich mir beim Lesen diverser Artikel PS immer als das ultimative Tool aufdrängt.


    CS
    Volker

  • Hallo Robert,


    der Hauptunterschied den ich bei der Darkerstellung mache, ist das ich immer im Wechsel 5 Lights und dann 5 Darks gemacht habe.
    DSS erstellt ein Masterdark daraus und in Fitswork macht man das vor der Lightverarbeitung.
    Gleich vorweg, ich hab auch die andere Variante ausprobiert, erst alle Lights und danach alle Darks. Am Ergebnis hat sich nichts geändert.
    Die Anzahl von Darks und Lights war dabei annähernd gleich.


    Der Vergleich von den Rohbildern, die dabei heraus kamen, also zwischen Rohbildern mit internem Darkabzug und Rohbildern mit Software Darkabzug, war sehr deutlich.


    Interne Abzug hat wesentlich bessere Ergenisse erzeugt.


    Cheers
    Roger

  • OK, die Bezeichnung "Pfusch" war vlt. etwas heftig ausgedrückt.


    Natürlich kann man somit zu einem guten Endergebnis kommen. Aber es kann eben noch besser werden, wenn man sämtliche Korrekturprozeduren noch vor dem Debayeringprozess (Zusammenführen der RGBG-Matrix zu einem RGB-Bild in PS) durchführt. [:)]


    Photoshop IST das ultimative Tool im Bereich Bildbearbeitung. Aber die Verarbeitung von Astrofotografien und deren Korrekturaufnahmen können andere Programme eben wesentlich besser, da sie ausschließlich zu diesem Zweck gecodet wurden. Denn streng genommen ist es mit der Fertigung von Darkframes ja nicht getan (Stichwort Flatfields zu Masterflat (welcher eigentlich auch noch mit Darkframes zu korrigieren wäre, also Masterdarkflat [;)]) Offset usw...).


    Photoshop sollte erst für die eigentliche Bildbearbeitung ins Spiel kommen, wie z. B. Kontraste, Farben, Kurven etc...


    Grüße,


    Jens

  • Hallo Zusammmen,


    nur mal zur Ergänzung: Habe mir gerade mal die undebayerten Raws der 1000d angeschaut, einmal mit internem Abzug und einmal ohne. Der Mittelwert bei beiden Bildern ist gleich, die Standardabweichung beim korrigierten Bild wie zu erwarten etwas höher. Offensichtlich wird das interne Dunkelbild abgezogen, vorher wird wohl der Mittelwert oder das Maximum als Konstante auf das Light draufgeschlagen, damit nach Abzug eben negativen Zahlen bzw. keine Nullen rauskommen. Wenn ich das händisch mache, (geht in Maxim problemlos), kommt ziemlich genau das gleiche raus. Also ist der interne Abzug ziemlich narrensicher, trotzdem halte ich es auf Dauer für überflüssig, die Hälfte der Zeit für Darks zu verschwenden. Die Idee eines Masterdarks ist doch gerade die Erstellung eines gut gemittelten Langzeit(!)untergrundbildes, was ich auf beliebige Zeiten skalieren kann. Dann muß weder die Temperatur noch die Belichtungszeit zwingend gleich sein. Es ist halt schade, dass einige der Programme eben das nicht erlauben, und einen dadurch zu einem suboptimalen Workflow zwingen.
    Eine Anmerkung zum Erstellen eine Dark-Masters: Mitteln über mehrere Aufnahmen bringt nur dann etwas gegenüber der durchgehenden Langzeitbelichtung, wenn ich die Bilder mit Cosmics und anderen einmaligen Störungen aussortiere.


    Viele Grüße


    Norbert

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Nobbi</i>
    <br />..., trotzdem halte ich es auf Dauer für überflüssig, die Hälfte der Zeit für Darks zu verschwenden...
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Um für neuen Diskussionsstoff zu sorgen...:


    Die EOS der 5er- und 1er-Reihe erlauben, während des internen Darkframeabzuges neue Lightframes aufzunehmen...
    Keine verlorene Zeit mehr! [:)]
    Feuer frei! [;)]


    Grüße,


    Jens

  • Volker:


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn ich das hier nun richtig verfolgt habe, wäre es doch wesentlich sinnvoller statt einem 10min Dark beispielsweise 5x2min Darks anzufertigen und diese zu mitteln.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Nein. Denn die 5min Darks müssten mit dem Faktor 2 multipliziert werden und somit wäre das Rauschen *) 1,41mal so groß wie bei einem 10min Dark.


    *) hiermit meine ich das technisch bedingte Rauschen gebildet aus der geometrischen Summe der Einzelrauschbeträge, die während der analogen Verarbeitung entstehen, wie zum Beispiel das Ausleserauschen.


    Im übrigen gibt es hier auch Leute, die kein Interesse am Thema an sich haben, sondern einfach nur um der Profilierung willen mitreden und bei (Eigen-)Bedarf das Thema in eine andere Richtung lenken wollen.

  • Hallo,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die EOS der 5er- und 1er-Reihe erlauben, während des internen Darkframeabzuges neue Lightframes aufzunehmen...
    Keine verlorene Zeit mehr!<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Also ich hab das so verstanden, dass man mehrere Lights hintereinander macht und dann ein Dark erstellt wird. Dieses Dark wird dann von den den Lights abgezogen. Die Anzahl der Aufnahmen ist durch den inernen Speicher der Kamera begrenzt. Gleichzeitig geht da meiner Meinung nach nichts.


    Ich hoffe mal, dass ich keinen Mist erzählt habe.


    Lg Jan

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Jan95</i>
    <br />Hallo,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die EOS der 5er- und 1er-Reihe erlauben, während des internen Darkframeabzuges neue Lightframes aufzunehmen...
    Keine verlorene Zeit mehr!<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Also ich hab das so verstanden, dass man mehrere Lights hintereinander macht und dann ein Dark erstellt wird. Dieses Dark wird dann von den den Lights abgezogen. Die Anzahl der Aufnahmen ist durch den inernen Speicher der Kamera begrenzt. Gleichzeitig geht da meiner Meinung nach nichts.


    Ich hoffe mal, dass ich keinen Mist erzählt habe.


    Lg Jan
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">So sehe ich das auch [:)]


    J.

  • Hallo Ullrich,


    dieses technische Rauschen könnte man aber durch vorherigen Abzug eines
    Biasframe eliminieren, somit würde dieser Faktor nicht mehr ins Gewicht fallen, oder?


    Aber ich denke der Aufwand das qualitativ gut hinzubekommen ist so hoch, dass er in keinem Verhältnis zum Nutzen steht. Deshalb werde ich wohl weiter brav meine Darks in voller Länge machen[:)].


    CS
    Volker

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">dieses technische Rauschen könnte man aber durch vorherigen Abzug eines
    Biasframe eliminieren, somit würde dieser Faktor nicht mehr ins Gewicht fallen, oder?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Nein, damit würde man wiederum zusätzliches Rauschen einfügen. (Warum? Weil man ein zusätzliches Bild ausliest, was wiederum statistisches Rauschen enthält. Und da ist es egal, ob man es abzieht oder addiert) Ein Bias braucht man nur, wenn man Flats ohne Darks mit kurzer Belichtungszeit macht und diese dann von einem Offset befreien will.
    In erster und zweiter Näherung sind kamerainterne Darks ausreichend. Erst dann kann man Dark-Serien zu Masterdarks kombiniert verwenden, um das letzte Quäntchen aus den Bildern herauszuholen. Die mathematischen Hintergründe hat Hartwig ja schon dargelegt.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!