Betrachtungen zur optimalen Belichtungszeit

  • Hallo liebe Astrotreffler,
    ich hoffe mal, dass ich das Thema nicht überstrapaziere, aber ich habe mir ein paar Gedanken zum Thema optimale Belichtungszeit gemacht:


    Warum lange Belichtungen:
    - Signal-Rauschverhältnis der Einzelaufnahme steigt im nicht-hintergrundlimitierten Bereich linear mit der Belichtungszeit
    - im hintergrundlimitierten Bereich steigt der SNR nur noch mit der Quadratwurzel
    - Problematisch ist der sinkende Dynamikumfang


    Was kann das Stacking:
    - SNR steigt mit der Wurzel der Anzahl der Belichtungen, genau wie im hintergrundlimitierten Bereich, also nicht so doll
    - Vorteilhaft ist, dass der Dynamikumfang steigt


    Warum eigentlich kurze Belichtungen:
    - eigentlich nur technische Gründe
    1. Cosmics
    2. Satellitenstrichspuren
    3. Dunkelstrom der Pixel (Kühlung)
    4. Guiding


    Dh. man muss herausbekommen, wo der Übergang vom nicht hintergrundlimitierten Bereich zum hintergrundlimitierten Bereich liegt. Dann kann man so kurz wie möglich und gleichzeitig so lange wie nötig belichten.


    Vielleicht nochmal ein Erklärungsversuch auf Pixelebene:
    Bezogen auf den Pixel setzt sich das Rauschen einer CCD oder eines CMOS aus folgenden Termen zusammen (bei völliger Dunkelheit):
    1. Ausleserauschen (unabhängig von Belichtungszeit)
    2. Dark Current (linear Abhängig von Belichtungszeit)
    Der Dark Current ist bei gekühlten Kameras recht gering im Vergleich zum Himmelshintergrund (außer bei Schmalband), sodass er für diesen Erklärungsversuch mglw. vernächlässigt werden kann.


    Was passiert bei einer Belichtung im nicht hintergrundlimitierten Bereich:
    Der beleuchtete Pixel füllt sich linear mit der Belichtungsdauer (Photonenrauschen des Signals).
    Das Pixelrauschen der dunklen Pixel ist konstant, da nur das Ausleserauschen wirksam ist. SNR steigt linear.


    Was passiert im hintergrundlimitierten Bereich:
    Der beleuchtete Pixel füllt sich linear mit der Belichtungsdauer + dem zusätzlichen Signal des Hintergrundes (Photonenrauschen).
    Das Rauschen der dunklen Pixel setzt sich aus dem Pixelrauschen und dem Photonenrauschen des Hintergrundes zusammen. Der Hintergrund skaliert aber auch linear mit der Belichtungszeit. Wenn das Photonenrauschen des Hintergrundes dominiert, steigt das SNR nur noch mit der Quadratwurzel. Kann man sicherlich auch mathematisch herleiten, vielleicht noch im Laufe dieser Diskussion.


    Das Optimum wäre hier vermutlich, wenn das Rauschsignal des Pixel gleich dem Rauschbeitrag des Hintergundes wäre, also genau der Übergangsbereich. Ab hier kann man genauso gut Stacken, anstatt lange zu belichten.


    Welche praktischen Abhängigkeiten ergeben sich:
    - Empfindliche Pixel mit geringem Rauschen >>> der Übergang zu Hintergrundlimitiert ist früher. Man kann also kürzer belichten, ohne dass man SNR verschenkt.
    - Bei hellem Himmelshintergrund kann man auch kurz belichten ohne dass man SNR verschenkt. Natürlich ist aber das eigentliche SNR viel schlechter, als bei dunklem Himmel.


    Eine praktikable Abschätzung kann man vielleicht derart durchführen, wobei dass das Rauschen eines Darks (Standardabweichung) bestimmt wird und dann an der eigentlichen Belichtung das zusätzliche Rauschen durch den Hintergrund bestimmt wird.
    Beispielsweise wäre das Dark-Rauschen Standardabweichung = 4digits. Dann wäre durch die geometrische Addition das Rauschen aufgrund des Hintergrunds:
    Gesamtrauschen^2 = Dark-Rauschen^2 + Hintergrundrauschen^2
    Das Hintergrundrauschen wäre also bei 4digits * sqrt(2) = 5,6digits gleichgroß.
    Nachdenkliche Grüße
    Tino

  • Hallo Tino,


    toller Diskussionsanstoss, bin schon gespannt wohin das führt.
    Ich habe immer nach einer mathematischen Definition des Zustandes Hintergrundlimitiert gesucht. Du schreibst:


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das Optimum wäre hier vermutlich, wenn das Rauschsignal des Pixel gleich dem Rauschbeitrag des Hintergundes wäre, also genau der Übergangsbereich. Ab hier kann man genauso gut Stacken, anstatt lange zu belichten. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Mein letzter Wissensstand ist, das wir dann von hintergrundlimitiert sprechen wenn der Rauschbetrag des Hintergrundes 2 mal so gross wie der des instrumentellen Rauschens ist.


    Bin gespannt was andere dazu sagen.


    CS Frank

  • Hallo,


    also wenn der Rechner von Starizona nach der dort aufgeführten Theorie programmiert ist, taugt er nichts. Beim Dunkelrauschen steht zB, es kann fürs SNR vernachlässigt werden, wenn man nur genug gemittelte Darks abzieht. In der ersten Formel taucht zwar dann der Hintergrundnoise richtig auf, aber der ShotNoise selbst wird vernachlässigt. Alles schick, aber leider falsch.


    Gruß
    Norbert

  • Hallo Tino,


    ich denke nicht, dass es ausreicht, wenn Instrumentenrauschen und Photonenrauschen gleich groß sind. Eine feste Definition von "hintergrundlimitiert" gibt es nach meiner Kenntnis nicht. Es heißt immer nur, dass das Instrumentenrauschen im Vergleich zum Photonenrauschen "vernachlässigbar klein" sein soll. Ich hatte auf der Suche danach, wann das der Fall ist, mal eine Äußerung aus berufenem Munde (ich meine es war Mischa Schirmer, bin mir aber nicht sicher) gefunden, die besagte, dass das Photonenrauschen drei mal so groß sein soll wie das Instrumentenrauschen.


    Ich selber habe mal für mich beschlossen, dass es akzeptabel ist, wenn das Gesamtrauschen durch das Instrumentenrauschen um 10% erhöht wird und habe mir für meine Kameras eine Excel-Tabelle gebastelt, die mir nach Eingabe der ADU des Himmelshintergrunds das Gesamtrauschen errechnet, damit ich weiß, wieviel ADU ich erreichen muss.


    Im Netz habe ich schon die unterschiedlichsten Rechner für dieses Thema gefunden, die teilweise schon extrem früh von Hintergrundlimitiertheit ausgehen. Bei meinem Großstadthimmel ist das allerdings in der Tat bei Breitband schnell erreicht, da belichte ich nur deswegen länger, um Speicherplatz zu sparen. Und bei Schmalband begenzen letztlich auch praktische Erwägungen die Belichtungszeit nach oben. Länger als 20 Minuten pro Bild belichte ich nicht, auch wenn mir meine Excel-Tabelle sagt, dass ich dann noch nicht hintergrundlimitiert bin.


    Viele Grüße
    Stefan

  • Hi Stefan,


    bist du in Berlin bei 20min in Ha noch nicht hintergrundlimitiert? Das fände ich krass. Im übrigen ist laut dem berufenen Munde (Mischa) bei Schmalband tatsächlich in Erwägung zu ziehen zu binnen. Damit schlägt man dem Ausleserauschen ein Schnippchen wenn man nicht hintergrundlimitiert ist. das sagt die Theorie, ich möchte aber nicht der erste sein der das ausprobiert:-)


    P.S. schöner Artikel im VDS Journal. Fand ich spannend und amüsiert habe ich mich auch:-)


    CS Frank

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: tbstein</i>
    <br />


    Welche praktischen Abhängigkeiten ergeben sich:


    - Bei hellem Himmelshintergrund kann man auch kurz belichten ohne dass man SNR verschenkt. Natürlich ist aber das eigentliche SNR viel schlechter, als bei dunklem Himmel.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Diese Seite hier hat auch so einen Belichtungsrechner:
    http://astrofotografie.hohmann…elichtung.astrokamera.php


    Das Bias meiner Kamera hat einen RMS von 85, eine Aufnahme neulich unter extrem schlechter Durchsicht nahe einer Großstadt hatte im Hintergrund einen RMS von 450 nach 76 Sekunden. Hintergrundlimitiert sinnvoll wären laut diesem Rechentool 12 Sekunden!


    Ich mußte da lachen. In der Theorie ist das bestimmt so, die Praxis ist was anderes. Das mag für eine ideale Kamera gelten, die wirklich nur ein zufälliges Rauschen erzeugt. Für meine DSLR, eine EOS 350D, die gruselige Streifen erzeugt nicht mehr.

    Hier führt dann "hintergrundlimitert" bei einem recht versifften Himmel dazu, dass man "sinnvoll" nur noch ein paar Sekunden belichten "dürfte". Aber dann hat man von den erwünschten sehr lichtschwachen Objekten nichts mehr im Pixelkästchen, weil das Signal gnadenlos im Rumpeln der Kamera untergeht, trotz Dunkelbildabzug. Dann könnte man im Dunkeln genausogut seine Kellerwand knipsen.


    Hält man sich in diesem Fall jedoch nicht dran, sondern belichtet ein vielfaches länger als eigentlich "hintergrundlimiert" rät, dann hat man immerhin das Signal einigermaßen über dem riesigen Kamerafehler hinwegrettet, auch wenn die Dynamik leidet. Der Dynamikumfang der Kamera war ja selbst damit nichtmal annähernd erschlagen, das Maximum der Verteilung durch den Hintergrund lag lediglich bei 25% Sättigung (ISO 800).


    Ich halte diese theoretischen Grundüberlegungen für sehr interessant, für die Praxis sind sie bei bestimmten Kameras wohl nur in Grenzen und bedingt maßgeblich.


    Gruß,
    Jo

  • Hallo Jo,


    du interpretierst den Begriff "Hintergrundlimitiert" etwas falsch. Er sagt nichts darüber aus wie lange man maximal belichten darf oder so etwas. Mal abgesehen davon wie gut oder schlecht dieser Online Kalkulator ist, wenn er dir sagt, das du nach 12s hintergrundlimitiert bist, dann ist das die minimale Belichtungszeit die du benutzen solltest! Natürlich kannst und sollst du länger als diese 12s belichten.


    Der zweite Gedanke, das du ein Signal über den Hintergrund retten musst ist stimmt so auch nicht. Es hängt letztendlich nur von der Gesamtbelichtungszeit ab ob du dein Objekt vom Hintergrund getrennt bekommst. Theoretisch könntest du sogar am Tag belichten (ich glaube das hat schonmal jemand mit dem Orionnebel gemacht). Du benötigst nur unendlich viel Belichtungszeit.


    Die Theorie beschreibt erschreckend gut was in der Praxis besteht. Drum ist es nicht nur interessant sondern auch richtig was die Theorie sagt. Die meisten Zerwürfnisse in all den Diskussionen entstehen meistens nur durch Veränderung der Spielregeln:-)


    Interessant ist allerdings, das man ohne die ganze Theorie dann, wenn man einfach dem Vorbild sehr guter Astrofotografen folgt , zu genau den gleichen Ergebnissen kommt.
    Die wichtigsten Prinzipien sind dann:


    Möglichst dunkler Himmel.
    Möglichst lange sowohl einzeln als auch in der Summe belichten, dabei praxisorientiert bleiben (will sagen länger als 20-30min Einzelbelichtungszeit ist aus mehreren Gründen einfach nicht sinnvoll bzw. zu riskant.
    Die Kameraparameter weichen dabei relativ weit in den Hintergrund. Klar gute Quanteneffizienz und geringer Dunkelstrom helfen immer. Das Mass aller Dinge ist aber immer noch dunkler Himmel und lange Belichtungszeit. ich habe das neulich mal in einem kleinen Comic zusammengefasst:-)



    CS Frank

  • Hallo Frank, hallo Jo, hallo Stefan,
    (==&gt;)Frank -
    Echt schicker Comic, aber leider bin ich mit der Bemerkung:
    "Natürlich kannst und sollst du länger als diese 12s belichten." nicht zufrieden. Meine Interpretation ist, dass man idealerweise 12s belichten sollte, auch wenns wenig klingt. Bei weniger Belichtungszeit+Stacking verschenkt man SNR und bei mehr Einzelbelichtungszeit verschenkt man Dynamikumfang und erhöht das Risiko einer Fehlbelichtung, da man das selbe Ergebnis bezüglich SNR mit mehreren verteilten 12s Belichtungen und Stacking bekäme.
    (==&gt;)Jo -
    Sicherlich ist eine ältere Kamera mit Streifenneigung nicht das gelbe vom Ei, aber die Streifen und auch die Pixel-Non-Uniformity bedarf unbedingt einer Flatfieldkorrektur. Da reichen Darks nicht aus. Dies ist besonders bei einem hellen Hintergrund notwendig, denn die unterschiedliche Empfindlichkeit der Pixel erzeugt bei hellem Hintergrund ein zusätzliches stationäres Rauschen.
    Vielleicht noch ne kurze Bemerkung hierzu:
    "Hier führt dann "hintergrundlimitert" bei einem recht versifften Himmel dazu, dass man "sinnvoll" nur noch ein paar Sekunden belichten "dürfte". Aber dann hat man von den erwünschten sehr lichtschwachen Objekten nichts mehr im Pixelkästchen, weil das Signal gnadenlos im Rumpeln der Kamera untergeht, trotz Dunkelbildabzug. Dann könnte man im Dunkeln genausogut seine Kellerwand knipsen."
    Das witzige am Stacking ist aber hierbei, dass dein Signal nicht über eine bestimmte Schwelle muss, sondern es kann nochso klein im Verhältnis zum Rauschen sein, bei ausreichender Anzahl der addierten Bilder sinkt das Rauschen um sqrt(n), sodass das Signal detektierbar wird. Die optimale Belichtungszeit sagt nur aus, ab wann man eh Stacken kann, ohne Signal zu verschenken.
    (==&gt;)Stefan
    Faktor 3 für Hintergrundlimitiert hört sich vernünftig an. Man ist dann sicher im hintergrundlimitierten Bereich.


    Gruß Tino

  • Hallo,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: tbstein</i>
    ...
    Faktor 3 für Hintergrundlimitiert hört sich vernünftig an. Man ist dann sicher im hintergrundlimitierten Bereich.


    Gruß Tino


    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Die 3 ist wahrscheinlich mal ein 'e' gewesen ( 2.718 ) das dann 'gerundet' wurde. Dann ist der Abstand auf einer log-Skala nämlich eine 'Größenordnung'.


    Clear Skies,
    Gert

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: tbstein</i>
    <br />
    (==&gt;)Jo -
    Sicherlich ist eine ältere Kamera mit Streifenneigung nicht das gelbe vom Ei, aber die Streifen und auch die Pixel-Non-Uniformity bedarf unbedingt einer Flatfieldkorrektur. Da reichen Darks nicht aus. Dies ist besonders bei einem hellen Hintergrund notwendig, denn die unterschiedliche Empfindlichkeit der Pixel erzeugt bei hellem Hintergrund ein zusätzliches stationäres Rauschen.
    Vielleicht noch ne kurze Bemerkung hierzu:
    "Hier führt dann "hintergrundlimitert" bei einem recht versifften Himmel dazu, dass man "sinnvoll" nur noch ein paar Sekunden belichten "dürfte". Aber dann hat man von den erwünschten sehr lichtschwachen Objekten nichts mehr im Pixelkästchen, weil das Signal gnadenlos im Rumpeln der Kamera untergeht, trotz Dunkelbildabzug. Dann könnte man im Dunkeln genausogut seine Kellerwand knipsen."
    Das witzige am Stacking ist aber hierbei, dass dein Signal nicht über eine bestimmte Schwelle muss, sondern es kann nochso klein im Verhältnis zum Rauschen sein, bei ausreichender Anzahl der addierten Bilder sinkt das Rauschen um sqrt(n), sodass das Signal detektierbar wird. Die optimale Belichtungszeit sagt nur aus, ab wann man eh Stacken kann, ohne Signal zu verschenken.


    Gruß Tino


    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Die theoretischen Zusammenhänge möcht ich ja auch bejahen.


    Übrigens mache ich Flats wie ein Weltmeister und es bringt bei Sekundenaufnahmen zu wenig gegen die Streifenbildung, die bei kurzen Belichtungszeiten dominant gegenüber dem Objektsignal bleibt. Da wirken dann "länger" belichtete Einzelaufnahmen (als "hintergrundlimitiert" meint), positiv gegen das Störsignal aus der Kamera. Ich wollte nur mit meinem Beispiel sagen, dass "Hintergrundlimitiert" keine allgmeingültige Maßgabe ist, da in der Praxis mangelhafte Technik ein Faktor ist, der die schöne Theorie wieder aushebelt.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: frasax</i>
    <br />Hallo Jo,


    du interpretierst den Begriff "Hintergrundlimitiert" etwas falsch.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Da irrst Du Dich Deinerseits. Ich sehe es so wie Tino, oder Du.
    Sobald eine Aufnahme hintergrundlimitiert ist, erwirkt eine längere Einzelbelichtungszeit keinen weiteren Gewinn, als wenn man die Einzelbelichtungszeit begrenzt und die Gesamtbelichtungszeit in mehrere Aufnahmen unterteilt. Im Gegenteil, der erreichbare Dynamikumfang im Stack würde bei zu langen Einzelbelichtungszeiten abnehmen, weil der mit der Quadratwurzel von t anwachsende Streulichtanteil den nutzbaren Anteil des technisch limitierten Dynamikbereich einer Aufnahme verringert.
    Es ist eher eine Empfehlung für eine Mindestbelichtungszeit, aber auch eine nicht viel länger zu belichten. Für eine ideale Kamera die beim Auslesen nichts als Schrotrauschen erzeugt, mag die Theorie auch prima gelten.
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: frasax</i>
    <br />
    Der zweite Gedanke, das du ein Signal über den Hintergrund retten musst ist stimmt so auch nicht.... <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Das ist richtig, nur hat das mit dem was ich sagte nichts zu tun, ich sprach da vom Störsignal (Zeilenbildung) meiner Kamera. Und das ist kein zufälliges Ereignis mehr wie das Ausleserasuchen oder das Photonenrauschen des Störlichts im Hintergrund. Da kämpfe ich dann verzeifelt gegen die Zeit an, weil das Störsignal proportional mit dem Objektsignal anwächst. Und daher passt die Empfehlung aus der Theorie für meine reale Kamera nur in engen Grenzen.



    ciao,
    Jo

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: frasax</i>
    <br />Hi Stefan,
    bist du in Berlin bei 20min in Ha noch nicht hintergrundlimitiert?
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Hallo Frank, ich habe gerade mal Summenbilder angeschaut, bei Berliner Innenstadthimmel (SQM-L 18,4) und f/7 war ich nach 15 Minuten mit 7nm Baader Halpha-Filter bei 300 ADU Hintergrund, nach meiner 10%-Regel hätte ich aber 400 ADU gebraucht. Mit 20 Minuten hätte das vielleicht gerade so gereicht.
    Letztes Jahr in Namibia war ich bei f/8 selbst bei Luminanzaufnahmen mit 10 Minuten Belichtungszeit noch weit von den 10% entfernt, selbst 20 Minuten hätten nicht gereicht. Länger als 10 Minuten ging aber wegen ständiger Fokusdrift und zickiger Montierung nicht...


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: tbstein</i>
    <br /> Meine Interpretation ist, dass man idealerweise 12s belichten sollte, auch wenns wenig klingt. Bei weniger Belichtungszeit+Stacking verschenkt man SNR und bei mehr Einzelbelichtungszeit verschenkt man Dynamikumfang und erhöht das Risiko einer Fehlbelichtung, da man das selbe Ergebnis bezüglich SNR mit mehreren verteilten 12s Belichtungen und Stacking bekäme.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Hallo Tino, für das Signal-Rauschverhältnis können längere als "notwendig" belichtete Einzelbilder niemals schlecht sein. Ab dem Zeitpunkt, wo man hintergrundlimitiert ist, gewinnt man nur nichts mehr durch die längeren Einzelbelichtungen. Und zu lange Einzelbelichtungen können ein Problem sein, wenn man zu wenige von ihnen zusammenbekommt, um beim Sigma-Stacking Satelliten etc. loszuwerden.
    Den Nachteil bei der Dynamik sehe ich eher als theoretisch an, Dynamik wird eh weit überschätzt. Wenn ich eine Galaxie fotografiere, "schluckt" selbst bei meinem kleinpixeligen ICX694-Chip der interessante Teil (Spiralarme der Galaxie) vielleicht 5% der möglichen Dynamik, lediglich der Kern braucht vielleicht im Schnitt 30%-50% der Dynamik. Wenn ich also "zu lange" belichte, geht mit etwas Pech vielleicht der sternförmige Galaxienkern in die Sättigung, aber mehr nicht. Wenn man nicht gerade M42 oder Kugelsternhaufen fotografiert, reicht die Dynamik eines normalen Astro-CCD-Chips locker auch für lange Einzelbelichtungen. Die hellen Feldsterne gehen eh in die Sättigung, auch bei kurzen Belichtungen.

  • Hallo Jo,
    sollte auch keine direkte Kritik sein. Das mit dem Stacking funktioniert ja auch nur dann ideal, wenn das Rauschen und die Parameter der Kamera möglichst stabil sind. Es kann beispielsweise schon problematisch sein, wenn die Pixel-Nonuniformity sich zeitlich ändert, bspw. durch elektromagnetische Einstreuung oder Verstärkerdrift. Wenn die Streifen der D350 sich also zeitlich minimal ändern, oder driften, läuft die Flatfieldkorrektur ins Leere.
    hallo Stefan,
    war auch nicht so gemeint, dass länger als notwendige Einzelbelichtungen schlechter sind. Sie sind aber auch nicht besser und auch normalerweise nicht nötig (zumindest im hintergrundlimitierten Bereich). Vielleich ist "ideal" das falsche Wort, dann wohl eher optimal. Die Dynamik ist natürlich nur in speziellen Konstellationen ein Problem. Das Ausbrennen von hellen Strukturen, oder das Überlaufen von Pixeln ist oftmals nur ein kosmetisches Problem, aber beispielsweise auch photometrisch nicht gern gesehen.
    Gruß Tino

  • Hallo Tino,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bei weniger Belichtungszeit+Stacking verschenkt man SNR und bei mehr Einzelbelichtungszeit verschenkt man Dynamikumfang und erhöht das Risiko einer Fehlbelichtung, da man das selbe Ergebnis bezüglich SNR mit mehreren verteilten 12s Belichtungen und Stacking bekäme.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Was gibt es da dynamisch denn zu befürchten bei einer 14, 15 oder 16 bit Kamera?
    Ich dithere meine Aufnahmen, soll ich 12s belichten um dann 100s zu dithern? Ausserdem produziert man doch so einen riesen Datenwulst.


    Und nochmals: Unter dunklem Himmel dauert es schon eine ganze Weile bis man Hintergrundlimitiert ist. Da sind 10-20m keine Seltenheit. Und der dunkle Himmel ist nun mal viiiieeeeeellll wichtiger als alles andere.


    CS Frank

  • Hallo,


    ich beziehe mich auf den Eingangspost. Ich bin mir nicht ganz sicher was hier mit hintergrundlimitiert gemeint ist, aber wenn man nur den Photonenfluss des "Sternenlichts" (also das reine Signal) ohne andere Rauschquellen betrachtet dann steigt das SNR mit der Wurzel der Belichtungszeit. Das SNR ergibt sich aus dem Quotienten der Anzahl der Photonen und dem Schrotrauschen welches mit der Wurzel der Anzahl der Photonen geht.
    Siehe auch hier: http://en.wikipedia.org/wiki/Shot_noise
    Wenn man jetzt zusätzliche Rauschquellen hat muss man den Nenner des SNR um das Schrotrauschen des Dunkelstroms, Rauschen des Hintergrundes und Ausleserauschen erweitern um letztendlich auf das tatsächliche SNR zu kommen.


    mfg

  • Hallo Jo,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Übrigens mache ich Flats wie ein Weltmeister und es bringt bei Sekundenaufnahmen zu wenig gegen die Streifenbildung, die bei kurzen Belichtungszeiten dominant gegenüber dem Objektsignal bleibt. Da wirken dann "länger" belichtete Einzelaufnahmen (als "hintergrundlimitiert" meint), positiv gegen das Störsignal aus der Kamera. Ich wollte nur mit meinem Beispiel sagen, dass "Hintergrundlimitiert" keine allgmeingültige Maßgabe ist, da in der Praxis mangelhafte Technik ein Faktor ist, der die schöne Theorie wieder aushebelt.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Flats bringen bei solchen Streifen gar nichts! Zeig doch mal bitte ein Bias und ein Dark Frame deiner Kamera.


    CS Frank

  • Hallo Frank,
    die 12s sind nur beispielhaft und für einen hellen Himmelshintergrund. Bei dunklem Himmel sind dann auch die besagten 20min drin. Aber wenn man bspw. anstatt der optimalen Belichtungszeit länger belichtet, können schon hellere Sterne oder Galaxienkerne in die Sättigung gehen oder "Ausbrennen". Ist halt nur ein Problem, wenn denn sehr helle und sehr dunkle Strukturen gleichzeitig da sind. Die 14, 15 oder 16bit sind erstmal irrelevant, es kommt auf die Pixel-Full-Well an, dh. wieviel Elektronen in den Pixel passen. Die Datenmenge ist natürlich schon ein Faktor, aber meistens nicht der Begrenzende.
    Mit dem dunklen Himmel als wichtigste Komponente hast du natürch zu 100% Recht, aber nur solange keine Wolken da sind ;).
    Gruß Tino

  • Hallo Bruciesheroes,
    das Signal einer Punktquelle oder eines einzelnen Pixels steigt aber linear mit der Belichtungszeit. Das SNR wird zu den umliegenden Pixeln bestimmt, welche im "nichthintergrundlimitierten" Bereich einen konstanten Noise (ReadNoise, DarkCurrent) aufweisen, oder zumindest ist der konstante Term dominierend. Erst wenn die umliegenden Pixel auch entsprechend belichtet werden (oder der Hintergrund über die anderen Rauschterme dominiert) ist der ShotNoise und die Quadratwurzel angesagt.
    Gruß Tino

  • Hi Tino,


    Full WEll, hast recht, Denkfehler meinerseits. Aber wie Stefan auch schon schreibt, helle Feldsterne gehen dir eh in die Sättigung. Zumindest bei einer CCD braucht man sich aber ausser bei M42 und M32 recht wenig Sorgen machen. Wie das mit einer DSLR weiss ich nicht.


    Im grossen und ganzen sind wir uns ja einig.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">aber nur solange keine Wolken da sind ;)<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das ist des Pudels Kern:-)


    CS Frank

  • Hallo Tino,


    Einspruch, Bruciesheroes (ein kürzerer Name wär auch schön) hat völlig recht.
    Du hast eine lineare Zunahme des Signals mit der Belichtungszeit, aber die Wahrscheinlichkeit mit der es einen bestimmten Wert annimmt, wird durch seine Intensität über die Shotnoise Beziehung angegeben.
    Die Nachbarpixel haben mit dem SNR erst mal gar nix zu tun. Die ganzen theoretischen Betrachtungen gehen hier davon aus, wie "zappelig" das Signal an einem Pixel ist. (also von Bild zu Bild)
    Das ist ganz anders, als bei einem nichtt statistisch verteilten Signal, wie man es zB aus der Nachrichtentechnik kennt. Das, was Otto Normalverbraucher als Bildrauschen kennt, also die Körnigkeit oder Grisseligkeit innerhalb eines Bildes, ergibt sich erst aus dem zufälligen Verhalten der Nachbarpixel, die je nach Intensität unterschiedlich stark um Ihre Mittelwerte tanzen. Physikalisch betrachtet, rauscht ein Einzelbild überhaupt nicht, erst aus dem Vergleich (zB der Subtraktion) zweier oder mehrerer Bilder kann man darüber eine quantitativ exakte Aussage machen. Dann muss man auch nicht zwischen statischem Rauschen (also fix pattern noise) und statistischem Rauschen unterscheiden, da ersteres bei der Subtraktion rausfällt.
    So wird es letztlich auch bei professionellen Kameras vermessen.
    (und glaub mir, ich mach das seit über zwanzig Jahren...)


    Viele Grüße
    Norbert

  • Hallo Norbert, hallo Bruciesheroes,
    ich nehme alles zurück und behaupte das Gegenteil, zumindest teilweise. Ich habe diesbezüglich nochmal recherchiert und siehe da, es gibt verschiedene Sonderfälle:
    Die Hauptgleichung ist:


    S/N = R * t / sqrt ( R * t + RSky * t + RN^2 + Dark * t)
    Signal ShotNoise SkyNoise ReadNoise DarkCurrentNoise


    Sonderfall 1: Eine helle Quelle &gt;&gt;&gt; ShotNoise dominiert &gt;&gt;&gt; übrig bleibt: S/N ~ R*t / sqrt(R*t) skaliert mit der Quadratwurzel der Zeit
    Sonderfall 2: Der Himmelshintergrund dominiert &gt;&gt;&gt; Kriterium (RSky*t &gt; 3*RN) &gt;&gt;&gt; übrig bleibt: S/N ~ R*t / sqrt(RSky*t) skaliert auch mit Quadratwurzel der Zeit
    Sonderfall 3: Der ReadNoise dominiert &gt;&gt;&gt; Kriterium (3 * sqrt(RSky*t) &lt; RN) &gt;&gt;&gt; übrig bleibt: S/N ~ R*t / sqrt(RN^2) skaliert linear der Zeit


    Siehe auch hier: http://www.astro.wisc.edu/~she…st500/AY500_lect5.ppt.pdf (Seite 4, 5)
    Sorry und Gruß
    Tino

  • Hallo Beisammen,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: frasax</i>
    <br />Hi Tino,


    ... Aber wie Stefan auch schon schreibt, helle Feldsterne gehen dir eh in die Sättigung. Zumindest bei einer CCD braucht man sich aber ausser bei M42 und M32 recht wenig Sorgen machen.
    ...
    CS Frank
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Da kann man mit mehreren unterschiedlichen Belichtungen was machen. Dr. A. Mellinger hat für das Milchstraßen-Panorama 2.0 drei verschiedene Belichtungszeiten verwendet und dann die Aufnahmen entsprechend skaliert überlagert.


    http://home.arcor-online.de/axel.mellinger/


    Dort : ... In order to increase the dynamic range beyond the 16 bits of the camera's analog-to-digital converter (of which approx. 12 bits provide data above the noise level), three different exposure times (240 s, 15 s and 0.5 s) were used. ...


    Clear Skies,
    Gert

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: bruciesheroes</i>
    <br />Hallo,


    ich beziehe mich auf den Eingangspost. Ich bin mir nicht ganz sicher was hier mit hintergrundlimitiert gemeint ist, aber wenn man nur den Photonenfluss des "Sternenlichts" (also das reine Signal) ohne andere Rauschquellen betrachtet dann steigt das SNR mit der Wurzel der Belichtungszeit. Das SNR ergibt sich aus dem Quotienten der Anzahl der Photonen und dem Schrotrauschen welches mit der Wurzel der Anzahl der Photonen geht.
    Siehe auch hier: http://en.wikipedia.org/wiki/Shot_noise
    Wenn man jetzt zusätzliche Rauschquellen hat muss man den Nenner des SNR um das Schrotrauschen des Dunkelstroms, Rauschen des Hintergrundes und Ausleserauschen erweitern um letztendlich auf das tatsächliche SNR zu kommen.


    mfg
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ja. "Hintergrundlimitiert" meint so wie ich es mir einbilde, dass die Größenordnung des Terms für das Ausleserauschen im Nenner gegenüber dem des Photonenrauschens des Streulichthimmels in <u>EINER</u> Aufnahme für die Praxis vernachlässigbar wird.


    Das Rauschen (betrachtet man nur Streulichthimmel und Ausleserasuchen) wächst wie:


    (1) sqr(n) * sqr(R * t + RN²)


    ;mit n=Zahl der Aufnahmen, R=Zählrate der Elektronen durch Streulichtphotonen eines Pixels, t=Einzelbelichtungszeit, RN=Zählwert der Elektronen durch Ausleserauschen pro Aufnahme und pro Pixel


    Wenn das Produkt der Faktoren R und t größer wird, dass es die Bedingung der Ungleichung erfüllt,


    (2) sqr(R * t) &gt; 3 * RN


    dann spricht man von "hintergrundlimitiert". Beispiel: Angenommen RN sei bei einer Kamera 20, dann wird grob die Bedingung bei R * t &gt; 3600 erfüllt. Diese Werte in (1) eingesetzt, ergibt


    sqr(n) * sqr(3600 + 400)


    Wenn das Photonenrauschen 3 mal größer als das Ausleserauschen ist, verschwindet der relative Einfluß des Ausleserauschens und das Rauschen wird immer mehr vom Photonenrauschen abhängig.
    Vergleiche sqr(3600)=60 zu sqr(3600+400)=63.


    Somit kann man für die Praxis wenn diese Bedingung (hintergrundlimitiert) erfüllt ist für das Rauschen setzen:


    (3) sqr(n * R * t)


    Jede weitere Verlängerung der Einzelbelichtungszeit darüber hinaus ist dann eine Abwägung/Kompromiss bei dem man sich eventuelle andere Vorteile (Unterdrückung systematischer/periodischer Fehler) gegen den Verlust an Dynamik (ADU sind limitiert) erkauft.


    Im ungünstigsten Fall verliert man durch zu lange Belichtungszeiten im hintergrundlimitierten Bereich derart an Dynamik in einer Einzelaufnahme und somit auch im Stack, dass bei der Herausarbeitung von Details über Kontrastansteilung in der EBV das Rauschen durch Dynamikverlust überwiegt. Dann machts Sinn den Chip rechtzeitig zu zumachen. Blöd nur, es gibt keinen der einem verlässlich sagen kann was diese "optimale" Belichtungszeit ist, da mehrere äussere Variablen und Bedingungen und individuelle, technisch bedingte Faktoren hineinspielen.


    Wenn ich was Falsches sagte bitte korrigieren, danke.


    Gruß,
    Jo

  • Hallo Jo,


    würde sagen, jo das stimmt so. Man könnte ohne Not auch Dark- und Shotnoise in die Formel noch dazunehmen, um die Spezialfälle "ungekühlte Kamera" und "ausgedehnte, helle Nebel" mit abzudecken.


    Ist doch schön, wenn es mal kein zwingendes "Optimum" gibt, dann bleibt doch noch ein bisschen Gestaltungsfreiheit übrig,( damit man m42 mal mit und ohne ausgebranntes Trapez zu sehen bekommt usw.)


    Erschreckend finde ich allerdings, was man für Schnitzer in den im Netz herumgeisternden Abhandlungen über dieses und ähnliche Themen findet. Da gibt's viel "Anschaulich, aber völlig falsch", "Richtig, versteht aber kein Mensch", und zu guter letzt "falsch und trotzdem unanschaulich". So gesehen ist Franks Batman Comic doch zielführender.


    Viele Grüße
    Norbert

  • Hallo Jo,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Im ungünstigsten Fall verliert man durch zu lange Belichtungszeiten im hintergrundlimitierten Bereich derart an Dynamik in einer Einzelaufnahme und somit auch im Stack, dass bei der Herausarbeitung von Details über Kontrastansteilung in der EBV das Rauschen durch Dynamikverlust überwiegt.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Dynamikverlust im Stack? Was ist überhaupt Dynamikverlust? Und wie entsteht dadurch Rauschen? Das verstehe ich gerade nicht. Ich dachte bisher wir reden von der "Sammelkapazität" des Sensors. Also wie voll das "Eimerchen" geworden ist. Im Stack wird diese Zahl ja nur gemittelt, dem Median unterzogen oder was auch immer für eine Statistik. D.h. die Zahl für den Füllstand des Eimers wird stabiler aber nicht höher. Anders gesagt das SNR steigt an. Nicht?


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Blöd nur, es gibt keinen der einem verlässlich sagen kann was diese "optimale" Belichtungszeit ist, da mehrere äussere Variablen und Bedingungen und individuelle, technisch bedingte Faktoren hineinspielen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Du musst doch nur in deiner Aufnahmesoftware schauen ob etwas in die Sättigung gegangen ist. m.M. nach gibt es da auch keine Variablen sondern lediglich den Wert der FW der dich limitiert. Was meinst du denn für äussere Umstände, klingt so mysteriös:-)
    Wie schon geschrieben, bei sehr hellen Sternen würde ich mir da gar keinen Kopf machen, bei hellen Nebelanteilen schon. Ich habe früher mit der 350D gearbeitet, ich weiss also nicht wie es mit modernen Kameras ist. Aber ich hatte nie Probleme auch nur annähernd (ausser wie schon gesagt M45,M42,M31) an die FW heran zu kommen.


    CS Frank

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!