doppelter ISO-Wert, halbe Belichtungszeit

  • (==>)Karsten
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bei Punkt 3 mit der Einschränkung das sich das Rauschen linear über Zeit hält.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Wie isn das gemeint?
    Gute Nacht,
    Thomas
    [/quote]


    Einfaches Beispiel:


    Kamera 1 Webcam SC1 mod.


    Einzelbild 300sec
    Mittel 30*10sec


    abgesehen von das die erreichte Grenzgröße der Objekte bei 10sec liegt wirst du beim Mitteln ein besseres Ergebnis haben. Aus der 300sec Aufnahme wirst du kein NutzSignal mehr rausbekommen, das ist gesättigt.


    Kamera 2: Canon EOS D


    Einzelbild 300sec
    Mittel 30*10sec


    hier wird dein Einzelbild besser liegen weil der SNR bei 300sec wesentlich weiter auseinanderliegt als das Mittel bei 10sec.


    Für jede spezifische Kamera muss es aber auch einen optimale Belichtungszeit geben. Der Punkt an dem der SNR Optimal ist.


    Kann ich diesen Punkt nur empirisch bestimmen oder auch berechnen, jetzt mal unabhängig von dem Faktor Aussenbedingungen?


    Grüße
    Karsten


    p.s. noch mal kleine Grafik



    Wann ist das Signal am größten ?

  • Hallo,


    naja also. Das Photonenrauschen der Lichtquelle ist schuld. Reine Physik!
    Dunkelstrom und dessen Rauschen sowie Ausleserauschen etc. spielt hier eine völlig vernachlässigbare Rolle.
    Denn selbst nach 300 Sekunden ISO800 ist bei der Canon noch alles rabenschwarz.


    Also hilft hier keine noch so ausgefeilte Technik! Man kann die Photonen eben nur so zählen wie sie kommen. Und wie man dann die Messzeit in Summe erreicht ist für das Rauschverhalten egal.
    (zumindest für den eingangs gezeigten Bildbeitrag)
    Also solange die gesamte Messzeit über die gemittelt wird 300 Sekunden beträgt, sollten alle Bilder (am Anfang des Themas) gleich aussehen.
    Alle anderen Faktoren sollten hier vernachlässigbar sein.


    CS
    Wolfgang

  • Hi Thomas


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Aber dann muss man lesen, dass auch hier wieder der Dunkelstrom dem Thermischen Rauschen gleichgesetzt wird.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Was da steht is schon korrekt. Er spricht in der Formel eindeutig vom Dunkelrauschen (!!) nicht vom Dunkelstrom.


    Gruß
    Gerhard

  • Hallo,


    Das Problem ist meiner Meinung nach, dass man solche Probleme aus Sicht der Theorie und aus der eines Astrofotografen betrachten kann. Beispiel:


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das Signal/Rauschverhältnis (SNR) verbessert sich mit der Dauer der Belichtung.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Dem will ich ja gar nicht widersprechen. Aber was habe ich als Astrofotograf davon, wenn sich diese Relation zwar zu meinen Gunsten verbessert, aber absolut gesehen eben das Rauschen ein inakzeptables Niveau erreicht?


    Aus meiner Sicht muss ein Astrofoto möglichst rauschfrei sein! Das kann ich aber mit einer einzigen Aufnahme garantiert NICHT erreichen. Ich wäre ja sehr froh, wenn ich hier lernen würde, wie es anders geht. Dann gehe ich nämlich bei der nächsten Gelegenheit her, belichte M33 mit meiner Webcam 1x40 Sekunden lang und entferne dann per Bildbearbeitung das Bildrauschen. Aber bislang kenne ich dazu nur eine Möglichkeit: Möglichst viele Rohbilder. Wobei gilt: Es muss ein Mittelwert zwischen Belichtungszeit und Anzahl der Rohbilder gefunden werden. Natürlich entsprechen 100x20-Sekunden-Rohbilder NICHT einer Geamtbelichtungszeit von 2000-Sekunden - zumindest, was den Informationsgehalt auf dem Summenbild angeht.


    Aber bevor ich hier reinpoltere und anderen unterstelle, wie würden nur "Unsinn" reden, wünsche ich mir doch ein bisschen mehr Praxisbezug. Dazu gehört zum Beispiel, dass man, wenn man anderen "Unsinn" unterstellt, nicht mit irgendwelchen theoretischen Kurven sondern mit konkreten Astrofotos aufkreuzt!


    Von der Theorie hier auf die Praxis zu schließen ist hier meiner Meinung nach falsch. Daraus resultiert dann nämlich die folgende Aussage:


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Eine lange Einzelbellichtung ist besser als viele Belichtungen,
    die in der Summe genauso lang sind, wie die Einzelbelichtung.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Dazu kann ich als jemand, der doch inzwischen einige Bilder gemacht hat nur sagen: Das ist in der Praxis einfach falsch!!!

  • Hallo Rolf,
    das mit dem 'garantiert nicht' stimmt so nicht.
    Du gehst vor deiner Webcam mit 8 Bit Dynamik aus. Wenn du aber eine Kamera mit z.B. 16 Bit Dynamik hast, dann kannst du 256 mal so lange belichten wie mit der Webcam, bevor einzelne Pixel in die Sättigung kommen. Du bekommst so quasi (und das noch ganz ohne Ausleserauschen) die Mittelung von 256 Aufnahmen mit dem entsprechend guten Signal-/Rauschverhältnis mit EINER einzelnen Aufnahme.


    ps:
    Dazu kann ich als jemand, der doch inzwischen einige Bilder gemacht hat nur sagen: Das ist in der Praxis einfach richtig.


    Gruss
    Günter

  • Hallo Günther,


    Auch da hast du recht! Aber im Gegensatz zu Thomas habe ich meine Aussage nie für allgemeingültig erklärt, bin nie hier herein geplatz und habe jedem "Unsinn" unterstellt und meine allumfassende universelle Lehre als die einzig wahre für alle digitalen Aufnahmegeräte dargestellt. [;)]


    So lange man nämlich nicht differenziert, ist seine Aussage nunmal falsch. Das gilt nicht nur für meine Webcam, sondern auch für die gängigen digitalen Spiegelreflexkameras! Jedenfalls würde ich, wenn ich mir so ne Kamera leiste, schon auch ein gewisses Qualitätsniveau setzen und da fallen verrauschte Plejadenbilder eben durch.


    Als ich im Sommer mit der EOS 300D Sternfeldaufnahmen des Schützen gemacht habe, habe ich mit ISO-Werten von 400 und 800 und damit verbunden mit Belichtungszeiten von 8 Minuten bis 15 Minuten gespielt. Auf jeder Einzelaufnahme war das Rauschen deutlich zu erkennen. Ein nettes Bild aber verrauscht!


    Nur, und wirklich nur durch die Addition mehrerer Bilder waren hier entscheidende Verbesserungen möglich. Nach der Thomas-Therie wäre es aber besser gewesen, einmal am besten gleich 20 Minuten zu belichten und dann zusammen zu packen oder ein anderes Objekt zu fotografieren. Das gilt nach all dem, was ich bisher gesehen habe, für die gängigen Webcams, die gängigen Spiegelreflexkameras und sogar für teurere CCD-Kameras (z.B. die Starlight Xpress CCD-Kamera). Es hilft auch nicht weiter, wenn die Theorie nur auf die Modelle zutrifft, die in der Praxis nicht gängig sind.


    Aber ich will mich da nicht weiter streiten.

  • Hallo Rolf,
    eine Falschaussage richtigstellen nenn' ich nicht streiten. Ausserdem meine ich das nicht nur theoretisch, ich rede auch aus praktischer Erfahrung.
    Ich würde beispielsweise liebend gerne meine MX716 nur 1x25 Minuten auf dasselbe Objekt richten als 50Frames je 30s zu Stacken. Das Ergebnis wäre sicher besser. Aber meine Montierung lässt dies leider absolut nicht zu. Und das ist für mich der Hauptgrund (neben nicht ausreichendem Dynamikumfang bei noch längeren Aufnahmen), Aufnahmen zu Stückeln.
    Natürlich musst du Bildadditionen einsetzen, wenn du mit dem Rauschen der Einzelaufnahmen nicht zufrieden bist. Aber wie gesagt, manche Kamera braucht dies nicht zwingend, wenn die Nachführung lange Belichtungszeiten zulässt.
    Gruss
    Günter

  • Hallo Leute,
    hoffentlich haben sich die erhitzten Gemüter nun wieder etwas abgekühlt.
    Ich finde solche Themen grundsätzlich sehr wichtig, und es wäre schön, wenn wir etwas sachlicher diskutieren könnten. Bei unserer Spezies verschlechtert sich bekanntermaßen das Denkvermögen teils drastisch, wenn wir uns zu sehr aufregen[B)].


    ==&gt;Thomas:
    Ich bin mir sicher, daß Du dich mit der Theorie der CCD-Kameras ziemlich gut auskennst, vielleicht besser als ich.
    Daß der Begriff "Rauschen" oft unsauber oder sachlich falsch verwendet wird, stört mich auch. Dagegen hilft aber meiner Meinung nach nur sehr geduldige Aufklärung.


    Also noch mal sehr sachlich:
    Als "Rauschen" bezeichnet man in der Elektronik immer eine statistische Schwankung eines Signals um einen Mittelwert über die Zeit. Man kann Rauschen nach Frequenzanteilen auflösen, und man kann eine Momentaufnahme des Signals als Meßwert plus statistischen Meßfehler darstellen.
    Ein Rauschen hat niemals eine statische Komponente. Der Dunkelstrom ist kein Rauschen! Er entspricht einem systematischen Meßfehler, weil man ihn genau vorhersagen und auch subtrahieren kann. Nur seine statistische Schwankung über die Zeit nennt man Dunkelrauschen.


    ==&gt;Michael:
    Einen Punkt hat hier noch niemand direkt angesprochen.


    Was macht eigentlich die Kamera-Elektronik, wenn man einen höheren ISO-Wert einstellt?
    Es wird der Verstärker zwischen Bildsensor und A/D-Wandler umgeschaltet. Damit verstärkt man natürlich nicht nur das Nutzsignal, sondern auch den Dunkelstrom und alles Rauschen, das bis zum Ausgang des Bildsensors entsteht.
    Das Dunkelrauschen müßte nun bei allen Bildern gleich stark zu sehen sein, weil die höhere Verstärkung durch die kürzere Belichtungszeit ausgeglichen werden sollte.
    Warum rauscht das Bild dann bei höherer ISO-Einstellung trotz kürzerer Belichtungszeit mehr?
    Das liegt daran, daß andere Rauschanteile (z.B. Ausleserauschen) unabhängig von der Belichtungszeit sind und bei höherem ISO-Wert mehr verstärkt werden!


    Der Bildsensor selbst erreicht bei einer bestimmten Lichtmenge pro Pixel seine Sättigung, unabhängig von der ISO-Einstellung.
    Bei niedrigster ISO-Einstellung (z.B. ISO100) kann man diese Sättigung auch annähernd ausnutzen. Bei ISO800 nutzt man nur noch 1/8 davon. Dadurch verkleinert sich der nutzbare Dynamikumfang entsprechend.
    In der Praxis subtrahieren viele Kameras den Dunkelstrom bereits analog vor dem A/D-Wandler, sonst wären höhere ISO-Einstellungen bei längerer Belichtungszeit überhaupt nicht nutzbar.


    Fazit:
    Um das Verhelten einer Kamera vollständig theoretisch beschreiben zu können, bräuchten wir deutlich mehr Informationen, als uns meist zur Verfügung stehen.
    Das Ziel ist vor allem, gute Fotos zu machen.
    Daher schließe ich mich letztendlich der Praktiker-Fraktion an:
    Einfach ausprobieren, was am besten funktioniert!


    Gruß,
    Martin

  • Halo Günther,


    Das Wort "Streit" muss ja nicht immer negativ besetzt sein. [;)]


    Im Prinzip stehen wir jetzt bei einer Erkenntnis, die eigentlich schon im Vorfeld klar war: Es hängt stark vom Kameratyp ab.


    Für mich ist die Theorie der CCD-Kameras nur insofern interessant als sie mir hilft, bessere Fotos zu machen. So unterscheide ich zum Beispiel nur zwischen zwei Arten von "Störsignalen". Das eine sind für mich Hotpixel, die ich aber mit einigen Darkframes sehr gut rausbekomme.
    Das andere ist für mich das Rauschen, welches ich nur durch Bildaddition raus bekomme. Um welches Art von Rauschen es sich dabei genau handelt spielt für mich keine Rolle - jedenfalls so lange ich es raus bekomme.

  • Hi Martin,


    danke für Deinen Versuch etas Klarheit in die Definition der verwendeten Begriffe zu bringen.


    Noch eine Anmerkung zu dem Dunkelstrom und ISO-Einstellung:
    Der Dunkelstrom sollte von der ISO-Eistellung unabhängig sein,
    da dieser ja eine physikaliche Grundeigenschaft des Sensors ist.
    Dem ist es egal, was hinter dem Chip noch alles an Verstärkung passiert.


    (==&gt;)Gerhard:
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Er spricht in der Formel eindeutig vom Dunkelrauschen (!!) nicht vom Dunkelstrom.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Das stimmt zwar, aber so wies aussieht verwechselt er doch diese beiden Begriffe:
    Er gibt für seine HX916 ein Darknoise von 30e an, bei 300s Belichtungszeit.
    Dies entspräche einem mittleren Dunkelsignalpegel von 900e!!
    Das wäre für eine HX916 grottenschlecht.
    Ein paar Zeilen weiter steht, dass das Darknoise sich pro 6° Temperaturverringerung halbiert.
    Dies entspricht aber dem typischen Temperaturverhalten des Dunkel<b>stroms</b>.
    Da nun dieser Dunkelstrom von Pixel zu Pixel unterschiedlich ist,
    haben die einzelnen Pixel auch verschiedene ADU-Werte, die das Bild verrauscht aussehen lässt.
    Aber <b>kein</b> Rauschen ist. (Der TC237 ist da ein Paradebeispiel ;) )



    (==&gt;)Günter:


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Du gehst vor deiner Webcam mit 8 Bit Dynamik aus. Wenn du aber eine Kamera mit z.B. 16 Bit Dynamik hast, dann kannst du 256 mal so lange belichten wie mit der Webcam, bevor einzelne Pixel in die Sättigung kommen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Diese beiden Sachen haben doch überhaupt nichts miteinander zu tun!
    Üblicherweise werden Kameras so designed, dass der A/D-Wandler auf das komplette Fassungsvermögen (Fullwell-Kapazität) der Pixel abgestimmt wird.
    Wenn ich zwei Kameras habe, die denselben CCD-Chip haben, aber verschiedene A/D-Wandler, und ich diese mit derselben Optik derselben Lichtquelle aussetze,
    dann geraten die Pixel doch in derselben Zeit in die Sättigung.


    (==&gt;)Rolf
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Dem will ich ja gar nicht widersprechen. Aber was habe ich als Astrofotograf davon, wenn sich diese Relation zwar zu meinen Gunsten verbessert, aber absolut gesehen eben das Rauschen ein inakzeptables Niveau erreicht?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Da sieht man doch, dass Du überhaupt nix kapiert hast!
    Wenn ich ein gutes (hohes) Signal/Rauschverhältnis habe, dann <b>kann</b> das Rauschen eben kein "inakzeptables Niveau" erreicht haben.
    Das Rauschen steigt zwar an, und wird beim längerbelichteten Bild immer grösser,
    aber eben nur mit der <b>Wurzel</b> aus der Zeit, während das Nutzsignal <b>linear</b> mit der Zeit ansteigt!
    Das sind doch altbekannte Tatsachen, und nicht so einfach von mir dahergesponnen!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Dann gehe ich nämlich bei der nächsten Gelegenheit her, belichte M33 mit meiner Webcam 1x40 Sekunden lang und entferne dann per Bildbearbeitung das Bildrauschen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Rauschen <b>kann</b> man nicht aus einem Bild entfernen, ohne nicht auch Bildinformation zu zerstören.
    Alles Rauschen, was man sich einfängt, und durch Bildbearbeitung dazukommt, ist und bleibt in dem Bild drin!
    Was Du da machst, ist nicht Rauschen entfernen, sondern das Entfernen der systematischen Fehleranteile im Bild (akkumulierter Dunkelstrom, Offset).


    Nochmal ein kleines Beispiel zur Bildaddition, und Einzelbild.
    Angemommen ich nehm ien irgendein Objekt auf. Einmal mit zwie Einzelbelichtungen und einmal mit einer Einzelbelichtung, die genausolang ist, wie die zwei Belichtungen.
    Die Belichtungszeit sie so kurz, dass der Dunkelstrom vernachlässigt werden kann. Dann haben wir als Rauschen nur das Ausleserauschen (nr),
    und das Signalrauschen (ns).
    Das Rauschen in einem Bild ist dann Sqrt(nr^2 + ns^2).
    Von zwei gleichen addierten Bildern Sqrt(2*nr^2 + 2*ns^2) = sqrt2 * der Einzelbelichtung
    Vom Einzelbild doppelter BeliZeit Sqrt(nr^2 + 2*n^2)
    Wie man deutlich sieht, ist in dem Einzelbild doppelter Länge weniger Rauschen (nur einmal das Ausleserauschen) drin , als im anderen Fall.



    Gruss,
    Thomas

  • hallo lateralus,


    schöner test. feiner denkanstoss! probier mal, ein paar darks bei verschiedenen temperaturen zu machen. das lässt hoffen für kalte klare nächte; bei 7 grad celsius kann man sogar mit 1600 asa längere belichtungszeiten vornehmen. und alle 7 grad celsius abwärts halbiert sich in etwa der rauschanteil. siehe:


    http://www.kopfgeist.com/sonstiges/eos_darks.htm
    darkframes der eos 20d bei verschiedenen temperaturen.


    was man aber bei deiner testreihe auch ganz gut sieht: die bildintensität ist nicht gleich, kürzere aufnahmen bei mehr iso haben weniger lichtausbeute als die entsprechenen aufnahmen mit weniger iso. das liegt daran, dass cmos-chips doch keinen schwarzschildexponenten von p= 1,00 haben...


    grüsse

  • Hallo,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Da sieht man doch, dass Du überhaupt nix kapiert hast!
    Wenn ich ein gutes (hohes) Signal/Rauschverhältnis habe, dann kann das Rauschen eben kein "inakzeptables Niveau" erreicht haben.
    Das Rauschen steigt zwar an, und wird beim längerbelichteten Bild immer grösser,
    aber eben nur mit der Wurzel aus der Zeit, während das Nutzsignal linear mit der Zeit ansteigt!
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Bitte poste dazu mal konkrete Bildbeispiele, die Du selbst gemacht hast!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Rauschen kann man nicht aus einem Bild entfernen, ohne nicht auch Bildinformation zu zerstören.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ja eben das ist ja meine Aussage!!!!! Gerads weil das nicht geht, wenn man nur EINE Aufnahme macht, muss man den Weg der Addition gehen.


    Schau dir dazu doch mal meine Beispielbilder an, die ich gepostet habe und lies dir den Text dazu mal durch; das wäre von immensem Vorteil! Natürlich ist es unmöglich, das Rauschen aus dem geoposteten Rohbild zu bekommen. Das würde auch gelten, wenn ich ne Aufnahme mit der EOS mache.


    WENN nur ein Bild gemacht wird DANN Rohbild = Summenbild


    Und auch wenn das Rauschen nur mit der Wurzel der Zeit steigt... es steigt! Mach doch mal mit ner SC1 oder von mir aus auch ner SC3 Rohbilder von 10 Sekunden, 30 Sekunden und einer Minute. Da sieht die 1-Minuten-Aufnahme derart verheerend aus, dass man kaum glauben mag, daraus noch ein schönes Bild machen zu können. Der Anstieg des Rauschens mag nicht linear sein im Gegensatz zur gewünschten Information. Aber er ist sichtbar und kein vernünftiger Astrofotograf empfände das als schönes Bild.


    Was soll unser Astrofotograf also nun tun? Er hat folgende Möglichkeiten:


    1. Ausrüstung verkaufen und aufgaben,
    2. Sich mit völlig verrauschten Bildern zufrierden geben,
    3. Einfach 100 Bilder machen und Addieren


    Deiner Theorie zufolge fällt Möglichkeit 3 raus! Hast du weitere Alternativen? Und bitte sag jetzt nicht wieder, dass meine Aussagen theoretisch unmöglich sind. Die Bilder geben mir nämlich Recht.

  • Nochmals zur Verdeutlichung:



    Du siehst hier zwei theoretische Rohbilder. Jeder weiße Pixel auf den Rohbildern könnte entweder Rauschen oder ein Stern sein. Es ist weder für uns noch für das Bildbearbeitungsprogramm möglich, dies zu unterscheiden. Erst durch den Vergleich von Rohbildern (in diesem Fall nur 2) sehen wir, welche Pixel immer weiß bleiben (=Stern) und welche nicht (=Rauschen) - in der Realität macht das die Software. Dazu sehe ich keine Alternative!

  • Hi Rolf,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bitte poste dazu mal konkrete Bildbeispiele, die Du selbst gemacht hast!<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Die Beispiele sind doch schon da!!!
    Genau die Bilder, die Michael eingangs gepostet hat!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ja eben das ist ja meine Aussage!!!!! Gerads weil das nicht geht, wenn man nur EINE Aufnahme macht, muss man den Weg der Addition gehen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Du verstehst immer noch nicht.
    Es geht weder bei einer, noch bei mehreren Aufnahmen!
    Eigentlich hätte ich gedacht, dass es inzwischen klar ist, dass ich nicht von den (Roh)Bildern rede, wie vom Chip kommen ,
    sondern von kalibrierten Rohbildern, in denen die systematischen Fehler, wie akkumulierter Dunkelstrom und Offset beseitigt sind,
    Also Darkframe abgezogen, und Flatkorrrigiert!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Was soll unser Astrofotograf also nun tun? Er hat folgende Möglichkeiten:<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Ich kenn noch eine:
    Sich maln gutes Buch schnappen, und sich informieren.
    (z.B. Handbook of Astronomical Image Processing o.ä.)[8D]


    Gruss,
    Thomas

  • Hallo,


    Wenn man von irgendwelchen theoretischen kalibrierten Bildern redet, die nicht vom Chip kommen, dann sollte man aber daraus keine Aussagen wie: "In der Praxis ist ein lang belichtetes Bild besser als viele kürzer belichtete Rohbilder."


    In der Praxis sieht es nämlich folgendermaßen aus:



    Zu der Grafik: Hier hätten wir zum Beispiel bei der Webcam bei einer Verstärkung x nach 2,5 Sekunden ein inakzeptables Rauschen (bei der EOS sei es nach 2,5 Minuten). Beim Wert 2,5 auf der Zeitachse haben wir eine Bildinformation von ca. 3 (Beispielwerte!).


    Unser Astrofotograf kann also nach 2,5 Sekunden aufhören zu belichten und sich mit dieser Bildinformation zufrieden geben. In der Praxis bedeutet dies, dass er akzeptiert, dass er halt nur Sterne bis 13m und keine schwächeren Spiralarme drauf hat.


    Wenn nun unser Astrofotograf aber eine Bildinformation von 6 möchte (was in der Praxis einfach schwächere Objekte bedeutet), dann muss er in diesem Beispiel rund 5,5 Sekunden lang belichten. Er hat dann aber ein verrauschtes Bild. Geht es ihm "nur" um einen Kleinplaneten oder so, dann kann man das unter Umständen akzeptieren.


    In der Regel jedoch wünscht man sich rauschfreie Bilder mit vielen Bildinformationen. Und jetzt entsteht eine Diskrepanz, die nur durch Bildaddition zu lösen ist! Ich belichte einfach jedes Rohbild so lange, bis ich eine Bildinformation von 6 erreiche. Diese sehen jedoch verheerend aus und keiner würde auf die Idee kommen, so ein Bild in die Gallerie zu stellen. Durch Aufaddieren aber erhalte ich ein ästhetisches Bild UND die geünschte Information!


    Fazit: In der Theorie magst du dich besser auskennen als ich! Aber deine Rückschlüsse auf die Praxis sind unzulässig.



    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Eigentlich hätte ich gedacht, dass es inzwischen klar ist, dass ich nicht von den (Roh)Bildern rede, wie vom Chip kommen ,
    sondern von kalibrierten Rohbildern, in denen die systematischen Fehler, wie akkumulierter Dunkelstrom und Offset beseitigt sind,
    Also Darkframe abgezogen, und Flatkorrrigiert!
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das kann man solange machen, wie man keine allgemeingültigen Aussagen für die Praxis macht. Da du diese aber gemacht hast ist ich es wichtig, dies zu korrigieren.

  • ähmnm, deine Grafik sagt aus: das eine lang belichtete Aufnahme besser als viele Kurze ist.


    Weil einfach der SNR besser ist und ein wesentlich größers Signal da ist.


    Nur mal so zur Info ;)

  • Hi,


    Eben nicht! Die grün unterlegte Fläche wird zwar größer, aber das Bild garantiert nicht besser.


    Das habe ich auch aus keinem Buch sondern ist das, was ich in der Praxis gesehen habe.

  • Hi Rolf,


    nimm doch mal die Tomaten von den Augen!
    In Deiner Grafik ist doch alles drin woraufs ankommt.
    Wichtig ist nicht wann die schwarze Linie grösser wird, als die Rote,
    sondern der Abstand der Lilanen von der Schwarzen (der grüne Bereich)!
    Da hast Du den Signal/Rauschabstand(verhätnis) grafisch dargestellt!
    Und der ist am grössten ganz rechts, oder etwa nicht????
    [V][V][V][V][V][V][V]


    Thomas

  • Hi nochmal,


    Der Meinung, dass es nur auf das "Signal/Rauschabstand(verhätnis)" (grüner Bereich) ankommt, kann ich mich nicht anschließen. Sicherlich ist es bei der digitalen Astrofotografie eine wichtige Größe!


    Aber machen wir es doch einmal quantitativ erfassbar und geben dem Signal-Rausch-Verhältnis die Variable v, dem Infogehalt die Variable i und dem Rauschen r.


    v(t) = i - r


    v(2,5) = 3 - 1,8 = 1,2


    v(5) = 5 - 2,2 = 2,8


    Richtig ist die Aussage: Mit zunehmender Belichtungszeit steigt v. Aber daran hat ja auch nie jemand gezweifelt! Uns macht zu schaffen, dass auch die Variable r steigt. Bei einem ästhetischen Astrofoto sollte diese doch möglichst bei 0 sein. Ich will eben jenen flachen und gleichmäßig schwarzen Hintergrund, der ein Astrofoto für mich schön macht und zwar OHNE dadurch Informationen zu verlieren (zum Beispiel der Verlust schwacher Sterne oder schwacher Nebelausläufer).


    Die beste Möglichkeit, dies zu erreichen, ist meiner Meinung nach die Addition von Bildern!

  • Hallo Leute,


    die <b>Theorie</b> sagt ganz klar: Die Kennlinie des Sensors ist linear und das Dunkelrauschen wächst nur mit SQRT(t). Zumindest die Linearität gilt aber nur für einen Teilbereich der Sensorempfindlichkeit. Bei extrem kleinen Signalen und im Bereich der Sättigung gilt die Linearität definitiv nicht mehr.


    In der <b>Praxis</b> hingegen haben wir es nicht mit einem isolierten Sensor zu tun sondern einem komplexen System namens Kamera. Und dort kommen eben Effekte wie das Ausleserauschen, das Digitalisierungsrauschen, die "Sättigung" (Thomas nennt hier bestimmt noch den richtigen Begriff[:D]) des A/D-Wandlers (bei Webcams meist 8 bit), die Wärmeabgabe durch Bauteile wie den Ausleseverstärker, etc. hinzu. Ich wage hier mal die Behauptung aufzustellen, daß die Ausleseverstärker, welcher in Webcams verwendet werden, auch nicht unbedingt linear verstärken.


    Dazu kommt noch ein weiterer Effekt: Da bei Webcams nur ein farbinterpoliertes RGB-Bild geliefert wird ist ein korrekter Dunkelbildabzug bei diesen Kameras nicht möglich. Dies bedeutet schlicht und ergreifend, daß der Dunkelstrom nicht korrigiert werden kann. Führt man dennoch einen "Dunkelbildabzug" in den RGB-Bilder durch, so kann sich das Ergebnis verbessern, muss es aber nicht!


    Es wäre doch schön, wenn jemand mal Meßkurven für seine Kamera zusammenstellt. Jens (kopfgeist) hat ja mit seiner Messung einen Anfang gesetzt, jetzt müsste eben für dieselbe Kamera (bei identischer Temperatur) auch noch der Dunkelstrom und das Dunkelrauschen bestimmt werden...


    Ich gehen mal ganz schwer davon aus, daß diese Meßkurven für eine Webcam tatsächlich zeigen würden, daß es ein optimales SNR gibt welches nicht bei unendlicher Belichtungszeit liegt.


    steffen

  • Hallo Rolf,


    Du schreibst, daß das Rauschen bei einer Belichtungszeit t0 ein unakzeptables Mass überschreitet, demnach dürfte man nicht länger als t0 belichten, wenn man das Rauschen gering halten möchte.
    Habe ich das so richtig verstanden?


    Was aber ist mit dem (schwachen) Signal, daß sich erst nach t1 &gt;&gt; t0 aus dem Rauschen abhebt?


    Wie auch immer, kann ich keinen allzu grossen Unterschied zwischen Theorie und Praxis (allerdings muss ich Webcams mangels Erfahrung aus dieser Aussage herausnehmen) feststellen: Eine einzelne langbelichtete Aufnahme sieht bei mir in allen Fällen ähnlich oder besser aus als die entsprechende Anzahl kürzer belichteter Aufnahmen. Je kürzer die Einzelbelichtungen, desto besser fällt das Ergebnis zugunsten der langbelichteten Einzelaufnahme aus! Insofern stützt meine Beobachtung die Theorie - und es hätte mich gewundert, wenn es anders sein sollte.


    Nun könnte ich noch Fourierräumen, Fourier"reihen" mit endlicher Anzahl von Gliedern und Fehlerrechnung anfangen - der Physiker sollte wissen, warum die Theorie stimmt. Alles andere stellt die Welt auf den Kopf.


    Natürlich müssen einige Rahmenbedingungen eingehalten werden. So darf das Nutzsignal nicht durch weitere Signale (Himmelshintergrund, thermisches Signal, Verstärkerglühen) kaputt gemacht werden, so daß es nicht mehr herstellbar ist. Hier kommt die Dynamik ins Spiel. Ferner ist es erforderlich - wie schon zuvor bemerkt - einen Darkframeabzug (und gegebenenfalls eine Flatfieldkorrektur) gemacht zu haben.


    Wie auch immer - es geht um den möglichst grossen Abstand zwischen Rauschen (die Summe aller Rauschanteile) und Nutzsignal. Wie gross das Rauschen absolut ist, ist daher fast nebensächlich.
    Daher verstehe ich Deine Ausführung nicht.


    Gruss, TJ

  • Hey Thorsten,


    schön, dass ich hier mal Unterstützung bekomme.
    Aber obs hilft??
    Wenn die Schwaben erstmal auf stur geschaltet haben.......


    [:D][:D][:D][:D][:D][:D][:D][:D][:D][:D]


    Gruss,
    Thomas

  • Hallo,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Du schreibst, daß das Rauschen bei einer Belichtungszeit t0 ein unakzeptables Mass überschreitet<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Wo habe ich das geschrieben?

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn die Schwaben erstmal auf stur geschaltet haben.......
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich glaube, jetzt habe ich den Punkt verstanden, an dem wir aneinander vorbei reden!!!


    Die Theorie und die Aussage, dass eine maximale Differenz von Information und Rauschen das beste Bild ergibt, ist richtig und falsch zugleich. Konkret:


    1. Der Theorie zufolge hätte ich das beste Bild bei einer Belichtungszeit im Unendlichen. In der Praxis ist mein Bild aber irgendwann einmal überbelichtet!


    2. Ich muss also zum Beispiel bei M33 nach 30 Sekunden aufhören, zu belichten (bei einer SC3 und f/3 ist das durchaus ein realistischer Wert). Eine längere Belichtung führt definitiv zu einem schlechteren Bild, da überbelichtet. Die Theorie müsste man also konkretisieren und sagen:


    Das beste Bild ist jenes, welches eine Belichtungszeit aufweist, die so gewählt ist, dass das Objekt gerade nicht überbelichtet ist.


    Aber auch das stimmt in der Praxis nicht. Das beste Bild bekomme ich nämlich nicht, wenn ich mit der CCD-Kamera 1x30 Sekunden belichte sondern nur dann, wenn ich 100x30 Sekunden belichte und diese Rohbilder dann aufaddiere!


    Wer das nicht glaubt, dem stelle ich gerne ein solches Rohbild zur Bearbeitung zur Verfügung. Es wird sich dann zeigen, dass sich aus diesem einen Rohbild NIEMALS ein so gutes Bild machen lässt, wie es durch die Addition von 100 solcher Bilder möglich ist.


    Eure Aussagen treffen zu, wenn man das EINE Rohbild betrachtet! Das beste Rohbild ist jenes, welches eine maximale Differenz zwischen Bildinformation und Rauschen aufweist und auf dem das Objekt gerade noch nicht überbelichtet ist. Das beste Bild bekomme ich aber erst, wenn ich viele solcher Rohbilder addiere.

  • Hallo Rolf,


    &gt;&gt; Du schreibst, daß das Rauschen bei einer Belichtungszeit t0 ein
    &gt;&gt; unakzeptables Mass überschreitet
    &gt; Wo habe ich das geschrieben?


    Nicht wortwörtlich, aber im Zusammenhang Deiner Antworten war es so zu verstehen.
    Einige Beispiele:


    "[...], aber absolut gesehen eben das Rauschen ein inakzeptables Niveau erreicht?"


    "Mit zunehmender Belichtungszeit steigt v. [...] Uns macht zu schaffen, dass auch die Variable r steigt. Bei einem ästhetischen Astrofoto sollte diese doch möglichst bei 0 sein. [...]"


    und last but not least die Randnotiz in Deiner Grafik "Rausch/Information":
    "Schwelle zu inakzeptablen absoluten Rauschniveau in einem Astrofoto".



    Nun zu Deiner letzten Antwort.


    &gt; Die Theorie und die Aussage, dass eine maximale Differenz von
    &gt; Information und Rauschen das beste Bild ergibt, ist richtig und
    &gt; falsch zugleich.


    Nein, die Theorie ist nicht falsch, nur fehlinterpretiert. Natürlich müssen, um eine praktische Aussage machen zu können, die Randbedingungen einbezogen werden. Du unterstellst jedoch, daß dies von den "Theoretikern" nicht gemacht wird. Und genau hier argumentieren Du und Thomas offenbar aneinander vorbei. Um ehrlich zu sein - eine Webcam kann zwar zur Astrofotografie eingesetzt werden, aber hier sind die Randbedingungen eben doch sehr viel mehr strangulierend als bei einer DSLR oder gar einer gekühlten Spezialkamera mit einer Dynamik von einem tausendfachen der einer Webcam. Und eben diese Randbedingungen müssen bei solch einer Webcam akurat aufgeführt werden - allein die Argumentation über Rauschen und Signal führt am Ziel vorbei.
    Günther Scholz hat dies ja bereits aufgeführt - allein der Dynamikbereich von 8 Bit ist ein gewaltiges Handicap.


    &gt; Das beste Bild ist jenes, welches eine Belichtungszeit aufweist, die
    &gt; so gewählt ist, dass das Objekt gerade nicht überbelichtet ist.
    &gt; Aber auch das stimmt in der Praxis nicht. Das beste Bild bekomme ich
    &gt; nämlich nicht, wenn ich mit der CCD-Kamera 1x30 Sekunden belichte
    &gt; sondern nur dann, wenn ich 100x30 Sekunden belichte und diese
    &gt; Rohbilder dann aufaddiere!


    Ja. Ja. Und ... häh? Irgendwie vergleichst Du Äpfel und Birnen. Es gibt die für eine Kamera-Optik-Objekt-Kombination beste Einzelbelichtungszeit. Und generell erreiche ich bei entsprechender Verarbeitung ein besseres Signal-/Rauschverhältnis, wenn ich solche Einzelbilder kombiniere.
    Was ist das Problem?


    Gruss, TJ

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!