Beiträge von no-ri

    Hallo,
    Man sieht gut, dass die dunklen Striche jeweils unterhalb von hellen Sternen entstehen. Bezeichnend ist, dass oberhalb dieser Sterne keine Streifen vorhanden sind. Das deutet auf einen Bildfehler ausgelöst durch die Ausleseelektornik des Bildsensors hin. Das Bild wird von oben nach unten aus dem Sensor ausgelesen. Die überbelichteten Pixel der hellen Sterne bewirken hier offensichtlich, dass die selben Pixel der nachfolgenden Zeilen beeinflusst werden. Wie die Beeinflussung im Detail abläuft, ist mir unklar, da ich die Sensorstrukturen nicht kenne.
    Abhelfen könnte man nur, indem man kürzer belichtet, damit die betreffenden Pixel nicht so sehr überbelichtet werden.
    Grüße: Richard

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Würde der Pixelwert nicht bei 25,5 sondern bei 25,4 liegen dürften 100 Bilder mit 25 ausgelesen werden. Also wird 100x der Wert 0,4 unterschlagen. Nichts anderes hab ich gesagt, bereits die Kamera macht Rundungsfehler.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Das ist übrigens ein schönes Beispiel, bei dem das Noise sogar hilft:
    Wenn das Pixel nun rauschbehaftet ist, so wird es auch manchmal über 25.5 ansteigen. Beim Mitteln entsteht dann ein Wert, welcher idealerweise recht gut 25.4 wiedergibt.
    Dies wird in der Technik gelegentlich ausgenützt: Einem Nutzsignal künstliches Rauschen addieren; um solche Quantisierungsfehler zu reduzieren.


    Beim Stacken hängt die Genauigkeit des Endergebnisses davon ab, wie der interne Zahlenraum dargestellt ist. Wenn man mit 1e6 multiplizieren und anschl. dividiere kann, scheint das Programm ganz gut zu sein.
    Übrigens, die Darstellung am Bildschirm ist dann wieder 8Bit pro Farbe, also hier klar begrenzend.


    Gruß: Richard

    Hallo Norbert,
    hast mit deinen Zahlen Recht.
    Was ich oben gemacht hatte, war der Versuch mittels einfacher visueller Vermessung deiner Bilder die Proportionalitäten grob zu verifizieren und die Theorie grob zu bestätigen / oder eben auch nicht.


    Konnte so ja auch nicht die Sigma-Werte heranziehen, sondern habe mit Spitze-Spitze-Werte gerechnet, weil man die mit dem Auge noch einigermaßen schätzen kann.
    Übrigens: In deinen Bildern sieht man, dass dein Programm auch die Sigma-Werte ermitteln kann, da kämen dann exaktere Werte raus.


    &gt; Wäre vielleicht noch ein abschließender Aufwand wert.
    Gruß Richard.

    Hallo Norbert,


    Zuerst: eine Bildunterschrift ist falsch(zweite von oben) aber im Text ja erklärt.


    Wenn man den Einfluss des Mittelns bewerten wil, muss man Sigal und Rauschen aus den Bildern messen. Rein visuell kann ich es nur so machen:
    Signal: Hub des weißen Bereichs aus der Ebene heraus
    Rauschen: Bewerten des Spitzen-Spitzen-Wertes (Sehr ungenau)
    &gt; Tendenziell sollte aber eine Aussage zu machen sein.


    Bild 1:
    Rauschen SS = ca. 60
    Signal = ca. 60
    s/n (ss) = 1


    Bei Mittelung von 20 Bildern müsste sich das s/n um wurzel(20) verbessern, also etwa auf 4.5


    Bild 2:
    Rauschen ss = ca. 330
    Signal = ca. 1320
    s/n (ss) = 4.0


    &gt; Für diese grobe visuelle "Vermessung" kommt das Ergebnis überraschend nah an den theoretischen Wert.


    &gt; Mitteln und Summieren ist wie erwartet austauschbar


    Belichten von einem Bild mit der 20-fachen Belichtungszeit liefert ja von Haus aus 20 faches Signal und damit ein s/N (ss) von ca. 20
    Um dies mit Mitteln zu erreichen, müsstest du 400 Bilder stacken.
    &gt; Theorie grob bestätigt.


    Gruß Richard.

    Hallo,
    "Und das ist eben nicht der Fall. Das Sensorrauschen ist mitnichten dominant."
    Ich gehe davon aus, man möchte dunkle Objekte (Nebel; Galaxien) fotografieren, nutzt eine Nachführung und begrenzt die Belichtungszeit so, dass die Ortsauflösung (schmieren) durch die Fehler der Nachführung das Bild noch nicht verschlechtern. Rahmendaten dazu ganz am Anfang der Diskussion von Norbert gut beschrieben.
    Dann hat man aber den Fall, dass im Einzelbild die interessanten Bildbereiche, noch recht dunkel sind und durch Stacken "aus dem Rauschen rausgezogen" werden müssen. In diesem Fall ist das Photonenrauschen noch vernachlässigbar.


    Im anderen Fall: Helles Objekt wird's noch einfacher. Nun wäre das Kamerarauschen vernachlässigbar und man kann den S/N einfach ausrechnen:
    Einfallende Lichtmenge auf dem Pixel &gt; Wellenlänge&gt; Anzahl Photonen &gt;
    Quantenwirkungsgrad &gt; Anzahl Elektronen
    Wenn man die Anzahl an Elektronen kennt (abgeschätzt hat), muss man nur wissen, dass das Photonenrauschen der Wurzel der Signalelektronen entspricht.
    Beispiel: 100 Elektronen: &gt; 10 Rauschelektronen &gt;&gt; s/n = 10
    Wenn man nun das Sensorrauschen aus anderen Überlegungen heraus ebenfalls kennt (für diesen Betriebszustand), kann man sie einfach geoemtrisch addieren. Fertig
    Zugegeben, der obige Rechenwerg ist zwar einfach, aber zumeist fehlen die notwendigen Angaben der Kamera. Es gibt aber Wege, aus Bilddaten die wesentlichen Kameraeigenschaften abzuleiten. Stichwort wäre hier:
    Albert Theuwissen mit der Internetseite http://harvestimaging.com und auch im industriellen Bereich der Standard "EMVA 1288". Aber hier verlassen wir den Amateurbereich.


    Grüße: Richard

    Hallo,
    mische mich hier nochmal ein:
    Zitat:"nur vom Objektrauschen her musst der für halbe Einzelbelichtungszeit 4x so viele Einzelbilder machen"


    Das ist zwar vereinfacht, stimmt aber im Kern:
    Ausgangslage: Bilder mit geringer Signalintensität &gt; Photonenrauschen ist vernachlässigbar, da das Sensorrauschen dominiert. Weiterhin wird wie in der Diskussion üblich, nur der Random-Noise Anteil berücksichtigt.


    Halbe Einzelbelichtungszeit heißt nun, s/n Verhältnis ist nur halb so gut (wie im Fall mit ganzer Belichtungszeit)
    Nun möchte man durch Stacken gleichwertiger Bilder (identisches s/n) im Endresultat das Rauschen halbieren, damit man ein vergleichbares Ergebnis (s/n) wie im Fall mit Einzelbild mit voller Belichtungszeit erhält.


    Aber um das Rauschen zu halbieren, muss man wie weiter oben beschrieben, 4 Bilder mitteln.
    &gt; wg. s/n Verbesserung = proportional zu wurzel(Anzahl Bilder)
    &gt; Rauschen um den Faktor 4 reduzieren: 16 Bilder ....


    Kurzer Gegencheck: Wenn ich zwei Bilder mit halber Belichtungszeit addieren würde, hätte ich die selbe Signalamplitude, wie beim lang belichteten Bild, hätte aber zweimal den Rauschanteil. Dieser wird zwar nicht eifach addiert, sondern geometrisch addiert, aber es ist klar, dass das Summenergebnis schlechter ist, als das einmal ausgelesene Bild.



    Gruß Richard

    Hallo,
    in dieser Diskussion wurden bereits viele Grundlagen zum Bildrauschen erwähnt.
    Die Aspekte aus der Praxis (Norbert) sind m.E. ausschlaggebend.


    Um nochmal auf die Kernfrage zurückzukommen:
    Wie verringert sich das Rauschen durch das Stapeln der Bilder?
    Dazu wurde hier im Forum bereits der mathematische Zusammenhang beschrieben: Das Rauschen reduziert sich mit der Quardratwurzel der Anzahl an Bildern.
    Allerdings gibt es hierfür eine wichtige Einschränkung: Diese Formel gilt nur für zufällige Rauschquellen. &gt; Und dies ist das eigentliche Problem.
    Zufälliges Rauschen (Random Noise): Betrachtet man ein einzelnes Pixel, so addiert es bei jeder Bildaufnahme eine Rauschamplitude, welche zufällig entsteht. kann also positiv positiv oder negativ (zu einem Mittelwert des Bildinhaltes dieses Pixels) sein.
    Dieses Rauschen lässt ich also durch das Stacken minimieren.
    Es gibt aber auch Rauschquellen im Pixel, welche der Amplitude dieses Pixels bei jedem Auslesen den selben Rauschanteil (beispielswiese einen kleinen positiven Wert) addieren. Diesen Rauschanteil nennt man Fix-Pattern-Noise.
    Da dieser Rauschanteil für dieses Pixel immer da ist, lässt er sich also nicht durch das Stacken minimieren.


    Als Ergebnis:
    Hätte man eine Kamera, welche ausschließlich Random Noise erzeugt, so würde man das Signal/Noise Verhältnis um die Wurzel an gestackten Bildern verbesern. Dies wäre die diesbezüglich beste Kamera
    4 Bilder: Faktor 2
    100 Bilder: Faktor 10


    Hätte man eine Kamera, welche nur Fix pattern noise erzeugt, würde das Stacken überhaupt nichts bringen. Dies wäre hier die schlechteste Kamera.


    Reale Kameras liegen irgendwo dazwischen, glücklicherweise recht nahe am ersten Fall. Das Verhältnis der beiden Rauscharten hängt von sehr vielen Faktoren ab: Sensoreigenschaften; Kamera Elektronik; aber auch Temperatur; Bereits in der Kamera vorhandene Korrekturalgorithmen...


    Als Fazit: Dafür sorgen, dass bereits bei der Bildaufnahme ein möglichst großer S/N besteht. Die Rahmendaten dazu hat Norbert bereits beschrieben.


    Grüße: Richard

    Hallo,


    die üblichen Lösungsansätze haben sie ja schon genannt.
    Mein Vorschlag geht davon aus, dass sie den Heizwiderstand ( Widerstandsdraht) selbst wickeln. Hier gibt es eine einfache Lösung:
    Wickeln von zwei identischen Wicklungen:
    - Beide parallel bestromt: Volle Leistung
    - Nur eine bestromt: Halbe Leistung
    - Beide in Serie: Viertel Leistung
    Anderer Blickwinkel: Ausgehend von einer bestromten Wicklung:
    &gt; Doppelte und halbe Leistung möglich.


    Wenn sie nun noch die Wicklungen unterschiedlich wickeln, sind auch andere Kombinationen möglich.


    + Sehr einfach und ohne Elektronik


    Grüße: Richard