Beiträge von tklosa im Thema „Cosmic Rays und sonstige Artefakte“

    Hallo zusammen,


    ich habe kaum gute Erklärungen zum KappaSigma Algorithmus gefunden, verstehe ihn aber so, dass man den Fakt ausnutzt, dass Rauschen sich bei der Mittelung schwächer ausprägt als ein schwaches aber permanentes Signal und dann mit einem bestimmt gesetzten Limit (Sigma) abschneidet. Das macht hinsichtlich der Cosmics auch erst ab 3 Bildern Sinn.


    Nun haben die Cosmics aber die tolle Eigenschaft, dass es sich wirklich um zeitlich sehr begrenzte Ereignisse handelt, die nur mit geringer Wahrscheinlichkeit in einem weiteren Bild an genau der gleichen Stelle noch einmal auftreten.
    Angenommen man hätte 1MPixel und 1cm^2 und ein Ereignis würde 10 Pixel betreffen, dann hätte man bei einem 10min Dark 200 betroffene Pixel zu 1000000-200 nicht betroffene Pixel.


    Ich werde den Gedanken nicht los, dass sich die Cosmics schon mit 2 Darks unterdrücken lassen müssten, wenn die Bilder einfach Pixelweise verglichen werden und man einen Grenzwert für den Helligkeitsunterschied definiert. Unterhalb des Grenzwertes verwendet man den Mittelwert aus beiden für das Dark und darüber den dunkleren Wert.
    Für >2 Bilder müßte man die Pixelhelligkeit jedes Pixels in jedem Bild gegen den Mittelwert der verbleibenden Pixel mit gleicher Position für die oben genannte Unterscheidung prüfen. Das könnte recht rechenintensiv werden, sollte dafür dann aber auch Cosmics finden bei denen in verschiedenen Darks das gleiche Pixel betroffen ist.
    Keine Ahnung ob das schon einen Namen hat.

    Hallo zusammen,


    wirklich interessante Diskussion. Ich frage mich ob man nicht vielleicht auch 2 gleich lange Darks mit einer Art UND-Verknüpfung berechnen könnte um die Cosmics von den hot pixeln zu unterscheiden. Mit UND meine ich im analogen eine maximale Differenz in den Pixelwerten der beiden Aufnahmen zuzulassen. Für alles was sich mehr als einen bestimmten Wert unterscheidet wird schwarz oder besser der geringere Wert angenommen da es eher zufällig und nicht sensorspezifisch ist.
    Ist das eventuell schon mit einem der oben genannten algorithmen erfasst?


    Wenn ich das Ziel der Diskussion richtig verstanden habe geht es doch u.a. darum Darks zu erzeugen mit denen man nicht mehr aus dem späteren Bild herausrechnet als von Sensor tatsächlich verursacht.


    Gruß, Thomas.