Beiträge von 03sec im Thema „Andromeda's parachute, J014709+463037, 11 Milliarden Lichtjahre entfernt - im C14“

    Hallo Tino,

    bei einem Einzelbild werden natürlich die fehlenden Informationen interpoliert, anders geht es ja gar nicht. Beim Stacken hat man aber eine andere Möglichkeit und genau das macht Autostakkert, es "drizzelt" die fehlenden Pixel, so habe ich es verstanden. In der nächsten Version soll das sogar für jeden Kanal einzeln statt finden. Inwieweit das zu schärferen Ergebnissen führt, kann ich nicht sagen, aber ich denke es hat einen Grund warum das so gemacht wird. Ob die Verschiebung der mittleren Komponente wirklich mit dem Schärfen oder vielleicht mit noch anderen Komponenten zu tun hat, da will ich mich nicht absolut festlegen. Vielleicht gibt es noch weitere Effekte.

    Viele Grüße,

    ralf

    Hallo Tino,

    Salz in der Suppe ist ein Geschmacksverstärker. :)

    Zu Bedenken gebe ich, dass die Auflösung einer Farbkamera unter bestimmten Bedingungen nicht geringer ist als die einer Mono-Kamera. Autostakkert arbeitet da etwas anders als diverse Deep-Sky Software.

    Die Frage, ab wann ein Detail aufgelöst ist, ist nicht wirklich berechenbar, sondern eine Annäherung an unsere Sehweisen. Es gibt Modelle nach Raylight oder auch andere, du kennst diese besser als ich. Allen Modellen ist aber gemein, dass dabei nicht geschärft wird. Wir haben es in der Astrofotografie aber (besonders bei Planeten) mit einem sehr tiefen Bild zu tun, wenn es ums SNR geht. Das kann man natürlich nutzen. Dh, auf sehr kleinen Skalen wird der Kontrast erheblich erhöht. Eine minimale Einbuchtung zwischen 2 PSFs wird zu einer klaren Trennung. Das funktioniert deshalb, weil beim Stacken vieler Bilder automatisch ein "Drizzel-Effekt" auftritt ( auch ohne die gleiche Funktion in der SW zu nutzen). Das Nyquist-Kriterium kann dadurch bei gestackten und geschärften Bildern auch unterschritten werden.

    "Erkaufen" muss man sich die Auflösungsverbesserung manchmal damit, dass es beim Schärfen Positionsverschiebungen geben kann. So klar wie hier habe ich das noch sie gesehen und ist wirklich das Salz in der Suppe. Normalerweise passiert so etwas nicht, weil um jeden Stern genügend Platz ist. Diese 3 Lichtpunkte stehen aber so in der Fläche, dass sie einen dunklen Raum umschließen (mit einer offenen Seite). Beim Schärfen werden hier nicht nur die Lichter "zusammengedrückt", sondern auch die dunkle Fläche vergrößert sich. Sie drückt gewissermaßen beim Schärfen den mittleren Punkt nach oben.

    Eine interessante Frage wäre es, welcher Schärfungsalgorithmus das verhindern würde.

    Also, abschießend will ich sagen, dass ich nicht den geringst Zweifel habe, dass die Trennung der Komponenten keine ´Schein-Auflösung´ ist, sondern wirklich in den Daten steckt. Wie man nun ´Auflösung´ definiert, das steht auf einem anderen Blatt.

    Viele Grüße,

    ralf