Hallo Tino,
Salz in der Suppe ist ein Geschmacksverstärker.
Zu Bedenken gebe ich, dass die Auflösung einer Farbkamera unter bestimmten Bedingungen nicht geringer ist als die einer Mono-Kamera. Autostakkert arbeitet da etwas anders als diverse Deep-Sky Software.
Die Frage, ab wann ein Detail aufgelöst ist, ist nicht wirklich berechenbar, sondern eine Annäherung an unsere Sehweisen. Es gibt Modelle nach Raylight oder auch andere, du kennst diese besser als ich. Allen Modellen ist aber gemein, dass dabei nicht geschärft wird. Wir haben es in der Astrofotografie aber (besonders bei Planeten) mit einem sehr tiefen Bild zu tun, wenn es ums SNR geht. Das kann man natürlich nutzen. Dh, auf sehr kleinen Skalen wird der Kontrast erheblich erhöht. Eine minimale Einbuchtung zwischen 2 PSFs wird zu einer klaren Trennung. Das funktioniert deshalb, weil beim Stacken vieler Bilder automatisch ein "Drizzel-Effekt" auftritt ( auch ohne die gleiche Funktion in der SW zu nutzen). Das Nyquist-Kriterium kann dadurch bei gestackten und geschärften Bildern auch unterschritten werden.
"Erkaufen" muss man sich die Auflösungsverbesserung manchmal damit, dass es beim Schärfen Positionsverschiebungen geben kann. So klar wie hier habe ich das noch sie gesehen und ist wirklich das Salz in der Suppe. Normalerweise passiert so etwas nicht, weil um jeden Stern genügend Platz ist. Diese 3 Lichtpunkte stehen aber so in der Fläche, dass sie einen dunklen Raum umschließen (mit einer offenen Seite). Beim Schärfen werden hier nicht nur die Lichter "zusammengedrückt", sondern auch die dunkle Fläche vergrößert sich. Sie drückt gewissermaßen beim Schärfen den mittleren Punkt nach oben.
Eine interessante Frage wäre es, welcher Schärfungsalgorithmus das verhindern würde.
Also, abschießend will ich sagen, dass ich nicht den geringst Zweifel habe, dass die Trennung der Komponenten keine ´Schein-Auflösung´ ist, sondern wirklich in den Daten steckt. Wie man nun ´Auflösung´ definiert, das steht auf einem anderen Blatt.
Viele Grüße,
ralf