Stacken allgemein

  • Eine Frage zum Stacken allgemein. Mir scheint das das mächtigste Tool in der Bildbearbeitung zu sein. Fast übermächtig oder Wunder wirkend.

    Kann es sein, dass ein kluger Algorithmus aus dem Teleskop mehr Auflösung herausholt als nach der Apertur möglich. Ich denke daran, wie mehrere Teleskope interferometrisch zusammengeschaltet werden, und das Ganze ist mehr als die Summe der Teile. Im IR wird das im Nachhinein getan, das heißt, die Bilddaten werden hinterher in Phase zusammengerechnet, wenn ich das richtig verstanden habe.

    Wenn nun, durch Seeing bedingt, das Bild tanzt, vergrößert sich die Basis, oder Details werden augenblicksweise vergrößert dargestellt und der Algorithmus weiß nun irgendwie, das klug zu kombinieren, kann dann nicht auch mehr als die Summe der Einzelteile herauskommen? Wenn ich das nicht schon mal gefragt habe.

    Weil ich visuell schon öfters an die theoretische Auflösungsgrenze des Teleskops gelangt bin, die gestackten Bilder (die ich im Netz auch von kleinen Teleskopen finde) oft jedoch so viel mehr zeigen.

  • Hallo Ralf,

    Es wird kein Bild erzeugt? Das verstehe ich nicht. Man bekommt doch Bilder mit höherer Auflösung, wenn man Teleskope zusammenschaltet. Ich möchte behaupten, dass ich schon oft das theoretische Auflösungsvermögen (Apertur in mm/120) in Bogensekunden erreicht habe. Dennoch sind die gestackten Bilder so viel besser, die ich allerdings nicht selbst gemacht habe.


    Gruß

    Stephan

  • Hallo Stephan,

    das theor. Auflösungsvermögen hört sich nach einer physikalischen Grenze an, ist es aber nicht, es ist nur eine Art "Schallmauer" , danach muss man deutlich mehr "Energie" hineinstecken um weiter zu kommen. Fotografisch kann man es durchaus unterschreiten. Die Energie, die wir zur Verfügung haben ist unser SNR, davon ganz viel und du kannst beim Schärfen das theor. Auflösungsvermögen unterschreiten.(Die praktischen Dinge wie die Stackinggenauigkeit und das Seeing lasse ich hier mal weg, beides müsste nämlich perfekt sein.)

    Ich habe an anderer Stelle mal einen Vergleich geschaffen, ich kopiere das mal hier hinein:

    Stelle dir einen Berg vor, groß und mächtig. Am Gipfel ist er relativ flach und es gibt eine kleine Senkung in der Mitte, so dass der Gipfel eigentlich zweigeteilt ist. Das sieht man aber weder auf Karten noch fällt es irgendwie auf, denn der Abstand ist zu klein, sagen wir 2 Meter. Wenn wir schärfen, dann tragen wir sozusagen den Berg von unten ab. Das gigantische SNR wird so weit abgetragen, bis gerade diese kleine Delle erreicht ist. Wenn wir jetzt auf den Berg schauen, dann ist das nicht einmal mehr ein Hügel, sondern es sind nur noch 2 Erd- oder Steinhaufen. Nun kann man eindeutig 2 Erhebungen ausmachen und dazwischen ist keine Verbindung mehr. Wir mussten dazu aber 99,9999% abtragen. Unsere Sterne sind Berge aus Licht, und ob wir oben ein oder zwei Spitzen sehen hängt davon ab was wir abtragen können.


    In der Interferometrie werden keine Bilder erzeugt, was genau kann ich aber auch nicht sagen. Die Daten werden hinterher zu einem Bild verrechnet, dabei gibt es aber durchaus Interpretationsspielraum. Beim SL in M87 wurde das schön in einer Doku gezeigt. Da gab es 20 Studierende, alle hatten den selben Datensatz und sollten ihn möglichst sinnvoll visualisieren. Das beste Ergebnis wurde dann als DAS Bild verkauft.

    Viele Grüße,

    ralf

  • Hallo Ralf,

    was ist SNR? Das Bild mit dem Berg und seinem Abtragen passt für mich eher auf das Heranzoomen, bzw. Einsetzen eines kürzeren Okulars.

    Noch mal mein Verständnis zum interferometrischen Koppeln von Teleskopen: Im Optischen werden sie so genau ausgerichtet, dass sie wie ein Teleskop wirken, wobei die Auflösung der entspricht, die ein großes Teleskop hätte mit dem Durchmesser des Abstandes der Einzelteleskope. Das Bild müsste sofort entstehen. Wichtig dabei ist wohl die genaue Ausrichtung, die erlaubt, dass die einzelnen Photonen durch alle Teleskope gleichzeitig gehen, denn dadurch entsteht die höhere Auflösung. Bei den IR- oder Radioteleskopen, die weltweit gekoppelt wurden, ist diese genaue Ausrichtung nicht möglich, schon wegen der Plattentektonik, Gezeiten usw. Aber irgendwie ist es möglich, die einzelnen Photonen im Nachhinein rechnerisch zu koppeln. Das wäre nun wieder mit Licht nicht möglich wegen der viel höheren Frequenzen und des damit verbundenen höheren Rechenaufwandes. So verstehe ich das. Interessant ist dabei für mich: Beide male ist man aus der Zeit heraus. Bei mechanisch gekoppelten Lichtteleskopen muss das Licht diese Teleskope gleichzeitig passieren (das Photon ist dann zeitlos-gleichzeitig an seiner Quelle, in den Teleskopen und am Detektor) Bei den Radioteleskopen wird diese Gleichzeitigkeit des einzelnen Photons im Nachhinein zusammengerechnet. Wenn ich falsch liege, korrigiere mich.


    Worauf ich hinaus will, dass durch Seeing das Bild tanzt und sich dadurch seine Basis vergrößert, so als wenn man ganz schnell zwischen zwei 4-Zoll Teleskopen hinundher gucken würde. Jetzt kann man zwar nicht die einzelnen Photonen identifizieren, aber vielleicht die doppelten, verzerrten, teilweise vergrößerten Bilder so zusammenbauen, dass etwas Genaueres herauskommt als das einfache Bild bei perfektem Seeing. Dann würde sogar eine bestimmte Unruhe in der Luft mit Stacken ein besseres Bild erzeugen als ein perfektes Seeing. Ist vielleicht aber auch nur Spinnerei.


    Im übrigen "stacken" wir beim Beobachten eigentlich auch, allerdings in der Zeit. Zusammenrechnen tun wir hinterher im Kopf. Wogegen das gestackte Bild wieder zeitlos ist. Jetzt nehme ich auch ein Bild: Ist ein bisschen wie Fourieranalyse, je länger man beobachtet oder eben stackt, desto mehr Info hat man hinterher. Und daher die Idee, dass mehr verschiedene Information (durch Seeing) am Ende auch mehr Detail bringt. Ich könnte mir vorstellen, dass man bei zwar nicht gutem aber konstanten Seeing schnell in eine Sättigung kommt, so dass irgendwann mehr Frames nicht mehr bringen. Dass jedoch bei veränderlichem Seeing diese Sättigung erst nach mehr Frames (wobei möglichst auch die Exoten verarbeitet werden) erreicht wird.


    Gruß

    Stephan

  • Hallo Stephan,

    ich hatte vorausgesetzt, dass du weißt, was SNR ist, das Signal-Rausch-Verhältnis. Das ist die wesentlichste Größe in der Astrofotografie. Dann ist mein Beispiel natürlich ins Leere gelaufen.

    Die zweite wesentliche Größe ist das Maß für die Beugung des Lichtes im/am Teleskop. Das bestimmt die Auflösung, aber bei deinen Betrachtungen ist auch das nicht vorhanden.

    In der Tat "stacken" unsere Augen auch (bzw. das Gehirn). Etwa 100ms werden addiert, - schade, dass nicht mehr geht.

    Den Rest verstehe ich irgendwie nicht.

    Viele Grüße,

    ralf

  • Hallo Ralf,

    jetzt verstehe ich was du meinst. Und ich habe mir das Video von Nr. 2 angeguckt, danke Peter. Ich glaube jetzt, meine Idee funktioniert nicht. Es scheint, die Bilder werden an z.B. den Sternen festgenagelt, und alles, das nicht in den meisten Bildern vorkommt, wird eliminiert, dabei wird natürlich das Rauschen stark reduziert, und der Blick aufs Wesentliche frei. Aber ist dann das Ergebnis nicht so etwas wie der kleinste gemeinsame Teiler? Nur, was in den meisten Bildern vorkommt, bleibt. Dabei könnten Verzerrungen durch Seeing zusätzliche Informationen liefern. Aber dazu müssen z.B. der Jupiter, der GRF und alle Details, die man hinterher sehen will, als einzelne Objekte erkannt, skaliert, evtl. gestreckt oder gestaucht und übereinandergelegt werden. Das macht die Software wohl nicht.

    Also das Stacken besteht hauptsächlich wohl aus dem Summieren von allem, das statistisch gesichert ist und dem Weglassen von allem anderen. Aber auch nicht schlecht.

    Aber sehe ich das richtig? Unser Gehirn behält auch Details, die nur wenige Augenblicke erscheinen, wenn sie markant genug sind. Beim Stacken würden die untergehen.


    Gruß

    Stephan

  • So sind die Menschen unterschiedlich. Manche sollen gerade dann ihre besten Einfälle haben. Und auch ich kann dann besser den Blick auf das Wesentliche tunneln. Funktioniere dann wohl wie ein Stackprogramm, weil ich störende Signale ausblende. Aber manche Signale stören zwar, sind aber trotzdem da.


    Gruß

    Stephan

  • Das Auflösungsvermögen eines Teleskops ist durch den Durchmesser der Optik alleine bestimmt. Stapeln (Stacking) verbessert Signal:Rauschen. Was 03sec beschreibt mit dem Berg, der abgetragen wird, verstehe ich nicht ganz, es sieht aber wie das Setzen eines Schwellwertes und eine damit erziehlte Kontraststeigerung aus. Dabei geht jedoch Informationen verloren, welche sich in den Zwischenhelligkeitstönen verstecken könnten.


    In der Mikroskopie gibt es superauflösende Methoden ("Superresolution"), und man kann tatsächlich den abbeschen Limit brechen. Der Trick besteht darin, die Moleküle, die man beobachten möchte, abwechselnd also inkohärent zum Leuchten zu bringen. Würde man wärend dieses Messprozesses einene Schnappschuss machen, bestünde er nur aus hellen idealerweise gut voneinander getrennten Flecken. Dann kann man tatsächlich die Gaußverteilungen der optischen Abbildung auf das Maximum dieser Gaußglocken, d.h. einen Punkt reduzieren. Wenn man viele Punkte sammelt und addiert, bekommt man Bilder, die tatsächlich höherauflösend ist, als es die klassische Optik erlaubt. Das war ein großer Durchbruch und gab für ein noch etwas komplizierteres nichtlineares Verfahren sogar den Nobelpreis (Stefan Hell in Göttingen).


    Für astronomische Beobachtung ist das wahrscheinlich nicht anwendbar, oder hat jemand eine geniale Idee dazu?


    Die kunstvollen für mich noch undurchschaubaren Verfahren, die hier für die Bildverarbeitung beschrieben und diskutiert werden, scheinen den Informationsgehalt zu verändern. Zum Beispiel die Wavelet-Transformation. Sie erlaubt das Bild nach unterschiedlichen Skalen aufzutrennen und zu filtern. Man kann wählen, welche Strukturgrößen man sehen möchte. Das ist ein ziemlich harter Eingriff. Die Fourier-Transformation erlaubt das Bild nach räumlichen Frequenzen aufzutrennen und entsprechend zu filtern. Sie erlaubt Rauschen zu entfernen aber auch feinere "echte" Strukturen sind leider auch betroffen. Jedes Teleskop macht eine Fouriertransformation. Es fouriertransformiert das Urbild, filtert es mit seiner begrenzten Öffnung (Tiefpass) und transformiert es zurück, was man dann Abbild nennt. Die berümte Formel fürs Auflösungsvermögen kann man leicht herleiten, wenn man ein der Fouriertransformierten in Zylinderkoordinaten alle Moden, die größer als die Öffnung sind, abschneidet.


    Das Einzige, was vielleicht aus wissenschaftlicher Sicht an Bildverarbeitung noch akzeptabel wäre, ist das Entfernen des Rauschens, wenn es nicht zu weit getrieben wird und das Stapeln überlebt hat. Es scheint also, dass Öffnung alleine das Mittel zur Erhöhung der Auflösung ist. Das ist wohl der Grund, warum Teleskope immer größer werden und Mikroskope eben nicht.


    Ich möchte aber betonen, dass ich mich besser mit Mikroskopie als mit "Teleskopie" auskenne. Vielleicht kann ein Profiastronom hier mehr schreiben, welche Methoden sie verwenden? Würde mich sehr interessieren.


    Beste Grüße, Claus

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!