Andromeda's parachute, J014709+463037, 11 Milliarden Lichtjahre entfernt - im C14

  • Moin zusammen,


    Andromeda's Parachute wurde 2017 von PAN-STARRS (PS1) Hawaii bei einer Durchmusterung entdeckt. Es handelt sich um einen Quasar, der durch eine Gravitationslinse uns vierfach erscheint, Astrophysik pur. Einstein hatte es in den 1930'ger Jahren vorhergesagt. Heute sind nur eine Handvoll von Vierfachsystemen bekannt.


    Das Vierfachsystem hat eine Größe von 3,8 Bogensekunden. Nun hab ich den kleinen Burschen im Celestron C14 (+ Reducer) mit einer ASI294MC Farbkamera aufgenommen, das Sampling lag so bei 0.38". Die Brennweite lag nun bei gut 2600 mm und die Belichtungszeit pro Einzelframe genau 1 Sekunde. Aufgenommen mit SharpCap und gestacked mit Autostakkert. Die Verwendungsrate in Autostakkert lag bei mäßigen 50 %, lucky imaging, d.h. jede zweite Aufnahme ist gestackt worden.


    AP_3.jpg


    die Story zum Bild hab ich in einem kleinen 4 Min. Video festgehalten...


    P.S. das C14 wiegt ca. 22 Kg, in Zeiten HomeOffice muss man sich ja fit halten :) ;)


    AP_C14_Titel.jpg



    cs

    Peter

  • Hallo Peter,


    interessante Beobachtung. Leider bin ich irgendwie zu doof, Dein Video zu starten. Aber das Bild sagt ja schon eine Menge.


    Die 22 kg C14 kann ich gut nachvollziehen. Mein TEC wiegt noch vier kg mehr, und den zelebriere ich seit Jahren knapp über der Balkonbrüstung „freihändig stehend und ohne Netz“ auf die Montierung. Nachdem ich bei Youtube das Video eines Amis gesehen habe (

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
    ), der das Aufsetzen seines C14 wesentlich erleichtert hat, will ich mir jetzt auch eine Vorrichtung bauen, mit der das leichter und vor allem absturzsicherer möglich ist. Vielleicht ist das ja für Dich hilfreich.


    CS, Jörg

  • Hallo Peter,


    danke, jetzt hab ich das Video gesehen. Beeindruckend winzig, dieser Fallschirm und damit eine echte Herausforderung. Viel weniger als ein C14 dürfte für so eine Aufgabe kaum geeignet sein.


    Bei Anschauen des Videos ist mir aufgefallen, dass Du das C14 in der gleichen Stellung der Montierung aufsetzt wie ich den TEC 180. Versuche, ihn horizontal drauf zu bekommen, scheiterten immer daran, dass ich die Schwalbenschiene nicht sehen konnte und sozusagen blind probieren musste. Beim C14 mit seinem noch größeren Durchmesser ist das bestimmt noch schwieriger. Die amerikanische Methode aus dem Video (C14 auf den Beobachtungsstuhl absetzen) erscheint mir aber auch nicht allzu sicher.


    CS, Jörg

  • Hallo Peter,

    alle deine "kleinen Scheißerchen" sind ja super, aber der hier ist noch mal ne Nummer interessanter. Eben, weil es eine Gravitationlinse ist so weit weg. Was meinst du, welches Objekt jetzt ganz oben auf meine ToDo-Liste steht.

    Danke für diese phantastische Objektauswahl und die super Präsentation.

    Viele Grüße,

    ralf

  • Servus Peter,


    den Fallschirm hast du wirklich unglaublich gut umgesetzt. Ich kenne nur Fotos von großen Teleskopen. Was du aus deinem C 14 rausholst, ist genial.


    Liebe Grüße,

    Christoph

    Mein Verein: Astronomische Gesellschaft Buchloe e.V.

    Meine Ausrüstung:

    Teleskope: 22" (560 mm)  f/3.5 Dobson (Martini / Oldham Optical)  –  Omegon Ritchey-Chretien Pro RC 203/1624; Montierung: iOptron CEM40G  –  Ferngläser (8 x 42, 20 x 60)

    Kamera: Canon EOS 6D Mark II (Vollformat, unmodifiziert); Kameraobjektiv: meist Canon EF-200 mm f/2.8 Teleobjektiv

  • Hallo Peter,


    eine tolle Aufnahme eines wirklich exotischen Objektes !


    Ich kann dazu auch was aus visueller Perspektive beitragen. Wir haben das Teil in den Bayerischen Alpen schon mal im Herbst 2019 in Ralph's 20-Zöller eingestellt, und Marine notierte dazu:


    " ... Es dauert etwas bis der Quasar bei 400-fach dann eingestellt ist, und es braucht auch mehrere Anläufe und wiederholtes Neueinstellen bis alle ihn gesehen haben, weil das Ding so schnell weg ist. Letztendlich können aber alle einen Blick drauf werfen. Einzelne Komponenten sind nicht erkennbar, aber Ben kann wohl schon eine längliche Form erahnen. Drei der vier Abbilder des Quasars sind nämlich in einem Bogen angeordnet, darunter befindet sich eine weitere sehr lichtschwache Komponente. Zusammen sieht es aus wie ein kleiner Fallschirm mit der schwachen Komponente als Fallschirmspringer. Der Quasar selbst ist 11 Mrd. Lichtjahre entfernt. Ich erkenne auch gleich das Sternmuster um den Quasar herum wieder. Das Objekt habe ich nämlich schon mit der CCD-Kamera versucht. Ich selbst sehe visuell keine längliche Form, aber insgesamt ist der Fleck nicht unauffällig, also schon direkt erkennbar. Wow. Das ist verdammt altes Licht."


    Servus

    Ben

  • Viel weniger als ein C14 dürfte für so eine Aufgabe kaum geeignet sein.


    Bei Anschauen des Videos ist mir aufgefallen, dass Du das C14 in der gleichen Stellung der Montierung aufsetzt wie ich den TEC 180. Versuche, ihn horizontal drauf zu bekommen, scheiterten immer daran, dass ich die Schwalbenschiene nicht sehen konnte und sozusagen blind probieren musste. Beim C14 mit seinem noch größeren Durchmesser ist das bestimmt noch schwieriger. Die amerikanische Methode aus dem Video (C14 auf den Beobachtungsstuhl absetzen) erscheint mir aber auch nicht allzu sicher.

    Moin Jörg,


    ich hatte das Vierfachsystem 2018 mit einem C8 bei f/5 eingefangen, geht mit lucky imaging auf jeden Fall, das Seeing muss nur passen.


    Das C14 in die Prismenklemme hineinzubringen ist schwierig, im Video sieht man das natürlich nicht und es ist immer ein kleiner Kraftakt. Du hast recht, die Schiene auf der abgewandten Seite kann ich nicht sehen, ich mach die Prismenklemme aber soweit auf, dass ich die Schiene rechts hinsetzen kann, so geht es halbwegs. Die Variante "Beobachtungsstuhl" hatte ich auch schon einmal gesehen, aber noch nicht versucht.

  • Hallo Ralf, Christoph und Ben,

    Danke für diese phantastische Objektauswahl und die super Präsentation.

    das Video hat Arbeit gemacht, nun hab ich aber den Dreh raus... Die "normale" Bildverarbeitung war hier verhältnismäßig einfach, sind ja nur 4 stellare Pünktchen ;) :)



    Was du aus deinem C 14 rausholst, ist genial

    Ja, das C14 hab ich seit einem halben Jahr, macht echt Spaß damit. Wenn man sich an Andromeda Parachute versucht, würde ich auch mit kleinen Optiken da herangehen... wie gesagt, im C8 bei f/5 konnte ich das System 2018 knacken, zumindest halbwegs...


    " ... Es dauert etwas bis der Quasar bei 400-fach dann eingestellt ist, und es braucht auch mehrere Anläufe und wiederholtes Neueinstellen bis alle ihn gesehen haben, weil das Ding so schnell weg ist. Letztendlich können aber alle einen Blick drauf werfen. Einzelne Komponenten sind nicht erkennbar, aber Ben kann wohl schon eine längliche Form erahnen. Drei der vier Abbilder des Quasars sind nämlich in einem Bogen angeordnet, darunter befindet sich eine weitere sehr lichtschwache Komponente. Zusammen sieht es aus wie ein kleiner Fallschirm mit der schwachen Komponente als Fallschirmspringer. Der Quasar selbst ist 11 Mrd. Lichtjahre entfernt. Ich erkenne auch gleich das Sternmuster um den Quasar herum wieder. Das Objekt habe ich nämlich schon mit der CCD-Kamera versucht. Ich selbst sehe visuell keine längliche Form, aber insgesamt ist der Fleck nicht unauffällig, also schon direkt erkennbar. Wow. Das ist verdammt altes Licht."

    ich finde es super, wenn jemand von den Visuellen wie du Ben hier beschreibt, was du gesehen hast bei solch einem Extremobjekt, sehr anschaulich, Danke,

  • Hallo Peter und alle,


    wo wir schon bei visuellen Beobachtungen sind, eine kleine Ergänzung von mir: das Objekt ist, wenn die Bedingungen passen, bereits mit 10-12" erreichbar und länglich wahrzunehmen. Irgendein Verrückter schafft es vermutlich auch mit 8"....

    Genau, bei ca. 400fach geht es los, dass die längliche Gestalt herauskommt. Bei 700fach fand ich es noch einfacher. Muss man sich auf jeden Fall einen Hügel suchen, wo das Seeing passt...


    In meinem Fall waren es 12", ich meine, Mathias war mit 10" dran...


    CS!

    Norman

  • Hallo Peter, hallo in die Runde,


    es wurde ja bereits genügend Lob verteilt. Daher möchte ich doch ein wenig Salz in die Suppe streuen. Ich hatte mich ja auch 2018 an Andromedas Fallschirm versucht mit 12" Meade ACF und EMCCD. Andromedas Fallschirmchen

    Es wundert mich daher, dass das jetzt mit deinem 14 Zöller so gut klappt, wobei das Sampling von 0,38"/Px mit deiner Farbkamera ja doch ziemlich grob ist. Selbst bei perfektem Seeing sollte das grobe Sampling, vor allem mit einer Farbkamera, problematisch sein. Ich hatte damals mit Schwarz-Weiss und 0,55"/Px auch definitiv Probleme die jeweils 1,3" auseinander liegenden Quasarabbilder zu trennen, da das Sampling schonmal nicht mehr viel Spielraum für eine richtige Trennung lässt.

    Um auf die Abbildung zurückzukommen, die mittlere A-Komponente sollte eigentlich am hellsten sein und etwas mehr auf einer Linie mit B/C liegen. Ich habe mir dein Video angesehen und dort sieht alles so aus wie du es dargestellt hast. Ich kann mir daher nur vorstellen, dass der RGGB-Farbalgorithmus im Zusammenhang mit der Schärfung hier etwas überbetont, was die Daten eigentlich nicht hergeben sollten.


    Sorry, falls das so klingt als ob ich dein Bild schlecht machen möchte. Hab nur damals auch recht viel Zeit in die Auswertung gesteckt und war aber schlussendlich der Meinung, dass mit dem groben Sampling nichts mehr zu holen ist.


    Vg Tino

  • Hallo Tino,

    Salz in der Suppe ist ein Geschmacksverstärker. :)

    Zu Bedenken gebe ich, dass die Auflösung einer Farbkamera unter bestimmten Bedingungen nicht geringer ist als die einer Mono-Kamera. Autostakkert arbeitet da etwas anders als diverse Deep-Sky Software.

    Die Frage, ab wann ein Detail aufgelöst ist, ist nicht wirklich berechenbar, sondern eine Annäherung an unsere Sehweisen. Es gibt Modelle nach Raylight oder auch andere, du kennst diese besser als ich. Allen Modellen ist aber gemein, dass dabei nicht geschärft wird. Wir haben es in der Astrofotografie aber (besonders bei Planeten) mit einem sehr tiefen Bild zu tun, wenn es ums SNR geht. Das kann man natürlich nutzen. Dh, auf sehr kleinen Skalen wird der Kontrast erheblich erhöht. Eine minimale Einbuchtung zwischen 2 PSFs wird zu einer klaren Trennung. Das funktioniert deshalb, weil beim Stacken vieler Bilder automatisch ein "Drizzel-Effekt" auftritt ( auch ohne die gleiche Funktion in der SW zu nutzen). Das Nyquist-Kriterium kann dadurch bei gestackten und geschärften Bildern auch unterschritten werden.

    "Erkaufen" muss man sich die Auflösungsverbesserung manchmal damit, dass es beim Schärfen Positionsverschiebungen geben kann. So klar wie hier habe ich das noch sie gesehen und ist wirklich das Salz in der Suppe. Normalerweise passiert so etwas nicht, weil um jeden Stern genügend Platz ist. Diese 3 Lichtpunkte stehen aber so in der Fläche, dass sie einen dunklen Raum umschließen (mit einer offenen Seite). Beim Schärfen werden hier nicht nur die Lichter "zusammengedrückt", sondern auch die dunkle Fläche vergrößert sich. Sie drückt gewissermaßen beim Schärfen den mittleren Punkt nach oben.

    Eine interessante Frage wäre es, welcher Schärfungsalgorithmus das verhindern würde.

    Also, abschießend will ich sagen, dass ich nicht den geringst Zweifel habe, dass die Trennung der Komponenten keine ´Schein-Auflösung´ ist, sondern wirklich in den Daten steckt. Wie man nun ´Auflösung´ definiert, das steht auf einem anderen Blatt.

    Viele Grüße,

    ralf

  • Moin Norman,

    das Objekt ist, wenn die Bedingungen passen, bereits mit 10-12" erreichbar und länglich wahrzunehmen. Irgendein Verrückter schafft es vermutlich auch mit 8"....

    Danke für deine Einschätzung. Visuell hab ich leider keine Erfahrungen, vielleicht sollte ich mal die Kamera abnehmen ;) :) Warum nicht einfach mal draufhalten, allein das Erkennen und sich bewusst werden, 11 Milliarden LJ zurückzublicken, kann einem ganz schwindelig machen ...

  • Moin Tino, Moin Ralf,

    Sorry, falls das so klingt als ob ich dein Bild schlecht machen möchte. Hab nur damals auch recht viel Zeit in die Auswertung gesteckt und war aber schlussendlich der Meinung, dass mit dem groben Sampling nichts mehr zu holen ist.

    tbstein


    nein, alles gut


    zunächst einmal möchte ich mein 2018 Ergebnis zeigen, aufgenommen mit meinem C8 bei f/5, das sampling ist hier mit 0.59"/Pix fast doppelt so schlecht verglichen mit dem C14 Sampling und trotzdem sind die Komponenten sagen wir einmal halbwegs differenziert zu sehen. Das ist sogar schlechter als bei dir mit 0.55"/Pix. Sollte eigentlich nicht sein, oder?


    J014709-463037.jpg


    Ich beschreibe mal den Prozess detaillierten, im Video sieht man das ja so nicht... Auf dem Video sieht man das livegestackte SharpCap Ergebnis, was ich aber nicht als Grundlage für die Bildbearbeitung der finalen Aufnahme genommen habe. SharpCap nimmt bei livestacking alles, was es kriegen kann, unselektiert. Parallel zum livestackt sammel ich die einzelnen Aufnahmen separat und lass die in Autostakkert vorselektieren und stacken. Die Methode ist dort nicht dokumentiert, funxt aber gut. Hier habe ich eine Verwendungsrate zwischen 40-60 %. In Pixinsigth gibt es weitere Selektionsmethoden, einmal die Blink-Funktion, aber qualitativ eher den subframe selector der hier noch einmal auf Basis FWHM die vorgestacken Aufnahmen einordnet. Diese jetzige Ergebnis, ungeschärft, zeigt den Parachute nicht differenziert, aber leichte Helligkeitsunterschiede im "Schirm".


    Dann findet das Stacken statt, hier bietet PixInsight einige Methoden, Artefakte oder so entstehen aber nicht. Drizzeln ist auch hier ein Versuch Wert. Dann kommt die Deconvolution zum Einsatz anhand PSF, und das macht den Unterschied. Wichtig ist die vorgelagerte PSF Sternselektion. Die Komponente A ist tatsächlich nicht heller als die anderen Komponenten. Ob dafür der RGGB-Farbalgorithmus verantwortlich ist, möglicherweise. Die Deconvolutions Ergebnisse kann ich jedenfalls reproduzieren. Wir müssen ja auch bedenken, die PAN-STARRS Aufnahme ist von 2017, meine ist aktuell :) da gab es vielleicht eine Veränderung ;)


    Danke Ralf 03sec für deine Interpretation zum Schärfen. Wie du weißt, verändert Schärfe Tonwerte, Kontrastkanten und Konturverläufe, wie hoch der Kontrast zweier anliegender Pixel oder Pixelgruppen ist. Die PixInsight Deconvolution ist ja gut dokumentiert, vielleicht müsste man hier ansetzen und recherchieren, welche Effekte deren Anwendung haben kann. Ralf, du hast auch noch einen weiteren und richtigen Effekt angesprochen, und zwar den Drizzle - Effekt, der einer weiteren Differenzierung zuträglich ist.


    Danke für Eure Statements

  • Hallo Ralf, hallo Peter,


    sorry für die späte Antwort.

    Ralf: Ich möchte in dem Bezug nur zu bedenken geben, dass ich das Schärfen eher nicht als Ursache sehe, sondern der RGGB-Demosaicing. Technisch gesehen füllen alle Algorithmen die Zwischenwerte auf irgendeine (möglichst schlaue) Art und Weise (AMaZE, LMMSE der IGV) wieder auf , da ja die einzelnen Farbendaten jeweils Löcher bei den nicht passenden Farbpixeln haben. Auch Autostakkert macht da ganz sicher keine Ausnahme. Dies funktioniert zugegebenermaßen recht gut, zumindest falls man das Gesamtbild auflösungstechnisch betrachtet. Es handelt sich dabei aber definitiv um Interpolation. Das führt aber auch dazu, dass durch die spezielle Anordnung der Pixel in unterschiedlichen Richtungen unterschiedliche Auflösungen auftreten. Bei Tageslichtfotografie versucht man daher mittels Algorithmus senkrechte und waagerechte Linien zu bevorzugen, da diese häufiger auftreten als Diagonale. Wenn ich aber an der Auflösungsgrenze und mit grenzwertigem Sampling die Schärfung auf Pixelebene richtig hochziehe, weiss ich nicht, ob das immer zu ordentlichen Ergebnissen führt. Ich denke die deutliche Verschiebung der Komponente A nach oben und das "Loch" in der Mitte kommt vom Demosaicing. Dies steigert den Eindruck, dass der Parachute super getrennt ist.

    Das ein geschicktes Schärfen zu tollen Ergebnissen führt ist übrigens unbestritten.

    Peter: Kannst du in etwa sagen, wieviele Bilder gestacked wurden, bzw was für eine Gesamtbelichtungszeit sich ergibt. Interessant wäre auch die ungeschärfte Variante.

    Ich denke aber trotzdem nicht, dass wir zu einer Ursache finden.


    Wir müssen uns aber auch nicht wirklich darum streiten, sondern können uns auch gerne an den interessanten physikalischen Prozessen erfreuen, ein bisschen Disput tut manchmal aber auch ganz gut. ;)


    Lg Tino

  • Hallo Tino,

    bei einem Einzelbild werden natürlich die fehlenden Informationen interpoliert, anders geht es ja gar nicht. Beim Stacken hat man aber eine andere Möglichkeit und genau das macht Autostakkert, es "drizzelt" die fehlenden Pixel, so habe ich es verstanden. In der nächsten Version soll das sogar für jeden Kanal einzeln statt finden. Inwieweit das zu schärferen Ergebnissen führt, kann ich nicht sagen, aber ich denke es hat einen Grund warum das so gemacht wird. Ob die Verschiebung der mittleren Komponente wirklich mit dem Schärfen oder vielleicht mit noch anderen Komponenten zu tun hat, da will ich mich nicht absolut festlegen. Vielleicht gibt es noch weitere Effekte.

    Viele Grüße,

    ralf

  • Hallo zusammen,


    lieben Dank für die netten Worte, Marco und Markus, auch die angeregte Diskussion von Tino und Ralf finde ich super. Ich halt meine These aufrecht, ;) :) das zum einen das Drizzeln, schlussendlich die Anwendung des Decon - Filters hier möglicherweise die Darstellung beeinflusst hat. Grundsätzlich ist ja auch das Ziel, die Rekonstruktion auf Basis einer PSF zur idealen Abbildung. Wenn ich Zeit habe, versuche ich hier nocheinmal anzusetzen.


    Bei Autostakkert gibt es verschiedene Stacking Optionen, ich gebe die zu stackenden Aufnahme in % an... die Quote schwankt je Seeing zwischen 40 - 60 %. Danach habe ich über den Daumen gepeilt von 1 Stunde ca. 30 Minuten real genutzt, beim Pixinsight subframe selector sind aber hoch einige herausgefallen, summa summarum schätze ich so um die 25 Minuten in Summe ist da an Belichtungszeit zusammengekommen.

  • Hallo Peter,


    Deine Objektauswahl ist immer eine Bereicherung. Workflow und Gerät hast Du wirklich im Griff. 03sec und Andere hauen hier auch immer dolle Ergebnisse raus. Ich freue mich schon auf die nächsten Überraschungen.


    Die Essenz für mich ist, dass man ruhig mal die Grenzen austesten soll, in Bezug auf Objekt, Technik, Workflow.


    CS

    Dirk

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!