Beiträge von pete_xl im Thema „Sichelnebel und Seifenblase (NGC 6888 und PN G75.5+1.7)“

    Hallo Günter,


    nimm‘s mir bitte nicht krumm, aber die speziellen Probleme bei deiner weiteren Bildbearbeitung führen doch sehr weit vom ursprünglichen Thema weg. Magst du nicht einen eigenen Thread dazu aufmachen oder dich mit Seraphin per privater Unterhaltung austauschen?


    Viele Grüße

    Peter

    ...Also ich sehe die Soap Bubble :thumbup: :) :!: .....



    Ich bin sicher, mit ein bisschen mehr Übung beim Bearbeiten kannst du sie gut erkennbar herausarbeiten.


    Hat sich doch gelohnt!


    Viele Grüße

    Peter

    Wieder etwas dazu gelernt! Entfällt dieses Problem, wenn ich statt dual einen mono Filter nehme?

    Hallo Günter,


    es ist ja eigentlich nicht ein "Problem". Es ist zwar möglich, aber nicht besser, Monofilter mit Farbsensoren zu verwenden. Es funktioniert, ist aber gegenüber Duo-Filtern eher uneffektiv. Wenn man aber z. B. SII- oder N- Schmalbanddaten verarbeiten will, macht es durchaus Sinn.


    Du müsstest dich aber vielleicht mit der Theorie des Aufbaus von Farbsensoren beschäftigen, um die Sache richtig zu verstehen. Ich versuche mal, das Prinzip kurz zu erklären. Ein Farbsensor ist im Prinzip ein Monosensor, auf dessen Pixeln Mikrofilter der Farben Rot, Grün und Blau angebracht sind. Die Mikrofilter sind in einer so genannten Bayer-Matrix angeordnet. Dabei sind doppelt so viele grüne wie blaue und rote Pixel vorhanden.



    Das Originale, nicht debayerte Rohbild hat also für jedes Pixel nur einen Helligkeitswert für die Luminanz von Rot, Grün oder Blau. Ein fertiges RGB Farbbild hat nun aber für jedes Pixel drei Helligkeitswerte (für R, G und B). Um aus einem Rohbild mit Bayer Matrix ein einheitliches Farbbild mit R-, G- und B-Werten für jedes Pixel zu erhalten, werden die Farbwerte für R, G und B beim "Debayern" zwischen den Pixeln interpoliert, also Helligkeits- und Farbwerte der einzelnen Pixel miteinander verrechnet, quasi "vermischt". Das macht für die normale Fotografie bei Tageslicht und Astroaufnahmen mit Klarfilter viel Sinn, ist aber für Schmalbanddaten suboptimal.


    Bei einem Duo-Filter für OSC Kameras dringt nahezu ausschließlich Licht von nur 2 unterschiedlichen, genau abgegrenzten Wellenlängenbereichen durch den Filter (Ha und OIII). Ha belichtet dabei die roten Pixel und OIII die grünen und blauen. Wenn man nun die Bilder eines Duo-Filters erst in einem im "normalen" Prozess debayert, also erst die Helligkeitswerte zwischen den Pixeln interpoliert und dann später in der Bearbeitung die "vermischte" Farbinformation von Ha und OIII wieder aus dem RGB herausziehen will, ist das ein wenig so, als wolle man die verrührte Milch wieder aus einem Kaffee herausbekommen (der Vergleich hinkt natürlich, soll ja nur das Prinzip verdeutlichen). Die Seifenblase ist ein gutes Beispiel dafür, denn hier gibt es Ha im Hintergrund, Ha in der Blase und OIII in der Blase. Wenn die Pixelwerte der Seifenblase beim Debayern miteinander verrechnet werden, dürfte das OIII ordentlich darunter leiden und in der Luminanz beim späteren Extrahieren deutlich schwächer/kontrastärmer sein als ursprünglich in den grünen und blauen Pixeln.


    Statt nun also die beiden von einander unabhängigen Farbinformationen durch "Debayern" miteinander zu verrechnen, gibt es Astroprogramme, welche die Luminanz der roten, blauen und grünen Pixel ohne Debayern jeweils getrennt auslesen und daraus separate Luminanzdaten für Ha und OIII berechnen. Diese Daten ähneln dann den Daten einer Monokamera mit Schmalbandfiltern, wenn sie auch nicht die gleiche Kontrastauflösung haben können. Diese Daten kann man dann aber einzeln weiter bearbeiten, optimieren und wieder zu einem RGB Bild zusammenrechnen, z. B. zu einem HOO-Komposit. Neben einem besseren Signal/Rausch-Verhältnis bringt dieses Vorgehen auch erhebliche methodische Vorteile und viele zusätzliche Freiheiten bei der Bildbearbeitung.


    Wie geht das Erstellen separater Ha- und OIII-Daten aus OSC Aufnahmen mit Duo-Filtern nun praktisch? In PixInsight und Siril werden die Kanäle (R, G und B) voneinander getrennt. Dann werden daraus die Luminanzdaten für Ha, und OIII mit empirisch ermittelten Formeln berechnet (z. B. Ha = 0.8*R + 0.15*G + 0.05*B, OIII = 0.95*G + 0.45*B). Diese "künstlichen" Schmalbandkanäle werden dann z. B. zu einem HOO-Komposit zusammengerechnet. Das Ganze klingt einigermaßen kompliziert, wenn man es nicht gewohnt ist bzw. die dahinter stehenden Prinzipien nicht verinnerlicht hat.


    Im Astro Pixel Processor gibt es bereits fertige Presets, die das Extrahieren der Schmalbandluminanz aus Farbkameras sehr vereinfachen bzw. automatisieren. Man wählt einfach beim Laden der Einzelbilder den passenden Prozess und lässt das Programm machen.



    Hier die Übersetzung eines Ausschnittes des Pop-Up Textes im Load Menü für die entsprechenden Funktionen:


    "- Wasserstoff Alpha/Beta, Schwefel II, Sauerstoff III, Stickstoff II

    Sie können Schmalbanddaten, die Sie mit Ihrer One Shot Colour (OSC)-Kamera aufgenommen haben, direkt debayern. Wenn Sie einen dieser Algorithmen wählen, erhalten Sie direkt die monochrome

    Schmalbandaufnahme. Eine vorherige Trennung der Kanäle ist nicht erforderlich. Diese Methode ist allen anderen Verfahren zur Verarbeitung von mit einem OSC aufgenommenen Schmalbandaufnahmen überlegen

    Die Auflösung bleibt erhalten, was auch den Vorteil hat, dass die Registrierung nicht beeinträchtigt wird. In anderen Arbeitsabläufen wird das Integrationsergebnis in der Regel durch die Verwendung von Drizzle Integration wieder hochskaliert, was natürlich zu einem verrauschten Endergebnis führen wird.


    - Ha-OIII Farb-/Mono extrakt Ha extrakt OIII

    Diese Demosaik-Algorithmen sind speziell für sogenannte Multiple Narrowband filters (STO Astro DUO. OPT TRIAD Tri-Band Narrowband filters). Diese Filter ermöglichen Ihnen die Erfassung von

    Schmalbanddaten von Hydrogen Alpha und Oxygen III gleichzeitig mit einer One-Shot-Farbkamera zu erfassen. Da Sie Daten, die mit diesen Filtern aufgenommen werden, mit Ihrer OSC Kamera

    in den Kanälen Rot, Grün und Blau aufnehmen, gibt es verschiedene Möglichkeiten, die Daten zu verarbeiten. Sie können die Daten einfach direkt so interpretieren, wie sie in RGB (Ha-Dill-Farbe) aufgezeichnet wurden. Sie können die Daten als Luminanzdaten interpretieren, also monochrom (Ha-Oill mono). Sie können sogar die Wasserstoff-Alpha- (Ha-OIII-Extrakt Ha) und Sauerstoff-Lil- (Ha-Olli-Extrakt OIII) Daten direkt aus

    aus diesen Aufnahmen extrahieren, was Ihnen bei der Nachbearbeitung viel mehr Kontrolle gibt.


    Der Ha-OIII-Farbalgorithmus ist gegenüber dem Standard-Algorithmus Adaptive Airy Disc (AAD) eine Verbesserung bei der Verarbeitung von Daten, die mit Mehrfach-Schmalband-Filtern aufgenommen wurden. Die Qualität und Schärfe der Olll-Daten sind gleich, da der AAD-Algorithmus perfekt für die OIII-Daten geeignet ist, die sowohl im grünen als auch im blauen Kanal Daten enthalten. Für die Wasserstoff-Alpha-Daten hingegen ist der AAD Algorithmus nicht geeignet. Der HA-Olll-Farbalgorithmus behandelt die Wasserstoff-Alpha-Daten dagegen völlig getrennt von den Olll-Daten und liefert daher eine viel bessere Rekonstruktion der'

    Wasserstoff-Alpha-Daten im Vergleich zum AAD-Algorithmus. Das Rauschen in Ihren H-Alpha-Daten wird viel geringer sein, so dass bei Integrationen mehrerer Lightframes das Signal-Rausch-Verhältnis im Ergebnis viel höher sein wird."


    APP erzeugt beim Laden automatisch Luminanzaufnahmen je Schmalbandkanal. Die werden dann separat registriert, normalisiert und gestackt. Die fertigen Stacks werden anschließend wie Aufnahmen einer Monokamera weiter bearbeitet und am Ende zu einem HOO Komposit verrechnet.


    Ich hoffe, ich habe das einigermaßen verständlich (und hoffentlich auch richtig :/ ) erklärt.


    Viele Grüße

    Peter

    Hallo Peter

    Das ist ein mit meiner Sony aufgenommenes 300s belichtetes Bild mit Filter L-Ultimate.


    Grüße

    Günter

    Hallo Günter,

    …dann ist es ein Bild, das normal debayert wurde. Wenn du diese Einzelaufnahmen einfach so in DSS stackst, verschenkst du viel von dem Potenzial des Filters. Ich kann das nicht aus eigener Erfahrung sagen, weil ich keine OSC habe. Aber effektiver sollte es sein, das Schmalbandsignal beim bzw. vor dem Stacken/Debayern zu extrahieren und die Kanäle einzeln zu stacken. Das geht nicht in DSS, aber in APP, PI und wohl auch in Siril.


    CS Peter

    Hallo Günter,

    Was ist denn #17 eigentlich für ein Frame? Du hast doch eine OSC Kamera und geschrieben, du hättest mit DSS gesteckt. Das kann doch kein einzelner OIII- oder Ha- Frame sein.

    CS Peter

    hobbyknipser Andreas, ich bezog mich auf Beitrag #3, nicht #5, den du genannt hattest.Freud'sche Fehlleistung 😊

    Hallo Andreas,


    mit dem Link bist du mir in einem wichtigen Punkt zuvor gekommen (Beitrag #5 im verlinkten Thread), der mir schon den ganzen Nachmittag durch den Kopf geht, aber ich war auf dem Wasser ( hier auf dem IJsselmeer sind 6 Windstärken 8) ^^ ). Das wichtigste für die Kollegen mit OSC ist nach meinem Verständnis, die Schmalbandsignale aus den Duo-Filtern schon beim Debayern zu isolieren. Wenn erst einmal ein RGB zusammenge-debayert wurde, ist es zu spät. Eine nachträgliche Trennung ist suboptimal, vor allem, wenn sich Ha und OIII an den gleichen Orten befinden. Da liege ich doch richtig, oder?


    Das hieße nach meinem Verständnis aber auch, dass sich Duo-Filter und DeepSkyStacker nicht vertragen. Oder hat DSS mittlerweile spezielle Debayer Algorithmen? Bei Siril und Affinity weiß ich es auch nicht. Vielleicht können die User von diesen Programmen dazu etwas sagen.


    CS Peter

    Hallo Peter,


    es liegt nicht an Pixinsight. Ich war selber überrascht, dass die Bubble ganz ohne mein Zutun schon bei der Aufnahme in der automatisch gestreckten Ansicht von NINA zu erkennen war.


    „Von Hand“ konventionell gestreckt sieht ein 200s OIII Frame so aus:



    Man kann die Bubble bereits gut erkennen. Der gelbe Pfad folgt der auffälligen Sternkonstellation, anhand derer ich sie immer finde. Wenn man sie einmal im Bild ausgemacht hat, sieht man sie danach recht einfach. Hier noch ein extrem gestrecktes, sternloses, nicht entrauschtes oder anderweitig optimiertes OIII Einzelbild:


    Das ist doch irre, oder? Mein Himmel ist es nicht (mittlerweile messe ich immer Bortle 5). Pixinsight ist es auch nicht. Das nutze ich meist nur für Kalibrierung und schnelles Entsternen mit Cuda, manchmal GHS und BXT. Das Meiste mache ich in APP und PS.


    Ich bin wie Seraphin der Meinung, dass die verwendete Technik bei solchen Zielen eine wesentliche Rolle spielt, hier waren es eine Mono Kamera mit IMX571 und gute Schmalbandfilter.


    EDIT: Ich muss mich korrigieren. Ich habe Crescent und Soap Bubble 2019 mit ähnlicheTechnik wie du aufgenommen und sie mir gerade nochmal angesehen und mit deiner Aufnahme verglichen. die Bearbeitung spielt wohl auch eine Rolle, besonders das OIII kommt bei dir viel schwächer durch. Hier der Link zu meiner alten Aufnahme mit ASI1600mmp Und ZWO Filtern: https://astrob.in/mb57so/0/


    Viele Grüße

    Peter

    Hallo Günter,


    man soll nie „nie“ sagen 😉. Es gibt ja heute wunderbare Software und Tools und jede Menge Erklärvideos im Netz.


    Es wäre schon interessant, mal die Daten zu sehen und zu schauen, wie die Unterschiede sind bzw. Ich was man daraus machen kann. Wenn du Lust hast, verlinke doch deinen Originalstack. Bei Interesse stelle ich auch gern mein Ha und OIII zur Verfügung.


    CS Peter

    Hallo Günter,


    ist natürlich schwierig für mich, die tatsächlichen Gründe für die Unterschiede zu benennen, weil ich nicht weiß, wie du die Daten im Detail bearbeitest. Ich weiß natürlich auch nicht, ob das Rohmaterial tatsächlich vergleichbar ist. So, wie ich deinen Post verstehe, glaube ich, dass ein wesentlicher Unterschied in der grundsätzlichen Bearbeitungsstrategie liegt. Es liest sich für mich so, dass du die Daten als Farbaufnahme stackst und den Stack als RGB Datei mit Sternen weiter bearbeitest. Das könnte der wesentliche Unterschied sein.


    Ich trenne meine Daten über einen langen Abschnitt im Workflow konsequent in Luminanz, Farbe, Sterne und Hintergrund um jeden Part für sich optimal einzustellen. Dabei bearbeite ich die Farbkanäle (Schmalbandkanäle) getrennt voneinander sowie die Luminanz getrennt von der Farbe und trenne auch die Sterne vom Hintergrund. Deswegen stört mich beim Strecken kein Farbrauschen und beim Anheben der Sättigung leiden auch die Sterne nicht. Auch das Schärfen und Anheben von lokalen Kontrasten gelingt ohne Probleme mit Farbartefakten oder Farbstichen.


    Auch bei OSC-Duo-Schmalbanddaten kann man die Luminanz der Kanäle separieren, optimieren und wieder zusammenführen. Die Sterne lassen sich z. B. mit Starnet herausholen, so dass Sterne und Hintergrund getrennt bearbeitet werden. Aus dem sternlosen OSC-RGB kann man die Farbinformation separat bearbeiten.


    Ich glaube, dass ein solches getrenntes Bearbeiten von Farbe, Luminanz und Sternen aktuell sozusagen „State of the Art“ ist. Unter dem Strich bringen solche oder ähnliche Vorgehensweisen wesentliche Vorteile und - außer mehr Aufwand - keine Nachteile.


    CS Peter

    Piotr, Christoph und Jochen, vielen Dank euch für das nette Lob und allen für die vielen Likes!


    Auch wenn NGC6888 eine Standardkerze ist, macht die Bearbeitung immer wieder Spaß. Und an der Tatsache, dass es - ganz im Gegensatz zu früheren Versuchen - diesmal möglich war, die Seifenblase schon während der Aufnahme in den Einzelaufnahmen wahrnehmen zu können zeigt, dass es sich mit rasch fortschreitender Entwicklung der Technik lohnt, auch alte Bekannte öfters mal wieder zu besuchen ;)


    CS

    Hallo allerseits


    gestern konnte ich endlich mein TS Photoline 130/910 wieder einrichten. Zum Testen habe ich nach ein paar Messungen etwa 2 1/4 Stunden auf NGC 6888 und den PN G75.5+1.7 gehalten, der allgemein als Soap Bubble bekannt ist. Angebaut war der TSRED379 und die ASI2600mm-pro. Ha lief mit Astronomik 6nm und OIII mit Chroma 3nm Filter.


    Ich liebe diese Kombination aus Teleskop, Reducer, Kamera und Filtern. Ich habe unter einem 20,2 mag/arcsec2 Himmel (Bortle 5) mit je 200s belichtet und, glaubt es oder nicht, die Soap Bubble war sowohl in den einzelnen Ha Subs als auch den OIII Subs im bereits Aufnahmefenster von NINA zu erkennen!


    Eigentlich verträgt das Objekt viel mehr als 2 Stunden Belichtungszeit. Das Ergebnis gefällt mir aber ganz gut, so dass ich es hier zeigen möchte.


    ?hash=e97efd2893a03a54186590832ed0c0d8


    ?hash=e97efd2893a03a54186590832ed0c0d8

    Volle Auflösung und Daten: https://astrob.in/y9xib5/0/


    Viele Grüße

    Peter