Auf dem Weg zum M81 M82 Mosaik

  • Hallo Beisammen,


    Im Computerthread hatte ich schon ein erstes Ergebnis gezeigt, aber das weiter führende Thema gehört besser hier her.


    In dem Thread hier will ich die Schritte der Verarbeitung dieses Projekts beschreiben. Ich bin gefühlt bei Version 0.9 und weiß nicht wohin die Reise geht. Kann dauern bis es fertig ist.


    Am letzten Wochenende beim Bortle4-5 Platz unseres Astrovereins habe ich mit dem Skywatcher 10zoll F4 und der ASI2600MC (Color) Belichtungen gemacht. Ziel war M81 und M82. Genau genommen hätten die beide in ein Feld gepasst, aber dann wären die 'Target' Objekte in den Bildecken wo die doch leicht vorhandenen Artefakte vom Koma-Korrektor, Vignettierung etc. zuschlagen. Über den Kampf mit dem Korrektor und Tubusstreulicht hatte ich schon geschrieben.


    Zuerst zur Planung. M81 & M82 sollten also jeweils in der Bildmitte stehen. Wenn man das clever macht, kriegt man das in einem 2x Mosaik unter und hat ncoh ein paar kleine Galaxien drumrum. Beide Galaxien kulminieren so ca. 0:40 und das erlaubt eine praktische Zweiteilung der Nacht. von Abend-Astro-Dämmerung bis 0:40uhr M81, Dann Montierung-Flip, und M82 bis Morgengrauen. Das reicht schön symmetrisch verteilt für ca. 5Std pro Objekt, abzüglich sowas wie Autofokus Pausen, Dithern und PHD wieder einpendeln lassen. Genau all diese Schritte im NINA Sequencer geplant und dann gestartet. Bis zum Schwenk hab ich der Sache zugeschaut und als der geklappt hat bin ich in den Schlafsack gekrabbelt. Am Morgen habe ich dann das Scope wie gewünscht in Parkposition vorgefunden, Montierungsmotoren aus, Camera-Kühlung deaktiviert. Alles sehr zufriedenstellend. Ich hab noch gedacht in dem jetzt so schön horizontal stehenden Tubus könnte ein kleine Vogelpaar angefangen haben zu nisten, aber da war niemand. Also konnte ich zufrieden abbauen.


    Hier das HFR Protokoll von NINA von der Nacht.


    Bei M81 habe ich noch Notizen nebenher gemacht. (Die mag sind mit dem SQM Gerät)

    20:00 2.6C 57% 20.60mag Foc 16030
    21:10 1.9C 59% 20.65mag Foc 16016 PHDavg 0.62"
    22:20 1.9C 57% 20.77mag Foc 15995 PHDavg 0.56"
    23:20 1.4C 59% 20.83mag Foc 16004 PHDavg 0.51"
    00:20 -0.2C 63% 20.80mag Foc 16030 PHDavg 0.50"
    Flip
    00:55 1.4C 53% 20.80mag Foc 15982 PHDavg 0.59"


    Ich fand interessant, dass bei Abkühlung der Fokus erst kürzer und dann wieder länger geworden ist. Ich hätte gedacht bei Abkühlung wird der Metalltubus kürzer und der Fokus muss monoton nach Außen korrigiert werden. It aber nicht so. Wer hat da Ideen?


    M81 Version 0.9

    In PI mit dem WBPP Script erstmal einen Kalibirierungs- und Stackdurchlauf. Dann gucke ich immer noch mal mit SubFrameAnalyzer in die ausgerichteten Bilder. Dabei sind von 59x5min Bildern 6 weggefallen. Einmal war ein Anschubser vom Tubus, der Doppelsterne gemacht hat und dann am Anfang des Abends ein paar Belichtungen mit Wind. Der 10zoll Newton mit Taukappe bietet halt doch ganz schön Angriffsfläche.


    Die ausgewählten Frames kommen dann nochmal in einen neuen Stack und mit dem geht es dann weiter.


    Für die nächsten Schritte brauche ich noch ein paar Screencopies. Wenn ich die habe schreibe ich weiter.


    Clear Skies,

    Gert

  • Hallo Beisammen,


    Also eigentlich wollte ich das als animiertes GIF zeigen, aber das hat nicht geklappt. Ein erster Schritt nach Stack kommt ein Crop der Ränder mit den Unregelmäßigkeiten vom Dithern. Bei sind das so die letzten 50Pixel. Außerdem ma ich es wenn das Bild eine glatte Anzahl Prixel pro Kante hat. jetzt kommt ein RGB Re-Align. Warum? R,G und B unterliegen unterschiedlicher Refraktion in der Atmosphäre. Das wirkt wie ein Prisma. Jeder Stern ist ein kleines Spektrum und die Position ist für R, G, und B für den Stern ein ganz bischen anders. Wenn wir das Farbild nach einzelnen R, G und B Kanälen zerlegen können wir die miteinander (G als Referenz) ausrichten und dann neu zu einem Farbbild zusammensetzen.


    So sieht das aus. Oben voher, unten nachher.


    Man muss ein wenig mit den Augen kneifen und es ist kein riesiger Effekt. Bei 1:1 Betrachtung sieht man das im Bild nicht. Aber der geneigte Astrofoto-Freund kriecht ja mit den Augen in die Pixel rein.


    In PixInsight sind hier die Schritte:

    ChannelExtraction -> Macht R,G, B Bilder

    StarAlignment -> G als Referenz und R und B werden ausgerichtet

    ChannelCombination -> Wir nehmen R_aligned, G, B_aligned und machen ein neues RGB. Das sieht dann so aus wie Unten.


    Ich bin die nächsten Schritte dann schon mal durchgeeilt und habe mir eine Version 0.9 des Ergebnisses gemacht. Was dran noch besser / anders geht, kann ich noch nicht sagen. Ich werde über die Beobachtungen berichten.



    Und den M81, weil der im Zoom so schick ist.



    Für die Sammler der 'Langen Dünnen'. Das Ding ist links neben M81 und ASTAP kennt keine Bezeichnung dafür. Nein, ist kein Asteroid. Da sieht man auch schon, dass evtl. eine 2x Drizzle Verarbeitung mal eine Option ist. Ja, die Farben in dem Ding sind grauslich.


    Soweit zur Vorausschau. Ich schreib dann mit den nächsten Schritten weiter.


    Fragen zum Bisherigen kann ich evtl. beantworten.


    Clear Skies,

    Gert

  • Mensch Gert, nur so wenig Einzelsterne in Holmberg IX  :D :S


    Im Ernst, sehr schöne und tiefe Aufnahme, die muss deutlich jenseits der 21,5 mag gehen, wow! Vielleicht kannst du diese ermitteln? Peter hat hier erläutert, wie es auch jenseits des GAIA Katalogs gehen könnte. In Siril kann man das auch direkt ohne Rechnerei machen (s. Siril Photometry), so etwas müsste es auch für PI geben?


    Am linken Rand von Homberg IX ist sogar die HII Region [MH94a] Ho IX 9 und auch weitere des MH94a Katalogs zu sehen.

    Das kleine lange dünne Galaxiechen ist übrigens die "allseits bekannte" und "wohl klingende" SDSS J095903.74+690657.0

    Unten in der Übersicht ist die noch flächenschwächere M81 Satellitengalaxie PGC 28731 zu sehen.


    Auf meinem Bildschirm empfinde ich die Farbsättigung als zu hoch, Holmberg IX und die äußeren Spiralarme wirken zu sehr blau, helle Sterne haben starke Farbsäume. Dafür kommen natürlich die HII Regionen in den Spiralarmen schön heraus. Geschmackssache.


    Freut mich, dass draußen auf eurem Platz alles so gut geklappt hat. Bin gespannt auf die weitere Bearbeitung.

  • Hallo Beisammen,


    Wir sehen uns mal die Schritte im linearen Bild an.


    Erstmal ein Blick auf den Stack wie der jetzt aussieht.


    OK sieht nicht schlimm aus. Gradienten sind da, kein Problem damit wird GraXpert fertig. Es ist auch dieser galaktishe Cirrus zu sehen, aber ich glaube nicht, dass der im normal bearbeiteten Bild am Ende rauszuholen ist. Zu dicht am Rauschen. Evtl. in einer inversen S/W Darstellung als separates Bild.


    Nun zu den Schritten


    Wer sind da die Bewerber (in unstrukturierter Reihenfolge)?

    • Sternfarbbalance (In PinInsight SPCC). In PI Forum wurde gesagt, das muss das allererste sein, weil andere Schritte die Stern-Form (PSF) ummodeln und damit die Messung relativer Helligkeiten in verschiedenen Farben im Vergleich zu Gaia Daten oder zu einer allgemeinen Weissbalance nicht mehr klappt. Da wurde z.B. auch Deconvolution als schlimm bezeichnet.
    • Hintergrund (GraXpert oder PI DBE). Ist klar, dass muss im linearen Bild zumindest zum ersten mal gemacht werden. Ich hab das z.B. nach dem Mosaik Zusammenbau nochmal laufen lassen, um die letzten Hintergrundvariationen (und wahrscheinlich auch den Cirrus) wegzubügeln.
    • Deconvolution (BlurXT oder per Hand (würg) ). Zum ersten Punkt hat Russ Croman in der letzten Version von BlurXT eingebaut, dass Verhältnisse der Summer der Pixelwerte in der PSF erhaltenbleiben. Verhältnis der PSF Integrale. Damit könnte man BlurXT auf die erste Position schieben
    • Farbsättigung. Das habe ich mir selber in diese Gruppe eingesetzt und wurde dafür im PI Forum komisch angeguckt. Ich bleibe aber dabei. Die Sättigung erst nach der Streckung zu machen gibt Probleme. Da kann (obwohl man vorsichtig ist) der Innenbereich von Sternen fast Weiß werden, und da dann Farbe rein zu kriegen ist fast unmöglich. Siehe z.B. auch den zentralen Kern in M81 oben. Der ist schon bei 25k Counts frisch aus dem Camera. Mit dem Sättigungsregler habe ich da keine Farbe rein gekriegt.

    Es gibt da eine gesunde Konkurrenz um die Reihenfolge. Wie man jetzt die Reihenfolge hier macht ist eine offene Diskussion, was meinen die Mitleser hier?


    Hier sieht man an der Leiste der Process-Icons, wie ich das mache.


    Also zuerst SPCC. Abgleich der Farben mit Spektraldaten der echten Sterne aus Gaia Katalog. Damit der Vergleich zu Gaia klappt muss die SPCC Funktion in PI im Bild die RA/DEC Koordinaten haben. Also muss vorher der Platesolver laufen. Der ist in PI ein Script und wenn man da die Bildmitte, Brennweite und Pixelgröße richtig einträgt gibt es da kein Problem.



    Im Protokoll-Fenster sieht man, dass der Solver gut gelaufen ist und die Brennweite wirklich ganz genau 856.20mm ist. (nett) Die Transformationsmatrix selber zu Fuß nachrechnen überlasse ich dem Mitleser als Hausaufgabe. :) Ich traue der mal.


    Im SPCC hat dann die Zuordnung zu Gaia geklappt und es wurden die Verhältnisse R/G und B/G korreliert. Es kommen schöne Geraden raus, was für ungefilterte One-Shot-Color Aufnahmen auch so zu erwarten ist. Bei multi Narrowband Filtern ist das schon anders.


    Das SPCC Fenster hat diese Abteilung, wo man ein Hintergrundstückchen von einem Preview angeben kann. Was ich erst in einem Tutorialvideo gesehen habe ist, dass man den Preview Reiter von der Seite vom Bild mit der Maus einfach auf diesen Button zerren kann und der damit übernommen wird. Warum werden solche tollen Tricks nirgendwo gesammelt und dem naiven Benutzer mitgeteilt? Da fummelt man Ewigkeiten in so einem Fenster rum und dann geht das so einfach.


    Nach SPCC kommt Deconvolution. Der BlurXT von Russ Croman hat das für mich unendlich viel einfacher gemacht. Die Decovolution Prozesse in PI habe ich Ewigkeiten ausprobiert und nie gute Ergebnisse erhalten und dann eigentlich Deconvolution aufgegeben. Mit BlurXT ist das wie eine neue Welt.


    Hier die Einstellungen. (Eigentlich ist der Default ganz OK) Ich mache mir einen kleinen (weil dann geht das Rechnen schneller) Preview mit viel Zoom und schubse dann an den Reglern rum)


    Die Korrektur ist klasse. Nicht nur in der Mitte wie hier gezeigt, sondern auch Bildfehler Artefakte in den Ecken.


    Wenn man mal FWHM vergleicht:


    Entwicklung FWHM:

    RGB_ReAlign : 3.313px = 2.69" (0.813"/px)

    BlurXT : 1.729px = 1.41"


    Da ist der Stern FWHM glatt halbiert. Wenn später das Strecken kommt wird FWHM wieder fetter, aber ein deutlicher Gewinn bleibt am Ende erhalten. Siehe z.B. das Grüppchen link unter dem hellen Stern in dern Mitte. Nach BlurXT kommt da der kleine Doppelstern raus!


    OK. Soweit erstmal hier. Kommentare und Verbesserungen sind wie immer willkommen.


    Clear Skies,

    Gert

  • Hi Stathis

    Im Ernst, sehr schöne und tiefe Aufnahme, die muss deutlich jenseits der 21,5 mag gehen, wow! Vielleicht kannst du diese ermitteln? Peter hat hier erläutert, wie es auch jenseits des GAIA Katalogs gehen könnte. In Siril kann man das auch direkt ohne Rechnerei machen (s. Siril Photometry), so etwas müsste es auch für PI geben?


    Am linken Rand von Homberg IX ist sogar die HII Region [MH94a] Ho IX 9 und auch weitere des MH94a Katalogs zu sehen.

    Das kleine lange dünne Galaxiechen ist übrigens die "allseits bekannte" und "wohl klingende" SDSS J095903.74+690657.0

    Unten in der Übersicht ist die noch flächenschwächere M81 Satellitengalaxie PGC 28731 zu sehen.


    Auf meinem Bildschirm empfinde ich die Farbsättigung als zu hoch, Holmberg IX und die äußeren Spiralarme wirken zu sehr blau, helle Sterne haben starke Farbsäume. Dafür kommen natürlich die HII Regionen in den Spiralarmen schön heraus. Geschmackssache.

    ASTAP sagt 21.8mag im Stack nach RGB Align.


    Es gibt auch bei PI sowas wie eine Farbkalibrierung mit der Annahme, dass die Sterne 'im Mitel' Weiß sind. Habe ich auch früher viel gemacht und funktioniert gut. Aber z.B. bei den Dual-Narrowbandfiltern hatte ich Probleme damit. Mit der SPCC und Gaia Daten klappt es besser. Da werden echte Daten der Sterne im Bild genommen und 'nicht nur' Mittelwerte. Ist bei OSC Camera sicher kein riesen Sprung. Macht halt ein wohliges Gefühl.


    Farbsättigung ist ein großes Thema. Ich hab ja geschrieben, dass der Snapshot noch Version 0.9 der Verarbeitung ist. Farbe ist da ein dicker Punkt. neulich im PI Forum hat es geheißen mal soll garnich den 'ColorSaturation' Process nehmen, sondern die 'Curves' Funktion und da die Saturation Kurve.


    Ich will noch meine Gedanken zu Farbbalance und Sättgung schreiben. kommt noch.


    Clear Skies,

    Gert

  • Hallo Beisammen,


    Ach ja, ich wollte noch was zum SPCC meckern. Der hat ja nun das Bild anhand der Farben der Gaia Sterne balanciert. Da sollte es doch im ganzen restlichen Flow nicht mehr nötig sein irgendeine Farbbalance anzufassen. Ist aber nicht so. (Oder mache ich da was falsch?) Ich mache mal zur Anschauung gleich nach dem SPCC eine mega Farbsättigung.


    Das kommt dabei raus. (Oben Rohstack, unten SPCC mit mega Sättigung)


    Also an die Sterne kann man sich gewöhnen, aber was sollen denn Bananen Gelbe Galaxien? Ich hab also später im Flow Die Balance so hingeschoben, dass mir die Galaxien und Sterne besser gefallen. Aber damit ist die Ausrichtung an den Gaia Daten im Eimer. Da kann man doch nie sagen, dass die Farben zumindest irgendwie auf natürlichen Werten basieren. Da kann ich die Sterne doch gleich in lila Falschfarben colorieren. Was ist da los?





    OK, weiter im linearen Bild, wir haben da noch zwei Schritte abzuarbeiten. Hintergrund und Farbsättigung.


    Den Hintergrund glätten übernimmt GraXpert. In der letzten Zeit ist die Verbindung zu PixInsight besser geworden. Das Plugin-Script hat Durchgriff auf die Einstellungen in GX und man kann es als Process-Icon (mit den Einstellungen) auf dem PI Desktop ablegen. Nach der Anwendung gibt es die Hintergrund-Landkarte anzugucken.



    Wie zum Geier kriegt man es in PI hin, dass dieses dusselige Konsolenterminal nicht vor dem Desktop steht? Bei scripten ist das einfach eingerastet!


    Der wichtigste Blick ist auf die Hintergrund-Karte. Da will ich kein durch gedrücktes Bild der Galaxie oder von sonst irgendwas vom Bild (was ich behalten will!) sehen. Ist hier gut der Fall.


    Im mit Screen-Stretch gestreckten neuen Bild sind die Fasern aus dem galaktischen Cirrus noch gut zu sehen. Aber die sind so gestreckt, das wird man nicht hinkriegen, dass man die am Ende im Bild mit dunklem Hintergrund noch sieht. Vielleicht ganz schwach.



    Auf zur Farbsättigung. Wie gesagt, damit habe ich noch große Unsicherheiten. Bei PI gibt es da 'ColorSaturation' (wo man eigentlich als erstes dran denkt) und in den Curves eine Saturation Kurve. Ich hab das mal im PI Forum gefragt. Da hieß es, ColSat würde die Verhältnisse der Farben zueinander nciht erhalten. Wie? Ich sehe da doch eine gerade horizontale Linie, da sind doch gerade alle Farben gleich betroffen! Eher im Curves Tool mit dieser Beule denke ich, werden die Verhältnisse der Farben zueinander verschoben.


    Hier mal die beiden Werkzeuge und Ergebnisse. Ich finde bei der Sättigungskurve ist die Galaxie schon zu gelb. Außerdem kann man an der Kurve in jedem Winkel zerren und das ändert doch die Farben. Da bleibe ich beim ColSat. Oder kann mich jemand vom gegenteil überzeugen?


    In der Diskussion im PI Forum kam auch die Empfehlung Farbsättigung im Gestreckten Bild zu machen. Ich halte nichts davon. Da kommen die Maximalwerte der Sterne und ggf. Galaxienkern zu dicht an 100%. Da kann sich dann keine mehr Farbe halten und so ein Bereich wird Weiss. Wenn ich Farbsättigung im linearen Bild mache, habe ich am Schluss Sterne, die fast bis zur Mitte Farbe haben. Was empfehlen die Mitleser?



    OK. Als nächstes kommt Strecken. Ich kämpfe mit GHS und Histogram. Mehr im nächsten Post.


    Verbesserungen und Kommentare willkommen.


    Clear Skies,

    Gert

  • Hallo Gert,


    beim Durchlesen deines Workflow sind mir 2 Dinge aufgefallen. Du hast den Wert für das Einstellen der Star Halos in BXT auf 0,1 gesetzt. Positive Wertevergrößern ja die Halos. War das beabsichtigt um die Sterne nach dem Verkleinern weicher zu machen??


    Die Farbkalibrierung betreffend habe ich keine stimmige Erklärung für die seltsame Farbtönung. Ein wager Verdacht betrifft den sehr kleinen Referenzbereich für den Hintergrund. Mit 78 x 66 Pixeln ist der für meinen Geschmack supereng. Ich kann mir vorstellen, dass es zu Problemen kommen kann, wenn in diesem kleinen Referenzbereich Farbstörungen auftreten. Wäre vielleicht mal einen Versuch wert, zu probieren, einen anderen und größeren Bereich zu referenzieren.


    CS Peter

  • Hallo Gert,

    Zitat von Gert

    Wie zum Geier kriegt man es in PI hin, dass dieses dusselige Konsolenterminal nicht vor dem Desktop steht? Bei scripten ist das einfach eingerastet

    Du kannst die Console rechts oben, wenn Du auf den Abwärts-Pfeil(Placement) klickst, entweder auf "Floating" setzen und damit auf einen anderen Bildschirm ziehen (sofern vorhanden) , Du kannst sie auf "Translucent" setzen, dann verschwindet sie hinter dem Hauptfenster, oder Du kannst sie in den Settings auch ganz deaktivieren:




    Gruß Jürgen

    :cyclone: Deepsky:  TS-Optics Photoline 80 mm f/6 FPL53 Triplet-Apo+TS-Optics  0,8x Korrektor für TS 80 mm

    :camera: Kameras:ZWO ASI 533 MC Pro Color, ZWO ASI533MM Pro, ZWO EFW 7*36mm, ZWO Filtersatz LRGBSHO

    :telescope: Montierung:Skywatcher HEQ5 Pro Goto    :level_slider:Autoguiding:ZWO SW Astrokamera ASI120MM Mini    :fireworks: Focuser:ZWO EAF
    :desktop_computer: Teleskop-Rechner: Dell Optiplex+Win11 :control_knobs: Teleskop-Steuerung:N.I.N.A+ASCOM :sparkles:Bildbearbeitung:PixInsight, AstroPixelProcessor

    2 Mal editiert, zuletzt von neubi ()

  • Hallo Jürgen,


    Danke für den Tipp. Das hilft ein gutes Stück, wenn sich bei Scripts die Konsole irgendwie automatisch über das Bild schiebt und dann da einrastet. Die auszuschalten gibt dann wenigstens die Möglichkeit Bild und Script_Fenster gut zu sehen.


    Danke & Clear Skies,

    Gert

  • Hallo Beisammen,


    Noch eine Antwort zu Peters Kommentar zum Stern-Halo bei BlurXT. Warum ich den auf 10% vergrößere. Ich empfinde das so, dass BXT Sterne und Halos vom Original erst schärft (dabei werden die Halos der hellen Sterne kleiner) und dann die vom User angegebene Vergrößderung anwendet. Schauen wir mal die Bildschirmkopie an.


    Links das Original (erkennt man an den fetten Sternen!).

    Mitte BXT 40% sharpen stars, 0% Halo und 70% sharpen nonstellar (super schicke punktförmige Sterne!). Der Halo ist deutlich kleiner geworden.

    Rechts (da muss man jetzt mt den Augen kneifen) 10% Halo. Das bringt den Halo etwas in Richtung Original zurück. Finde ich eigentlich OK. Die hellen Sterne sollen im Bild auch hell bleiben. Gefühlt ist das für mich so 1/4 oder 1/3 auf dem Weg zurück zum Original, aber immer noch deutlich reduziert. Mir kommt es bei BXT auf die kleinen Details an. Diese Halo-Einstellung ist nicht zentral für mich, und die hellen Sterne sollen mit ihrem Strahlen eigentlich erhalten bleiben. Was meint das Forum?




    OK. Weiter mit Stretching:


    Was meint die Community: Ist das neue GHS oder das alte Histogramm besser zum Strecken?


    Beim GHS sieht man Tutorials, wo das mehrfach hintereinander angewendet wird mit immer neuen 'Symmetry Point' und 'stretch factor' Werten. Die Idee dabei (so wie ich das sehe) ist, das die Daten das Histogramm soweit wie möglich ausfüllen. Der verbrauchte Bereich im Histogramm soll ein rechteckiger Klotz von links bis rechts sein. Das heisst (für mich) dass der Kontrast im Bild überall gleichmäßig verteilt ist also man überall Strukturen optimal sehen kann. Aber was bedeutet das für ein Bild und will man das überhaupt?


    Der Gegenspieler ist das alte Histogramm. Klar, wenn man das voll ausreizt, sind zwei fast gleich helle Bereiche (z.B. Strukturen im Kern vom Orionnebel) nur noch knall weiß und nicht mehr unterscheidbar. Aber ich finde den 'Verlauf' dahin von dunklen zu hellen Gebieten irgendwie natürlicher. Ich habe bei M81 3x GHS (mehr schrittig) probiert, und fand das erstmal ganz schick. Aber später im Flow. Z.B. nach LHR und HDRMultiscaleTransform gab es dann schlimme Artefakte. Der Galaxienkern sah zuerst deutlicher 'abgesetzt' aus als beim Histo, aber nach LHR war da ein farbloser, blasser Halo um den Kern und erst dann wurde es wieder heller. Sieht furchtbar aus.


    So sieht es nur nach dem Stretch aus (link GHS, rechts Histo:


    Man denkt im linken Bild vielleicht, oh schick, da sieht man den innersten Kern. Aber so sieht das dann am Ende aus nach LHE und HDRMultiscaleTrans.


    Oben GHS (würg),unten Histo. Ich bin mit dieser mehrfachen Anwendung bei GHS auch nicht so glücklich. Am Ende empfinde ich die Übertragungskurve als total durchgeknetet und auch 'unvorhersagbar'. Wenn man mich fragen würde, das selbe Bild nochmal zu verarbeiten würde was anderes rauskommen. Wie sieht die Community das?


    Nochwas zu dem Tipp von Jürgen. Bitte macht ein Posting, wenn jemand irgendwelche schicken Mausklick-Effekte bei PI kennt.


    Z.B. habe ich erst in einem Video von Adam Block gesehen, wie man zwei Versionen von einem Bild blinkt. Man stellt Bild#1 nach Größe und Rechteck so ein, wie man es will. Dann zerrt man die Ecken von Bild#2 über die von Bild#1 (die rasten dabei ein) . Nun zeigen beide Bilder ja noch unterschiedlichen Zoom und Bildausschnitt. Die Bilder nochmal etwas gegeneinander verschieben und den Names-Reiter links von Bild#2 auf den von Bild#1 zerren. (nicht darunter, dann wird das zur Maske). Dann sind bei Bilder genau im gleichen Zoom und Ausschnitt. Wieder übereinander einrasten und durch Ctrl-PageDown kann man die beiden dann blinken. Cool!!!


    Wer kennt noch weitere solche Tricks??


    Clear Skies,

    Gert

  • Ach ja, ich wollte noch was zum SPCC meckern. Der hat ja nun das Bild anhand der Farben der Gaia Sterne balanciert. Da sollte es doch im ganzen restlichen Flow nicht mehr nötig sein irgendeine Farbbalance anzufassen. Ist aber nicht so. (Oder mache ich da was falsch?)

    Du hast eine ASI2600MC.


    Ich kann folgenden Effekt an meiner OSC aus eigener Erfahrung bestätigen


    Handbuch SPCC

    https://pixinsight.com/doc/docs/SPCC/SPCC.htm

    Zitat

    Another important point when working with OSC cameras is to always use drizzle. Besides the fact that only a drizzle integration can provide optimal results by avoiding interpolation, some de-Bayering algorithms may modify color proportions at small scales, where interpolation of missing color data in CFA patterns plays an important role. This is the case with VNG. 


    VNG debayering with drizzle


    VNG debayering without drizzle

  • Zitat von Gert

    Wer kennt noch weitere solche Tricks??


    Hier findest Du eine Liste von ShortCuts


    Gruß Jürgen

    :cyclone: Deepsky:  TS-Optics Photoline 80 mm f/6 FPL53 Triplet-Apo+TS-Optics  0,8x Korrektor für TS 80 mm

    :camera: Kameras:ZWO ASI 533 MC Pro Color, ZWO ASI533MM Pro, ZWO EFW 7*36mm, ZWO Filtersatz LRGBSHO

    :telescope: Montierung:Skywatcher HEQ5 Pro Goto    :level_slider:Autoguiding:ZWO SW Astrokamera ASI120MM Mini    :fireworks: Focuser:ZWO EAF
    :desktop_computer: Teleskop-Rechner: Dell Optiplex+Win11 :control_knobs: Teleskop-Steuerung:N.I.N.A+ASCOM :sparkles:Bildbearbeitung:PixInsight, AstroPixelProcessor

  • Hallo Beisammen,


    Nach dem nun gestreckten Bild kommt bei mir die Kontraststeuerung. In PI ist das LocalHistogramEqualization LHE). Das verschiebt das Histogram so, dass lokal der Eindruck von mehr Kontrast entsteht. Ich setze das nur sehr abgeschwächt ein, hier 30%. Bei mehr wird mir das zu viel. Was wählen da die anderen PI User hier im Forum?



    Wir sehen, wie die Staubwolke vor dem Kern und auch die inneren Spiralarme deutlicher geworden sind. Man sieht aber auch, dass das Rauschen mehr geworden ist. Hier kann man mit einer Maske nur die Galaxie bearbeiten (habe ich hier bei diesem Schritt nicht gemacht. Warum? Habe ich vergessen. Mache ich beim nächsten Verarbeitungsdurchlauf) Ich verwende LHE später noch mal, und da nehme ich eine RangeMask auf den hellen Bereichend der Galaxie.


    Langsam geht es in die Feinjustage am Ende.


    Erstmal ist der Hintergrund noch zu hell und die Farben sehen noch komisch aus. Das ist der Punkt, wo mir das Problem mit SPCC aufgefallen ist. Eigentlich sollte ich jetzt nicht mehr an den Farben was ändern müssen. Seufz. Also stelle ich im Histogramm-Tool nicht nur den gemeinsamen RGB Regler ein, sondern mache dann auch noch in den Farben kleine Verschiebungen. Damit sind die Farbewerte aus den Gaia Daten dann im Eimer. Sieht aber besser aus.



    Nun will ich noch mehr Sättigung bei den Spiralarmen. Da brauche ich Blau und etwas Rot für den kern. Grün soll eigentlich nicht verstärkt werden. Dazu stelle ich im ColorSaturation Fenster eine Kurve ein, die erstmal allgemein angehoben ist und bei Blau noch etwas verstärkt ist. Bei Grün ziehe ich die etwas runter.


    Von der Verstärkung ist eine Menge auch im Hintergrund gelandet, was mir nicht so gefällt. Ich hatte das mit dem BackGroundNeutrasiation Tool versucht, aber das hat nicht viel geholfen. Weil es so aussieht, als ob das meiste Farbrauschen ist, habe ich es mit SCNR (Einstellung Rot) nochmal probiert. Das sah dann OK aus. Wahrscheinlich hätte das auch alleine gereicht.



    Jetzt wirds nochmal spannend. Der NoiseXT Hammer kommt. Hier ist die Schwelle bei 60% eingestellt. Das geht per Augenmaß in einem Preview, ohne dass man die ganze Rechenzeit jedesmal investieren muss. Vielleicht geht 5% mehr auch noch, aber ich mag diese ganz glatten Bilder nicht so sehr. Ein wenig Krümel im Hintergrund ist schon OK.


    Das sieht schon mal sehr gut aus. Zumindest gefällt es mir. Jetzt kommt ein zweiter LHE mit Maske auf dem Galaxienkern. Es geht mir dabei hauptsächlich um die Wolken vor dem Kern. Ich zeige mal den Vergleich vorher/nachher und die Maske.


    Ich denke das LHE hebt immer den Hintergrund etwas an. Also kommt ein letztes Mal ein Histo zur Feinjustage.


    OK. Das ist jetzt erstmal das fertige M81.

    Wer das Ding in voller Größe 6k x 4k sehen will kann sich das hier bei de Link angucken (10MB):

    https://www.skywatcher.space/CCD_Galery/m81_asi2600_v3_txt.jpg



    Als nächstes habe ich zwei Wege zum Mosaik mit M82 verfolgt.


    1. M82 mit den selben Process Icons verarbeitet (mit minimalen Justagen), so dass ein Bild rauskommt, das in etwa wie der M81 oben aussieht, und dann die beiden als Mosaik verknoten.

    2. Zurück zu den linearen Rohstacks von beiden Bildern, dort das Mosaik machen und dann auf das gesamte Bild die Process Schritte anwenden.


    Beides Funktioniert und ich werde die Schritte dazu dann im nächsten Post zeigen.


    Rückmeldungen sind wie immer willkommen.


    Clear Skies,

    Gert

  • Hallo Beisammen,


    Bei den APS-C Sensoren und feinen Pixeln geht es nicht mehr so einfach die Einzelbilder vom Mosaik in Photoshop aufeinander zu schieben. Man kann machen was man will, an irgendeiner Stelle gibt es verzogene Sterne oder Artefakte. In PI gibt es ein paar mehr Schritte, die aber ein akkurates Mosaik garantieren.


    Im letzten Beitrag sind da zwei Varianten angedacht und hier will ich erstmal die erste vorstellen. Also zwei 'fertige' Bilder zusammenbauen. Klar sind die Bilder nie 100% gleich und mit dem Thema werden wir uns dann befassen.


    Erstmal brauchen wir das Bild von M82 mit den selben Process Schritten wie M81.


    Das haben wir hier. Fall sich jemand das Bild in voller Größe angucken will gibt es hier den Link:

    https://www.skywatcher.space/CCD_Galery/m82_asi2600_v2_txt.jpg


    Naja, man sieht vielleicht schon den Farbton Unterschied im Hintergrund. Dazu kommen wir noch.


    In PI wird ein Mosaik nicht in X-Y Pixel-Koordinaten beschrieben, sondern mit Plate Solving in RA und DEC Koordinaten. Als erstes lassen wir die Mosaik-Bilder im Solver laufen.


    Eingerahmt ist der Polynom-Grad der Transformationsgleichungen. Beim Standard Solve ist das nur 2. Da wir aber durch den Koma Korrektor speziell in den Ecken Verzeichnungen haben (die Sterne sind zwar von BlurXT klein geklopft, stehen aber nicht da, wo sie nach rechtwinkligen Koordinaten stehen müssten!) Für die M81 M82 Bilder hat sich Grad 4 als OK erwiesen.


    Als nächstes werden die Bilder so erweitert, dass jedes einzelne den Beraich des ganzen Mosaiks abdeckt. Dazu gibt es bei PI das Script MosaicByCoordinates.




    Hier sind die Defaults alle OK.


    Jetzt sehen die Bilder so aus:


    Man sieht es in der Bildschirmkopy nicht genau, aber die Kanten sind jetzt z.B. nicht mehr 'gerade' sonder ganz leicht gekrümmt, das kommt von der Kompensation der Bildverzeichnung der Originale. Eigentlich kann man die Bilder jetzt übereinader legen und blinken und im Überlappbereich bewegt sich nichts mehr. Allerdings wird man die Helligkeit und Hintergrund Variationen sehen.


    Jetzt gibt es bei PI zwei Möglichkeiten.

    1. Das normale PI Tool 'GradientMosaicMerge' (Für diese Beispiel werde ich das nehmen)

    2. Das Script Projekt 'PhotometricMosaic' von John Murphy (das werde ich beim nächsten Post beim Mosaic aus den Rohstacks zeigen)



    Für den Feather Bereich habe ich tutorials gesehen, die 10-100 vorschalgen. Bei meinen Bildern mit recht gleichmäßigem Hintergrund hat 10 gereicht.


    Beim Mosaik-Prozess wird auch versucht den Übergang auszugleichen.


    Das Ergebnis sieht dann so aus.


    Man sieht noch ganz wenig die schwarzen Ränder und die machen wir mit einem Crop weg.


    An dieser Stelle denkt man, man ist eigentlich fertig, aber ich habe mir nochmal das gesamte Bild mit GraXpert angeguckt. Und der hat noch kleine Unterschiede im hintergrund gefunden und abgezogen.


    Also hier das fertige Bild. Wer will kann sich die gesamten 7400x6000 Pixel (15.5MB) ansehen:

    https://www.skywatcher.space/CCD_Galery/m81_m82_asi2600mc_v1_txt.jpg


    Beim nächsten Mal will ich noch die Mosaikerstellung im Rohstack mit dem Script von John Murphy zeigen.


    Kommentare und Verbesserungen sind wie immer willkommen.


    Clear Skies,

    Gert

  • Das SPCC Fenster hat diese Abteilung, wo man ein Hintergrundstückchen von einem Preview angeben kann. Was ich erst in einem Tutorialvideo gesehen habe ist, dass man den Preview Reiter von der Seite vom Bild mit der Maus einfach auf diesen Button zerren kann und der damit übernommen wird. Warum werden solche tollen Tricks nirgendwo gesammelt und dem naiven Benutzer mitgeteilt? Da fummelt man Ewigkeiten in so einem Fenster rum und dann geht das so einfach.


    ich habe es auch erst spät in PI erfahren


    hier noch einmal im Bild für Mitlesende

  • Hallo Gert,


    einen interessanten Faden hast du hier eröffnet. Das Ganze ist ja schon beinahe ein Mini – Tutorial für PI Einsteiger. Zu zwei der von dir genannten Aspekte möchte ich noch nachhaken:


    Du schreibst, im PI Forum hätte man dir erläutert, die lineare Farbanhebung über Color Saturation sei nicht optimal, vielmehr solle man Curves verwenden. Wie du auch schon andeutest, ist mir diese Aussage völlig unverständlich. Zur linearen Farbanhebung verwende ich ausschließlich Color Saturation, weil ich über Curves stets Gefahr laufe, das von der Kamera eingefangene Farbspektrum zugunsten irgendeiner Farbe zu verfälschen. Sowohl Frank Sackenheim als auch Martin Völkel empfehlen das Tool zur linearen Anhebung der Farben vor dem Strecken des Bildes. Hast du ggf. auch bei PI Österreich mal nachgefragt, wieso man zu diesem Zweck Curves empfehlen kann. Dort sitzen einige Experten, die sich bestens auskennen.


    Der zweite Aspekt betrifft die Verwendung von LHE zur Kontrastanhebung. Mit diesem Tool habe ich auch schon experimentiert, bin jedoch selten zu guten Ergebnisses gelangt. Insofern danke ich dir für deine Tips. Frank Sackenheim hat in einem seiner nicht lange zurückliegenden Videos die Toolbox als Unterordner zu den Scripts vorgestellt. Darin befindet sich u.a. ein Script, welches sehr einfach über eine HDR Funktion eine Kontrastanhebung bewirkt. Dieses Script verwende ich seither mit stets zufriedenstellenden Ergebnissen. Vielleicht solltest du das auch mal testen.


    Viele Grüße

    Heinz

  • Wer kennt noch weitere solche Tricks??

    Hallo Gert,


    Image M81 / M82 Mosaic

    Dein Bildmaterial ist hervorragend, der 4h-Rotkanal (48x5min) von M81 und die Punkte auf der SPCC-Geraden beweisen es.


    Du bevorzugst kräftige Farben und ich denke, dass PI mehr Potenzial bietet in der "sauberen" Farbwiedergabe.


    Falls hier Neueinsteiger mitlesen:

    Wegen der Poisson-Verteilung kann das SNR (Signal to Noise Ratio) eines Pixels nicht besser sein, als die Wurzel aus der Anzahl der gesammeltern Photonen des Objektes als Summe über alle Frames.

    Übersetzt: Wenn man in einem Light durchschnittlich 1 Elektron (QE Photon) Signal sammelt, dann kann nach dem Stacken von 100 Lights das SNR nicht besser als 10 sein.


    Deshalb ist es sinnvoll die Farben am linearen Bild zu bearbeiten.

    Wobei die schwachen Signale entrauscht = entsättigt und nur die starken Bildanteile in der Sättigung verstärkt werden sollten.

    Wegen der Possion-Verteilung sind dazu Luminanzmasken perfekt geeignet um schwache Signale und starke Signale getrennt zu bearbeiten


    • SPCC ist klar
    • Hinweis:Bei GradientX peinlichst das Background-Modell prüfen, ob da Anteile vom Motiv enthalten sind. Gerade bei Nebeln kann die AI Version daneben liegen. Hier auch mal manuelle Punkte in der GradientX-Stand-Alone-Version setzen und mit RBF die KI gegenchecken.
    • Jetzt ist ein guter Zeitpunkt, die Luminanzmasken zu bilden. Die KI-Tools von Russell Croman sind dazu perfekt geeignet


    1. Maske


    Zuerst die Luminanz aus RGB ziehen,

    dann in STF auf AutoStretch (1) drücken.

    Das Dreieck von STF in die Fußzeile von HT ziehen (2)

    Jetzt das Dreieck von HT auf das Bild ziehen (3)

    Jetzt ist die Luminanz nichtlinear, dh auch STF deaktiveren



    Die Maske invertieren und in HT anzeigen lassen (den Haken in der HT Fußleiste drücken)



    Jetzt ist der Hintergrund noch sehr verrauscht und die Maske dadurch sehr schlecht.

    Zu erkennen am müden Buckel im HT.


    Dazu einfach die nichtinvertierte Luminanz wie im Bild gezeigt mit NoiseXTerminator maximal (Denoise=1.00 und Datail=0 ) entrauschen.

    Soll heißen, wir gehen ein Schritt zurück und entrauschen das normale Bild.

    Das Bild wieder invertieren und wir sehen engeren Buckel im Histogramm als Erfolg.



    Jetzt Highlights (roter Pfeil) knapp vor dem Buckel setzen, sa dass gerade so der Hintergrund weiß wird.

    In die Maske auch reinzoomen um zu checken, dass im Hintergrund keine "Krümmel" mehr sind - dort sollen nur Sterne sein.

    Wichtig sind die zarten Ausläufer der Galaxie.







    2. Maske


    Da es sich auch lohnt, die Färbung von Sternen und Galaxien getrennt anzufassen, kann das Bild auch vorher mit StarXTerminator in Sterne und Rest getrennt werden,.

    Die LuminanzMaske wieder wie oben beschrieben erstellen und der Hintergrund wäre jetzt:









    3. Maske


    Die SternenMaske von StarXTerminator empfehle ich mit HistogrammTransformation in mehreren Schritten in das nichtlineare Bild zu überführen


    1. zuerst STF Disable
    2. Midtones zB auf 0.1
    3. Das Dreieck so oft auf das Bild ziehen, bis man mit der Sternenmaske zufrieden ist (dh Anzahl und Größe der sichtbaren Sterne)






    Jetzt haben wir drei mit KI Unterstützung erzeugte Luminanzmasken zur Verfügung um das lineare RGB zu bearbeiten.

    Diese Masken sind wesentlich besser als eine einfache RangeMask.


  • weiter zur Sättigung.


    es lohnt sich, mal dieses Bild genauer anzuschauen

    HSL and HSV - Wikipedia
    en.wikipedia.org


    Ich will jetzt nicht auf HSV eingehen - auch dafür bietet PI Möglichkeiten


    Wir sind im HSL:

    Wenn wir ein lineares Bild (zB RAW-Stack, 32 Bit) in den nichtlinearen Bereich strecken, dann werden die Farben immer entsättigt (linkes Bild, y-Achse Lightness).

    Wir können den Verlust der Farbinformation beim Strecken entschärfen, wenn

    1. wir die Sättigung noch im linearen Bild Verstärken
    2. und die Lights nur maßvoll strecken, dh nicht bis RGB=1,1,1 (weiß)





    Es wurde nach dem Unterschied zwischen CT und CS gefragt.

    In allen Bildbearbeitungen gibt es Sättigung und Dynamik.


    • Links in CT wird durch die Anhebung der Kurve im gesättigteren Bereich die Dynamik erhöht.
    • Rechts in CS wird die Sättigung erhöht, dh auch das allgemeine Bildrauschen


  • jetzt zur Erhöhung der Sättigung im linearen Bereich 


    Ziel muss es sein, dass wir nach dem Strecken in das nichtlineare Bild mit dem Farben zufrieden sind.


    Wenn nach dem Strecken (wie hier) der Hintergrund bunt ist, dann sollte besser man wieder in den linearen Bereich zurückgehen um das Übel an der Wurzel anzupacken:





    Weiterhin muss bei Deinem Bildmaterial SPCC eine perfekte Galaxie-Färbung bringen!!!


    Da du mit Deiner ZWO OSC Kamera im grünen Bereich gelandest bist, hast du wahrscheinlich ein Problem mit 

    "WBPP mit VNG debayering ohne Drizzle Integration"


    siehe meinen oberen Beitrag

    Handbuch SPCC

    https://pixinsight.com/doc/docs/SPCC/SPCC.htm
    "Another important point when working with OSC cameras is to always use drizzle. Besides the fact that only a drizzle integration can provide optimal results by avoiding interpolation, some de-Bayering algorithms may modify color proportions at small scales, where interpolation of missing color data in CFA patterns plays an important role. This is the case with VNG."



    in WBPP wäre das hier:

    1x löst bereits das Problem


    wenn du Glück hast, dann haben deine 5min Aufnahmen genügend zufällige Drift und du kannst auch Drizzle Intergration über die 48 Frames ansetzen ohne  bei der Aufnahme gedrizzelt zu haben.


    einfach mal testen




    wir waren oben bei SPCC stehen geblieben

    Natürlich geht jeder andere Wege,

    ein Beispiel wie es weiter gehen könnte

    • zuerst Deconvolution mit BlurXTerminator
    • dann defensiv entrauschen mit NoiseX (ggf. auch mit Maske nur den Hintergrund entrauschen - verhindert dass die Galaxie aussieht wie Laminiert)
    • CurvesTransformation zrücksetzen und auf [S] setzen
    • jetzt das Bild maskieren und in den Sternen/Galaxie die Sättigung im oberen Bereich leicht (!!) erhöhen (Farb-Dynamik)
    • Maske umkehren und bei Bedarf den Hintergrund leicht entsättigen (damit kann man super das allg Hintergund-Farbrauschen eindampfen - Stichwort PI SCNR Werkzeug)
  • jetzt zum Strecken in das nichtlineare Bild


    1. Vorstecken zur besseren manuellen Bearbeitung
    2. Micro-Kontrast der Galaxie Ränder gezielt erhöhen
    3. Fertig Strecken für normale Bildbearbeitung


    Der Trick ist das kontrollierte mehrstufige Verfahren, wo man zwischendurch genau weiß, wo man steht um steuernd einzugreifen.




    Schritt 1 - Vorstrecken


    Im Web gibt es dutzende super Tutorials

    Da soll jeder nehmen was ihm gefällt.


    Da Gert weiter oben nach GHS gefragt hat, gehe ich hier darauf ein:



    setze in der Fußleiste den Haken "Track View"

    Zoome das Histogramm (1) und suche den Buckel

    Setze den Zeiger auf die Mitte des Buckels (2)

    Sende den Wert zu SP (3)

    Ziehe den Stretch-Faktor hoch (4)




    jetzt wird es spannend

    - deaktiviere STF (1)

    - aktiviere Preview (2)

    - ziehe den Stretchfaktor nur so hoch, dass du in der nichtlinearen Vorschau gerade die ersten Strukturen erkennen kannst - nicht mehr!!! Oft wird pauschal 3.0 empfohlen.

    - ziehe jetzt das Dreieck ins RGB


    (siehe Grafik HSL zwei Post weiter oben - wir haben dadurch die Farben noch nicht entsättigt!!)



    Schritt 2 - Verstärkung des Mikro-Kontrastes


    nach diesem sogenannten Vorstrecken wäre CurveTransformation eine gute Option um Galaxie-Ränder zu justieren


    • CT resetten und auf [RGB/K] setzen
    • setze TrackView (1)
    • drücke AutoStretch (2) - es zieht den Kontrast für unseren Zweck zu weit hoch
    • dämpfe den STF Effekt indem man den rechten Zeiger (3) nach rechts zieht, bis die Galaxie gut zu erkennen ist und der Hintergrund trotzdem noch dunkel ist
    • setze einen Ankerpunkt (4) oben bei zB 75%=75% (für spätere Verwendung - der Punkt ändert hier verändert nichts, dh die Kurve bleibt eine Gerade)
    • setze CubicSpline (5)
    • zoome jetzt in das Histogramm auf den Buckel (6)



    • ich habe auf den Buckel gezoomt
    • setze einen weiteren neutralen Ankerpunkt (7) in der Mitte vom Buckel (das wäre unser Hintergrund, Kurve ist noch eine Gerade)
    • aktiviere Preview (8)



    • setze jetzt am rechten Rand von den Buckel einen Ankerpunkt (9)
    • dieser Punkt ist jetzt auf der Helligkeit vom dem Rand der Galaxie
    • ziehe diesen Punkt (9) leicht nach oben und beobachte die Auswirkung auf den Galaxien-Rand
    • man kann auch CT jetzt auf das RGB anwenden (10) und den Vorgang (9) und (10) ggf. wiederholen



    Der Trick ist jetzt:

    Durch den neutralen Ankerpunkt (4) brennt der Kern der Galaxie nicht aus - dh wir können hier schon eingreifen um weitere PI Tools zu entlasten

    • LocalHistogramEqualization LHE
    • HDRMultiScaleTransform

    Durch den neutralen Ankerpunkt (7) bleibt der Hintergrund unverändert. Wir können (9) moderat hochziehen und mehrmals anwenden!!


    Der Effekt sieht hier klein aus, hat aber große Wirkung im gesteckten Bild.




    Schritt 3 - Bild in den nichtlinearen Bereich Strecken


    Zum Schluss jetzt ganz entspannt das RGB auf Augenmaß zu Ende stecken - zB mit HT HistogrammTransformation

    Viele PI-User werden auch hier noch 2-3 Zwischenschritte durchführen bis das Bild zu Ende gesteckt ist (zB mit CT)


    und zum Schluss weiter Entrauschen

    und mit Photoshop / Affinity nach Bedarf nachbearbeiten




    Hinweis:

    GHS kann noch deutlich mehr (siehe Transformation Type)


    In dem Beispiel hier hat auch GHS nur den Micro-Kontrast mit dem Holzhammer erhöht, da der Anstieg der Gradiatonskurve auf den Hintergrund gestellt wurde. (SP Symmetrie Point)

    Wir haben dann im zweiten Schritt mit HT eigentlich das gleiche getan und es nur feiner justiert.




    Gert

    ich hoffe ich konnte Dir ein paar PI Tricks zeigen und habe nicht Deinen Thread gebombt.



    Zusammengefasst:

    Viele Schritte haben nur subtile Wirkungen, aber in der Summe ist es oft der entscheidende Unterschied.

    Je weiter vorn man im PI-Prozess ein Problem anfässt/korrigiert umso besser (linear/nichtlinear).

    Letztendlich ist man mit den Werkzeugen von Photoshop/Affinity etc. besser aufgehoben, wenn man schon im gestreckten Bild ist.

    Die Stärke von PI ist das nichtlineare Bild.


    Gruß aus Berlin,

    Jens






  • Hallo Heinz, hallo Jens,


    Danke für die sehr schön illustrioerten Beiträge.


    Heinz fragt nach LHE und dazu dann auch die HDRMultiscaleTransform. Dann gibt es noch das Script DarkStructureEnhance. Meine eigenen Beobachtungen dazu sind, dass ich LHE ganz gut finde. In der M81 Verarbeitung hätte ich wie Jens schreibt die LHE schon am Anfang mit Masken einsetzen müssen. Ist mir hinterher auch eingefallen. Zu Masken sage ich gleich noch was. Bei M81 hatte ich da einfach nicht dran gedacht. Daher hat LHE das Rauschen im Hintergrund angehoben. Da hätte man sich eine Menge Ärger mit Farbrausch-Entfernung und BackgroundNeutralization sparen können.


    Ja, Masken sind eine tolle Sache, aber die fügen auch eine neue Dimension möglicher Parameter ein, die dann zu optimieren ist. Wenn ich eine Maske einstelle, ob nach Range oder Schärfe / Unschärfe und dann in Kombination mit einer Verarbeitungsprozedur die auch nochmal (oft mehrere) Einstellparameter hat dann ist es oft ein Ratespiel was man hätte einstellen sollen, was man erst sieht, wenn das Ergebis fertig ist. Wenn ich einen Parameter X bei der Maske und (nur) einen Y bei der Verarbeitungsprozedur habe, dann ist der Spielraum X * Y. Und das Ergbis sieht man erst am Ende. Eine eher unangenehme Extrarunde, die man da laufen muss. Es wäre super cool wenn PI Masken-Parameter dynamisch machen würde, so dass man die Einstellung im Bild z.B. bei einem Prozess-Preview machen kann. Das wäre total interessant.


    Jens spricht noch Drizzel an. Ja, die 5min Rohaufnahmen sind all mit Dither gemacht. In NINA Dither bei jeder Belichtung. Ich sehe auch, dass speziell nach BlurXT und NoiseXT im gestreckten Bild die kleinen Sterne schon 'klotzig' aussehen. Ein Zeichen, dass man da dem Sampling mit Drizze auf die Sprünge helfen sollte. Im Preprocessing Script WBPP habe ich die 2x drizzle Daten auch schon erzeugt, muss die nur noch bei der speziellen DrizzleIntegration verbrauchen. OK, dann wir das Bild hinterher 2x2 so groß. Das ist auf der To-Do Listre bei mir noch drauf.


    Hier mal ein Beispiel für die Sterne (mit mega Zoom), wo man deutlich sieht, dass da 2x Drizzle helfen könnte.



    Bei den Kontrast steuernden Transformationen bin ich bei dieser Verarbeitung bei LHR geblieben. Die HDRMsTrans hat die komische Eigenschaft, dass ich die garnicht genug reduzieren kann, so dass das Bild noch ansehbar bleibt. Selbst mit 1x Interation und 0x Overdrive ist das Ergebnis immer noch massiv zu stark. Was dem HDRMsTrans fehlt ist ein Schieber wo man jetzt das Gewicht der Anwendung einstellen kann. Und natürlich fehlt ein live-Preview. Evtl. ist HDRMsTrans ein Code aus alten Zeiten bei PI und halt lange nicht mehr richtig auf den neuen Standard gebracht.


    Immerhin mit der Stärke der Anwendung kann man was machen und einen Multiplikator per Maske einstellen. Dazu mache ich mit PixelMath eine Maske, die überall den Wert 30% hat und lege die über das Bild. Da könnte man auch noch (der Idee von Jens folgend) einen Faktor aus der Luminanzmaske reinbringen. Dann HDRMsTrans anweden und die Stärke ist im Bild auf 30% reduziert. Da kommt auch mein Punkt hoch, dass eine Einstellung der Masken Prozente z.B. in einem Preview eine tolle Sache wäre. Aber PI liest hier bestimmt nicht mit. :(


    Hier im Beispiel:

    Link oben -> Original

    Daneben -> Bild mit HDRMsTrans. Sieht gruselig aus. Viel zu stark

    Unten links -> Eine Maske mit 30%

    Mitte -> Maske auf dem Bild

    Rechts -> Ergebnis. Angenehmere Kontraste.

    Unten -> PixelMath Formal für die Maske


    Vielen Dank für die prima Idee & Clear Skies,

    Gert

  • Hallo Beisammen,


    Ich will zum Abschluss (die Finger sind schon ganz abgerubbelt vom Tippen) die Mosaik Schritte beim Rohstack zeigen. Eigentlich gefällt mir die Idee, denn dann hat man ein Bild und alle Verarbeitungsschritte greifen alles gelchermaßen an. Das entspricht sehr meinen Idealvorstellungen.


    Den Workflow bei PI mit der Koordinatentransformation nach RA/DEC hatte ich ja beschrieben.

    1. Script PlateSolve -> Aufpassen. Polynomgrad mehr als nur 2, wenn man z.B. einen Newtonkorrektor hat.

    2. Script MosaicByCoordinates. Alles mit Defaults. Mich würde mal eine bessere Beschreibung der Projektionsmethoden mal interessieren. Bei Klick auf die Doku gibt es diese nicht so tolle Anzeige (die es leider bei PI viel zu oft gibt!)

    3. Process GradientMergeMosaic. Das ist der Standardprocess von PI, den ich zuerst beim fertigen Bild probiert habe und wo ich dachte, das mache ich hier genauso. Der macht aber bArtefakte an den Übergängen und ist nicht akzeptabel.


    Hier mal ein Beispiel.



    Eine Anfrage beim PI Forum hat dann das Script PhotometricMosaic von John Murthy (der ist bestimmt NICHT der von Murphy's Law, denn das Ding funktioniert klasse!) als Empfehlung gebracht.


    Das braucht noch einen extra Schritt:

    2a. Script -> TrimMosaicTile. Das beschreibt der John auch gut in der Anleitung. Was mich total verwirrt hat, war das es beim Klick auf 'Run' keine Rückmeldung gibt das überhaupt was passiert ist. Da habe ich erstmal gedacht, ich habe nicht richtig den Button getroffen und nochmal draufgeklickt. Wieder nichts passiert. Ich klopfe also 20x auf den Knopf und wundere mich nur noch. Was das Geheimnis war, die 5 Pixel, die das Script per Erosion vom Bild wegschneidet, sieht man in dem Preview überhaupt nicht! Das hatte das Script auch schon beim ersten Mal Klick auf den Button korrekt gemacht. Das war nur nicht zu erkennen. Und bei meinen fehlgeleiteten 20x weiteren Klicks wurde das Bild dann immer jeweils um 5 PIxel kleiner, bis ich das dann gesehen hab, das am Rand ein Stern plötzlich weg war. Da muss John dringend ein Pop-up machen, das sagt, "OK, jetzt sind 5 Pixel vom Rand des Bildes abgeschnitten, Sie können das Script jetzt zu machen."


    Dieser Trim vom Bild ist für den Code von Johns Mosaicmethode wohl wichtig, und er schreibt, dass es z.B. bei der Koordinaten Ausrichtung der Bilder weiche Kanten geben kann, die dann zu Artefakten führen.


    3. Script PhotometricMosaic. Da eigentlich alles bei Deufault. Der John hat da auch eine vorbildliche Dokumentation geschrieben. Total ausführlich und zum Glück gibt es eine 'Quick Start' Abteilung, wo man nicht alles lesen muss und mit mehr Bildern.


    Hier das Ergebnis, wo man in einem Bild auch noch die Überlappregion angezeigt bekommt.


    Da kann man jetzt mit dem Zoom reinkriechen und nach Artefakten suchen. Aber ich habe da wirklich keine gefunden.


    Ich gehe jetzt nicht nochmal die Bearbeitungsschritte durch und zeige hier dann das fertige Mosaik in der zweiten Version. Ich muss da zugeben, dass ich da bei der Verarbeitung nur schnell durchgegangen bin, weil ich die zweite Version fertig haben wollte. Eigentlich müsste man da auch mit noch mehr Aufwand mal rangehen. Sicher will ich da nochmal zum Startpunkt mit dem Mosaik zurück gehen.


    Link zum Bild in voller Auflösung : https://www.skywatcher.space/C…_m82_asi2600mc_v2_txt.jpg


    Danke an die, die mitgemacht haben und ich bin gespannt auf Kommentare und Ideen.


    Clear Skies,

    Gert

  • Hallo Gert und Jens,


    Gert, zu den Ausführungen von Jens hätte ich noch eine Anmerkung. Jens, von deinen Bearbeitungsschritten war für mich neu der Aspekt unter Schritt 2 (Verstärkung des Mikro-Kontrastes). Das hast du offenbar bereits seit längerer Zeit über die Curves – Transformation bewältigt. Sehr interessant!


    Seit der sehr innovativen Einführung der GHS – Streckungsmethode läßt sich dieser Schritt direkt als zweite Streckung nach dem Home – Stretch in Angriff nehmen, da man nun in der Lage ist, den bevorzugt zu streckenden Bereich individuell festzulegen. Insofern könntest du ohne Rückgriff auf Curves direkt in GHS mit der Bearbeitung der Kontrastanhebung weitermachen.


    Danke und viele Grüße

    Heinz

  • Hallo Heinz,


    Du hast absolut recht - man braucht kein CT.


    Aber wie ich schon oben schrieb ist GHS gegenüber CT der Holzhammer - man kann mit CT die gleiche Methode viel feinfühliger anwenden.

    Es ging hier bei beiden Werkzeugen darum, die Gradiente im linearen Bild an einer bestimmten Stelle (im Bild) steiler anzustellen.


    Deshalb hatte ich hier grob vorgestreckt mit GHS und als Zwischenschritt eine Feinjustage mit CT eingebaut.

    Ich wollte es hier auch einfach halten.

    Man kann nämlich im gleichen Schritt mit CT die Gradiente im Hintergrund auch zusätzlich gezielt abflachen - dh man entrauscht/beruhigt zusätzlich den Hintergrund.

    Alles sehr subtil aber große Wirkung um Galaxie-Ränder nicht zu verwischen.


    Wenn ich bei Astrobin ein beliebiges Image of the day nehme  (zB vom 26/07/2022 mit 265 Stunden Lights) und mit Gerts JPEG-Screenshot (!!) vergleiche, dann sehe ich, dass wir noch ordentlich Informationen im Bild haben - dh man kann es noch besser entwickeln  ;)

    Quelle: https://www.astrobin.com/7ez0pl/




    Jens

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!