Pixinsight erlernen an M81 / M82 - Einführung

  • Hallo ins Forum,


    Ich würde gerne auf der Lernkurve bei der Astrofotografie weiterkommen. Nach einer Reihe von Miss- und Teilerfolgen läuft bei mir das Guiding, als auch die Bilderfassung. Es gab auf dem Weg so Maches Hindernis. Ob kaputte Steuerungselektronik bei der Montierung, Motoretausch, ungenaue Einnordungen, fehlender Guider, falscher Reducerabstand, falsch belichtete Flats, Bildfelddrehung und was es sonst noch so alles gibt. Ich denke, Ihr wisst,wovon ich rede...


    Nun ist aber m.E. die erste brauchbare Aufnahmeserie im Kasten. Ziel war M81 / M82. Da ich es immer ein wenig schade finde, wenn sehr wenige Daten zu der Bildentstehung geschrieben werden, mach ich dies hier mal voll umfänglich:



    Set-Up:
    Montierung: EM-200 / FS-2 / SECM3 Motore mit 10:1 Vorgetriebe
    Guider: Refraktor 76/570 mm
    Optik: Refraktor mit Reducer auf 120/672 mm


    Aufnahmen:
    Kamera: Canon 550D unmodifiziert
    Belichtungen: Lights: 11 x 12min bei ISO 400 / RAW
    Darks: 6 x 12min bei ISO 400 / RAW
    Flats: 20 x 1/20sec bei ISO 400 / RAW
    Bias: 100 x 1/4000sec bei ISO 400 / RAW


    Wetter: Gute Transparenz, -2°C ~ konstant über die Aufnahmeserie, 21.0mag/arcsec², taufrei


    Guiding: MGEN an FS-2 mit folgenden Parametern:


    Guider
    Obj. focus: 570mm
    AG speed RA: 0.25x
    AG speed DEC: 0.25x
    CCD-Binning: 1x1


    1/5
    Verstärkung: 8
    Belichtung: 700
    Limit: 10


    2/5
    invert RA: -
    invert DEC: -


    3/5 - RA
    Num: 1
    tol.: 0.25
    aggr.: 30%
    mode: 1


    4/5 - DEC
    Num: 1
    tol.: 0.25
    aggr.: 30%
    mode: 1


    Kalibration
    RA: 0.70px
    DEC: 1.63 /s
    Ortho: 100%


    MGEN Canon Steuerung:
    Displacer: Enable, uniform square mit 16px



    Soweit so gut. Ich bin mit der Montierung, der FS-2 und dem MGEN incl. der Kameransteuerung absolut zufrieden.


    Die erhaltenen Einzelbilder sehen für mich gut aus (Galaxienkern / helle Sterne minimal ausgebrannt, Farbe und Staubband gut mit drauf):



    Histogramm Einzelaufnahme:



    Nun kommt die nächste Hürde, die Bildbearbeitung in Pixinsight. Da ich erst kürzlich von DSS zu Pixinsight umgeschwenkt bin, fehlt mir das Wissen.


    Ich würde gerne Stück für Stück die Bildbearbeitung beschreiben und was mir dabei an Fragen in den Sinn kommt. Da kann ich - und vielleicht auch andere Mitleser - was dabei lernen. Es wäre schön hier Tips von erfahrenen Hasen zu bekommen. Ich probiere es in kleinen Scheibchen (also über einige Tage immer etwas weiter im Prozeß). Vielleicht gibt es den Einen oder Anderen, der Lust hat die Reise mit zu Begleiten.


    Ich würde mich freuen.
    Gruß
    Dirk

  • Ich folge als Anfänger der Pixinsight Anleitung "Grundlagen Pixinsight" von Simon Großlercher: http://www.skypixels.at/downlo…Grundlagen_PixInsight.pdf


    Schritt 1 - Vom Einzelbild zum Summenbild
    Schritt 1.1 "Master BIAS" (Aufsummierte Aufnamen vom Ausleserauschen der Canon 550D)


    Pixinsight Process "ImageIntegration"


    Integration of 100 images:
    Pixel combination ......... average
    Output normalization ...... none
    Weighting mode ............ don't care
    Scale estimator ........... iterative k-sigma / BWMV
    Range rejection ........... range_low=0.000000 range_high=0.980000
    Pixel rejection ........... linear fit clipping
    Rejection normalization ... none
    Rejection clippings ....... low=yes high=yes
    Rejection parameters ...... lfit_low=5.000 lfit_high=2.500


    Ergebnis:


    Hier meine Fragen dazu:
    Beim Master BIAS aus 100 Einzelaufnahmen fällt mir auf, das es aus lauter vertikalen Linie besteht. Verursacht das keine Probleme im weiteren Ablauf? Ist das bei Euch ähnlich?


    War es richtig, die Bias auch bei ISO 400 zu machen, oder wäre die geringst mögliche ISO-Zahl besser?


    Gruß
    Dirk

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: TakFan</i>
    <br />Ich folge als Anfänger der Pixinsight Anleitung "Grundlagen Pixinsight"...


    War es richtig, die Bias auch bei ISO 400 zu machen, oder wäre die geringst mögliche ISO-Zahl besser?


    Gruß
    Dirk
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Hallo Dirk,


    Bias Aufnahmen immer bei gleicher ISO, kürzeste Belichtung. Wichtig ist, dass kein Licht in die Kamera kommt, also auch den Sucher abdecken! Temperatur ist nicht ganz so wichtig. Es sollten aber keine 40°C Differenz dazwischen liegen. Ich bin dabei mir Master Bias für Sommer und Winter anzulegen ;)
    Wenn du mal Bias mit ISO 100 dann mit 1600 machst und diese mal streckst, siehst du einen Unterschied.


    Gruß Dirk

  • Du musst bedenken, dass Du das Biasbild sicher mittels STF gestretcht hast - das sieht jetzt natürlich dramatisch aus, die Effekte sind aber subtiler.
    Hartwig

  • Erst einmal Danke an Hartwig und Dirk für die Rückmeldung. Das hört sich ja schon mal gut an und hilft mir weiter. Den Sucher decke ich bei Bias Aufnahmen immer ab. Sommer und Winter Bias sind auch eine Idee :)



    Weiter geht es mit den nächsten, beiden Schrittchen.


    Schritt 1.2 "Master Flat" (Aufsummierte Aufnahmen der Objektiv-Vignettierung und von störenden Dreck)


    Schritt 1.2.1 Kalibrierung der 20 Einzelflats (Flatfield Folie) durch Master Bias zwecks Abzug des Ausleserauschens
    Pixinsight Process "ImageCalibration"


    Schritt 1.2.2 Addieren der kalibrierten Flats zum Master Flat
    Pixinsight Process "ImageIntegration"


    Integration of 20 images:
    Pixel combination ......... average
    Output normalization ...... multiplicative
    Weighting mode ............ don't care
    Scale estimator ........... iterative k-sigma / BWMV
    Range rejection ........... range_low=0.000000 range_high=0.980000
    Pixel rejection ........... linear fit clipping
    Rejection normalization ... equalize fluxes
    Rejection clippings ....... low=yes high=yes
    Rejection parameters ...... lfit_low=5.000 lfit_high=2.500


    Ergebnis:



    Die Streifen aus dem verrechneten Master Bias sind nicht mehr zu sehen (nur beim im Forum hochgeladenen jpg Format kommen wieder deutlich gitterförmige Artefakte rein).



    Schritt 1.3 "Lights Addieren"


    Schritt 1.3.1 Kalibrierung der 11 Einzel Lights durch Master Bias und Master Flat
    Pixinsight Process "ImageCalibration"


    Schritt 1.3.2 Debayern der kalibrierten Lights als Voraussetzung für die Ausrichtung der Einzel Lights
    Pixinsight Batch skript "Debayer" mit VNG / RGGB Einstellung


    Hierzu eine Frage: Beim schreiben der Dateien aus dem skript heraus im Fits Format erhalte ich folgende Warnungen:
    ** Warning: Deprecated format: FITS
    ** Warning: Insufficient data storage capabilities: FITS
    Hat das eine Relevanz, bzw. was bedeutet das? Deprecated (misbilligend) hört sich nach einer nicht wirklich scharfen Warnung an.


    Wenn ich mir nun ein Einzelbild anschaue, ist es farblich nicht ausgewogen. Ist das mit der unterschiedlichen Farbempfindlichkeit des Sensors in der Kamera zu begründen?



    Schritt 1.3.3 Ausrichten der Einzel Lights anhand der Sternpositionen
    Pixinsight Process "StartAlignment"


    Schritt 1.3.4 Addieren der vorbereiteten Lights
    Pixinsight Process "ImageIntegration"


    Integration of 11 images:
    Pixel combination ......... average
    Output normalization ...... additive
    Weighting mode ............ noise evaluation
    Scale estimator ........... iterative k-sigma / BWMV
    Pixel rejection ........... Winsorized sigma clipping
    Rejection normalization ... scale + zero offset
    Rejection clippings ....... low=yes high=yes
    Rejection parameters ...... sigma_low=4.000 sigma_high=2.000


    Ergebnis:



    So weit, so bunt, so weit gut?


    Gruß
    Dirk

  • Ich habe Pixinsight auch mal ausprobiert und bekam die schönen roten Summenbilder ebenfalls heraus. Auch sind die verwendeten Parameter nicht nachvollziehbar, weil es dazu keinerlei Erklärung gibt, was sie bewirken. Deshalb mache ich die Kalibration und Addition mit Fitswork.

    Gruß & cs

    Andreas


    Meade LXD55 10" f/4 | GSO Dobson 8" f/6 | TS PHOTOLINE 3" f/7 Apo | Fujinon 10x70 FMT-SX2 | Fujinon 16x70 FMT-SX | AstroTrac TT320X-AG | Canon EOS 1000Da / 600Dfs / 6D

  • Hi Dirk,


    zum "deprecated" FITS-Format: PI benutzt ein eigenes Format *"Xisf" eine PI spezifische Weiterentwicklung von FITS und schreit daher, wenn man in FITS speichert. Ist aber absolut Wurst und XISF hat nicht wirklich Vorteile (außer, dass es die STF mit speichert, warum auch immer man das braucht.)
    Zu den roten Summenbildern: das kann 2 Ursachen haben:
    1) Falsche RAW-Einstellungen, dann kommt nach dem Stack ein RGB raus, in dem es nur den Rot-Kanal gibt
    2) Farbbalance, dann ist das ganz leicht wegzubekommen:
    =&gt; RGB Kanäle aufteilen (Split RGB bzw Process ExtractChannel)
    =&gt; Linear FIT: bei normaler DSLR den grünen Kanal als Referenz auswählen und LinearFit auf die anderen beiden anwenden, bei umgebauten DSLR nimmt den Roten. CCD denke ich auch den roten (hab damit aber keine Erfahrung)
    =&gt; Channel Combination RGB
    Im neuen kombinierten Farbbild an einer Stelle möglichst ohne Sterne und DeepSKy eine Preview erstellen, diese dann im BackgroundNeutralization als Referenz einstellen. Und Voila das Rot (oder grün) ist bei einem neuen STF-AutoStretch verschwunden!


    Viele Grüße
    Stefan

  • Hallo Stefan,


    Danke für die Erläuterung zu FITS. Ich hatte schon gelesen, dass man ruhig im FITS Format bleibt, weil das Pixinsight eigene Foramt keine entscheidenden Vorteile mit sich


    bringt.


    Der rote Ton ist bei mir Fall "2)". Die Farbbalance steht aus. Ich folge den von Dir vorgeschlagenen Prozessen.



    Zurück zu den nächsten Schritten:



    Schritt 1.4 Bild zuschneiden
    Durch das Dithering ist rund um das Bild ein minimaler Rand, der abgeschnitten werden kann.


    Pixinsight Prozess DynamicCrop



    Schritt 1.5 Farbkalibierung
    Aufspalten des Bildes in R, G und B Kanal, Abstimmung auf Basis des G-Kanals und abschließende Zusammenführung


    Schritt 1.5.1 Farbaufspaltung


    Pixinsight Prozess ChannelExtraction


    Es liegen nun die R, G und B Bilder vor.



    Schritt 1.5.2 Kalibrieren der Kanäle
    Da ich eine unmodifizierte DSLR Kamera habe, nehme ich den grünen Kanal als Referenz.


    Pixinsight Prozess LinearFit
    Den Parameter Reject high stelle ich auf "1", Reject low bleibt bei "0"
    Anwendung auf R und B Kanal.


    Schritt 1.5.3 Farben zusammenführen


    Pixinsight Prozess ChannelCombination


    Ergebnis:



    Schritt 1.5.4 Hintergrundkalibrierung
    Zuerst erstelle ich dafür eine Preview "Hintergrund" (dunkler, sternenfreier Bereich). Danach:


    Pixinsight Prozess BackgroundNeutralization mit Referenz der Preview


    Ergebnis:



    Hierzu eine Frage: Das im zweiten Beitrag erwähnte Tutorial macht nach der Farbzusammenführung mit DynamicBackgroundExtraction (DBE) statt mit BackgroundNeutralization (BN)


    weiter. Was ist aus welchem Grund vorteilhafter? DBE glättet den Hintergrund anhand von verteilten Proben. BN nimmt den kleinen Preview Bereich für das gesamte Bild.


    Jagt man DBE noch hinterher?


    Gruß
    Dirk

  • Hallo Dirk!
    Nein, zuerst
    DBE dann
    BackgroundNeutralization dann
    ColorCalibration.


    Du kannst Dir das Splitten der Kanäle sparen, BN stellt die Farben der Kanäle richtig ein.
    (Aber nachdem DBE!)
    Verwende von Anfang an STF mit unverketteten Kanälen (Kettenschalte links oben im Prozess)
    Erst nach dem BN kannst die Kanäle im STF wieder verketten weil dann die Farben ja richtig sein sollten. So hast Du immer die Kontrolle ob alles richtig läuft und nicht so einen roten Sumpf... (Das ist eine technische Feststellung und keine politische...)


    Es gibt auch ein skript von Hartmut Bornemann das heißt "Autocolor" das führt
    BN und ColorCAlibration automatisch durch und sucht sich die besten Bereiche aus dem Bild
    als Referenz automatisch.
    Also noch einfacher.
    Zuerst STF Channel unlinken, dann
    DBE dann das
    skript Autocolor.


    LG

  • Hallo Mostschaedel,


    Danke für den Hinweis.


    Schritt 1.5 Himmelshintergrund Ebnen


    Pixinsight Prozess DynamicBackgroundExtraction


    Probenahmestellen:



    Ich verschiebe dabei den einen oder anderen Probenahmepunkt etwas, wenn Sterne drin sind. Gehe davon aus, dass dies das mathematische Modell verträgt.
    Um die Galaxien lasse ich etwas Platz (zumindest da, wo es noch nach Spiralarmausläufern aussieht).



    Ergebnis:



    Der Hintergrund ist m.E. etwas flacher.



    Schritt 1.6 Farbkalibration


    Externes skript AutoColor (http://www.skypixels.at/pixinsight_skripts.html)
    Beinhaltet BackgroundNeutralisation und ColorCalibration


    Ergebnis:



    Grünlich, gell? Einen wirklichen Unterschied sehe ich nicht. Hab ich das richtig gemacht?


    Gruß
    Dirk

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: TakFan</i>
    Grünlich, gell? Einen wirklichen Unterschied sehe ich nicht. Hab ich das richtig gemacht?
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Hallo Dirk,
    schwer zu sagen, ob du das richtig gemacht hast, da du hier Screenshots von linearen Daten postet, die mit einer STF gestreckt wurden, die wir nicht kennen (linked channels / uncoupled channels?). Ebenso wäre es interessant, neben dem Bild vielleicht noch das Histogramm zu sehen, mit deinen verwendeten STF-Einstellungen.


    Bei dem DBE-Prozess und der Anzahl Stützstellen gilt eher "weniger ist mehr". Bei so vielen Stützstellen wie bei dir wird der modellierte Hintergrund wahrscheinlich sehr "fleckig" aussehen. Ich komme meistens mit 5-10 Stützstellen aus, schaue mir das Hintergrundmodell vor der Subtraktion aber sorgfältig an, ob es "stimmig" ist, d.h. im wesentlich sollte es einem sanften Gradienten entsprechen, der deiner Lichtverschmutzungs-Situation entspricht. Und ABE ist oft eine brauchbare Alternative (mit heruntergesetztem "function degree" auf 1-2).


    Du scheinst über diesen Thread ja eine"How to"-Anleitung für PixInsight zu suchen. Das Buch "Inside PixInsight" von Warren Keller wäre da zu erwähnen. Entgegen dem Titel ("Inside") ist es aber ein reines "How-To" ohne Einblick hinter die Kulissen, z.B. welche Algorithmen/Methoden zum Einsatz kommen. Dafür gäbe es aber wiederum andere Literatur, oder die von J. Conejero selbst verfasste (unvollständige) PixInsight Reference Documentation, erreichbar über http://pixinsight.com/doc/index.html


    Grüße
    Rüdiger

  • Hallo Rüdiger,


    Danke für den Hinweis zu den Stützstellen.


    Ich habe mich zu diesem Thread nach Sichten unterschiedlicher Tutorials im Netz entschieden. Auf den Namen Warren Keller bin ich auch schon gestoßen. Man findet bei den Tutorials mannigfache Varianten. Bis zum gestackten Light ist es oft ähnlich, aber danach wird es doch verschieden, was ja auch Sinn macht.


    Drum ist mein Interesse das Ganze mal an meinem Beispiel zu machen um unterschiedliche Hinweise zu erhalten. Dein Tip bzgl. Anzahl der Stützstellen habe ich z.B. bisher in keinem Tutorial erwähnt gefunden.


    Über das genannte Buch denke ich mal nach. Hier im Forum finde ich es gut, dass man rückfragen kann. Hilft mir bei Verständnisfragen. Mal sehen, ob der Thread hier im Sande verläuft. Ich probiere einfach mal weiter.


    Es ist schon mal schön, dass doch einige mitlesen und die Kommentare von unterscheidlichen Nutzern kommen.


    Vielen Dank schon mal an Alle.


    Gruß
    Dirk

  • Ich probiere es mal mit dem von Rüdiger erwähnten ABE. Beim DBE mit weniger Punkten ist es noch fleckig.



    Schritt 1.5. Hintergrund Ebnen


    Pixinsight Prozess AutomaticBackgroundExtractor
    Parameter: function degreee 2 sowie Substact und Normalize


    Aussehen des Hintergrundmodells mit ABE:



    und Ergebnis des ABE (ohne RGB Verlinkung):



    Vor dem STF habe ich das Ketten-Link-Symbol deaktiviert und zur Erzeugung des Histogramms STF auf HistogramTransformation gezogen (hoffe ich habe das richtig verstanden). Weder beim STF, noch beim HistrogramTransformation habe ich Parameter verändert.




    Schritt 1.6 Farbkalibration


    Externes Skript AutoColor (http://www.skypixels.at/pixinsight_skripts.html)
    Beinhaltet BackgroundNeutralisation und ColorCalibration


    Ergebnis (nach RGB gelinkten STF):



    Ich schlaf mal eine Nacht drüber, sonst bekomme ich die Augen morgen auf der Arbeit nicht auf.


    CS
    Dirk

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: TakFan</i>
    <br />Ich probiere es mal mit dem von Rüdiger erwähnten ABE. Beim DBE mit weniger Punkten ist es noch fleckig.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Hallo Dirk,
    sieht noch irgendwie komisch aus, insbesondere die starke Tonwertreduktion beim Hintergrund. Du müsstest jetzt mit 32-Bit Float-Dateien arbeiten und am besten auch die 24 Bit LUT aktiviert haben.


    Ansonsten sieht der Verlauf des Hintergrunds aber prinzipiell OK aus, da du ja bei gutem Himmel (21 mag) fotografiert hast und wahrscheinlich nicht so sehr von Streulicht und Lichtverschmutzung geplagt bist.


    Das "Normalize" bei ABE/DBE ist kontraproduktiv, denn es hat dir den Offset im Rot-Kanal nach Hintergrundsubtraktion wieder aufaddiert. Ohne das Normalize solltest du nach ABE oder DBE bereits einen neutralen Hintergrund haben, am besten zu kontrollieren mit verlinkten STF-Kanälen und dem "boosted stretch" (shift Klick auf das "radioaktiv"-Symbol).


    Solange die Daten noch linear sind, arbeite ich fast nur mit dem diesem boosted Stretch, weil dann jeder Bildfehler (unzureichendes Cropping, verbliebene Satelliten-/Flugzeugspuren, falsche Hintergrundebnung etc.) gnadenlos verstärkt wird und sofort ins Auge springt.


    Grüße
    Rüdiger

  • Zum 24 Bit LUT bei der ScreenTransferFunction (STF) musste ich erst mal nachlesen. Danke für den Hinweis, Rüdiger.


    Am Standort habe ich eine nicht zu üble Lichtverschmutzung. Am Horizont gibt es Aufhellungen von Kleinstädten. M81 / M82 stehen schön hoch am Himmel.
    Streulicht in der näheren Umgebung - Fehlanzeige.


    Schritt 1.5. Hintergrund Ebnen


    Pixinsight Prozess AutomaticBackgroundExtractor
    Parameter: function degreee 2 sowie Substact, diesmal ohne Normalize


    Aussehen des Hintergrundmodells mit ABE, function degreee 2:



    Sieht wie vorher aus.



    Aussehen des Hintergrundmodells mit ABE, function degreee 2 und mit der Einstellung 24 Bit LUT:




    Zum Vergleich: Aussehen des Hintergrundmodells mit ABE, function degreee 1 und mit der Einstellung 24 Bit LUT:



    Die Variante mit function degree 2 ist für mich die Bessere. Mit 24 Bit LUT sind die Stufen weg. Aber da es die STF ist, ist es dann ja nur eine
    andere Streckung zur Darstellung auf dem Bildschirm. Der Bildinhalt müsste dem ohne 24 Bit LUT entsprechen.


    Das mit ABE bearbeitet Light sieht entsprechend flach aus.



    Schritt 1.6 Farbkalibration


    Externes Skript AutoColor (http://www.skypixels.at/pixinsight_skripts.html)
    Beinhaltet BackgroundNeutralisation und ColorCalibration


    Ergebnis (nach RGB gelinktem STF):



    Mit dem STF / HistrogramTransfer kämpfe ich noch in der Bedienung.


    CS
    Dirk


    PS: Heute kam die Ankündigung, dass es neben dem Pixinsight Workshop in Wien auch einen parallelen Online Workshop gibt. Hört sich prima an.
    Aber laut Homepage scheint der genauso teuer (900EUR) zu sein, wie der Workshop vor Ort. Zumindest gibt es nur einen genannten Preis (habe mal eine
    Mail dazu rausgeschickt, um das zu verifizieren). Link zum Workshop: https://pixinsight.com/workshops/vienna-201703/.

  • Ausgehend vom dem gestackten Bild nach Gradientenbereinigung und Farbkalibrierung versuche ich es wie folgt weiter:



    Schritt 2.1 Erstellen einer Luminanzmaske


    Pixinsight Prozess: HistogramTransformation
    Dazu Klone ich das Bild, setze STF zurück und wende HistrogramTransformation darauf an, sodass die Galaxie / die hellen Bereiche ausgewählt sind (siehe auch Eingangs erwähntes Tutorial von Hr. Großlercher)


    Ergebnis Maske:



    Die Maske ziehe ich auf das Bild und invertiere sie, um die hellen Bereiche (die Galaxie) vor weiterer Bearbeitung zu schützen. Nun kann das Bildrauschen im Hintergund angegangen werden.


    Ergebnis invertierte, angewendete Maske (rote Bereiche bleiben geschützt):




    Schritt 2.2 Reduzieren des Hintergrundrauschens


    Pixinsight Prozess: ATrousWaveletTransform
    Noise Reduction wähle ich an, nehme die ersten beiden Layer und belasse die Standard Parameter


    Ergebnis:




    Schritt 2.3 Strecken des Bildes


    Pixinsight Prozess MaskedStretch
    Dazu wähle ich einen dunklen Hintergrundbereich in einer Prewiew und definiere diese als "background reference".
    Parameter: Standardwerte, aber 80 Iterationen und Target Background = 0.15


    Ergebnis:




    Schritt 2.4 Manuelles Feintunig


    Pixinsight Prozess HistrogramTransformation


    Ergebnis:




    Schritt 2.5 Reduzieren des Farbrauschens


    Pixinsight Prozess ACDNR
    Paramater: siehe auch Eingangs erwähntes Tutorial von Hr. Großlercher (Schritt 2.6.3 bei ihm)


    Ergebnis:




    Schritt 2.6 Grünstich entfernen


    Pixinsight Prozess SCNR
    Standardparameter


    Ergebnis:




    Schritt 2.7 Farbsättigung


    Pixinsight Prozess ColorSaturation
    Nicht so ganz satt im Ergebnis, obwohl der Balken sehr weit hoch gezogen ist.


    Ergebnis:



    Das sollte eigentlich das Ergebnis sein, aber farblich doch mau und der Hhintergund noch verrauscht.



    Schritt 3.1 Nachbearbeitung in Photoshop
    Quick & Dirty Hintergrund: Erstellen einer Ebene, die mit einer Hintergrundfarbprobe gefüllt wird, Dann Differenzbildung beider Ebenen bei ca. 70%
    Quick & Dirty Farbe: Einfach "Auto-Farbe"


    Ergebnis:



    Soviel für heute. Eure Kommentare würden mich interessieren. Denke da gibt es noch deutlich Potential, oder? Da ist noch eine unglaubliche Menge zu lernen, soviel ist gewiss.


    CS
    Dirk

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!