RGB (sLRGB) vs. LRGB bei CMOS (unbinned)

  • Hallo Peter,


    ich stoße hier definitiv an meine Erklärungsgrenzen, weil ich nicht weiß, was da in den ganzen Bearbeitungsschritten im Hintergrund von PixInsight passiert.

    Wenn ich ein synthetisches Luminanzbild in PixInsight erzeugen möchte, tue ich das über den Prozess 'ImageIntegration' und dem Kombinationsschritt 'Average'.

    Dort werde die drei Bilder einzeln reingeladen und bearbeitet. Jegliche Haken bei 'rejection' müssen dabei deaktiviert werden.

    Ich ziehe das Luminanzbild also nicht aus dem zusammengefügten RGB. Ich glaube,das würde dann nämlich nichts bringen.


    Und immer wenn ich das gemacht habe, konnte ich ein besseres SNR erzielen.


    Viele Grüße


    Sebastian

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • Hallo


    na ihr wollt es ihr kriegt es

    haben nun doch noch LRGB Material aus der Experimentierphase gefunden


    zuerst das RGB mit R 5x180s, G 6x180s, B5x180s

    ohne jegliche Kosmetik

    RGB


    und das LRGB mit selber Gesamtbelichtung, je 3x180s je Farbe und 7x180s L

    LRGB


    dem RGB ein synthetisches L zu verpassen habe ich mir gespart, das LRGB sieht auch so schlecht genug aus.

    L nutzt wohl nur in besonderen Fällen, oder wenn man nicht weiß wohin mit der Zeit

    man muß bedenken das in dem Fall , ich hatte eigentlich schon 7 Bilder je Filter, die Zeit für den L Kanal für die Katz war, da die Bilder alle stur mit 180s sind die gefilterten Bilder auch noch schlechter ausbelichtet, ich würde davon ausgehen das RGB wäre mit 240s Subframes was auch nicht länger gedauert hätte noch besser gewesen.


    oohhh


    Gruß Frank

  • Hallo Sebastian,


    ...Ich ziehe das Luminanzbild also nicht aus dem zusammengefügten RGB. Ich glaube,das würde dann nämlich nichts bringen....

    doch, man kann Luminanz und Farbe getrennt optimieren und dann kombinieren, wie oben schon gesagt. Sollte man nicht unterschätzen, geht in PS super ;) .


    So, wie du es machst, wird meiner Meinung nach das sLum in PI durch eine gewichtete arithmetische Mittelwertbildung der 3 RGB Pixelwerte an jeder Pixelposition errechnet. Klar ist das über das ganze Bild gerechnete SNR danach besser. Aber Achtung: man muss sich überlegen, ob und welche Wichtung bei der Integration erfolgen soll.



    Standardmäßig ist "PSF Signal" die Vorgabe. Der Farbkanal mit den schärfsten Sternen erhält also das größte Gewicht und muss je nach Datenlage nicht immer das beste Ergebnis liefern. Alle anderen Wichtungsmethoden haben das gleiche Grundproblem, ungewichtetes Mitteln ist sicher keine gute Wahl. Wenn weiter unten das Häkchen für "Signal & Noise Evaluation" gesetzt ist, erfolgt sicher eine weitere Wichtung. Wenn man also sLum auf diese Weise machen will , ist der ImageIntegration Prozess in PI aber sicher eine gute Wahl. Ich überlasse das Verrechnen der Kanäle aber lieber keinem automatischen Prozess. Meine Sorge gilt vor allem schwachen, aber signifakanten Signalen in dominanterer Umgebung. Vielleicht ist das ja übertrieben. Aber wenn ich mein Lum "von Hand" optimiere, fallen mir solche Sachen auf und ich kann mich darum kümmern.


    Aber ich schreibe hier zu sLum sehr viel über eine Methode, von der ich selber gar nicht allzuviel halte und die ich nicht anwende. SNR ist ja nicht alles, vor allem nicht in Zeiten hervorragender Entrauschungsprogramme. Detailschärfe, Tiefe, Kontrast - das sind für mich die wichtigeren Parameter. Aber jeder muss es machen, wie es ihm liegt. Ich gehe für mich selber davon aus, dass ein L-Filter die echte Helligkeitsverteilung des Zielobjektes am allerbesten aufzeichnet. Dafür habe ich oben schon die Fahne hoch gehalten. Wenn ich kein natives L habe, gilt diese Annahme grundsätzlich auch für das fertige, aus normalisierten Einzelframes gestackte/kombinierte RGB Bild. Falls ich also aus RGB-Daten einen LRGB-Workflow bauen will, nehme ich die Luminanz aus dem fertigen Roh-RGB. Selbst wenn die SNR etwas schlechter ist als die des entsprechenden sLum aus einer Mittelwertbildung von 3 Aufnahmen, ist mir ein bisschen mehr Rauschen lieber als eine gewichtete Mittelung. Da ist jedenfalls meine Art mit Luminanz umzugehen. Aber wie gesagt, jeder muss seinen eigenen Weg finden und ich komme hier schon viel zu sehr wie ein Oberlehrer rüber :| ;) .


    Viele Grüße

    Peter

  • Hallo


    ja man kann mit falschen Parametern in PI viel verderben, oft sind die Grundeinstellungen auch unbrauchbar


    kleiner Trost, wenn man bei dem LRGB Beispiel von mir den Farbkanal brutal entrauscht kommt man auf recht ähnliche Ergebnisse wie beim nur RGB mit mehr Bildern,

    ist so wie ich mach mit CCD im 2xbin

    aber auch das nur RGB könnte man durch Filter schicken


    das Argument das der L Kanal auch sieht wo die RGB Filter sperren bleibt, und keine gelben dafür aber grüne und rote Sterne ärgert mich auch, aber das ist eine andere Baustelle


    Gruß Frank

  • Hi Peter

    ich komme hier schon viel zu sehr wie ein Oberlehrer rüber

    Nein, definitiv nicht. Du lässt uns nichtnnur an deiner Erfahrung teilhaben sondern kannst diese auch noch verständlich begründen und beleuchtest die Schwächen der Techniken. Das ganze mit viel Geduld und ohne aufdringliche Meinungsmache. Das finde ich wunderbar!


    CS, Seraphin

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!