RGB (sLRGB) vs. LRGB bei CMOS (unbinned)

  • Hallo Peter


    Luminanz ziehen aus schon gestackten Bildern kann eigentlich kein besseres SNR bringen als aus den Einzelbildern, da bin ich bei dir,

    gegen pauschal hab ich auch was, L unter hellerem Himmel bedarf auch besseres SNR, also mehr Zeit, bei reinem RGB aber nicht anders


    Gruß Frank

  • Ich bin nicht der Meinung, dass man bei einem LRGB Informationen verliert, wenn man die Luminanz der RGB Kanäle verwirft.

    Hallo Peter,

    ganz grundsätzlich verliert man aber Photonen, die zu einem besseren SNR sinnvoll wären.

    Ich habe das ist PS mal ausgetestet und es ging mir hier um die Gewichtungsverhältnisse. Hintergrund ist der, dass ich schärfere Stacks auch höher gewichte. Als Ergebnis konnte ich dann wirklich praktisch auf die Luminanz der RGBs verzichten, denn zum einen habe ich RGB gerne aufgenommen, wenn das Seeing schlechter war, zum anderen macht man RGB i.d.R. auch kürzer und dann schlucken die Bayer-Matrix bzw. die RGB-Filter auch noch etwa 50 % des Lichtes.

    Anders sähe das aber aus, wenn L-R-G-B alle gleichlang und unter guten Bedingungen belichtet würden. Dann würde RGB etwa 50 % der Luminanz beitragen können. R wäre wg. der Seeingberuhigung auch noch besonders scharf und es gäbe definitiv keine Refraktion an tief stehenden Objekten. Belichtet man im Verhältnis 3-1-1-1, dann wären das immer noch etwa 30 %, die man evtl. noch nutzen könnte. (wenn das sinnvoll zu machen ist)

    Ich würde es übrigens genau so machen wie du. Fertiges L, fertiges RGB, Farbe des RGB nutzen, L aus RGB extrahieren (heißt ja im Grunde nur in Mono konvertieren), und dann schauen, ob da noch genügend SNR drin ist, um das L noch ein klein wenig zu verbessern.

    VG ralf

  • Hallo Peter,


    vielen Dank für Deine ausführliche Aufklärung. Du würdest also wenn überhaupt das SuperLum aus Lum+sLum genererieren (sLum = syntheteisches Luminazbild aus RGB) und nicht aus der Intergration von LRGB. Du meintest ja auch, dass der Prozess LRGBCombination das genau so macht. Dann bräuchte ich ja dieses ganze Hickhack nicht mehr zu veranstalten. :)


    Prinzipiell kann ich hier noch einmal aus vielen gelesenen internationalen Foren-Threads folgendes zusammenfassen, wenn es um das SNR geht: ("<" bedeutet hier schlechter als)


    RGB < sLumRGB < LumRGB < SuperLumRGB


    Viele Grüße


    Sebastian

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • Hallo Peter,


    hab mal noch in Deinem ersten Link gelesen und da schreibt Rasfahan:


    "I got an answer on the Pixinsight Forum, by the developer. LRGB Combination is, indeed, combining the provided L with the a,b/c,h components (of L*ab or L*ch color model) of the supplied RGB image. So there is no extraction or processing of L* from the RGB components."


    Also LRGB Combination nutzt nicht noch einmal das Luminanzbild aus RGB. Es nutzt nur a*b*.


    Viele Grüße


    Sebastian


    Edit: Ich sehe gerade, dass Du das ja auch schon gepostet hattest, zwei Posts unter Deiner Beschreibung.

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • Hallo Ralf


    wie sind uns mal wieder überwiegend einig - das finde ich super ;): Die RGB Luminanz kann in einer Super-Luminanz-Kombination dann ein Gewinn sein, wenn sie qualitativ mindestens gleichwertig zum nativen L ist.


    Trotzdem bleibt meiner Meinung nach noch ein qualitativer Nachteil der RGB Daten gegenüber L, der sich aus den Fehlstellen der Transmissionseigenschaften der RGB Filter ableiten lässt. Zufällig habe ich gestern einen Beitrag auf CN gelesen, der gut zeigt, was ich meine. Zunächst die Fotografie eines Spektrums mit einer Standard-Digitalkamera, deren Filteröffnungen überlappen (aus https://www.cloudynights.com/t…ot-overlap/#entry12558698


    Dasselbe Spektrum mit RGB Filtern und Astrokamera aufgenommen:



    Es geht in der Diskussion zwar um die "fehlende Diversität der Farben", aber wenn die Farbanteile fehlen, fehlen auch die strukturellen Inhalte dieser Bereiche. Ich würde daher annehmen, dass ein L-Filter, der das gesamte Spektrum durchlässt, auch bessere Luminanzdaten liefert. Eine Umwandlung nach S/W zeigt, dass bei der R/G/B Luminanz einiges an Information fehlt:




    Mit einem Super-Lum erreicht man sicher regelmäßig ein besseres SNR. Dies wird jedoch über die ganze Bildfläche berechnet, also auch über die ganzen strukturarmen Bereiche, denen die Mittelwertbildung gut tut. Eine bessere Detailauflösung der strukturierten Bereiche ist dabei aber m. E. nicht zu erwarten.


    Und noch ein anderer Aspekt: wenn in der Deep Sky Fotografie die interessanten Strukturen in den Farben Rot und Blau vorkommen, warum sollte man deren schon im nativen L enthaltenes Luminanzsignal durch nochmaliges Einrechnen der Luminanz des Grünkanals degradieren?


    Viele Grüße

    Peter

  • Trotzdem, beim Farbchip wird das Spektrum in seinem Kontinuum dargestellt, bei LRGB wird das etwas zerhackt und nebeneinander. Über die korrekten, also für unser Auge natürlich empfundenen Farben bei Gasnebeln kann man viel diskutierten. Wenn jemand einen besonders tief aufgenommenen Halpha-Kanal dem Rot hinzfügt, mag das zwar beeindrucken, aber weder die natürliche Farbbalance noch Helligkeitsverhältnisse stimmen. So gesehen, kommt der RGB-Farbchip dem Anspruch der Natürlichkeit noch am nächsten. Ein "Superlum" zur Rauschreduzierung finde ich aber einen sehr interessanten Ansatz, den ich auch verfolgen werde, wenn ich wieder mehr Zeit dazu habe. Denn bis auf weiteres werde ich erstmal meine RGB-Farb-Pentax-K30 ausreizen, bevor ich auf eine echte Astrocam umsteige. Damit einhergehend dann die Abwägung, auch dort RGB-Farbchip oder doch LRGB-Monochrom?

  • Hallo Sebastian,


    ich bin nicht sicher, ob ich die Abkürzungen richtig deute. Ich weiß z. B. nicht, was sLumRGB bedeuten soll. Aber egal, du kommst zu dem Ergebnis, dass das SuperLumRGB die beste SNR liefert. Das ist sicher in den meisten Fällen richtig und auch mit Blick auf die Effekte der Mittelwert-/Medianbildung bei gestapelten Einzelaufnahmen auch so zu erwarten. Aber die SNR ist ja nicht alles, was in einer Astroaufnahme zählt. Klar, normalisierte Daten vorausgesetzt, ist der Hintergrund der Super-Lum meist ruhiger und z. B. eine Galaxie wird insgesamt heller. Wie aber schon oben geschrieben, jede Art der Verrechnung unterschiedlicher Daten müsste zu einer Degradierung der Details führen.


    Viele Grüße

    Peter

  • Trotzdem, beim Farbchip wird das Spektrum in seinem Kontinuum dargestellt, bei LRGB wird das etwas zerhackt und nebeneinander. Über die korrekten, also für unser Auge natürlich empfundenen Farben bei Gasnebeln kann man viel diskutierten. Wenn jemand einen besonders tief aufgenommenen Halpha-Kanal dem Rot hinzfügt, mag das zwar beeindrucken, aber weder die natürliche Farbbalance noch Helligkeitsverhältnisse stimmen. So gesehen, kommt der RGB-Farbchip dem Anspruch der Natürlichkeit noch am nächsten. Ein "Superlum" zur Rauschreduzierung finde ich aber einen sehr interessanten Ansatz, den ich auch verfolgen werde, wenn ich wieder mehr Zeit dazu habe. Denn bis auf weiteres werde ich erstmal meine RGB-Farb-Pentax-K30 ausreizen, bevor ich auf eine echte Astrocam umsteige. Damit einhergehend dann die Abwägung, auch dort RGB-Farbchip oder doch LRGB-Monochrom?

    Es ging hier aber nicht um die Farben, Farbtreue, Natürlichkeit etc., sondern allein um die Frage des OP, ob die Qualität der Luminanz eines LRGB durch Verwendung einer Super-Luminanz aus einer Kombination der RGB Luminanz und der L-Filter-Luminanz zu verbessern ist.


    Bei den gezeigten Spektren ging es mir daher um die Auswirkungen der Fehlstellen auf die Luminanz, nicht um die Auswirkungen auf die Farbe.

  • Hallo Peter,

    sehr interessant, die Spektren mal auf diese Weise zu sehen.

    Deine Aussage zum Grünkanal ist für mich ebenso sehr interessant und hat mich zum Nachdenken gebracht. Der Nutzen eines SuperLums wird dadurch weiter reduziert.

    Warum also dann überhaupt den Grünkanal?

    Was wäre mit einem L-R-B? Die Luminanz von R und B kann man, wenn man möchte, hinzuaddieren. Die reine Farbe (Lab) ergäbe sich aus R und B und Grün könnte man aus L minus (R-B) generieren. Nur so ein Gedanke ...

    VG ralf

  • Hallo Ralf,


    in den "Astronomy Tools" gibt es sogar eine PS Action für die Synthetisierung des Grünkanals aus dem R und B:



    Ein LRB(G) wäre mal ein wenig Testen wert... ;)


    CS Peter

  • Hallo


    Ein synthetisches L nimmt bei RGB das Farbrauschen zurück

    Das kann aber bei OSC Aufnahmen nicht funktionieren weil das betreffende Ausreißerpixel nur immer die selbe Farbe sieht.

    Das hilft vor allem im Hintergrund und so können schwache Bildteile besser dargestellt werden

    ,den Details im Galaxiekern nützt es wenig


    Gruß Frank

  • Hallo Peter,

    ich bin nicht sicher, ob ich die Abkürzungen richtig deute. Ich weiß z. B. nicht, was sLumRGB bedeuten soll.

    Ein sLumRGB ist ein LRGB Bild, bei dem der Luminanzanteil aus den RGB Filterbildern gewonnen wird, wenn man keine Luminanzbilder gemacht, und die gesamte Belichtungszeit für die RGB-Aufnahmen verwendet hat.

    Und ja, mir ging es in meinem Post vorrangig um das SNR. Was Du zu den ganzen Details geschrieben hast, muss ich erst einmal in Ruhe sacken lassen.

    Aber da scheinst Du schon was anzusprechen. Ich habe derweilen noch etwas weiter gelesen, auch was das mit den Details angeht.


    Wie es aussieht, funktioniert das mit den SuperLums und wenigen Verlusten an Details am Besten, wenn erstens alle Aufnahmen mit der gleichen Belichtungszeit und in einem Verhältnis 3:1:1:1 (L:R:G:B) gemacht wurden. Also als Beispiel: Ich nehme 60 L je 180s auf und jeweils 20 RGB je 180s.


    Also das ist jetzt mal etwas, was mir immer wieder in den Foren aufgetaucht ist. Wobei ich mich hier auch Frage, wie dann die helleren Lums wirken. Der L-Filter lässt ja alle Photonen durch und prinzipiell sollte er nur ein drittel der Belichtungszeit von RGB haben, um ähnlich wie die RGBs zu wirken.


    Und natürlich hängt dann alles noch vom Objekt ab.

    Da dreht sich mir langsam der Kopf.


    Viele Grüße


    Sebastian

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • Danke für die Erklärung, Sebastian. Für meinen Geschmack wird da zuviel "Rezeptwissen" a là 3:1:1:1 verbreitet. Grundsätzlich sollte klar sein, das der L-Kanal beim LRGB die optimale Transmission hat. Das kann man voll ausspielen. Wenn man dann mit Super-Lum o. ä. experimentieren will, bitteschön ;). Die vermeintlichen Vorteile in der Datenakquisition und Kanalverrechnung werden im wahren Leben aber schnell von der Variationsbreite der anschließenden EBV aufgefressen. Außerdem nehmen einem solche "Rezepte" mit dem Ziel, z. B. mit Superluminanz Vorteile bei der SNR zu erzielen, die Freiheit, seine Akquisitionsstrategien breit und je nach Objekt und Randbedingungen zu variieren. Ich habe z. B. in der letzten Zeit sehr gute Erfolge mit tiefen LRGB dadurch erzielt, die L-Einzel- und auch Gesamtbelichtungszeit 3-4 x so lang wie die des RGB zu halten. Frei nach dem Motto: "Viel L hilft auch viel und RGB muss nur die Farbe besorgen". Funktioniert super, vor allen Dingen im Zusammenhang mit sternlosen Bearbeitungsstrategien. Auf der anderen Seite hat bei meinen letzten Aufnahme ohne astronomische Dunkelheit die Zeit gerade für ein 3 x 1/2 Stündchen RGB und ein wenig Ha gereicht. Auch daraus lässt sich etwas machen, so ein Bild habe ich gerade auf dem Tisch. Ich will damit sagen, Theorie ist wichtig, aber was zählt, ist auf'm Platz ;) .


    Viele Grüße

    Peter

  • Ja, da sagst Du was. Ich muss gestehen, dass ich auch oft aus Zeitmangel nur wenig Belichtungszeit für R, G und B hinbekommen habe.

    Und ich war trotzdem erstaunt, wie viel Farbintensität in dem Bild ist. Das war der Grund, warum ich angefangen habe so viel nachzulesen und zu fragen, was denn nun der goldene Mittelweg sein könnte (auch wenn es den vermutlich nur für 80% der Objekte gibt). Ob viel L, oder ob es auch reicht L komplett wegzulassen und alles ausschließlich aus den RGBs zu holen.


    Aber ich glaube inzwischen sind sich hier alle einig, dass L Pflicht ist, und dies so lange belichtet wie es geht.

    Und was die Bearbeitung angeht, sollte man je nach Objekt vermutlich zweimal EBV machen. Einmal der Standardweg und einmal mit SuperLum und schön vergleichen.

    Bei manchen Objekten lohnt es sich und bei manchen eben nicht und es gehen Details verloren.

    Und ich denke je mehr Belichtungszeit man hinbekommt, umso geringer fällt der Vorteil eines SuperLums aus, weil man ja eh schon ein ziemlich geringes SNR hat.


    Viele Grüße


    Sebastian

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • Hallo


    ich hab es mal auf Hadcore gemacht,

    die in PI registrierten Bilder nach fits konvertiert und in Fitswork zusammengerechnet, da weiß man was es tut, nur mit MittelMedian, was nur die hellsten und dunkelsten Ausreißer rausmittelt, wegen der Hotpixel,

    es waren nur 8x 600s rot, 6x600s Grün und 4x600s Blau

    auf gradienten entfernen , schärfen, entrauschen, Farbsättigung wurde komplet verzichtet

    das synthetische L, ALLE EIZELBILDER ZUSAMMENADDIERT, wurde auf max Details gestreckt, und ohne Anpassung mit dem RGB kombiniert, und es kam gleich so raus


    die jpg Kompression ist 100% Qualität, konnt ihr gut auf 400x reinzoomen

    es ist sowohl im Hintergrund weniger Rauschen als auch im Kern, das dort vorhandene Rauschen als Detail verkaufen macht keinen Sinn, BlurXTerminator würde das sicher tun

    kein Farbverlust, keine durchs synthetische L hinzugefügte Unschärfe, Sterne unterscheiden sich nicht.

    ihr müsst halt mal mit schlechtem zu knappem Material experimentieren

    SRGB

    SRGB

    RGB
    RGB


    Gruß Frank

  • Hallo Frank,


    sorry, aber ich versteh's nicht ganz. Wie hast du denn das synthetische L generiert? Ist es die Luminanz der einzelnen RGB Kanäle oder die Luminanz des kombinierten RGB? Und wie auch immer, woher sollen bei gleicher Behandlung Unterschiede zum "normalen" RGB im Rauschen und den Details kommen. Ist das nicht sozusagen "Kanäle-Inzest" ;) ?


    Eine Super-Luminanz braucht doch immer zusätzlich zum RGB Daten des L-Filters....


    Man kann das aber in Bildern, die nicht in passender Ausschnittvergrößerung nebeneinander oder als animiertes GIF abwechselnd zu sehen sind, kaum beurteilen


    Viel Grüße

    Peter

  • Na ja das S steht für synthetisch , hab das Vorgehen noch hinzugefügt

    Ist aber die Vorgehensweise im Text, und passen doch beide gleichzeitig auf den Bildschirm, na gut nicht auf jeden.

    Aber wenn man jeweils ie Orginalgröße öffnet in eine Stelle reinzoomt, kann man über die Browsertaps gut blinken, klappt sogar auf dem Smartphone.


    Gruß Frank

  • Hallo Frank,


    ja, hier kann man sehr schön sehen, was ich am Anfang geschrieben hatte:

    Prinzipiell kann ich hier noch einmal aus vielen gelesenen internationalen Foren-Threads folgendes zusammenfassen, wenn es um das SNR geht: ("<" bedeutet hier schlechter als)


    RGB < sLumRGB < LumRGB < SuperLumRGB

    Du zeigst hier halt sehr gut: RGB < sLumRGB. Vielen Dank für Deinen Vergleich.


    Viele Grüße


    Sebastian

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • Hallo Einsteinchen , hallo FRANK21,


    vielleicht steh ich ja auf dem Kabel, aber ich verstehe da so einiges nicht. Wenn "sLumRGB" einfach nur bedeutet, dass dass die Luminanz der 3 RGB Kanäle extrahiert, irgendwie zusammengerechnet, gestreckt und dann wieder mit der Farbinformation verrechnet wird, warum soll den dann eine bessere SNR unten herausfallen? Damit das passiert, muss die separierte Luminanz weiterbearbeitet werden.


    FRANK21 , leider habe ich aus deiner Erklärung nicht verstanden, was du mit dem extrahierten L gemacht hast, bevor du es zu einem "sLumRGB" zusammengefügt hast. Hast du die 3 Luminanzen von R, G und B zu einem "neuen L" gemittelt, addiert oder z. B. die Maximumfunktion angewendet? Und hast du das so gewonnene L genauso gestreckt, wie das RGB?


    Dass es oft besser sein kann, das L aus einem RGB zu extrahieren und separat von der Farbinformation zu bearbeiten, ist doch ein alter Hut. Wenn das mit "sLumRGB" gemeint sein soll, handelt es sich einfach nur um eine elaborierte Standardtechnik der Bearbeitung von RGB Daten, die sich aber nicht unmittelbar auf die SNR auswirkt. In der Regel rechnet man jedoch erst das RGB zusammen und extrahiert dann die Luminanz. Ich habe das vor 8 Jahren von Altmeister Scott Rosen gelernt und mache das oft, wenn ich nur RGB zur Verfügung habe. Es ist und bleibt aber das gleiche "L", es kommen keine Details hinzu. Die Vorteile liegen im Wesentlichen darin, dass man sich bei der Bearbeitung des L nicht mit unschönen Effekten in der Chrominanz herumschlagen muss. Auch kann man aus der separat bearbeiten, glatt gebügelten Farbinformation viel mehr herausholen, wenn man sich nicht um das Rauschen und die feinen Details kümmern muss. Mit dem, was nach Einbeziehung nativer L-Daten gemeinhin als "Superluminanz" bezeichnet wird, hat das aber nichts zu tun.


    CS Peter

  • Hallo Peter


    ich habe die Bilder einfach addiert, extrahiert hab ich ganz bestimmt nichts,

    und ja hilft nur bisschen beim Chrominanzrauschen, und eben in den Bereichen die von mehreren Filtern aufgenommen werden , gelb geht ja durch rot und grün, so hat man für gelb sozusagen die doppelte Bildanzahl, es hilft nur ein wenig, aber wenn man nur wenig RGB hat hilft es etwas.

    was als Vergleich noch fehlt ist eigentlich ein RGB mit einem LRGB zu vergleichen für das die selbe Gesamtzeit aufgewendet wurde.

    L habe ich aber fast nie aufgenommen, kann sein ich finde nichts


    Gruß Frank

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!