Beiträge von pete_xl im Thema „RGB (sLRGB) vs. LRGB bei CMOS (unbinned)“

    Hallo Sebastian,


    ...Ich ziehe das Luminanzbild also nicht aus dem zusammengefügten RGB. Ich glaube,das würde dann nämlich nichts bringen....

    doch, man kann Luminanz und Farbe getrennt optimieren und dann kombinieren, wie oben schon gesagt. Sollte man nicht unterschätzen, geht in PS super ;) .


    So, wie du es machst, wird meiner Meinung nach das sLum in PI durch eine gewichtete arithmetische Mittelwertbildung der 3 RGB Pixelwerte an jeder Pixelposition errechnet. Klar ist das über das ganze Bild gerechnete SNR danach besser. Aber Achtung: man muss sich überlegen, ob und welche Wichtung bei der Integration erfolgen soll.



    Standardmäßig ist "PSF Signal" die Vorgabe. Der Farbkanal mit den schärfsten Sternen erhält also das größte Gewicht und muss je nach Datenlage nicht immer das beste Ergebnis liefern. Alle anderen Wichtungsmethoden haben das gleiche Grundproblem, ungewichtetes Mitteln ist sicher keine gute Wahl. Wenn weiter unten das Häkchen für "Signal & Noise Evaluation" gesetzt ist, erfolgt sicher eine weitere Wichtung. Wenn man also sLum auf diese Weise machen will , ist der ImageIntegration Prozess in PI aber sicher eine gute Wahl. Ich überlasse das Verrechnen der Kanäle aber lieber keinem automatischen Prozess. Meine Sorge gilt vor allem schwachen, aber signifakanten Signalen in dominanterer Umgebung. Vielleicht ist das ja übertrieben. Aber wenn ich mein Lum "von Hand" optimiere, fallen mir solche Sachen auf und ich kann mich darum kümmern.


    Aber ich schreibe hier zu sLum sehr viel über eine Methode, von der ich selber gar nicht allzuviel halte und die ich nicht anwende. SNR ist ja nicht alles, vor allem nicht in Zeiten hervorragender Entrauschungsprogramme. Detailschärfe, Tiefe, Kontrast - das sind für mich die wichtigeren Parameter. Aber jeder muss es machen, wie es ihm liegt. Ich gehe für mich selber davon aus, dass ein L-Filter die echte Helligkeitsverteilung des Zielobjektes am allerbesten aufzeichnet. Dafür habe ich oben schon die Fahne hoch gehalten. Wenn ich kein natives L habe, gilt diese Annahme grundsätzlich auch für das fertige, aus normalisierten Einzelframes gestackte/kombinierte RGB Bild. Falls ich also aus RGB-Daten einen LRGB-Workflow bauen will, nehme ich die Luminanz aus dem fertigen Roh-RGB. Selbst wenn die SNR etwas schlechter ist als die des entsprechenden sLum aus einer Mittelwertbildung von 3 Aufnahmen, ist mir ein bisschen mehr Rauschen lieber als eine gewichtete Mittelung. Da ist jedenfalls meine Art mit Luminanz umzugehen. Aber wie gesagt, jeder muss seinen eigenen Weg finden und ich komme hier schon viel zu sehr wie ein Oberlehrer rüber :| ;) .


    Viele Grüße

    Peter

    Hallo Einsteinchen , hallo FRANK21,


    vielleicht steh ich ja auf dem Kabel, aber ich verstehe da so einiges nicht. Wenn "sLumRGB" einfach nur bedeutet, dass dass die Luminanz der 3 RGB Kanäle extrahiert, irgendwie zusammengerechnet, gestreckt und dann wieder mit der Farbinformation verrechnet wird, warum soll den dann eine bessere SNR unten herausfallen? Damit das passiert, muss die separierte Luminanz weiterbearbeitet werden.


    FRANK21 , leider habe ich aus deiner Erklärung nicht verstanden, was du mit dem extrahierten L gemacht hast, bevor du es zu einem "sLumRGB" zusammengefügt hast. Hast du die 3 Luminanzen von R, G und B zu einem "neuen L" gemittelt, addiert oder z. B. die Maximumfunktion angewendet? Und hast du das so gewonnene L genauso gestreckt, wie das RGB?


    Dass es oft besser sein kann, das L aus einem RGB zu extrahieren und separat von der Farbinformation zu bearbeiten, ist doch ein alter Hut. Wenn das mit "sLumRGB" gemeint sein soll, handelt es sich einfach nur um eine elaborierte Standardtechnik der Bearbeitung von RGB Daten, die sich aber nicht unmittelbar auf die SNR auswirkt. In der Regel rechnet man jedoch erst das RGB zusammen und extrahiert dann die Luminanz. Ich habe das vor 8 Jahren von Altmeister Scott Rosen gelernt und mache das oft, wenn ich nur RGB zur Verfügung habe. Es ist und bleibt aber das gleiche "L", es kommen keine Details hinzu. Die Vorteile liegen im Wesentlichen darin, dass man sich bei der Bearbeitung des L nicht mit unschönen Effekten in der Chrominanz herumschlagen muss. Auch kann man aus der separat bearbeiten, glatt gebügelten Farbinformation viel mehr herausholen, wenn man sich nicht um das Rauschen und die feinen Details kümmern muss. Mit dem, was nach Einbeziehung nativer L-Daten gemeinhin als "Superluminanz" bezeichnet wird, hat das aber nichts zu tun.


    CS Peter

    Hallo Frank,


    sorry, aber ich versteh's nicht ganz. Wie hast du denn das synthetische L generiert? Ist es die Luminanz der einzelnen RGB Kanäle oder die Luminanz des kombinierten RGB? Und wie auch immer, woher sollen bei gleicher Behandlung Unterschiede zum "normalen" RGB im Rauschen und den Details kommen. Ist das nicht sozusagen "Kanäle-Inzest" ;) ?


    Eine Super-Luminanz braucht doch immer zusätzlich zum RGB Daten des L-Filters....


    Man kann das aber in Bildern, die nicht in passender Ausschnittvergrößerung nebeneinander oder als animiertes GIF abwechselnd zu sehen sind, kaum beurteilen


    Viel Grüße

    Peter

    Danke für die Erklärung, Sebastian. Für meinen Geschmack wird da zuviel "Rezeptwissen" a là 3:1:1:1 verbreitet. Grundsätzlich sollte klar sein, das der L-Kanal beim LRGB die optimale Transmission hat. Das kann man voll ausspielen. Wenn man dann mit Super-Lum o. ä. experimentieren will, bitteschön ;). Die vermeintlichen Vorteile in der Datenakquisition und Kanalverrechnung werden im wahren Leben aber schnell von der Variationsbreite der anschließenden EBV aufgefressen. Außerdem nehmen einem solche "Rezepte" mit dem Ziel, z. B. mit Superluminanz Vorteile bei der SNR zu erzielen, die Freiheit, seine Akquisitionsstrategien breit und je nach Objekt und Randbedingungen zu variieren. Ich habe z. B. in der letzten Zeit sehr gute Erfolge mit tiefen LRGB dadurch erzielt, die L-Einzel- und auch Gesamtbelichtungszeit 3-4 x so lang wie die des RGB zu halten. Frei nach dem Motto: "Viel L hilft auch viel und RGB muss nur die Farbe besorgen". Funktioniert super, vor allen Dingen im Zusammenhang mit sternlosen Bearbeitungsstrategien. Auf der anderen Seite hat bei meinen letzten Aufnahme ohne astronomische Dunkelheit die Zeit gerade für ein 3 x 1/2 Stündchen RGB und ein wenig Ha gereicht. Auch daraus lässt sich etwas machen, so ein Bild habe ich gerade auf dem Tisch. Ich will damit sagen, Theorie ist wichtig, aber was zählt, ist auf'm Platz ;) .


    Viele Grüße

    Peter

    Hallo Ralf,


    in den "Astronomy Tools" gibt es sogar eine PS Action für die Synthetisierung des Grünkanals aus dem R und B:



    Ein LRB(G) wäre mal ein wenig Testen wert... ;)


    CS Peter

    Trotzdem, beim Farbchip wird das Spektrum in seinem Kontinuum dargestellt, bei LRGB wird das etwas zerhackt und nebeneinander. Über die korrekten, also für unser Auge natürlich empfundenen Farben bei Gasnebeln kann man viel diskutierten. Wenn jemand einen besonders tief aufgenommenen Halpha-Kanal dem Rot hinzfügt, mag das zwar beeindrucken, aber weder die natürliche Farbbalance noch Helligkeitsverhältnisse stimmen. So gesehen, kommt der RGB-Farbchip dem Anspruch der Natürlichkeit noch am nächsten. Ein "Superlum" zur Rauschreduzierung finde ich aber einen sehr interessanten Ansatz, den ich auch verfolgen werde, wenn ich wieder mehr Zeit dazu habe. Denn bis auf weiteres werde ich erstmal meine RGB-Farb-Pentax-K30 ausreizen, bevor ich auf eine echte Astrocam umsteige. Damit einhergehend dann die Abwägung, auch dort RGB-Farbchip oder doch LRGB-Monochrom?

    Es ging hier aber nicht um die Farben, Farbtreue, Natürlichkeit etc., sondern allein um die Frage des OP, ob die Qualität der Luminanz eines LRGB durch Verwendung einer Super-Luminanz aus einer Kombination der RGB Luminanz und der L-Filter-Luminanz zu verbessern ist.


    Bei den gezeigten Spektren ging es mir daher um die Auswirkungen der Fehlstellen auf die Luminanz, nicht um die Auswirkungen auf die Farbe.

    Hallo Sebastian,


    ich bin nicht sicher, ob ich die Abkürzungen richtig deute. Ich weiß z. B. nicht, was sLumRGB bedeuten soll. Aber egal, du kommst zu dem Ergebnis, dass das SuperLumRGB die beste SNR liefert. Das ist sicher in den meisten Fällen richtig und auch mit Blick auf die Effekte der Mittelwert-/Medianbildung bei gestapelten Einzelaufnahmen auch so zu erwarten. Aber die SNR ist ja nicht alles, was in einer Astroaufnahme zählt. Klar, normalisierte Daten vorausgesetzt, ist der Hintergrund der Super-Lum meist ruhiger und z. B. eine Galaxie wird insgesamt heller. Wie aber schon oben geschrieben, jede Art der Verrechnung unterschiedlicher Daten müsste zu einer Degradierung der Details führen.


    Viele Grüße

    Peter

    Hallo Ralf


    wie sind uns mal wieder überwiegend einig - das finde ich super ;): Die RGB Luminanz kann in einer Super-Luminanz-Kombination dann ein Gewinn sein, wenn sie qualitativ mindestens gleichwertig zum nativen L ist.


    Trotzdem bleibt meiner Meinung nach noch ein qualitativer Nachteil der RGB Daten gegenüber L, der sich aus den Fehlstellen der Transmissionseigenschaften der RGB Filter ableiten lässt. Zufällig habe ich gestern einen Beitrag auf CN gelesen, der gut zeigt, was ich meine. Zunächst die Fotografie eines Spektrums mit einer Standard-Digitalkamera, deren Filteröffnungen überlappen (aus https://www.cloudynights.com/t…ot-overlap/#entry12558698


    Dasselbe Spektrum mit RGB Filtern und Astrokamera aufgenommen:



    Es geht in der Diskussion zwar um die "fehlende Diversität der Farben", aber wenn die Farbanteile fehlen, fehlen auch die strukturellen Inhalte dieser Bereiche. Ich würde daher annehmen, dass ein L-Filter, der das gesamte Spektrum durchlässt, auch bessere Luminanzdaten liefert. Eine Umwandlung nach S/W zeigt, dass bei der R/G/B Luminanz einiges an Information fehlt:




    Mit einem Super-Lum erreicht man sicher regelmäßig ein besseres SNR. Dies wird jedoch über die ganze Bildfläche berechnet, also auch über die ganzen strukturarmen Bereiche, denen die Mittelwertbildung gut tut. Eine bessere Detailauflösung der strukturierten Bereiche ist dabei aber m. E. nicht zu erwarten.


    Und noch ein anderer Aspekt: wenn in der Deep Sky Fotografie die interessanten Strukturen in den Farben Rot und Blau vorkommen, warum sollte man deren schon im nativen L enthaltenes Luminanzsignal durch nochmaliges Einrechnen der Luminanz des Grünkanals degradieren?


    Viele Grüße

    Peter

    Hallo Frank,


    ich habe viel geschrieben, weil ich meine Meinung gut begründen wollte. Deine Antwort zielt aber am Thema meines Beitrags vorbei. Es ging darum, ob eine Super-Luminanz, die aus gestackten L, R, G und B Daten integriert wird, vorteilhaft ist oder nicht und wenn nein, warum nicht.


    Ich bin nicht der Meinung, dass man bei einem LRGB Informationen verliert, wenn man die Luminanz der RGB Kanäle verwirft. Auch der LRGB Prozess von Pixinsight verwirft diese Informationen https://www.cloudynights.com/t…per-luminance/?p=11363650 (siehe #17)


    Deine Aussage, "richtiger L Kanal geht also nur unter gutem Himmel" stimmt so pauschal übrigens nicht. Ich fotografiere mittlerweile unter einem Bortle 5 Himmel und mein "richtiges " L ist immer besser, als die Luminanz der RGB Kanäle. Ich benötige auch keinen besonderen Filter, sondern kümmere mich gut um die Datenverarbeitung. "Richtiges L" geht also auch unter mäßigem Himmel ;).


    Viele Grüße

    Peter

    Hallo Sebastian,


    mit dem Konzept der "Superluminanz" habe ich bei der Deep Sky Fotografie so meine Schwierigkeiten, vor allem, wenn man fertige L, R, G und B Stacks noch einmal zu einem Luminanzbild integriert, so wie du es oben beschreibst. Denn das Ergebnis kann je nach Aufnahmeobjekt stark variieren.


    Ich denke, man kann vereinfachend voraussetzen, dass der native L-Kanal alle Photonen des Zielobjektes in korrekter Gewichtung einsammelt. Für die in den RGB Daten enthaltene Luminanz gilt das nur eingeschränkt, denn es gibt Lücken und Effizienzdellen in den Wellenlängenfenstern der RGB Filter. Da heißt zunächst, dass die L-Information des nativen L mit dem aus einem RGB extrahierten L nicht identisch sind. Noch größere Unterschiede gibt es aber zwischen den L-Informationen der gestackten R, G und B Einzelkanäle untereinander und auch zum nativen L. Die strukturellen Unterschiede bleiben auch bei Normalisierung der Integrationspartner erhalten.


    Bei der Integration von Daten mit Unterschieden schlägt dann die Statistik zu. Wenn man die Einzelkanäle mit Verfahren, die eine Ausreißereliminierung durchführen, zu seinem Super-Lum integriert, führen die vorgenannten Unterschiede in den L, R, G und B Kanälen dazu, dass echtes Signal eliminiert oder degradiert wird. Das kann man auch daran sehen, dass die rejection maps solcher Integrationen Strukturen aufweisen. Wenn man ohne Ausreißereliminierung integriert, um diesen Effekt zu vermeiden, findet eine Mittelwert-/Medianbildung statt. Und die kostet bei unterschiedlichen Daten schlicht Details. Klar, die SNR des Super-Lum ist meist höher als die der nativen Luminanz, doch ich habe das Gefühl, das kommt i. W. daher, dass in großen Teilen des Bildes in allen Kanälen ähnliche Signale vorliegen, z. B. im Sternenhintergrund. Dort wirkt sich das Konzept des Super-Lum positiv aus. Aber überall dort, wo Unterschiede in den Farbkanälen vorliegen, z. B. an Ha-Knötchen in Galaxien, die nur im Rotkanal vorhanden sind, kosten die Ausreißereliminierung und die Mittelwertbildung schlicht Struktur und Detail.


    Wenn man also eine Superluminanz bauen will, sollte man das meiner Meinung nach nicht über die Integration der gestackten Einzelkanäle angehen, weil man damit seine Details degradiert. Besser wäre es vielleicht, das L aus dem zusammengesetzten RGB zu extrahieren, mit dem nativen L verrechnen und das neu kombinierte Super-L mit L*a b mit dem a b des RGB zu einem LRGB zu verrechnen, so wie es PI in seinem LRGB Combination Prozess wohl ohnehin macht. Eine interessante Diskussion zu dem Thema findet sich übrigens hier: https://www.cloudynights.com/t…s-around-super-luminance/


    Meine Philosophie für die Verarbeitung von LRGB Aufnahmen ist, die Luminanz strikt als Träger von Licht, Struktur und Detail zu behandeln und RGB allein als Träger der Farbinformation. Deshalb verwerfe ich regelmäßig den Luminanzinhalt meiner RGB. Das gibt mit auch die Freiheit, das Belichtungsverhältnis von L und R/G/B sehr frei zu variieren, was je nach Zielobjekt große strategische Vorteile bringen kann.


    Viele Grüße

    Peter