RGB (sLRGB) vs. LRGB bei CMOS (unbinned)

  • Hallo


    aber sehen nicht in den dort gezeigten Bildern die synthetischen aus als hätten sie kleinere Sterne?

    angenommen die hellsten Punkte sind aus wenigstens 2 Farben gemischt müsste man die RGB wenigstens je Kanal eigentlich 1/3 länger belichten

    hier werden ja nicht ausbelichtete Farbkanäle mit besser ausbelichteten Lum verglichen, wenn es dann in der Tiefe an Farbe fehlt, und mehr rauscht ist eigentlich kein Wunder,

    plan wäre das Histogramm in RGB soweit auszubelichten das es dem vom L entspricht.

    Also eigentlich 900s L und je 1200s R,G,B wenn man auch die Farbe voll haben will

    interesant wäre auch ein sythetisches L aus 3x 1200s RGB, das ist möglicherweise besser als stumpf LRGB alles je 900s

    würde nicht ein weißer Sten in den einzelnen Kanälen jeweils auf 50000ADU belichtet in Summe 150000ADU ergeben? was mehr Dynamikumfang ist? ich weiß es wird in der Regel gemittelt, aber sollte trotzdem mehr Helligkeitstufen ergeben.

    Ganz sicher ist aber das ein synthetisches L aus an Monkamera gewonnenen RGB besser ist als gar keins. das echte noch besser sind ist eigentlich klar, aber wieviel Farbe darf oder will man weglassen? es müsste ja in der gleichen Zeit besseres Ergebnis liefern.

    Da kann man auch den Ansatz verfolgen für Farbe den Gain hochzudrehen um Zeit zu sparen für Lum, binning bringt ja nichts bei Cmos

    sind noch genug Fragen offen


    Gruß Frank

  • Hallo Frank,


    ja, da bringst Du es genau auf den Punkt. Es scheint halt wirklich mit richtigem Luminanzbild die beste Lösung zu sein. Und RGB sollte dann so viel für möglich um die Farben und die Intensität rauszuholen. Nichts geht über Belichtungszeit.


    Ich hab vorhin mal noch mit einem synthetischen Luminanz bei vdB 2 rumfespielt. Die Farben sind voll verblasst.

    Sah irgendwie sehr schlapp aus.


    Viele Grüße


    Sebastian

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • Ja, Farbe hochdrehen geht problemlos. ;)

    Wenn ich nochmal Zeit finde, kann ich ja mal nen Vergleich mit RGB und sLRGB machen, ohne dass ich irgendwelche Entrauschsachen machen, so dass man besser das Grundrauschen vergleichen kann.

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • Hallo zusammen,

    zunächst mal die Antwort an Jürgen,

    Das bedeutet in der Praxis was? Du mischt ein L mit einem RGB in diesem Verhältnis?
    Wie gewinnst du jeweils L und RGB - mit derselben Kamera(-sequenz)?

    Ich habe 2 Kameras. SW und Farbe. Farbe mache ich bei schlechtem Seeing und i.d.R. nur 10 % der Zeit vom Luminanzbild. Den Luminanzanteil der Farbkamera verwerfe ich oft. Mir persönlich geht es nur um Schärfe und meine L Bilder sind extrem kurz belichtet (Kurzzeitbelichtung eben)


    Das übersetze ich mal für Sebastians Anliegen. Du kannst L unglaublich hoch gewichten und die Farbe als Schmuck dazu geben, wenn du das willst.

    Ist dir die Farbe zu wenig, wenn du z.B. einen schwachen Ausläufer einer Gx. farblich auflösen willst, dann geht das natürlich nur als R,G,B, Für alles, was als L dazu kommt hast du keine Farbinformationen. (Glücklicherweise sind unsere Augen aber im Farbsehen schlechter und man kann, auf Kosten der Schärfe und des SNR, die Farbe auch fürs L nutzen.)

    Dazwischen hast du alle Freiheitsgerade und kannst das vom Motiv abhängig machen.

    Der Farblängsfehler ist ein Argument für RGB. Bei meinen Samyangs, wo ein Stern tatsächlich nur 1 bis 4 Sensorpixel belichtet muss ich Rot nachfokussieren. Bei sehr hoch aufgelösten Bildern ist bei L auch schon atmosphärische Refraktion im Spiel.

    Du siehst also, eine einfache Antwort, die für alle gilt, gibt es nicht.


    Ich will noch mal auf ein sprachliches Details hinweisen, weil möglicherweise das Dahinterliegende falsch verstanden wird.

    Ein R, G, B auch Bayer RGB hat natürlich auch eine Luminanz. Wenn man hier eine "künstliche" Luminanz erstellt, dann vielleicht um eine Farbe bewusst überzubetonen etc. Wichtig ist aber, dass man Farbe und Luminanz trennen kann. Ich kann also von einem Bild nur die Farbe entnehmen, ohne der Helligkeitsanteil zu nutzen und natürlich auch umgekehrt. Das ist dann kein RGB mehr, sondern ein LAB.

    Ist halt ein Problem das bei PI reinzuwerfen und irgendetwas kommt raus. Zu einem Verständnis führt das jedenfalls nicht.

    Und dann noch so etwas wie: Gain hochziehen, entrauschen, Farbsättigung erhöhen, zu blass finden ... das kann man alles machen, ändert aber nichts an der Physik und den Hintergründen bei der Bilderfassung.

    Am Ende fällt nur eine bestimmte Anzahl von Photonen in dein Teleskop. Machst du ein SW-Bild dann werden die alle dafür genutzt. Machst du R-G-B nacheinander, dann verschenkst du Photonen, denn jeder Filter absorbiert oder reflektiert. Zur Belohnung aber bekommst du eine Sortierung der Photonen, eben Farben.

    Ich wiederhole mich zwar, aber dazwischen ist alles an Gewichtung möglich.

    VG ralf

  • Ich kann also von einem Bild nur die Farbe entnehmen

    D.h. du nimmst dir nur die Richtung des Farbvektors und ignorierst dessen Amplitude. Das ist bildverarbeitungstechnisch eigentlich easy zu machen. Solche Mechanismen kommen ja beim Debeyering auch zur Anwendung - d.h. man nutzt das L für die Schärfe (Kantenfilter) und färbt dann künstlich hochaufgelöst nach, um genauer zu werden, als das 2x2 Pixel es eigentlich objektiv hergibt. d.h. aus den Farbkameras kommt so etwas "gefaktes" mitunter schon raus - mit allen Artefakten, denn man hat natürlich trotzdem die physikalischen Effekte der Matrix als solche und eben die Grünbetonung und das insgesamt geringere L durch die Filter.

    2 Kameras ist da sicher die beste Lösung. Bei der Farbvektorextraktion und Reapplikation gibt es nur eine Rauschempfindlichkeit bei sehr geringem L. Läßt sich aber auch noch filtern.

    Bei mir wird es definitiv ein SW-CAM werden. Mit eigenen Filtern hat man es einfach besser in der Hand, die Spektralbereiche zu verarbeiten. Das Grundproblem, dass man zeitlich nacheinander aufnehmen muss, ist ja bei Astro kein wirkliches.

    Kleiner Einschub:

    Ich muss gerade wieder die TFA-Sensoren denken, die an unserer Uni entwickelt wurden. Die arbeiteten so, dass der Sensor ohne einen Filter - einfach durch Anlegen einer Spannung - auf eine bestimmte Farbe sensitiv geschaltet werden konnte. Die Empfindlichkeit ergab sich u.a. über die Eindringtiefe der Strahlen. Die Sensoren hatten eine gewaltige Dynamik, da die Pixel lokal autoadaptiv waren. Das käme der Astrofotografie sehr zugute und der o.g. Nachteil, dass man die 3-fache Zeit benötigt, um sequenziell ein RGB zu erzeugen, wäre keiner.

  • um genauer zu werden, als das 2x2 Pixel es eigentlich objektiv hergibt

    Wie viel Luft da nach oben ist, habe ich mal demonstriert




    Bei farbigen engen Doppelsternen ist das natürlich nicht gegeben und Mars ist da auch sehr "dankbar".

    Das obige Bild zeigt die reine Farbe, ohne differenzierte Grautöne.

    VG ralf

  • Hallo zusammen,


    ich möchte wie versprochen mal noch ein paar Vergleichsbilder zeigen:


    RGB kombiniert und STF gestretcht (nur DBE durchgeführt)


    --> intensive Farben


    RGB kombiniert und mit einem synthetischen Luminanzbild kombiniert und STF gestretcht (nur DBE durchgeführt)


    Hintergrund detailreicher, aber Sterne ausgebrannt und sehr blasse Farben


    RGB nach schärfen, entrauschen und Stretchen


    RGB Bild mit kombinierten synthetischen Luminanzbild (geschärft, entrauscht) nach dem Stretchen


    RGB Bild (geschärft, entrauscht) nach dem Stretchen kombiniert mit dem synthetischen Luminanzbild (geschärft, entrauscht)


    Vergleich der gecroppten Nebel nach etwas Farbsättigung (links: RGB, Mitte: RGB+sLum vor dem Stretchen kombiniert, rechts: RGB+sLum nach dem jeweiligen Stretchen kombiniert)



    RGB Final


    RGB+sLum vor dem Stretchen kombiniert Final


    RGB+sLum nach dem jeweiligen Stretchen kombiniert Final


    Fazit:

    Ein Kombinieren des sythetischen Luminanzbildes mit dem RGB-Bild hat einen Effekt auf die Detailtiefe des Hintergrunds und ist sinnvoll.

    Es sollten dabei aber beide unabhängig vor dem Stretchen bearbeitet und erst nach dem Stretchen kombiniert werden.

    Ein richtiges Luminanzbild wird vermutlich einen noch größeren Detailgewinn bringen.


    Viele Grüße


    Sebastian

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • habe ich mal demonstriert

    Da wäre jetzt nochmal zu erörtern, wieviele RGB-Pixel der Bildausschnitt belegt hat. Der Zweck des 25x25 ist mir nicht so ganz plausibel. ANhand des geposteten Bildes würde ich annehmen, das schon das 2x2 ausreichend rausarm ist / prozessiert wurde.

  • Hallo Jürgen,

    das Rauschen interessiert dabei nicht, es ist in jedem Bild gleich, da die Luminanz nicht verändert wurde. (bei einem CMOS Sensor macht Binning in der Hinsicht ja ohnehin keinen Sinn). Ich wollte demonstrieren, wie "schlampig" man mit Farbe umgehen kann und man es dennoch nicht sieht. Das 2x2 ist das originale Farbbild aus einer Bayer-Maske.

    VG ralf

  • Beim Rauschen bezog ich mich auf auf das in den Farbbildern und nur das wäre ja auch ein Grund zu binnen (oder besser zu filtern). Im Übrigen meine ich, dass sich die Schärfe der Bilder von links nach rechts sichtbar deutlich verschlechtert.(?)

  • Hallo Jürgen,

    vielleicht reden wir ja aneinander vorbei.

    Die untere Reihe besteht aus derselben Luminanz. Da kann also nichts schärfer oder unschärfer werden.

    Die obere Reihe zeigt die reine Farbe, ohne jeglichen Grauwert. (Zur Darstellung musste ich aber einen Hintergrund definieren)

    Hier habe ich dann 5x5 bzw. 25x25 Pixel zusammengefasst. Statt Binning hätte ich besser Weichzeichnen sagen sollen, vielleicht liegt hier der Fehler.

    Dokumentieren wollte ich, dass die Farbauflösung/schärfe weit weniger wichtig ist, als die Luminanzauflösung/schärfe.


    Zurück zu Sebastians Frage. Wenn er z.B. 80 % der Zeit Luminanz belichtet und nur 20 % Farbe, dann hat er ja sozusagen für 60 % keine Farbinformationen. Da man mit der Farbe aber sehr robust umgehen kann (s.o.), ist es möglich, das Problem zu kaschieren.

    VG ralf

  • Das Luminanzbild ist nach meinem Verständnis für Auflösung und Helligkeitsinformationen da. In der Bildverarbeitung kann man sich daher schwerpunktümäßig auf den L-Kanal konzentrieren und weniger Zeit mit den Farben aufwenden. Die Farben sollten aber nicht zu lasch beahndelt werden und brauchen auch ihre Aufnahmetiefe. Nur die ganze Schärferei usw. können weitgehend entfallen. Ansonsten hat LRGB+x den Vorteil bestimmte Farben herauszuarbeiten. Das ist derzeit immer noch die Königsklasse der Astrofotografie. RGB auf Bayersensor ist auch gut, aber man erreicht damit nicht ganz die Tiefe oder spart am Ende auch keine Belichtungszeit. Eine LRGB-Verfahren erfordert dann meist schon eine robotische Steuerung, möchte man nicht die ganze Nacht am Bildschirm verbringen. Das tut man dann eh schon in den vielen wolkigen Folgetagen... ^^

  • Die untere Reihe besteht aus derselben Luminanz. Da kann also nichts schärfer oder unschärfer werden.

    Man sieht aber deuttlich die schlechtere Farbauflösung. Das darf man nicht machen. Siehe auch Andre's "nicht zu lasch umgehen".

    Um das jetzt nochmal auf stabile Füsse zu stellen:


    Das L hat die höchste Auflösung aber keine Farbe. Nimmt man Farbe hinzu, hat man aus derselben Kamera (sofern es mit Beyer) ist schon physikalisch nur die halbe Auflösung, sowie eine etwas erhöhte Auflösung dadurch, dass die Beyerinterpolation mehr oder wenig schlau das L hinein nimmt - mit allen Artefakten. Nun haben wir bei Astro aber das Erfordernis mit den hohen Belichtungszeiten. Spendiert man nun den L-Bildern sehr viel Zeit und / oder nimmt viele Bilder, dann kriegt man da das Rauschen prima weg. Das müsste man bei den RGB auch tun, was aber ohne zweite Kamera nicht geht. Nimmt man nun weniger RGB-Bilder / weniger Belichtungszeit, hat man größeres Rauschen. Dann muss man stärker in X und Y (und nicht nur in n * t ) filtern, um nicht durch ein verrauschtes Farbbild die gute Auflösung der L zu killen. Das ist das was mit dem Weichzeichnen erreicht wird, wobei man das auf die richtige Zahl von Pixeln einstellen muss.


    Die Betrachtung gilt für manuelle Farbilder (SW-Cam + Filter und Zeitmultiplex) ähnlich, man hat nur jeweils ein besser aufgelöstes Bild. Ob das einen Vorteil bringt, hängt davon ab, auf wieviele Pixel ein Objekt abgebildet wird. Bei Mikroskopieaufnahmen werden Punkte und Kanten aufgrund der Vergrößerung auf sehr viele Pixel abgebildet, d.h. die Verläufe sind flach. Da ist ein Beyersensor dreimal ausreichend, um trotz Interpolation, Artefakten und Flachrechnen derselben eine voll Farbaulösung zu erreichen. Bei Astro ist das nicht so. Man kann beliebig kleine Punkte haben, die infolge der Entfernung weniger, als einen Sensorpixel abdecken. Meines Erachtens muss man diese kleinen Objekte von der Farbprozessierung ausnehmen und eine sehr weich interpolierte Farbe aus den Nachbarn drüberlegen, wenn die eindeutig ist, oder gar keine - z.B. bei punktförmigen Sternen mit nichts drum herum.

  • Das L hat die höchste Auflösung aber keine Farbe. Nimmt man Farbe hinzu, hat man aus derselben Kamera (sofern es mit Beyer) ist schon physikalisch nur die halbe Auflösung


    Genau das passiert nicht. Ich habe eine Luminanzauflösung von 1 Px und eine Farbauflösung von 2x2 Pixel, wenn ich L und Farbe sinnvoll kombiniere. z.B. als LAB

    Nimmt man nun weniger RGB-Bilder / weniger Belichtungszeit, hat man größeres Rauschen.

    So wirkt es, aber das ist nur die halbe Wahrheit, da du das Signal nicht betrachtest. In der Astrofotografie reden wir von SNR.

    Das Rauschen entsteht beim Strecken, streckst du weniger hast du weniger Rauschen (aber auch weniger Signal)

    um nicht durch ein verrauschtes Farbbild die gute Auflösung der L zu killen.

    s.o.


    Schau dir mal den Farbmodus Lab an. Farbe und Luminanz sind komplett getrennt.

    VG ralf

  • Bei Astro ist das nicht so. Man kann beliebig kleine Punkte haben, die infolge der Entfernung weniger, als einen Sensorpixel abdecken.

    Auch das ist nicht der Fall. Bei Brennweiten über 500 mm (+/-) werden Sterne nicht mehr punktförmig abgebildet. Im Normalfall bei Deep-Sky besteht ein Stern sogar aus 10x10 (+/-) Pixeln.


    VG ralf

  • Hallo nochmals,

    ich bin mit den Zitaten durcheinander gekommen und habe das jetzt korrigiert.

    Anbei ein extra angefertigter Vergleich:


    Wenn wir Farbe zu unseren Monobildern geben, dann eben möglichst sinnvoll, wie rechts dargestellt. Um das zu erreichen, gibt es viele Wege.

    In diesem Fall ist die Luminanz des Farbbildes verworfen worden. In der Realität lässt sich diese aber noch zu gewissen Anteilen verwenden.

    VG ralf

  • Hallo Ralf,


    eine sehr interessante Gegenüberstellung.

    Da frage ich mich gerade, wie ich das in PixInsight realisieren könnte

    Da gibt es ja bei Channel Combination die Möglichkeit, CIE L*a*b* auszuwählen?

    Wäre ein folgendes Vorgehen richtig (ohne jetzt auf Gradienten- oder Entrauschschritte einzugehen)?


    1) Öffne die vier Bilder LRGB.

    2) Kombiniere mit Channel Combination die RGB-Filterbilder zu einem Farbbild

    3) Wende über Channel Extraction CIE L*a*b* auf das RGB an

    4) Verwerfe das entstande Luminanzbild und behalte a* und b*

    5) Verwende Channel Combination und kombiniere über CIE L*a*b* das eigene Luminanzbild mit a* und b*


    Kann man das alles noch im linearen Zustand durchführen?

    Ich glaube mal gelesen zu haben, das CIE L*a*b* eher für den nicht linearen Abschnitt gedacht ist. Bin mir da aber nicht mehr sicher.

    Man kombiniert ja auch normal L und RGB erst nach dem Stretchen. Wäre dann das die richtige Reihenfolge?


    1) Öffne die vier Bilder LRGB.

    2) Kombiniere mit Channel Combination die RGB-Filterbilder zu einem Farbbild

    3) Stretche das RGB-Bild und das Lumionanzbild.

    4) Wende über Channel Extraction CIE L*a*b* auf das RGB an

    5) Verwerfe das entstande Luminanzbild und behalte a* und b*

    6) Verwende Channel Combination und kombiniere über CIE L*a*b* das eigene Luminanzbild mit a* und b*



    Viele Grüße


    Sebastian

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

    Einmal editiert, zuletzt von Einsteinchen ()

  • Hallo Sebastian,

    ich kenne PI nicht, ich mache das alles in Photoshop.

    Grundsätzlich ist das "CIE Lab" aber genau das, was ich meine.

    Zu welchem Zeitpunkt man das sinnvollerweise anwendet, kann ich nicht sagen. Ich würde fast vermuten, es ist egal, wann. Wichtig dabei ist, dass du die Luminanz anders behandeln kannst als die Farbe. Z.B. kannst du L etwas nachschärfen und AB (Farbe) z.B. weiter strecken, um Farbe für tiefere L Bilder zu bekommen.

    Was mir persönlich nie klar geworden ist, was macht PI dabei mit der Luminanz, die im RGB steckt. Diese ist ja nicht sehr viel wert, aber eben auch nicht nichts.

    VG ralf

  • Hallo zusammen,


    ich lese hier gespannt mit. Genau diese Vorgehensweise hab ich einfach mal in PI ausprobiert. Es geht und man bekommt am Ende ein farbiges Bild, allerdings waren bei mir selbst nach zärtlichem Strecken alle Sterne in dem Zentrum weiß geclippt und drum herum dann blau bzw. tief orange.

    Non Linear geht es also glaub ich nicht. Linear könnte ich auch noch mal ausprobieren.

  • Hallo Ralf,


    um die Luminanz der RGB nicht zu verschwenden, erzeugt man ein SuperLum.

    Dazu lädt man die vier nach dem Stacken erzeugten LRGB Bilder ins ImageIntegration Tool und erzeugt ein neues Luminanzbild, was dann auch die RGB-Anteile besitzt.

    So kann dann das SNR verbessert werden. Das normale Luminanzbild wird dann nicht weiter betrachtet.


    Ich habe gestern noch getestet und herausgefunden, dass es besser ist, das CIE L*a*b* nach dem stretchen zu machen.

    Auch habe ich das Bild mal mit dem Standard-Prozess 'LRGBCombination' verglichen. Es ist wie bei Deinem Beispiel mit dem "A". Es scheint mit CIE L*a*b* alles etwas "schärfer" zu sein,

    aber die Farben sind nicht ganz so intensiv. Dies kann man aber über EBV wieder ausgleichen.


    Viele Grüße


    Sebastian

    iOptron CEM70G Montierung

    Meade LX85 GoTo Montierung

    Lacerta Carbon Fotonewton 250/1000

    Meade Teleskop ACF-SC 203/2032 UHTC

    TS Optics Apochromatischer Refraktor AP 80/480 ED Triplet Photoline

    Nikon 2216 AF-S DX 18-300 mm Telezoomobjektiv

    Zwo ASI 294MM Pro, Zwo ASI 294MC Pro, Zwo ASI 290MM, Zwo ASI 462MC


    www.astrobasics.de

  • Hallo Sebastian,


    mit dem Konzept der "Superluminanz" habe ich bei der Deep Sky Fotografie so meine Schwierigkeiten, vor allem, wenn man fertige L, R, G und B Stacks noch einmal zu einem Luminanzbild integriert, so wie du es oben beschreibst. Denn das Ergebnis kann je nach Aufnahmeobjekt stark variieren.


    Ich denke, man kann vereinfachend voraussetzen, dass der native L-Kanal alle Photonen des Zielobjektes in korrekter Gewichtung einsammelt. Für die in den RGB Daten enthaltene Luminanz gilt das nur eingeschränkt, denn es gibt Lücken und Effizienzdellen in den Wellenlängenfenstern der RGB Filter. Da heißt zunächst, dass die L-Information des nativen L mit dem aus einem RGB extrahierten L nicht identisch sind. Noch größere Unterschiede gibt es aber zwischen den L-Informationen der gestackten R, G und B Einzelkanäle untereinander und auch zum nativen L. Die strukturellen Unterschiede bleiben auch bei Normalisierung der Integrationspartner erhalten.


    Bei der Integration von Daten mit Unterschieden schlägt dann die Statistik zu. Wenn man die Einzelkanäle mit Verfahren, die eine Ausreißereliminierung durchführen, zu seinem Super-Lum integriert, führen die vorgenannten Unterschiede in den L, R, G und B Kanälen dazu, dass echtes Signal eliminiert oder degradiert wird. Das kann man auch daran sehen, dass die rejection maps solcher Integrationen Strukturen aufweisen. Wenn man ohne Ausreißereliminierung integriert, um diesen Effekt zu vermeiden, findet eine Mittelwert-/Medianbildung statt. Und die kostet bei unterschiedlichen Daten schlicht Details. Klar, die SNR des Super-Lum ist meist höher als die der nativen Luminanz, doch ich habe das Gefühl, das kommt i. W. daher, dass in großen Teilen des Bildes in allen Kanälen ähnliche Signale vorliegen, z. B. im Sternenhintergrund. Dort wirkt sich das Konzept des Super-Lum positiv aus. Aber überall dort, wo Unterschiede in den Farbkanälen vorliegen, z. B. an Ha-Knötchen in Galaxien, die nur im Rotkanal vorhanden sind, kosten die Ausreißereliminierung und die Mittelwertbildung schlicht Struktur und Detail.


    Wenn man also eine Superluminanz bauen will, sollte man das meiner Meinung nach nicht über die Integration der gestackten Einzelkanäle angehen, weil man damit seine Details degradiert. Besser wäre es vielleicht, das L aus dem zusammengesetzten RGB zu extrahieren, mit dem nativen L verrechnen und das neu kombinierte Super-L mit L*a b mit dem a b des RGB zu einem LRGB zu verrechnen, so wie es PI in seinem LRGB Combination Prozess wohl ohnehin macht. Eine interessante Diskussion zu dem Thema findet sich übrigens hier: https://www.cloudynights.com/t…s-around-super-luminance/


    Meine Philosophie für die Verarbeitung von LRGB Aufnahmen ist, die Luminanz strikt als Träger von Licht, Struktur und Detail zu behandeln und RGB allein als Träger der Farbinformation. Deshalb verwerfe ich regelmäßig den Luminanzinhalt meiner RGB. Das gibt mit auch die Freiheit, das Belichtungsverhältnis von L und R/G/B sehr frei zu variieren, was je nach Zielobjekt große strategische Vorteile bringen kann.


    Viele Grüße

    Peter

  • Hallo Peter


    da schreibst du ja viel, wenn du die Luminanz der RGB Kanäle verwirfst verlierst du aber eigentlich information,

    die RGB Filter weisen oft Lücken zwischen den Kanälen auf, ins besondere um Natriumlicht von Beleuchtung zu eliminieren, in Anbetracht des neumodischen LED Lichtes eigentlich was aus der Zopfzeit, da fehlt denn im Gelb definitiv etwas, und wenn man auf diese Lücke angewiesen ist sollte ein künstliches L besser als das Originale sein, richtiger L Kanal geht also nur unter gutem Himmel, man kann natürlich ein IDAS Filter verwenden, das ist dann auch kein richtiger L Kanal.

    und ob es was bringt? mal krass betrachtet wird ein Halpha Bild durch ein Luminanz Bild nicht besser, hat also nicht immer Sinn.

    Am Ende zählt nur das Ergebnis und ob man es gut verarbeiten kann, Fehler rausrechnen geht für synthetischen L Kanal nicht da muss man Bilder mit Ausreißeren aussortieren


    Gruß Frank

  • Hallo Frank,


    ich habe viel geschrieben, weil ich meine Meinung gut begründen wollte. Deine Antwort zielt aber am Thema meines Beitrags vorbei. Es ging darum, ob eine Super-Luminanz, die aus gestackten L, R, G und B Daten integriert wird, vorteilhaft ist oder nicht und wenn nein, warum nicht.


    Ich bin nicht der Meinung, dass man bei einem LRGB Informationen verliert, wenn man die Luminanz der RGB Kanäle verwirft. Auch der LRGB Prozess von Pixinsight verwirft diese Informationen https://www.cloudynights.com/t…per-luminance/?p=11363650 (siehe #17)


    Deine Aussage, "richtiger L Kanal geht also nur unter gutem Himmel" stimmt so pauschal übrigens nicht. Ich fotografiere mittlerweile unter einem Bortle 5 Himmel und mein "richtiges " L ist immer besser, als die Luminanz der RGB Kanäle. Ich benötige auch keinen besonderen Filter, sondern kümmere mich gut um die Datenverarbeitung. "Richtiges L" geht also auch unter mäßigem Himmel ;).


    Viele Grüße

    Peter

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!