L-RGB Aufnahmen von Emissionsnebeln [Bildupdate]

  • Hallo Bilderfreunde


    Hier also wie schon mal angekündigt eine Vorstellung meiner neuesten Erkenntnisse bzgl. Photonensammeln an Emissionsnebeln. Durch Zufall bin ich nämlich darauf gestossen, dass die roten Nebel längst nicht alle so rot sind, sondern wir unwissentlich meistens die OIII-Linie unterbelichten und Ha-Rot so stark überbewerten!


    Bei meinen ersten Tests einer unmodifizerten 450D wollte mir der Nordamerikanebel einfach nicht so einheitlich rot werden wie ich das ebenfalls gewöhnt bin. Im Gegenteil, das Ha-Rot schien höchstens in den Regionen des "Cygnus wall" vorzuherrschen. Ansonsten dominiert eher das typische Blaugrün der OIII-Emissionslinie, was im Endresultat in etwa so rauskommt (Kombination mit Aufnahmen von DSLR und SW-CCD, Beschreibung folgt später):




    <center></center>




    Die Frage nach dem warum brachten bald sehr ähnliche Ergebnisse anderer Amateure zutage, wie z.B. hier:


    http://www.pbase.com/kvwood/image/109938360/large


    http://www.telescopes.cc/ngc7000-the-wall.htm


    Was steckt denn nun dahinter? Man muss bei Aufnahmen von Emissionsnebeln beachten, dass man evtl. unterschiedliche Transmission in den vorherrschenden OIII- und Ha-Linien bereits im RGB ausgleicht. Denn gleich lang belichtete R,G,B-Kanäle ergeben zwar ausgewogene Sternfarben, damit müssen aber die Emissionslinien nicht automatisch ebenfalls gleich stark belichtet sein. Vergleicht dazu die Durchlasskurven für Ha und OIII (dunkelgrüne Linien bei 500nm und 656nm) der aktuellen Astronomik CCD-Filter:


    http://www.astronomik.com/de/l…b_transmissionskurve.html


    Ja hallo (sagte es bei mir), Ha hat zwar 95% Durchlass mit CCD-Rot, aber OIII nur ca. 60% mit CCD-Grün und ca. 40% mit CCD-Blau! Die OIII-Linie unterbelichtet man also massiv bei gleicher Belichtungszeit in allen drei Farbkanälen, und das erklärt die typische Ha-Dominanz beim RGB zusammensetzen! Sööne Seeise, wäre man geneigt zu sagen, denn die schlechte OIII-Transmission kann man eigentlich nur durch nachbelichten mit CCD-OIII und dessen ADDITION in den Grün- und Blaukanal ausgleichen. Mit stark unterschiedlicher Gewichtung der R,G,B-Kanäle erzeugt man ein Ungleichgewicht in den Sternfarben, und das möchte man ja auch nicht.


    Die ganze Geschichte hat aber noch eine zusätzliche Dimension: Der QE-Verlauf über das visuelle Spektrum ist für einige Sensoren keinsfalls schön konstant. Ein unschönes Beispiel ist da z.B. der von mir ebenfalls oft verwendete Kodak KAI 4020(-21-22)M:


    http://www.bitran.co.jp/ccd/character/KAI4020M.gif


    Wunderbar, wie Ha bei 656nm mit nur 30% QE so schlecht dasteht gegenüber OIII bei 500nm und 55% QE! Nimmt man Emissionsnebel-Luminanzen auf mit diesem Sensor, erzeugt man also eine massive Ha-Unterbelichtung und das muss ausgeglichen werden. Man darf also hier IMMER zusätzlich mit CCD-Ha aufnehmen und in die Luminanz reinaddieren!


    Ein solches Resultat der konsequenten Anwendung dieser Erkenntnisse ist eingangs gezeigter Nordamerikanebel. Aus früheren Aufnahmeserien konnte ich ein weiteres Paket gebrauchen für einen Test, und das ist das Ergebnis:




    <center></center>




    Auch wenn nicht ganz ungewohnt (Ha scheint im Pacman zu dominieren), finde ich das doch ein sehr reizvolles Ergebnis!


    Hoffe euch nicht gelangweilt zu haben mit meinen Ausführungen, und bitte ungeniert nachfragen wo ich unklar oder unverständlich bin. Natürlich interessiert mich besonders die Meinung der sehr Erfahrenen im Forum. Oder vielleicht hat da der eine oder andere sogar selber einen Datensatz zum probieren? Ein wenig Gewichtung verträgt es nämlich schon ... [:)]


    Viele Grüsse
    Jan

  • Hallo Jan.


    Toller Bericht. Die Theoretisierung des Photonensammelns ist finde ich eine wichtige Sache genau wie die Frage mit Kurt´s Polystrehl und den sich daraus ergebenden Fragen und erforderlichen Schlussfolgerungen. Jeder wendet zumeist seine eigene Theorie an und versucht mit der Bildbearbeitung dann ein aus eigener Sicht ästethisches oder anderen Bildern im Internet so nahe wie möglich ähnliches Ergebnis zu erzeugen. Solche Dinge finde ich kommen bisher etwas kurz in den Diskussionen zwischen Anwendern.
    Deine Betrachtungsweise finde ich korrekt, wenn man ein Foto machen möchte welches der Realität so nah wie möglich kommt muss man dafür sorgen, dass in allen Kanälen die gleiche Anzahl Photonen gesammelt werden. Dazu ist natürlich die Empfindlichkeit der Chips und die Transmissionskurven der Filter zu berücksichtigen, nur gleich lang belichten erfüllt nicht diese Anforderung.
    Ich finde bei RGB oder L-RGB sollte man Deinen Vorschlägen folgen und ein möglichst realistisches Bild erzeugen durch eine passende Belichtung. Bei Schmalband hat das fertige Bild ohnehin nichts mit der Realität zu tun, zumindest hinsichtlich der verwendeten und zugeordneten Farben. Aber in diesem Fall ist es meiner Meinung nach eine ästethische Frage die jeder für sich selbst beantworten muss: Was gefällt und was nicht.


    Viele liebe Grüße


    Peter

  • Hallo Jan,


    Ein ganz hervorragender Bericht. Ich habe mich schon immer gefragt wo der Grünanteil z.B. vom Nordamerikanebel bleibt. Auf Fotos erscheint er immer Ha-Rot, aber jeder visuelle Beobachter weiß, dass er im grünen OIII-Bereich auch sehr lichtstark ist. Warum sonst ist er im September in klaren Nächten mit unbewaffnetem Auge zu sehen?


    Ich frage mich, was DSLR-Fotografen tun können um das Problem anzugehen? Du sagtest ja selbst schon, dass mit einer unmodifizierten Kamera der Nebel andere Farben annimmt. Offen gesagt finde ich, das von Dir präsentierte Bild des "Golfes von Mexico" gibt den visuellen Eindruck wesentlich besser wieder als alle Ha-Bilder die ich kenne.


    Meine 1000D ist ja noch nicht modifiziert. Ich werde, wenn es endlich nachts dunkel wird, auch mal den Nordamerikanebel ins Visier nehmen. Mal schauen was dabei dann heraus kommt.


    Bis dann:
    Marcus

    16" f/4 Dobson, 6" f/5 Dobson, C8, 60/360 Apo, 70/700 PST-Mod "Sunlux"


    Zeige mir einen Dobson und ich zeige Dir eine Baustelle

  • Hallo Peter,


    vielen Dank für Deine Rückmeldung! Manchmal ist man ja schon auf dem Holzweg und merkt es erst, wenn es einem gesagt wird ... ich hab jetzt mal bewusst die Ästhetik soweit als möglich beiseite gelassen. Natürlich fliesst sie aber unweigerlich in die finale Bearbeitung ein.


    Viele möchten ja mit Schmalbandaufnahmen den enormen Kontrastumfang und Detailreichtum nutzen. Mein bisheriger Eindruck mit z.B. Ha in die Luminanz addieren ist, dass da dasselbe passiert. Man merkt zwar davon kaum was in der Luminanz, aber bei der Kombination von L und ebenfalls ausgeglichenem RGB ist der Unterschied riesig. Ich frage mich, was passieren würde mit reinaddieren einer doppelten Menge von reinem Ha und OIII ins L und RGB! Das wäre wohl mal ein Versuch wert ...



    Hallo Marcus,


    auch Dir herzlichen Dank für Deine Rückmeldung. Wie das mit der DSLR geht, hab ich bewusst vorerst weggelassen. Hier müssen wir ebenfalls zuerst die spektrale Empfindlichkeit einer DSLR studieren. Christian Buil hat hierzu einen hervorragenden Bericht mit gut lesbaren Diagrammen erstellen können (für die Diagramme etwas runterscrollen):


    http://www.astrosurf.com/~buil/50d/test.htm


    Die 1000D bzw. meine 450D wurde zwar nicht untersucht, aber wir können davon ausgehen dass unsere Kameras sehr ähnliche Kurvenverläufe aufweisen wie die 40D. Fig. 4, linkes Diagramm, zeigt sehr eindrücklich die Ha-Unempfindlichkeit ohne Modifikation. Trotz dieses für Astro ungünstigen Kurvenverlaufs hat mich die hervorragende Sternfarbenwiedergabe der unmodifizierten DSLR sofort begeistert. Für genügend Ha braucht es aber sowieso ein reinaddieren von reinem Ha (so habe ich es gemacht für NGC7000) oder die Modifikation. So erreicht man ca. 25% QE für Ha.


    Wie sieht es aber für OIII aus? Schau genau im Diagramm links von Fig.4 (Achtung Titel oben!) bei 5000A, da zeigt der Blaukanal eine QE von ca. 20% und der Grünkanal ca. 30%. Im Blaukanal ist also OIII unterbelichtet; entweder man addiert zusätzlich belichtetes OIII oder gewichtet den Blaukanal mit 1.3 bis 1.5, was nach meinen Versuchen an obigem Beispiel die Sternfarben kaum beeinflusst hat. Der kleinere Unterschied zwischen Rotkanal-Ha aus Modifizierung und Grünkanal-OIII kann ebenfalls durch leichte Gewichtung ausgeglichen werden.


    Viele Grüsse
    Jan

  • Hallo Jan,


    ich verstehe nicht ganz worauf du hinaus willst. Redest du nun von RGB Fotografie mit DSLRs oder CCD-RGB. Oder willst du Schmalbandaufnahmen mit der SW CCD machen, oder RGB mit H Alpha darunter? Mir erschliesst sich aus deinem Post nicht ganz was du sagen willst.


    Emmissionsnebel müssen nicht einheitlich Rot sein. Das dem so sein soll stammt wohl noch aus der Fotografie mit Farbdiafilm. Da waren alle Nebel knackig Rot. Die CCD Technik (und damit meine ich jetzt auch mal DSLRs) eröffnet einem viel mehr Möglichkeiten.


    NGC 7000 erscheint auf einer ausgewogenen RGB Aufnahme (egal ob DSLR oder CCD) Lachsfarben ausser die Great Wall die eher Orangerot erscheint. Warum das so ist sieht man auf den Schmalband Aufnahmen. Der NGC7000 leuchtet deutlich im OIII Bereich und auf solchen Aufnahmen ist er deshalb blau.


    Auf meiner Homepage ist der Affenkopfnebel, hier ist es das gleiche. Schau mal die verschiedenen Rottöne an die du in dem Bild siehst (Rot,Lachsrot und Karottenrot) und vergleiche damit eine Schmalbandaufnahme. Dann weisst du warum das so ist.


    Kurzum: DSLR Aufnahmen oder CCD RGBs einfach Farbkalibrieren (B-V Kalibrierung mit REGIM o.ä.) und schon haste deine verschiedenen Farbtöne. Und Finger Weg von den Farbreglern.


    LG Frank

  • Hallo zusammen.


    Jan´s Aufnahme ist die erste Schmalbandaufnahme die ich sehe mit weißen Sternen. Sonst sind die Sterne immer rot mit starken roten Höfen. Dies deutet wie Jan sagt auf eine Übergewichtung des roten Kanals ( H-Alpha ) hin. Klar ist aber, eine Schmalbandaufnahme setzt man aus 3 Einzelkanälen zusammen, also Rot-Grün-Blau, man erhält also genau genommen ein RGB Bild.
    Nun ist es aber auch klar, dass H-Alpha bei 656nm im roten Spektrum aufgenommen wird, da passt also die Zuordnung zum roten Kanal. Der SII Kanal wird bei 672nm aufgenommen, das ist auch im roten Spektrum. Dem wird aber nun z.B. der blaue Kanal zugeordnet. OIII ist bei 500nm also bei blaugrün aufgenommen, dem wird z.B. der grüne Kanal zugeordnet. Man bekommt schon gewissermaßen ein RGB Bild heraus, aber es fehlen ganz klar Farbinformationen weil große Bereiche des Farbspektrums nicht belichtet worden sind und es wurden im fertigen Bild zumindest 2 Kanälen falsche Farben zugeordnet. Unter dieser Betrachtungsweise kann das fertige Schmalbandbild keine weißen Sterne haben.
    Bei einer normalen RGB oder L-RGB Aufnahme ist das anders: da nimmt man das ganze Spektrum auf und bekommt somit auch weiße Sterne.


    Also korrigiere ich mich: ich glaube nicht dass Jan´s Aufnahme oben eine korrekte Farbwiedergabe zeigt. Die Theorie von Jan ist aber trotzdem korrekt, die QE bzw. die Transmissionen der Filter könnten bei der Belichtungszeit mehr beachtet werden. Das macht aber zumindest der RGB Fotograf doch automatisch: er dreht solange an den Reglern bis er weiße Sterne hat. Damit korrigiert er bei der Bildbearbeitung die vielleicht nicht gleiche Photonenmenge der Einzelkanäle. Anders bei Schmalband: Da hat man für die Gewichtung keine Anhaltspunkte und sollte nach Jan´s Methode vorgehen.


    P.S.: Eine Rückfrage bei der Fa. Astronomik, Hr. Gerd Neumann ergab, dass die 12nm Schmalbandfilter aus seiner Produktion nahezu identische Transmissionswerte aufweisen, so ein paar % hoch oder runter. Er wird in Zukunft auch einen Service anbieten dass man für einen Aufpreis die exakte Transmission seines Filters vermessen und mitgeteilt bekommt.


    In diesem Zusammenhang müssen aber auch Kurt´s Polystrehlkurven und Messergebnisse einer Optik Beachtung finden: Wenn man die gleiche Menge Photonen sammeln möchte haben die Eigenschaften der Optik auch einen starken Einfluss, man kann nicht nur QE des Chips und die Filter betrachten. Bei Kurt´s Messungen war klar zu sehen dass es Optiken gibt ( Linsen natürlich ) die speziell im roten Spektralbereich vom Strehl her stark abfallen. Dadurch werden die abgebildeten Durchmesser der Sterne stark aufgebläht, was das End-Ergebnis beeinflusst. Das sagt uns, dass zwei unterschiedliche Linsen-Optiken selbst bei exakter Beachtung von Jan´s QE- und Transmissionsbeachtung und der gleichen Kamera unterschiedliche Fotos produzieren werden. Ich arbeite hier am Beweis, das wird noch etwas dauern weil z.Z. kine Zeit, aber ist angedacht. Fotos mit gleicher Kamera, gleichen Filtern, gleichen Belichtungszeiten durch unterschiedliche vermessene Linsenoptiken mit bekannten Polystrehlkurven. Da bin ich mal gespannt drauf ob sich da die Theorie bestätigt.


    Frage am Rande: Was kommt denn für eine Farbe raus wenn man 656nm, 672nm und 500nm bei einer Bandbreite von je 12 nm gleich gewichtet nach der Hubble Palette zugeordnet zusammenmischt ? Hat das schon mal jemand geprüft ?



    Gruß


    Peter

  • Hallo


    das ist schon klar das wenn man den Blausaum um die Sterne in einen Grünsaum umwandelt die Nebel grün werden. Wenn das Teleskop tatsächlich eienen Grünsaum hat wäre es noch schlechter wie ein Frauenhofer, kannst du dir jetzt aussuchen ob du einfach Mist Farbbearbeitung gemacht hast oder der Pentax Mist ist. Spaß beiseite.
    Es wird visuell empfohlen NGC7000 mit H-betha Filter zu beobauchten, von O3 steht da nichts, die Farbechtheit würde mit vollständigem Filtersatz vielleicht besser, aber allein an der Filterenmpfehlung sieht man das blau doch Stärker wie blaugrün ist, selbst wenn alle Anteile gleich stark sind wäre Rot+ blau+Blaugrün immer noch am meisten blau keinesfalls grün.
    ich wüsste auch nicht wozu wenn man dem visuellem Sehen nahe kommen will 672nm verwendet werden sollen.


    Das mit dem kalibrieren nach den Sternen setzt voraus das die Sternfarben bekannt sind, da gibt es schon teilweise Unterschiede in den Katalogen die nur fotografische erstellt sind, müsste man eher spektroskopisch bestimmte Sternfarben ranziehen, das dürfte aber eher selten möglich sein.


    Gruß Frank

  • Hallo Jan.


    Durch welche Optik und mit welcher Kamera hast Du das Bild aufgenommen ?


    Frank: Das Auge ist im Grünen am empfindlichsten, daher wohl die Empfehlung zum H-Beta Filter. Fotografisch ist das aber was anderes, da kann man meiner Meinung nach nicht zwingend auf die tatsächlichen Nebelfarben aufgrund dieser Empfehlung schließen.


    Grüße


    Peter

  • Hallo Frank, Hallo Peter


    Ich bin mir auch nicht sicher, ob ich es umfassend und richtig verstehe. Ziel war es jedenfalls nicht, Schmalbandaufnahmen 'korrekt' einzufärben, sondern Schmalband lediglich als Ergänzung bei fehlender Belichtung zu verwenden. Und das sollte nach meinen neusten Erkenntnissen nicht nur in der Luminanz, sondern auch konsequent im RGB gemacht werden. Obige Resultate sind keine Schmalbandaufnahmen!


    Die Rot- oder Ha-Schwäche von Luminanzen gewonnen mit den Kodak-Sensoren KAI-11002M und 4022M ist ja nichts unbekanntes, viele gleichen das aus mit Ha- oder Rotkanal-Addition. Frank, belichte ich z.B. 10min mit dem KAI4022M, hab ich zwar OIII bei 55% QE aufgenommen, aber Ha mit nur 30% QE! Weil fast halb so empfindlich, belichte ich also zusätzlich 9min Schmalband-Ha und addiere die Belichtungsinformation auf die Luminanz.


    Das macht aber für die L-RGB Kombination nur dann Sinn, wenn auch im RGB derselbe Ausgleich gemacht wird. Und das hab ich eingangs versucht so klar wie möglich am Beispiel der Astronomikfilter aufzuzeigen.
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">NGC 7000 erscheint auf einer ausgewogenen RGB Aufnahme (egal ob DSLR oder CCD) Lachsfarben ausser die Great Wall die eher Orangerot erscheint. Warum das so ist sieht man auf den Schmalband Aufnahmen. Der NGC7000 leuchtet deutlich im OIII Bereich und auf solchen Aufnahmen ist er deshalb blau.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Da hab ich heute ein anderes Verständnis! Vielleicht entscheidend dabei ist, dass die Emissionslinien keine Mischfarben produzieren bei korrektem Ausgleich im RGB. Wo Ha vorherrscht, ist es rot und wo OIII ist es blaugrün. Man erhält dasselbe Resultat bei der Zuweisung von korrekt belichtetem Ha zu rot und OIII in gleicher Menge zu Blau und Grün!


    Peter: "Das macht aber zumindest der RGB Fotograf doch automatisch: er dreht solange an den Reglern bis er weiße Sterne hat. Damit korrigiert er bei der Bildbearbeitung die vielleicht nicht gleiche Photonenmenge der Einzelkanäle." Nein, eben nicht; man kann nicht gleichzeitig unterschiedliche RGB- und Ha/OIII-Ungleichgewichte ausgleichen! Und das hab ich ja gerade zeigen wollen anhand der Astronomik-Filter, wo man für OIII faktisch einen Faktor 2 unterbelichtet aber korrekt für die Sternfarben.


    Bitte mich nicht missverstehen, es geht mir nicht primär um eine korrekte Farbdarstellung, das kann auch niemand von uns abschliessend sagen weil wir nicht da waren. Ich wollte jedoch wenigstens mit korrekten Belichtungen eine unvoreingenommene L-RGB Kombination ermöglichen. Die Frage ist einfach, funktioniert das auch so?


    Viele Grüsse [:)]
    Jan

  • Hallo Jan.


    Aha, danke für die Klarstellung. Dann hatte ich Dich falsch verstanden. So wie Du das nun erklärt habe ich das nun verstanden. Du möchtest anregen, dass jede Kanalaufnahme über den damit abgebildeten Spektralbereich in allen darin enthaltenen einzelnen Spektralfarben nahezu die gleiche Photonenmenge hat.
    Wenn Du mal nachliest in Kurt´s Beitrag zu den 8 APO´s vor dem Interferrometer hatte ich schon dort auf ähnliche Umstände hingewiesen, allerdings in anderem Zusammenhang indem ich mich beim Studium von Kurt´s Messungen fragte, wie man mit diesen APO´s scharfe Luminanzaufnahmen oder Blauaufnahmen gewinnen will. Bedingt durch die unterschiedlichen Schnittweiten über den Spektralbereich kann man bei einigen der vermessenen APO´s in Luminanz oder Blau nur auf einen Punkt in der Filterbandbreite scharf stellen, die anderen Spektralfarben der Bandbreite sind unscharf und versauen die erhoffte Schärfe im Bild. Kann bei einigen der getesteten APO´s gar nicht funktionieren. Die unterschiedliche Durchlässigkeit der Atmosphäre für die einzelnen Farben kommt da auch noch erschwerend hinzu.


    Du hast im Prinzip diesen ohnehin schon schlimmen Effekt der gemessenen Apo´s nun auf die QE der Digitalkameras erweitert. Ein logischer und nachvollziehbarer Schluss den ich auch schon hatte.


    Auch wenn ich mit meiner Schnittweiten-Luminanz-Meinung immer noch alleine da stehe...



    Gruß


    Peter

  • Hallo Peter


    Aufgenommen wurde die NGC7000-Region mit Pentax/Vixen-Refraktoren und der Pacman mit einem STF 180mm bei F/10. Kameras waren meine beiden Bitran (BJ-41L und BJ-42L) sowie eine 450D.


    Grüsse
    Jan


    Edit: Die Schnittweiten-Luminanz werd ich genauer studieren!

  • Hallo


    habe mir auch mal die Linien vom Kai2001 gerade angesehen, interessant ist der Farbchip, lässt doch tatsächlich der Filter der grünen Pixel oberhalb 690nm wieder Licht durch und verkauft rot als grün. Jetzt heist aes also nicht nur die Effezeniz je Farbe des Chips auszugleichen sondern auch noch die Filterkuven zu kontrolieren.
    Die recht Linear abfallende Effizenz müsste sich doch durch einfache Multiplikation besser korrigieren lassen, noch besser sicher wenn man wegen der SNR die Farben mit geringer Quanteneffizenz einfach entsprechen länger belichtet?


    funktioniert das auch so? die grünen Farbsäume um die Sterne gefallen mir wirklich nicht, vielleicht wäre es einfacher zB. Albireo zu fotografieren, das kann man direkt nachprüfen.


    Wen ich das richtig verstanden habe suchst du eine Möglichkeit durch systematisches Vorgehen möglichst nah dem farblichem Endziel zu kommen, das kann man machen. müsste man nicht eigentlich bei 55% grün und 30% rot einfach rot ca. 1,9x solang belichten?


    Gruß Frank

  • Hallo Jan und Frank.


    Bitte lest noch mal meinen vorherigen Beitrag, ich habe da noch was genauer formuliert.


    Frank: So einfach mit mehr belichten ist das nicht. Wie oben geschrieben kommt die Schnittweitenfrage der Optik dazu und die unterschiedliche Durchlässigkeit der Atmosphäre für die einzelnen Farben. Außerdem noch wie Gerd völlig zu recht einwarf die unterschiedliche Größe des abgebildeten Sternscheibchens bedingt durch längere ( rote ) oder kürzere ( blaue ) Farben. Da wird auch mehr oder weniger Quanten-Energie in den gleich großen Pixeln der Kamera verteilt, das müsste auch Berücksichtigt werden.


    P.S.: Seeing in dem Zusammenhang auch nicht vergessen, Horizonthöhe bei den Aufnahme auch nicht wegen unterschiedlicher Absorption der Einzelfarben je nachdem durch wieviel Atmosphäre man fotografiert. Usw.usw. Da wird man nicht fertig.


    Da ist meiner Meinung nach noch viel mehr drin was sich auswirkt. Lest mal Kurt´s Beitrag und die Debatte darin, die lief in diese Richtung.


    Gruß


    Peter

  • Hallo Beisammen,


    Beim LRGB Mischen tritt eine Farbverschiebung auf, die zu den Lachs-farbigen Nebeln fuehrt. Das ist bei reinen RGB Aufnahmen nicht so. Darueber hat Chris Schur auf der AIC 2006 Konferenz einen Vortrag gehalten. Da ist auch die notwendige Korrektur angegeben.


    http://www.aicccd.com/archive/…he_color_right-cschur.pdf


    Bei reinem RGB solte man der Anleitung von Bernhard Hubl folgen, der den 'Weissabgleich' mit Standardsternen macht, die im Bild enthalten sind.


    http://www.astrophoton.com/tips/B-V_Farbkalibrierung.pdf


    Clear Skies,
    Gert


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: frasax</i>
    ...
    NGC 7000 erscheint auf einer ausgewogenen RGB Aufnahme (egal ob DSLR oder CCD) Lachsfarben ausser die Great Wall die eher Orangerot erscheint. ...
    LG Frank
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">

  • Hallo Peter,


    ich werd das genauer studieren, versprochen! Ich habe da nämlich zu grosse Unterschiede zwischen verschiedenen Teleskopen bei gleich belichtetem RGB-Verhältnis festgestellt ...


    Hallo Frank,


    ja das macht man auch! So belichte ich mit dem KAI4021M und Astronomik CCD-Filter R,G,B im Verhältnis 10:7:7 für möglichst gute Sternfarben. Aber für Ha und OIII sieht das leider anders aus ... jetz muss ich leider weg!


    Bis später
    Jan

  • Hallo Jan und andere,


    ich verstehe die Diskussion ehrlich gesagt immer noch nicht.


    L(Ha oder was auch immer) RGB ist eine verbreitete Technik um Emissionsnebel (natürlich nur Wasserstoffnebel) kontrastreicher darzustellen. Es ist Geschmacksache ich mag diese Technik überhaupt nicht. Wer sie anwendet wird aber das Problem haben die Gewichtung des H Alpha so zu wählen das das Bild dem RGB Eindruck nahe kommt. Habe bisher ganz wenige Aufnahmen gesehen wo dieses für meinen Geschmack gelungen ist.


    Warum es die Hubble Palette überhaupt gibt, was die Vorteile sind etc, darüber weiß ich zu wenig werde das aber rausfinden. Tatsache ist: Die Schmalbandigen Aufnahmen werden verschiedenen Farbbereichen zugeordnet. Das ist Definitionssache. Mit der Realität hat das nur sehr wenig zu tun. Diese Technik hat ihre Vorteile und ist En Vogue aber eine Farbechtheit zu erwarten wäre völlig falsch gedacht. Die Gründe hat Peter oben erwähnt.


    RGB Aufnahmen mit CCDs: Hier muss man sehr viele Aspekte beachten. Quanteneffizienz, Durchlässigkeit der Kurven, Extinktion der Atmosphäre, Farbverhalten der Linsen im System u.v.m. Die optimalen Belichtungszeiten können errechnet werden. Nicht selten heben sich die Effekte gegenseitig aus und man kommt mit 1:1:1 wieder hin. Ansonsten, und das ist absolut nichts unübliches, belichtet man halt einen Filter länger.
    Ein Punkt sind ja noch die Luminanzaufnahmen. Die sind oft tiefer als die Farbaufnahmen was wieder zu Problemen führt.


    Bayermatrix Aufnahmen: Da gibt es nicht viel zu rütteln. Die Bayermatrix ist so ausgelegt das der Farbeindruck dem menschlichen Sehen entspricht. Sprich mit einer Gewichtung ins Grün hinein (Bayerpattern der Canons ist Grün,Rot,Blau;Grün). Am Nachthimmel kann ich also in etwa erwarten das der Farbeindruck der des natürlichen Sehens entspricht. In der Realität ist es komplexer. Ein Weißabgleich ist nachts auch nicht möglich also muß ich den Weißabgleich an einem G2 Stern machen. Mehr kann ich nicht tun.


    Jan so wie ich das verstehe willst du Bayermatrix Farbaufnahmen "anfüttern" mit Schmalbandaufnahmen? Mit Verlaub aber ich glaube das ergibt wenig Sinn (siehe Post von Peter betreffend der Wellenlängen). Deine Ergebnisse schauen farblich auch nicht so aus wie die breite Masse es erwarten würde. Wer will schon nen grünen NGC7000:-) Und wissenschaftlich korrekt ist es auch nicht. Also ich weiß nicht vielleicht verstehe ich es einfach nicht aber die Diskussion ergibt für mich keinen Sinn.


    LG Frank

  • Hallo
    Bei Schmalband Aufnahmen und deren Darstellung in der HST Palette geht es ja primär nur darum die unterschiedliche Verteilung und Anregung verschiedener Elemente im Nebel sichtbar zu machen. Dummerweise hat jedes Element mehrere Linien. Zudem fehlen jede Menge Elemente. Ein Zumischen zu den RGB Kanälen macht aus meiner Sicht keinen Sinn. Dann lieber in HST Reinform. Das sieht zwar eigenarig aus, macht aber jede Menge Spaß. Aber auch das hat mit der Realität wenig zu tun. Obwohl Ha und S2 nahe beieinander liegt muß man S2 deutlich länger belichten damit überhaupt was auf dem Chip ist.
    CS Karl

  • Hallo Frank
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Jan so wie ich das verstehe willst du Bayermatrix Farbaufnahmen "anfüttern" mit Schmalbandaufnahmen?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Nö. Das hab ich nur einmal versuchsweise probiert. Die gleichen Schmalbandaufnahmen kann ich jedoch in eine Luminanz und in die Farbkanäle von SW-CCD reinaddieren.
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Deine Ergebnisse schauen farblich auch nicht so aus wie die breite Masse es erwarten würde. Wer will schon nen grünen NGC7000:-) Und wissenschaftlich korrekt ist es auch nicht. Also ich weiß nicht vielleicht verstehe ich es einfach nicht aber die Diskussion ergibt für mich keinen Sinn.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Wenn ich so denken würde wie Du, würde mir diese Diskussion auch sinnlos erscheinen ... [B)]


    Grüsse
    Jan

  • Hallo


    wenn man dann Schmalband untermischen will, sollte man es so machen das es nur Details kontrastverstärkt ohne das gewicht des Kanales zu beeinflussen. Mit Halpha und rot gehst das noch ganz niedlich, das Blaugrün von O3 zu gleichen Teilen blau und grün beizumischen, könnte dem Farbkontrsat schaden, das gestaltet sich wohl komplizierter, geht vielleicht über multiplikation, so würde wo nichts ist auch nichts dazukommen?


    Gruß Frank

  • Hallo Karl,


    es geht mir hier wirklich nicht um Schmalbandaufnahmen und deren Colorierung!
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ein Zumischen zu den RGB Kanälen macht aus meiner Sicht keinen Sinn.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Ja das sehe ich im Prinzip auch so. Nur besteht z.B. in einem im richtigen Verhältnis zu Grün und Rot belichteten Blaukanal das Problem (mit Astronomikfilter), dass OIII gegenüber Ha stark unterbellichtet ist, weil der Filter da nur ca. 40% Transmission aufweist! Unter dem Aspekt ist reinaddieren von OIII ideal, man produziert nicht alles blaue Sterne im RGB.


    Grüsse
    Jan

  • Hallo Frank,
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">das Blaugrün von O3 zu gleichen Teilen blau und grün beizumischen, könnte dem Farbkontrsat schaden, das gestaltet sich wohl komplizierter, geht vielleicht über multiplikation, so würde wo nichts ist auch nichts dazukommen?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Genau das muss beachtet werden, da würde ich einen möglichst schmalbandigen OIII-Filter verwenden. Allerdings hab ich den Blaukanal versuchsweise mal mit 1.5 multipliziert und war erstaunt, dass davon kaum was bei den Sternfarben zu bemerken war ...


    Grüsse
    Jan

  • Hallo Jan
    Ich habe mir die Filterkurven der Astronomik Filter angesehen. Beide O3 Linien scheinen, wenn man es mit der relativen Intensität der Emissionslinien vergleicht,recht realistisch wiedergegeben. Überhaupt ist das eigentlich interessante an den Nebeln der Staub. Erst dieser gibt den Nebeln den Chrakter. Sonst würde man eher ziemlich konturlose Farbklekse abbilden.
    Gruß Karl

  • Hallo Jan und andere,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Wenn ich so denken würde wie Du, würde mir diese Diskussion auch sinnlos erscheinen ...
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Vielleicht sind meine Postings etwas missverständlich oder klingen Arrogant. Das soll so nicht sein, ich diskutiere hier mit weil mich das Thema sehr interessiert. Und ich halte es für sehr Sinnvoll darüber zu diskutieren. Ich denke nur etwas anders wie du eben festgestellt hast:-)


    Ich denke das die weiter oben von mir angesprochenen Methoden sich entwickelt haben auf Grund von Erfahrungen. Sicher gabs schon Leute vor mir und dir die experimentiert haben und nach einer gewissen Zeit haben sich eben diese Methoden entwickelt.


    Ich denke es ist so das sich die etablierten Methoden deshalb etabliert haben weil sie einen sehr guten Kompromiss darstellen.


    Bsp.: LRGB ist deswegen so beliebt weil der L Kanal es erlaubt sehr tief zu belichten. Grund dafür ist wenn ich es richtig verstehe die Durchlässigkeit des L Filters gegenüber den RGB Filtern (er blockt nur UV und IR). Man könnte auch ganz auf einen L Filter verzichten dann würde das Bild aber noch unschärfer werden als es ohnehin schon wird.
    Also der Kompromiss ist Tiefe erkauft mit unschärfe.


    HAlpha RGB wird also wohl aus der Überlegung entstanden sein das Objekt der Begierde (Emissionsnebel die zu einem großen Teil in Wasserstofflich leuchten) knackiger ab zu lichten. Nachteil: lange Belichtungszeiten für H Alpha und eben die Farbgebung. Ich denke andere Methoden haben sich einfach nicht durchgesetzt.


    Man sollte ja auch im Hinterkopf behalten für was man Belichtungszeit investieren will. Für Schärfe oder Tiefe. Schärfe kann man im Zweifelsfall etwas durch BB kaschieren (gängige Praxis ist es den L Kanal zu schärfen), tiefe schafft das tollste Programm nicht. I go for the Tiefe:-) Oder ich mache gleich Schmalband (finde ich mittlerweile sehr ästhetisch) da spar ich wieder Belichtungszeit weil es kein L gibt sondern nur die drei Farbkanäle.


    Also bitte meine Posts nicht falsch verstehen. Ich finde das Thema sehr interessant und bin interessiert was es so für Überlegungen gibt. Will nur ein bisschen dazu beitragen.


    CS und LG Frank


    P.S. (==&gt;) Gerd: Wir haben aneinander vorbei geredet. Diese Lachsfarben die auf Grund des zumischen von H Alpha entsteht meine ich nicht. Ich rede von DSLR Bildern, da gibt es auch unterschiedliche Rottöne. Und NGC7000 erscheint gerne etwas bläulich. Ich meine wegen des OIII Anteisl, lasse mich aber gerne eines besseren belehren. Schönen Gruß.

  • Hallo


    ich denke jan wird erst mal am Kontrast rumbasteln und dann erst an den Farben.
    Das wohl merkwürdigste sind übrigens M27 und M1
    M27 mit CCD und RGB Filtern meist grün mit Farbkamera meist blau
    M1 hat um den Kern eine wilde Mischung von Rot grün und blau zu annäherd gleichen Teilen, das resultierende weis will keiner wahr haben da es den Farbkontrast ungemein schmälert, was ist nun Kunst und was ist wirklich?
    Denn N7000 machen DSLRs eigentlich gerne bläulich, ob es da Parallelen zu M27 gibt?


    Gruß Frank

  • Hallo Karl,
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Beide O3 Linien scheinen, wenn man es mit der relativen Intensität der Emissionslinien vergleicht,recht realistisch wiedergegeben.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    jetzt verstehe ich Deine Aussage nicht. Die zwei OIII-Linien liegen ja nur 5nm auseinander. Nach meinem Verständnis kennt man die Intensitäten von beiden OIII und Ha nicht, ich möchte sie jedoch mit der gleichen Belichtungszeit aufnehmen. Und hier bestimmen Filtertransmission und Sensor-QE für diese Wellenlängen, wie lange die einzelnen Bänder belichtet werden sollen. So gesehen sind die Astronomik RGB-Filter zu ungunsten von beiden OIII.


    Grüsse
    Jan

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!