2 Kameras für LRGB-Fotos kombinieren?

  • Moin zusammen,
    auf der Jagd nach mehr Auflösung überlege ich, mir die neue Atik Horizon Mono zu kaufen. Da ich sonst immer nur mit meiner DSLR fotografiere, ist die SW/Schmalbandfotografie sowie die damit einhergehende Bildbearbeitung Neuland für mich. Ich stelle mir z.B. die Frage, ob nicht einfach mit meiner Sony A7a weiterhin RGB-Aufnahmen von H-ALpha Gebieten machen kann und mit der Atik dann durch einen schon vorhandenen Baader H-Alpha Filter (7NM)ebenfalls Aufnahmen mache, diese dann ganz normal stacke und mit dem Summenbild der Sony in PS kombiniere. Dann müsste ich mir nicht noch extra RGB Filter kaufen und würde wohl auch Zeit sparen?!
    Brauche ich für die Atik noch einen UV/IR-Cut Filter? Wenn ja, wie kombiniert man diesen von der Adaption her mit anderen Filtern? Oder ist so ein UV/IR-Cut Filter der so genannte Luminanzfilter? Wenn es nun doch RGB Filter sein müssen/sollten: Gibt es eine Faustregel für das Verhältnis der Belichtungszeit der einzelnen Kanäle? z.B. Luminanz doppelt so lange wie jeweils RGB oder so?
    Danke für die Aufklärung!
    VG Martin

  • Hallo Martin,


    vielleicht kann ich ein wenig beitragen, da ich schon seit einiger Zeit DSLR und SW-CCD kombiniere. Aus SW-Luminanzen (korrekt, am besten mit Baader CCD L, weil der mit 420-680nm kritische Unschaerfebereiche unterdrueckt) und RGB von DSLR koennen bestens L-RGB erstellt werden. Aufwaendig ist einfach das Zurechtdrehen und die Groessenanpassung. Auch sollte man die zu verheiratenden L und RGB schon verarbeitet und besonders in der Helligkeit bereits aufeinander abgestimmt haben, sonst gelingt (mir zumindest) die Farbgebung nicht.


    Halpha-RGB zu kombinieren ist mal nett aus zu probieren, befriedigt aber farblich nicht auf die Dauer. Ein guter Freund nimmt L und Halpha auf und fertigt daraus ein Master-L, indem er Halpha ins L hineinmischt. Zusaetzlich verstaerkt er den Rotkanal des RGB mit Halpha und kombiniert erst dann mit dem Master-L. Das kommt sehr gut.


    Hoffe das hilft Dir ein wenig weiter! Viele Gruesse
    Jan

  • Hallo Jan,
    danke für die Infos, das hilft mir tatsächlich sehr viel weiter. Warum ist das Anpassen der Größe aufwendig? Ich dachte, gerade das wäre relativ einfach: in Photoshop einfach auf die gleiche Pixelgröße bringen und dann automatisch aufeinander ausrichten?1 Oder funktioniert das so nicht?
    VG Martin

  • Hallo Martin,


    vielleicht meinen wir nicht dasselbe; bei mir stimmen jeweils Himmelsausschnitt, Abbildungsmasstab und Orientierung nicht ueberein. Und zwar in Groessenordnungen. Probiers mal aus mit zwei Aufnahmen desselben Objekts von unterschiedlichen Teleskopen oder Kameras. Wenn es dafuer eine Routine gibt in einer Software wie z.B. PI, waere das sehr hilfreich.


    Viele Gruesse
    Jan

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: TheCCDAstronomer</i>
    <br />Hallo Martin,


    vielleicht meinen wir nicht dasselbe; bei mir stimmen jeweils Himmelsausschnitt, Abbildungsmasstab und Orientierung nicht ueberein. Und zwar in Groessenordnungen. Probiers mal aus mit zwei Aufnahmen desselben Objekts von unterschiedlichen Teleskopen oder Kameras. Wenn es dafuer eine Routine gibt in einer Software wie z.B. PI, waere das sehr hilfreich.


    Viele Gruesse
    Jan



    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Hallo Jan,


    mit „Staralign“ in PI ist das ganz einfach möglich.

  • Hey Jan,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: TheCCDAstronomer</i>
    enn es dafuer eine Routine gibt in einer Software wie z.B. PI, waere das sehr hilfreich.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Theli macht das zum Beispiel auch ohne Probleme. Einfach alle Bilder aus verschiedenen Instrumenten separat astrometrieren und dann mit dem gewünschten Abbildungsmaßstab zusammen stacken. Mosaike und verschiedene Bildausschnitte sowie Auflösungen sind damit kein Problem.


    Grüße,
    Marcus

  • Hallo Frank,


    auch ich möchte gerne die Aufnahmen zweier verschiedener Kameras und Optiken miteinander kombinieren und nutze ebenfalls Pixinsight, befinde mich mit der Lernkurve jedoch noch am Anfang. Wie genau gehst du in solch einem Fall vor?


    Werden zunächst die beiden unterschiedlichen Aufnahmereihen kalibriert, registriert und gestackt und die damit gewonnenen Summenbilder mit Staralign kombiniert? Folgt nach diesem Zusammenfügen der weitere individuelle Workflow bis zum fertigen Bild? Oder ist eine völlig andere Vorgehensweise angesagt?


    Was mir ebenfalls nicht klar ist, ist die Behandlung des abgelichteten Objekts. Beispiel: Du nimmst eine Galaxie mit einem langbrennweitigen Teleskop (z.B. 2000 mm) auf. Die so gewonnenen Bilddaten sollen die Referenzdaten für diese Galaxie selbst darstellen. Nun nimmst du ein weiteres Bild dieser Galaxie und ihrer Umgebung mit einer kurzbrennweitigen Optik (z.B. 700 mm) auf. Die hieraus gewonnenen Bildinformationen sollen als Referenzdaten für die Umgebung der Galaxie, nicht aber der Galaxie selbst, dienen. Ist solch eine Trennung der Daten überhaupt möglich bzw. sinnvoll?


    Beste Grüße
    Heinz

  • Hallo Heinz,


    hier gibt es wie immer kein Patentrezept und kommt darauf an, was du an Quellbildern hast und was kombiniert werden soll... Hier sehe ich zwei wesentliche Anwendungsfälle:


    1.) Kombination zweier RGB-Aufnahmen: Diese würde ich separat kalibrieren und dann direkt gemeinsan stacken. StarAlign gehört zu diesem Prozess dann schon dazu und du integrierst quasi beide Aufnahmereihen in einen Stack, der dann ganz normal bearbeitet wird.


    2.) Kombination RGB und Luminanzinformationen: Hier würde ich wie in deinem 2. Absatz beschrieben vorgehen. Wobei StarAlign die Bilder nicht kombiniert, sondern nur aufeinander ausrichtet und skaliert. Hier bietet es sich dann an, diese separat zu bearbeiten und letztendlich mit LRGB Combination zu vereinen.


    Zu deiner letzten Frage: Sowas wäre möglich (nach Ausrichtung und Skalierung beider Bilder) beim Einsatz von entsprechenden Masken und PixelMath. Ob das sinnvoll ist? Keine Ahnung - das habe ich so noch nicht ausprobiert. Klassischerweise kam bei mir immmer der zweite Fall zur Anwendung =&gt; Kombination von reinern Luminanz- oder Ha-Daten mit RGB-Daten.


    Hoffe das hilft dir etwas weiter :)

  • Hallo Frank,


    vielen Dank für die Antwort, das hilft mir in der Tat weiter. Derzeit habe ich zwei Bildreihen des gleichen Objekts vorliegen, die mit erheblich unterschiedlichen Brennweiten aufgenommen wurden, beide als RGB – Datensätze. Der Gedanke, beide zu kombinieren, beruht auf dem Hintergrund, daß die langbrennweitige Spiegeloptik über eine höhere Auflösung verfügt als der kurzbrennweitige Refraktor.


    Mit dem Spiegelteleskop habe ich pro Rohbild jeweils 300 Sek belichtet, mit dem Refraktor jeweils 90 Sek. Die erstgenannte Belichtungsreihe sollte das Objekt möglichst detailreich erfassen, die zweite dagegen die umgebenden Sterne möglichst fein und ohne Ausbrennen ablichten. Aus der Kombination verspreche ich mir ein besseres Endresultat.


    Mit den Möglichkeiten von Pixelmath muß ich mich noch eingehend beschäftigen. Hoffentlich finde ich im Netz eine Anleitung, die zu der von mir beschriebenen Vorgehensweise paßt.


    Beste Grüße
    Heinz

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!