Filter für Mono-Kameras

  • Hallo an alle.

    (...und noch einmal ich...)


    Ich überlege die Anschaffung einer Mono-Kamera und eines Filterrades.
    Nur habe ich beim Durchdenken festgestellt, dass ich da vieles noch gar nicht richtig begreife.
    Eine Mono-Kamera nimmt keine Farben auf, sondern nur Lichtintensitäten. Durch Vorschalten von Filtern kann man die Farben trotzdem bekommen, weil z.B. ein Rotfilter nur das rote Licht durchlässt ein blauer nur blaues etc. Das kann man hinterher zusammensetzen und bekommt das Farbbild. Soweit klar.
    Nur: welchen Sinn ergeben dann Dualbandfilter wie der Optolong L-eXtreme? Der lässt ein rotes Band durch und ein blaues. Beide landen auf einer Aufnahme und lassen sich nicht mehr trennen. Die Farbwerte sind weg.
    Alles, was ich mir vorstellen kann, wäre: zusätzlich auch ein paar rote RGB-Aufnahmen, die die Farben beisteuern, die sich dann im gestackten Bild verstärken lassen.

    Für Planeten/Mond/Sternhaufen wäre dann ein RGB-Filterset sinnvoll.
    Für Emissionsnebel eher ein Set aus H-alpha, OIII und SII.
    Dass es zusätzlich in Sets einen UV/IR-Sperrfilter gibt, erscheint mir merkwürdig. Das ergibt Mono-Aufnahmen im sichtbaren Bereich, bereinigt von Störungen. Erst in der Kombination mit R/G/B-Aufnahmen kommt da Farbe rein. Wäre es nicht besser, den UV-Filter den RGB-Filtern vorzuschalten?

    Danke für jede Antwort!
    Bastian

  • Hi Bastian


    Du hast recht, DUO Filter machen mit Mono Camera keinen Sinn. Diese sind für Farbkameras, die roten Pixel sehen nur Ha die grünen und blauen nur OIII.


    Für alle Objekte kann man einen L,R,G,B Filtersatz nutzen. Zusätzlich UV/IRCut macht keinen Sinn, da auch die meisten R, G, B Filter sind ja UV und IR Cutted. Für Schmalbandstrahler (Emissionsnebel, Gaswolken in Galaxien) nimmt man meist zusätzlich Ha und OIII auf. Je nach Objekt ist auch SII sehr ergiebig. Willst du also die Volle dröhnung und das flexibelste set, landest du bei 7 Filter (L,R,G,B,Ha,OIII,SII).


    Man kann auch eine Tiefe RGB Aufnahme, mit Schmalbanddaten anreichern, anstelle einer reinen Schmalband aufnahme. Da geht alles erdenkliche.


    CS, Seraphin

  • Schau mal in meine Galerie:

    Fast alle der Bilder sind mit Mono Kamera und einer Kombination der 7 Filter entstanden, dabei steht immer welcher Filter wie lange aufgenommen wurde.


    CS, Seraphin

  • Sehr cool!
    Bist Du mit der ASI 1600mm Pro zufrieden?
    Ich denke an eine ASI 183mm Pro.
    Grund: die eher kurze Brennweite von meinem Askar 80PHQ (f/7,5) liefert mir zusammen mit meiner ZWO 294 MC Pro bei kleineren Motiven wie M101 zu wenig Bild. Da die Auflösung des Teleskops aber gut ist, würde eine Kamera mit hoher Auflösung und kleinerem Chip da mehr zeigen. Problem der 183: Verstärkerglühen. (Hat die 294 auch recht stark!)
    Die 1600 hätte den Vorteil, dass einerseits die Auflösung ein wenig höher ist, andererseits aber die Chipgröße zusammen mit meinem Reducer (dann f/5,6) noch größere Motive erlaubt.
    Am liebsten hätte ich die 2600, aber die ist so teuer...

  • Ich bin recht zufrieden. Eine 2600 wäre definitiv schön, aber eben, passt auch nicht in mein Budget.. Die 1600 hat auch Ampglow, mit guten Flats hält es sich aber in Grenzen. Ich mag meine 1600 sehr und habe nicht vor sie bald zu ersetzen. Allerdings ist es auch meine erste Astrocam, von daher habe ich auch keine Vergleichsmöglichkeiten.


    CS, Seraphin

  • DUO Filter machen mit Mono Camera keinen Sinn. Diese sind für Farbkameras,

    Wofür der Filter, der hier besprochen wurde, genau gedacht ist, kann ich nicht sagen, aber rot-blau Filter ( genau genommen ROT-Violett-Filter) braucht es zur Aufnahme des Rot-Kanals bei Farbkameras, damit man auch Violett erkennen kann. Wir sehen ja faktisch einen Farbkreis, der ungefähr einer Oktave entspricht, was damit erklärt werden kann, dass unsere Sinneszellen auch von ganzahligen Vielfachen einer Lichtfrequenz angerecht werden können. Heißt: Die eigentlich sehr hochfrequenten violetten Strahlen werden nur von den Blau-Rezeptoren empfangen, kommen aber übers Hintertürchen auch in die Rot-Zellen. Das muss man mit den Fabrfiltern nachbilden. Die Filter für die Blaukanäle sind also für direkt benachbarten Farben Blau und Violett zuständig, während die für den Rotkanal eben in Form einer Badewanne durchlässig sein müssen.
    Damit kann dann sowohl künstlich gemischtes Violett- als auch echtes Violett korrekt erfasst werden. In der Anfangszeit des Fernsehens war das mit den Röhren z.B. nicht möglich, weswegen man damals kein echtes violett im Studio haben wollte.


    Der Blaue hat mit dem für Grün eine passende Überlappung, damit Türkis passend "einsortiert" wird.

    Der Rote hat mit Grün ebenfalls eine Überlappung, damit Gelb passend einsortiert wird.


    Weil nun das Auge auch ncoh Mischfarben dazwischen erkennt, müssten diese Absorbtionen eigentlich perfekt passen, was sich aber real kaum machen lässt. Daher sind die Farben im Video oft etwas daneben, auch wenn der Weissabgleich stimmt und die Summe der Kanäle passt. Besonders aufällig ist es zwischen Gelb und Rot: Das Orange das das Auge noch bildet, ist sehr schwer genau hinzumischen und stimmt so gut wie nie. Auch auffällig ist die Absorbtion der CCD-Sensoren: Die haben im Blauband eine Frequenzschwäche, was dazu führt, dass der Blauanteil in den Kameras passend "hochgezogen" werden muss. Das Bild ist speziell in Studios zu "gelb". Als Ergebnis ist eine extreme Überbetonung des Blau bei Schwinwerfern wenn das Bild dunkel ausgeleuchtet ist. Man sieht das bei Fernsehübertragungen, wenn das Bild auf der Bühne stimmt - die Zuschauer aber total blau sind. Auch Haut bekommen die meisten Kameras nicht hin, weil sie u.a. Blut nicht korrekt darstellen können. Entweder sind die Gesichter glutrot oder käseweiß. Daher wird bei Fernsehshows immer kräftig dunkel geschminkt. Lustig sind die Bilder von Menschen dunkler Hautfarbe: die werden immer sehr viel brauner und roter dargestellt und bedürfen fast immer der Nacharbeitung.

    Was man daher eigentlich braucht, ist ein einstellbarer Filter oder ein Satz austauschbarer Filter, die sehr schmalbandig sind und mit denen man sich das Augenspektrum perfekt nachbauen kann. In der Beleuchtungstechnik gibt es dazu entsprechende Lampen und Filter, mit denen man Sonnenlicht "falsch" zusammensetzen kann, sodass es für die Kamera passt. Für Mikroskope und Spektralanalysatoren haben wir LED-basierte Mikrobeleuchtungen , um die Frequenzen abzuklappern.


    Für Planeten wird die Lösung noch gesucht, weil die so schlecht zu beleuchten sind :)

  • Guten Morgen

    Wofür der Filter, der hier besprochen wurde, genau gedacht ist, kann ich nicht sagen, aber rot-blau Filter

    Der Duo Filter hier, ist kein rot-blau Filter, sondern ein Ha/OIII Filter. Also ein doppelter Schmalband Filter. Mit Monokamera hätte ma ein kombiniertes Bild ohne Farbinformation. Mit der Farbkamera, und das ist der Sinn von diesen Filtern, hat man Ha und OIII getrennt auf den jeweiligen Farbpixeln. Man kann also das Ha vom OIII trennen und getrennt bearbeiten. Was in der Astrofotografie natürlich sehr interessant ist. Diese Filter sind also schon toll, funktionieren natürlich aber eben nur mit Farbkameras.


    Ich gebe dir absolut Recht, dass Kameras nur sehr bedingt das Farbempfinden des menschlichen Auges nachbilden können. Deshalb finde ich es manchmal auch sehr amüsant wenn ich sehe dass bezüglich diskutiert wird, ob nun Farbkameras oder Monokameras mit RGB Filtersatz die bessere Farbwiedergabe habe. Ist eine Farbkamera doch nichts anderes als eine Monokamera mit aufgedampten RGB Filtern.


    CS, Seraphin

  • Wenn man auf Objekte wie Sterne geht, ist es i.d.R auch möglich sequenziell zu arbeiten, wenn man nachführt. D.h. die gewünschten Farben nacheinander mit einer MONO und Filterwechsel aufzunehmen. Das hätte den Vorteil, dass man nicht mehr an die Filter der RGB-Sensoren gebunden ist, die ja nicht nur Licht wegnehmen, sondern auch noch Randartefakte machen. Hinzu kommt das Problem, dass man nicht unbedingt an die tatsächlichen Daten der Pixel herankommt, sondern signaltechnisch meistens hinter der Bayer-Prozessierung steckt, die ja ein Farbbild erwartet und dabei Kompromisse und Annahmen hinsichtlich der Pixelbündelung und Objektiverzerrungen macht- Stichwort "Farbsaumkorrektur." Und dann gibt es da noch den nicht unerheblichen Vorteil, dass einem in beiden Bildern die volle Pixelzahl zur Verfügung steht und nicht nur die interpolierte Hälfte.


    Im Übrigen gab es das auch mal als fertigen Sensor: Die an unserer Uni in den 1990ern erfundenen NIPIN-ASiH-Sensoren konnten mit einer Spannung gesteuert werden, um die Absorbtionstiefe und damit die Farbe festzulegen. Damit konnte man in gewissen Grenzen das Absorbtionsprofil steuern und die Farben bei der sequenziellen Aufnahme qualitativ anpassen. Die waren auch sehr stark IR-empfindlich. Ich musste für meine Kamera einen IR-Filter vorsetzen, um ein taugliches Bild zu bekommen und auch mit Peltier kühlen: http://engineer.bplaced.net/arcor/studienarbeit.html


    Leider ist das im Sande verlaufen und nie produziert worden.


    Wie oben angedeutet, arbeiten wir bei Messtechnik praktisch außschließlich mit MONOs, die mit speziellen Filtern ausgestattet sind. Bündelung und Entrauschen, sowie Objektivkorrekturen hat man dann besser in der Hand. Man muss nur eben das Objekt sequenziell reproduzierbar erfassen können.


    Da die Astroobjekte meist auf speziellen Frequenzen leuchten, muss man ohnehin eine andere Herangehensweise pflegen, als einfach nur Farbkamera draufhalten.


    Eigentlich braucht man 2 Bilder: Eines, dass das Bild zu zeigt, wie das Auge es sehen würde und eines, indem die speziellen Frequenzen herausgearbeitet und in ein Flaschfarbenbild übersetzt werden.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!