PLanetenrunde La Palma

  • Hallo Jörg,

    es wird so sein, wie Du es sagst. Io mit Jupiter zusammen zu stacken macht bei dieser hohen Auflösung keinen Sinn. Io sieht schon nach 30 Sekunden komisch aus. Mit winjupos kann ich Jupiter über einige Minuten zusammenaddieren, Jupiteroberfläche wird keinesfalls schlechter - Kontrast steigt weiter, Rauschen nimmt ab. Io wird länglich, da er 3x schneller ist als die Jupiteroberfläche und das von winjupos nicht berücksichtigt wird!



    Jupiter mit Io 2020-08-23 UT 23:10 4xR

    4x30 Sekunden Filme, jeweils 80% Verwendung, 2x Resample

    weitgehend identische Schärfung zu 22:55 R (=Basisrotkanal des RGB oben) verwendet


    Da werde ich Io mit pipp auschneiden und gesondert entwickeln müssen. Dann kann ich Io auch in das beste RGB einfach einfügen und muss nicht nochmal eine spezielle Farbvariante bauen. Da hätte ich mir eine Menge Arbeit sparen können. Mir gefällt allerdings das Zusammenfügen von Bildern nicht wirklich. Io ist für normale Technik einfach zu schnell....


    LG

    Robert

  • Mir gefällt allerdings das Zusammenfügen von Bildern nicht wirklich.

    Hallo Robert,


    dann dürftest Du streng genommen auch nicht stacken. Das Zusammenfügen mehrerer Summenbilder im Deep-Sky-Bereich wäre ebenso verwerflich wie das Erstellen von Mosaiks der Mondoberfläche. Bei Sternfeldern liegen mitunter Tage oder Wochen zwischen den Aufnahmen; gut möglich, dass da ein kleiner Planet doppelt da ist, weil er von Feld A nach B gewandert ist. Und beim Mond verändert sich die Beleuchtungssituation am Terminator bei großem Abbildungsmaßstab schon innerhalb einer halben Stunde. Die Folge ist, dass Teilbilder mit leicht unterschiedlichem Sonnenstand zusammengepuzzelt werden. Das ist streng genommen auch nicht korrekt.

    Aber es kommt immer darauf an, was ich mit meinen Bildern machen will. Geht es um Positionsastronomie, sind montierte Bilder natürlich unbrauchbar. Will man dagegen Veränderungen auf einem Planeten veranschaulichen oder einfach nur pretty pictures gewinnen, kommt es auf kleine Abweichungen weniger an.


    Wenn Du zwei im Grunde zeitgleiche Summenbilder pixel- und auch noch zeitgenau zusammenfügst, bist Du schon viel näher an der Wahrheit als ein Mondmosaik, dessen Einzelbilder über eine Stunde verteilt sind.


    Man sollte außerdem keine übertriebenen Vorstellungen von der Genauigkeit unserer Aufnahmen haben. Der Bildort eines Himmelskörpers auf einem Kamerasensor wird von so vielen Faktoren verfälscht, dass es nur mit riesigem Aufwand gelingt, sie alle wegzurechnen: Atmosphärische Dispersion, Refraktion, Seeing, Einflüsse von Luftdruck und Temperatur, die sehr komplexe Abbildungscharakteristik des gesamten optischen Systems, das verwendet wurde einschließlich sämtlicher Komponenten bis zum allerletzten Filter, die Temperatur dieses Systems, außerdem der Abstand des Bildorts von der optischen Achse, der aktuelle Kollimationszustand des optischen Systems einschließlich eventueller Fehler der Orthogonalität des Sensors zur Achse …


    Und dann haben wir erst mal ein Einzelbild, das danach mit vielen anderen gestackt wird. Dabei werden dann zwar die Einflüsse des Seeings eliminiert, aber viele Fehler bleiben drin oder werden sogar summiert. Mit Derotation lässt sich zumindest einer davon aufheben. Und schließlich wird noch geschärft. Dadurch können sich beispielsweise die Grenzen von Oberflächendetails auf Planeten so verändern, dass Positionsmessungen verfälscht werden. Markante, kontrastreiche Details wie der GRF erscheinen dadurch größer.


    Wer das alles im Hinterkopf hat, sollte sich keine Gedanken mehr machen, wenn er zwei getrennt gestackte Planetenbilder relativ pixelgenau zusammenfügt.


    LG, Jörg


  • Hallo Jörg,

    nach längerer Nachdenkpause hier ein paar Überlegungen zu deiner Argumentation:


    Ein R+G+B Bild mit sehr langer Brennweite von Jupiter mit Monden wird wohl immer eine Bastelarbeit bleiben, die nur begrenzten wissenschaftlichen Charakter hat. Irgendeinen Kompromis muss man da immer machen, wennn sich Monde schneller als die Planetenoberfläche bewegen. Trotzdem sieht man sowas immer wieder von bekannten Planetenbeobachtern, teilweise in ziemlich guter Qualität.


    Zum Bild oben:

    Da die Stackung und Bearbeitung der Planeten- und Mondoberfläche (Schärfung, Farbabgleich, Kontrast bzw. Oberflächenhelligkeit Mond im Vergleich zur Jupiteroberfläche) unterschiedlich erfolgte, ist das obige Ergebnis in meinen Augen als "pretty picture" zu bewerten. Man kann auf diese Weise nachträglich Monde in Jupiter Bilder einfügen.


    Technisch macht es wahrscheinlich sogar Sinn, die Mondaufnahmen von der Planetenaufnahme absichtlich zu trennen. Man kann dann den Mond absichtlich in die Koma freie Mitte des Bildes stellen und ein an den Mond angepaßtes Histogramm verwenden. Damit kann man einen kleinen ROI nur für Mond realisieren und sehr viele Mond-Bilder in kurzer Zeit aufnehmen. Wenn man ROI deutlich größer als Planetengröße wählem muss, um einen mehr oder weniger nahen Mond mitabzubilden, verliert man ja doch einiges an Aufnahmegeschwindigkeit, jedenfalls bei der ASI290MM und über 5 m Brennweite. Für mich ein neuer Denkansatz, absichtlich nur Monde aufzunehmen. Das muss ich mal ausprobieren. Damit könnte man eventuell höherwertige Aufnahmen der Mondoberflächen generieren. Man erhält damit auch sehr gute Hinweise auf die Justage der Optik.....


    LG

    Robert

  • Technisch macht es wahrscheinlich sogar Sinn, die Mondaufnahmen von der Planetenaufnahme absichtlich zu trennen. Man kann dann den Mond absichtlich in die Koma freie Mitte des Bildes stellen und ein an den Mond angepaßtes Histogramm verwenden…

    Hallo Robert,


    eine sehr gute Idee! Bei den – scheinbar – nur unwesentlich größeren Planeten Uranus und Neptun wird das doch auch gemacht. Auf jeden Fall hast Du das instrumentelle Potenzial, und Jupiter hat ja für uns endlich durch das Tal der Tränen verlassen. Im nächsten Jahr dürften Strukturen auf Ganymed kein Problem sein. Die hatte ich sogar schon mit dem TEC 180 von meinem Stadtbalkon aus. Aber vielleicht funktioniert es bei Dir auch mit Io und evt. Kallisto. Zumindest um die Opposition herum. Ich denke, der Fortschritt in der Planetenfotografie hat nicht nur was mit der Weiterentwicklung der Kameras, sondern auch mit der zunehmenden Erfahrung der Astrofotografen zu tun.


    CS, Jörg

  • Hallo Jörg hallo Robert,

    ich bin auch gespannt, wie Jupiter im neuen Jahr wird was wir mit unseren Teleskopen visuell und fotographisch festhalten können sowohl bei den großen Jupitermonden wie auch auf Jupiter selber.

    Auf Deinem letzten Jupiterbild kann man sogar auf Io etwas Struktur sehen und der Jupiter ist natürlich genial. :)

    Servus,

    Roland

  • Nach einem Webinar mit Grischa Hahn hab ich noch späteres Bild aus der Jupiterserie mit verbessertem Know-How bearbeitet. Grischa hat davor gewarnt, den Atomatikmodus von Winjupos blind zu vertrauen. Man soll sich eher an Monden orientieren. Im Direktvergleich war ich erstaunt, wie groß die Abweichung zwischen Orientierung manuell über Mond Io und Automatikmodus ist. Gleichzeitig hat Grischa die Empfehlung gegeben, den RV-Wert für jedes einzulesende Bild zu korrigieren. Das hatte ich bis her nicht bzw. nur für die verschiedenen Farben genutzt, hilft aber, bei der Addition von Bildern Randartefacte zu unterdrücken.


    So der optimierte Versuch:



    Jupiter mit Outbreak (links) und Io 2020-08-23 UT 23:28 RGB (derotiert aus 8 guten Fimen a 30 sec über 10 min aufgenommen) 36° über Horizont.


    Jupitermonde muß man derzeit nach Winjupos Additon leider entfernen und von Hand einfügen, was schwierig ist, wenn die Position genau stimmen soll. Hier hat Grischa angedeutet, dass er sich vielleicht noch etwas einfallen läßt für Monde, die außerhalb Jupiter stehen. Auf der Jupiteroberfläche wird das nur Gemurkse nach seiner Ansicht.

    Randartefacte konnte ich leider nicht so gut herausdrehen wie auf dem besten Bild. Liegt daran, dass ich etwas härter Schärfen mußte und wir bei der Aufnahme nicht die übliche Reihenfolge RRGGBBGGRR... eingehalten haben. Haben zum Abschluß 4 Grünfilme aufgenommen, also RRBBGGGG. Das Bild hat von der Auflösung in der Mitte nun fast das Niveau des besten Bildes der Serie, obwohl Jupiter 2° tiefer stand. Auch auf La Palma hatte Jupiter 2020 ja nur 39° über Horizont. Das wird bei uns heuer besser sein mit 44° über Horizont ab Anfang August - ich freue mich schon :).


    Um auf Schwung zu bleiben, werde ich auch noch das beste Bild besser in Winjupos einlesen und kann damit eventuell noch etwas holen. Melde mich, wenn geglückt.


    LG

    Robert

  • Hallo Robert,


    schön, dass Du ein RGB erstellt hast!


    Der RV-Wert dürfte beim Jupiter ja nicht die wesentliche Rolle spielen (außer man wählt ihn viel zu klein). Trotzdem würde mich interessieren, welchen Wert Du genommen hast.


    Das mit der Automatik hat mich auch erstaunt, wobei die Feinkorrektur danach dann sicher schneller geht.


    Hast Du in autostakkert! vorgeschärfte Filme verwendet?


    Noch eine Bemerkung zur Io-Darstelllung. In WinJUPOS zeigt Io keinen dunklen Strich von Pol zu Pol. Das mag angesichts des vulkanaktiven Io durchaus mit älteren Bilddaten zu tun haben. Albedo-Struktur-Vergleiche aus WinJUPOS sind somit schwierig, mit Ausnahme wohl der übrigen Galileischen Monde. Evtl. gibt es aktuelle Hubble-Bilder mit ähnlicher Io-Position ...


    Viele Grüße

    Torsten

  • Hallo Torsten,

    hab die original Filme ohne Schärfung neu aus Autostakkert genommen (Verwendungsrate 90% für alle Farben, Resampling 2x, lapl4, ap207 mit verschieden großen Kästchen, kleinste Größe 48 in Bereichen mit vielen Details, am Rand nur große Kästechen 96). Schärfung dann über Giotto bei identen Werten für alle Kanäle (kritischer Dämpfung Filtergröße 11 - 1500/Dreieck - Achtung: Bild ist durch Resample doppelt so groß wie Original). Rot könnte man mit kleinerem Filter 9 machen, sieht aber als RGB Summenbild nicht gut aus. Mit den Schärfungsparametern könnte man noch etwas spielen, um Randartefact noch besser zu unterdrücken. Automatische Einlesung in Winjupos war erstaunlich für Position Io. Hatte Gott sei dank noch Originalfilme gespeichert, da in meiner normalen Ablage Jupiter mit PIPP knapp ausgeschnitten ist - PIPP Version läuft dann viel schneller in Autostakkert durch, aber Io fehlt. Mit Io mußte ich Zeit (!), Winkel und zwischen den Farben auch minimal Größe korrigieren. Entweder war der Computer nicht auf idealer UT Zeit oder Austostakkert macht da irgendwas....


    Für den RV hab ich Winkel auf 78...84° gesetzt bei Einstellwert RV zwischen 0,74...0,86. Den Winkel hab ich individuell so gesetzt, dass Bild gerade nicht dunkler wird. RV hab ich so eingestellt, dass der Rand möglichst nicht heller als Planetenscheibe ist. Hab dann Bild als .ims so abgespeichert und so addiert. Winjupos merkt sich die RV Einstellungen im .ims, wenn so abgespeichert wird. Das war neu für mich und geht sicher noch besser, wenn man die Schärfung noch etwas zurücknimmt. Die noch leicht vorhandenen Rand-Artefacte stecken im Grün- und Rotkanal. Würde ich mit Feinarbeit sicher noch besser weg bringen. Zum Schluß hab ich in fitswork noch nachgeschärft (iterativer Gauss, wavlets). Da kommen dann gnadenlos alle Randfehler hoch. Durch die RV Einstellungen kann man die komischen Farbverläufe in der Fase gut rausbügeln. Hab mit den RV Einstellungen geblinkt in fitswork - wirken sich deutlich auf Fase aus. Hätte ich so stark nicht erwartet. Da kann man die Fase deutlich verändern.


    Io hab ich auschschnitten und gesondert addiert. Grundfarbe hab ich auf weiss gesetzt, was wahrscheinlich nicht richtig ist. Die Strukturen sind in allen Kanälen aber ziemlich ähnlich, im Blau ist er am dunkelsten. Io ist nicht nachgeschärft. In Summe echte Murkserei. Wäre schön, wenn das Grischa hinbekommen würde, dass Monde derotiert werden. Dann paßt auch Farbe und Helligkeit besser zum Restbild.


    Perfekt ist das Bild noch nicht, war eher als Übung mit dem neuen Know How zu verstehen. Es funktioniert und ich hab wieder was gelernt. Ist halt mehr manuelle Arbeit, wie Grischa betont hat.


    LG

    Robert

  • Hallo Robert,


    danke für die Info. Mit den RV-Werten habe ich auch immer experimentiert. Die Randphase mit Artefakten hatte ich aber fast immer. Mal schauen wie es zukünftig läuft.

    Jetzt kommt erst mal der Frühling mit Makro-Fotografie.


    ...
    ...

    Achtung: Bild ist durch Resample doppelt so groß wie Original).
    ...


    2-fach Resample macht eine vierfache Bildfläche! ;)



    Viele Grüße

    Torsten

  • Bezüglich Io hab ich mir noch ein paar Gedanken gemacht. Io mit aufs Bild zu nehmen, war an diesem Tag sicher keine Absicht. Er ist uns ins Bild gelaufen und ermöglicht bei den Aufnahmen, die Io beinhalten, ein perfekte Ausrichtung in winjupos.


    Die ganze Serie an Jupiterbilder haben wir mit 50% Histogramm aufgenommen. Das ist für Jupiter mit Fase so die untere Grenze des sinnvollen, ohne Informationen im Fasenbereich zu verlieren. Io selbst hatte nur 20% Histogramm. Ich werde den Sommer versuchern herauszufinden, welches Histogramm an den Monden Sinn macht. Io war 1,15" groß, was bei einer Aufnahmebrennweite von 5300mm etwas mehr als 10 Pixel Durchmesser im Rohbild bedeutet.


    Io hat eine rasche Rotation, wie man mit winjupos simulieren kann. Leider sind die Oberflächenbilder in winjupos aus 1999 und damit nicht aktuell. So sieht die Simulation in winjupos zur Uhrzeit UT23:08 aus:



    Bildquelle winjupos 12.0.11 (Ursprungsbild vermutlich Raumsonde Galileo NASA Juli/1999)


    Wenn man das Bild auf 40 Pixel verkleinert und Weißabgleich macht, sieht das dann so aus:



    Bildquelle winjupos 12.0.11 (bzw. vermutlich Raumsonde Galileo NASA Juli/1999) mit Bearbeitung: verkleinert, Weißabgleich, geglättet


    Zu dieser Uhrzeit haben wir einen Rotkanal in sehr guter Qualität aufgenommen, auf dem Io bei sehr guter Bildqualität dauerhaft zu sehen ist. In verschiedenen Stacks ist kaum Unterschied zwischen 20....90% Stackgröße zu erkennen. Io zappelt in dem mit PIPP ausgeschnittenen und zentriert Video kaum herum und ist meist gestochen scharf. Das Seeing war zu dem Zeitpunkt wenigsten im Rotkanal fast stehend bzw. sehr ruhig.


    Hier das anschließend mit Autostakkert3 gestackte Rohbild 4x vergrößert und Histogramm liner hochgezogen ohne sonstige Bearbeitung:



    Io 2020-08-23 UT 23:08 R 90% Stack aus Autostakkert3, 4x vergrößert, Histogramm liner hochgezogen, ohne sonstige Bearbeitung (keine Schärfung)


    Dasselbe nun in Schärfungsvarianten:


     


    Io 2020-08-23 UT 23:08 R 90% Stack, 4x vergrößert, Histogramm liner hochgezogen, zarte decon Schärfung / Histogramm exponentiell hochgezogen, giotto 7er Filter/ giotto 9er Filter


    Man sieht einmal das Coma des f4.6 Newtonsystems außerhalb der Bildmitte und die Beugungsringe bzw. Schärfungsartefacte. Für eine qualitativ hochwertige Io Aufnahme müßte man Io in die Bildmitte stellen. Die Strichstruktur in Io läßt sich allerdings nicht wirklich durch Beugung oder Artefacte erklären und ist zudem bereits im Rohbild vorhanden.


    Wenn man das ganze zart schärft, sieht es so aus:



    Io 2020-08-23 UT 23:08 R 90% Stack, 4x vergrößert, Histogramm liner hochgezogen, zarte decon Schärfung, Umgebung geebnet zur Beseitigung der Beugungsringe


    Etwas härter bearbeitet habe ich Io ins Bild von Jupiter oben eingefügt, allerdings als nicht derotierte RGB Variante. Für Farbe, Histogramm und auch die Struktur will ich keinen Anspruch auf Richtigkeit stellen. Vermeintliche Io Struktur ist halt einfach so drauf auf vielen Filmen. Drehung Struktur konnte ich nicht nachweisen, da Zeitraum, in dem Io mit auf Bild ist, mit ca. 15 min doch zu kurz ist. Eine Struktur müßte sich drehen und das sollte man über eine Stunde dann auch sehen können. Und wie Torsten richtig sagt, bräuchte man wohl Bilder mit Io, die 2020 aktuelle Strukturen zeigen. Hab da auf die schnelle nichts gefunden.


    Ich halte die nachträgliche EInfügung von Io weiterhin für eher Show orientiert . Was da wirklich auf Io zu sehen ist, werde ich 2022 mit ein paar Io Filmen herausfinden versuchen. Die werde ich mit Io in Bildmitte und höherem Histogramm aufnehmen (d.h. etwas länger als 2ms belichten). Natürlich wieder mit 14". Hoffentlich haben wir im August/September dann bei uns auch passendes Seeing.

    Mal schauen, was dann herauskommt. Mann muss sich ja Ziele setzen.


    LG

    Robert

  • Guten Morgen Zusammen,


    mich würde es mal interessieren, wie bei dir diese Bilder mit einer Farbkamera aussehen würden.Immerhin hättest du mehr Bilder, da keine RGB einzeln und zum anderen könntest du dadurch nur die wirklich besten Bilder stacken. Meine bisher besten Bilder habe ich mit einer Farbkamera aufgenommen, wobei auch mit Monokamera viel herauszuholen ist. Von IR Passfiltern halte ich mittlerweile nicht mehr viel. Das macht die Auflösung kaputt. Höhstens bei Saturn hat es mir bisher einiges gebracht.



    Viele Grüße,

    Raul

  • Hallo Raul,

    wenn das Ziel RGB Aufnahmen sind, hat eine Farbkamera auf den ersten Blick seine Reize. Grundsätzlich haben Torsten und ich auch immer wieder Farbwebcams eingesetzt, insbesondere, wenn sie besser (d.h. lichtempfindlicher, rauschärmer und schneller) als die s/w Generationen waren. Wir hatten 2018 die ASI224 und 2020 die QHY 5 III 462C in La Palma im Einsatz.


    Die ASI224MC Farbkamera war 2016 lichtempfindlicher als alle s/w webcams und eine Zeit lang schwer angesagt, bis die ASI290MM herauskam. Bei den niedrigen Planetenständen ist bei Farbwebcam ein ADK unvermeidlich. Den haben wir auf La Palma 2018 und 2020 mit den s/w Kameras nicht verwendet und gefühlt auch nicht gebraucht. In Deutschland setze ich den ADK derzeit auch für s/w ein, so das die Verwendung eines ADK kein Argument mehr gegen Farbkamera ist, da er sowieso montiert ist.


    Die Ergebnisse mit den Farbkameras waren bei den wenigen Versuchen auf La Palma immer schlechter als die mit der ASI290MM. Die ASI290MM ist lichtstärker in allen Kanälen und deutlich schneller, wenn Planet klein und hell. Bei Mars sind ja bis 720 fps möglich im Rotkanal. Man kann also erheblich mehr Bilder in kürzerer Zeit aufnehmen.


    Zur ASI224 versus ASI290MM mit RGB Filtern findet man im Internet genügend Vergleiche (z.B. Cloudy Nights) - da gewinnt immer die ASI290MM.

    Hier ein Beispiel an Jupiter mit vergleichsweise langer Belichtungszeit:


    ASI290MM @ 0.077 "/pixel Baader RGB Filter

    R: FPS (avg.)=166, Shutter=6.0 ms, Gain=350 (58%) -> Histogram 58%

    G: FPS (avg.)=166, Shutter=6.0 ms, Gain=350 (58%) -> Histogram 55%

    B: FPS (avg.)=166, Shutter=6.0 ms, Gain=390 (65%) -> Histogram=58%


    ASI224MC @ 0.073 "/pixel

    L : FPS (avg.)=136, Shutter=7.3 ms, Gain=370 (61%) -> Histogram 58%


    2020 haben wir die QHY 5 III 462C probiert. Die ist primär im IR ab 800 nm interessant und da dann tatsächlich lichtempfindlicher als die ASI290mm, aber etwas langsamer. Aufgenommen haben wir Mars. Da ist auch bei schlechterem seeing IR 850 schon sehr extrem. Die Ergebnisse mit R oder IR Bandfilter waren immer besser.


    Wir verwenden kürzere f-Verhältnisse und können damit bei Venus, Mars und Jupiter Belichtungszeit um 1ms erreichen. Da ist dann die Begrenzung der ROI bei Jupiter für die fps wegen USB3.0. Best case sind 720fps möglich. Das geht mit den IMX 224 bzw. IMX 462 Sensoren nicht.


    Es kann schon sein, dass für eine Zeit lang ein noch sensibler Farbsensor die aktuellen s/w Sensoren wieder aussticht. Meist kommt dann aber eine s/w Variante heraus, die noch empfindlicher ist.


    Derzeit sehe ich die Grenze beim USB3.0, wenigstens bei Jupiter. Die Bildmengen werden bei großem ROI und Bildraten um die 700 fps einfach gewaltig.


    Dem Seeing kann man eigentlich am besten ausweichen mit Bandfiltern und kurzer Belichtungszeit. Wenn dann mal das Seeing paßt, muss man möglichst viele Bilder aufnehmen. Ich denke, die Zukunft liegt bei noch schnelleren und lichtstärkeren Kameras. Ich konnte damit jedenfalls eine erheblich Verbesserung meiner Ergebnisse erzielen mit dieser immer kürzeren Belichtungszeit und den immer mehr Bildern, angefangen mit 10 fps in 2005 zu den heutigen 600...700 fps. Bei damaligen guten Filmen hatte ich vielleicht 1000 gute Bilder, heute sind es gerne mal 10.000 und mehr. Im Extremfall rotier ich auch gerne 100.000 ...500.000 Bilder zu einem Summenbild zusammen.


    Der workflow bei der Bearbeitung ist kein wesentlicher Unterschied. Ich hab die RGB Filme der Farbkameras meist aufgetrennt und Farben getrennt bearbeitet. Risiko ist leider immer, das eine Farbe deutlich abfällt (meist Blau) und das man dann in diesem Kanal zu wenig gute Bilder hat. Ich traue auch der Scharfstellung bei den Farbkameras nicht so richtig, auch wenn ein Newton System ("theoretisch") farbrein sein sollte. Durch Barlow und Atmospähre kommt ja doch Farbe ins Spiel siehe Einsatz ADK.


    LG

    Robert

  • Nachschlag:

    Wissensstand oben ist basierend auf den Sensoren IMX290, IMX224 und IMX462. Nur den IMX290 gibt es as s/w Version. Er ist im Bereich 400...700 nm empfindlicher als die Farbsensoren IMX224 und IMX462 und vor allem auch im Blauen eine gute Empfindlichkeit.


    Der modernste Sensor der drei ist der IMX462 (6. Generation EXMOR STARVI SHCG, wohl seit 2020 im MArkt). Der Sensor ist zwischen 400...700 nm empfindlicher als die Farbsensor IMX224 und zwischen 800...900 nm empfindlicher als alles, was ich kenne.


    Je nach Zusatzhardware gibt es wohl auch Unterschiede zwischen den Anbietern. Chris Go ist auf QHY umgestiegen und verwendet IMX290 s/w und IMX462. Er war 2020 der Meinung, dass IMX290 s/w mit RGB-Filtern besser ist, aber auch mit Farbe IMX462 einiges zu holen ist. Da gibt es einen netten Vergleichsfilm im Internet. Seine Arbeitsmethode ist anders als meine, aber gut nachvollziehbar. Er hat auch mit Blaukanal seine Schwierigkeiten. Da ist IMX462 nicht die beste Wahl. Für Methanband (875...925 nm) ist der IMX462 sicher gute Wahl.


    Inzwischen gibt es ja eine Reihe neuer Sony Sensoren, die ZWO anbietet z.B. IMX482 und IMX294 s/w. Die sollen noch lichtempfindlicher im RGB bzw. zwischen 400...700 nm sein. Ich hab noch keine tieferen Erfahrungsberichte damit gelesen. Ich stell das Thema bei den webcams ein, da es hier wenig verloren hat....


    LG

    Robert

  • Hi Robert,


    vielen Dank für deinen informativen Beitrag.


    Ich hoffe doch sehr, dass sich bei den kameras noch einiges tut. Was mich bei Astrokameras prinzipiell stört ist, dass viele Geräte einfach nicht ausgereift sind. Bei ZWO habe ich beispielsweise mehrere Geräte mit schmutzigem Schutzglas gehabt. Andere bereiten hinsichtlich der Treiber Probleme.


    Die QHY 5 III 462C hat seinen Reiz, allerdings auch ein paar Nachteile. Und für Planetenaufnahmen mit einer Monovariante bietet Deutschland leider zu wenig Vorteile. Auf La Palma dürfte es anders aussehen. Christopher Go macht tolle Bilder. Aber auch hier ist eben der Standort und der richtige Zeitpunkt entscheidend. Ich habe beispielsweise nur einen Blick von Osten nach Süden. Jupiter erschien letztes Jahr zwischen Osten und Süden. Dort steht ein Baum. Also bleibt nur noch ein Zeitfenster von 1 Stunde zwischen Baum und Süden (Hauswand). Da ist es mit einer Farbkamera besser getan. Die Monokamera verwende ich dann ohne Filter am Mond, um möglichst viel Auflösung zu gewinnen.


    Bezüglich mehr FPS hast du natürlich recht. ich nahm allerdings an, dass du deine Bilder mit einer Barlowlinse machst. Und dann hast du automatisch eine höhere Belichtungszeit. Wie kommst du da auf 700 Bilder pro Sekunde? :)


    Viele Grüße,

    Raul

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!