CCD- oder CMOS-Kamera fuer 3500mm Brennweite ?

  • Hallo Jürgen,


    Die Interpolation generiert Artefakte, egal wie schlau der Algorithmus ist. Er trifft Annahmen, die für spezifische Probleme zu Artefakten führt.

    Frank hat dazu richtig bemerkt, dass Objekte, die 1 Pixel beleuchten, ev. komplett falsch interpoliert werden.

    Nun haben wir die Wahl zwischen Pest und Cholera:

    • Kleine Pixelgrösse: die Auflösung (inkl. Interpolation) ist besser als die der Optik. Es gehen keine Details verloren. Dafür haben wir aber kleine Pixel -> weniger Photonen, grösserer Anteil des Rauschens, < Dynamikumfang. Der Kontrast wird bei kleinen Strukturen schlecht.
    • Grosse Pixel: hohe Empfindlichkeit, hoher Dynamikumfang, Rauschen weniger relevant. Nachteil: der Sensor definiert die Auflösung. Mit Binning ist das entsprechend ausgeprägter.


    Meiner Meinung nach kommt es wirklich darauf an, wo man bereit ist, Kompromisse einzugehen. Das wird jeder anders gewichten.

    Ich persönlich würde für nightly pictures (pun intended: Gegenteil von daily pictures :P) eine halbwegs günstige Farbkamera ohne Kühlung nehmen. Binning geht da mMn. nicht, dafür sind dieFarbkanäle zeitgleich aufgenommen. Für wirklich anspruchsvolle Projekte (die entsprechend gute Verhältnisse vorausssetzen) eine gekühlte monochrome Kamera und Filter. Aber da bewegen wir uns preislich in einer Liga für die mir der grosse Lottogewinn fehlt 8o



    Herzliche Grüsse Robert

    Ich habe keine besondere Begabung, sondern bin nur leidenschaftlich neugierig. (Albert Einstein)

    Einmal editiert, zuletzt von Robert Ganter () aus folgendem Grund: Wurstfingerkompensation

  • Leider hat mich nach meinem letzten Post der Schlag getroffen und ich bin gerade aus dem Krankenhaus zurueck. Vertigo-Attacke: Harmlos, interessante Erfahrung, muss aber nicht sein. Schon gar nicht an einem klaren Abend, dessen Anfang ich durch ein Fenster aus dem Krankenwagen aus bewundern durfte.

    Hat mich nicht davon abgehalten, eben noch 1/2 Stunde auf den Kometen zu halten. Jetzt gibts natuerlich Wolken. Dass mein fuer heute abend geplantes M1-Binningexperiment ausfiel, ist diesen Umstaenden geschuldet.


    Nochmal zu dieser sueddeutschen Matrix ... im Grunde genommen ist jedes Vollfarb-Raumelement ja eher als Spaxel als als Pixel zu bezeichnen. Vier Pixel bilden ein Spaxel, das fuer die Groesse des Spaxels die volle Orts- und Farbinformation traegt. Der Begriff "Spaxel" stammt eigentlich aus der Integralfieldspektroskopie, wo jedes Ortselement sogar ein ganzes Spektrum an chromatischer Information erzeugt.

    Von daher ist das Oversampling bei Farbsensoren sogar vorteilhaft, weil dann Undersampling-Effekte wie "Stern trifft nur einen Filter" ausbleiben. Nach Nyquist sollte die PSF mindestens zwei Filter gleicher Farbe treffen, und das natuerlich in x und y. Von daher sollte das Spaxel, das 2x2 Pixel beinhaltet, als Samplingeinheit herhalten, um die gesamte Farbinformation im Ortsraum im Gleichgewicht zu halten. "2 Pixel" wird also zu "4 Pixel", da jedes Spaxel ja 2 Pixel Seitenlaenge hat.


    Das deckt sich auch mit meiner Beobachtung, dass mit meinen bisherigen Brennweiten und Sensoren (5.4 Mikrometer bei der EQS40D) das Oversampling noch nicht uebertrieben in Erscheinung getreten ist, solange das Seeing brauchbar war.


    Von daher sollten Farbkameras eigentlich bei hoeheren Brennweiten weniger schnell ins Oversampling fallen als Monochromkameras. Oder mache ich da was falsch?

  • Hallo Jürgen!


    .... ich bin gerade aus dem Krankenhaus zurueck. Vertigo-Attacke: Harmlos, interessante Erfahrung, muss aber nicht sein. Schon gar nicht an einem klaren Abend, dessen Anfang ich durch ein Fenster aus dem Krankenwagen aus bewundern durfte. ...

    Autsch ! Hört sich erschreckend an. Ich wünsche Dir alles Gute und gute Besserung! Dann mach mal erst langsam und lass alles ruhig angehen!.


    Nochmal zu dieser sueddeutschen Matrix ... im Grunde genommen ist jedes Vollfarb-Raumelement ja eher als Spaxel als als Pixel zu bezeichnen. Vier Pixel bilden ein Spaxel, das fuer die Groesse des Spaxels die volle Orts- und Farbinformation traegt. Der Begriff "Spaxel" stammt eigentlich aus der Integralfieldspektroskopie, wo jedes Ortselement sogar ein ganzes Spektrum an chromatischer Information erzeugt.

    Von daher ist das Oversampling bei Farbsensoren sogar vorteilhaft, weil dann Undersampling-Effekte wie "Stern trifft nur einen Filter" ausbleiben. Nach Nyquist sollte die PSF mindestens zwei Filter gleicher Farbe treffen, und das natuerlich in x und y. Von daher sollte das Spaxel, das 2x2 Pixel beinhaltet, als Samplingeinheit herhalten, um die gesamte Farbinformation im Ortsraum im Gleichgewicht zu halten. "2 Pixel" wird also zu "4 Pixel", da jedes Spaxel ja 2 Pixel Seitenlaenge hat.

    Interessanter Gedankenansatz! Ich kann erahnen worauf Du hinaus willst. Aber meine Physik und Optik Kenntnisse! :/ Aus meiner bisher selbst gemachten Erfahrung heraus mit einem 4,6µm Pixel / 9,2 µm Spaxel Farbsensor im 6" Newton im Vergleich mit 2,4µm Pixel / 4,8 µm Spaxel Farbsensor im 8" Newton lässt mich vermuten, erraten und hoffen, dass ich mit dem 6" Newton und einem 3,6 µm / 7,2 µm Spaxel Farbsensor also anstatt einer ASI294MC einer ASI533MC durchaus noch eine Verbesserung erzielen könnte. Letztens zu Black-ich-mache-gute-Preise und an Weihnachten gab es die ungekühlte ASI533MC vom ZWO-China Mann direkt zu journalistisch nach unten übertrieben 500 US$ - dann ist mir aber wieder eingefallen, dass die Kleine nur 14 Bit hat und ich an dieser Stelle eigentlich auch auf 16 Bit hochrüsten wollte. Aktuell wäre ich froh überhaupt irgend eine Kamera in den Himmel halten zu können, seit Ende November gab es bei uns fast durchgehend nur graue Wolkendecke ...


    In jeden Fall wird es interessant sein falls du Dich mit Deinen 14" Instrument zum Umstieg von S/W-Sensor-Technik auf Farbsensor Technik entschließt, was wir dann zu sehen bekommen werden!


    Beste Gesundheit - viele Grüße und ein Servus - MünchenBeiNacht - Ewald

    (c) Copyright 2023 . Meine Texte entstehen nur und durch ausschließliche Nutzung des eigenen Denkapparats und ich widerspreche ausdrücklich der Nutzung, Verwendung, Kopie und Diebstahl durch KI-Programme!!

    Einmal editiert, zuletzt von MünchenBeiNacht ()

  • Danke, Ewald.


    Allerdings hatte ich am 14" noch nie einen Schwarzweisssensor im Einsatz. Meine Umruestung geht von der alten DSLR (Canon EOS40D) ueber die derzeitige SBIG 8300C auf nun wahrscheinlich die Altair Hypercam 26C. Alle drei haben eigentlich zu kleine Pixel, aber mit der doppelten Spaxelgroesse und dann noch 2x2 Binning sollte sich dieses Problem entspannen lassen.


    Und dann kann ich die Hypercam ja auch noch an kurzbrennweitigeren Systemen verwenden: 200/1000er Newton, 250/2500er SCT, 102/660 Refraktor und mit Adaptern auch diverse Teleobjektive. Von daher habe ich mit den kleinen Pixeln noch Reserven.

  • Hallo Jürgen,


    autsch! Das kenn ich. Du stehst am Morgen aus dem Bett und versuchst eine Sekunde später, das sich um Dich drehende Bett wieder zu finden 8|

    Zum Glück ist das meist eine harmlose Alterserscheinung, die ich nach kurzer Instruktion bei Onkel Dottore selber aus mir wegschleudern durfte (für Aussenstehende: mit zunehmendem Alter können sich die kleinen Steinchen im Innenohr, die, als einem der Sensoren, für den Gleichgewichtssinn zuständig sind, festsetzen und spontan wieder lösen. Auge und Ohr liefern dann unterschiedliche Daten -> :dizzy_face: :woozy_face: :nauseated_face: :oncoming_fist: . Die Therapie besteht nun darin, sich auf die Bettkante zu setzen und mit Maximalgeschwindigkeit seitlich, mal links, mal rechts aufs Bett zu schmeissen). Auf jeden Fall: gute Besserung!

    Zu den Spaxeln: sehr interessant. Werde mich da mal schlau machen. Vielleicht ist das der Ansatz: die Pixelgrösse bei Farbsensoren müsste dann für die gleiche räumliche Auflösung anders (kleiner) sein als bei monochromen Sensoren. Ich bin sicher, dass sich da bei den Berufsastronomen einige Informationen finden lassen. Wobei: dort sind vermutlich nur monochrome Sensoren (ev. mit Strahlteiler) im Einsatz. Auch wenn die Sensortechnologie insbesondere bei CMOS Sensoren gewaltige Fortschritte gemacht hat: grosse Sensorfläche bedeutet immer noch kleineres Rauschen und höhere Lichtssammelfähigkeit.


    BTW: das Bayer-Pattern hat nichts mit Bayern zu tun, sondern mit Bryce E. Bayer, der dieses Konzept 1976 bei Kodak entwickelte. Ich erwähne das wegen des Erfindungsjahrs: das ist noch keine 50 Jahre alt! Ich finde das immer wieder spannend (irgend einen Vorteil muss es ja geben, älter zu werden), dass Dinge, die heutzutage selbstverständlich sind, bei der eigenen Geburt noch gar nicht existiert haben.

    Herzliche Grüsse Robert

    Ich habe keine besondere Begabung, sondern bin nur leidenschaftlich neugierig. (Albert Einstein)

  • Auch Dir ein Dankeschoen, Robert. Ja, die Bayernmatrix ist ja blauweiss und rautenfoermig ... ;) ... und hat mit der Bayermatrix nichts zu tun. In der professionellen Astronomie kommen Farbsensoren so gut wie gar nicht zum Einsatz. Beispiel SLOAN-Survey, wo die Sterne ueber die Sensoren wandern, die mit gleicher Geschwindigkeit ausgelesen werden, Da liegen mehrere Chips nebeneinander, mit Filtern drueber, sodass jeder Streifen nur einen Farbkanal sieht (in Astronomie U, B, V etc), und Nacht fuer Nacht wird das Teleskop ein kleines Stueck verstellt, um so mit der Zeit jeden Streifen in allen Wellenlaengenbereichen zu erhalten.


    Es gibt Neuigkeiten - Alea Iacta Sunt - die Wuerfel sind gefallen.


    Nachdem ich merkte, dass eine ZWO ASI 2600C fuer 2350 englische Pfund ideal waere, und ich diese Kamera gelabelt als Altair Hypercam 26C fuer 1400 Pfund angeboten fand, wollte ich Letztere kaufen. Jedoch nicht am Lager. Jetzt fand ich eine auf Ebay, recht neu und selten benutzt, mit Restgarantie. Habe mich mit dem Verkaeufer ausgetauscht, der auch noch allerhand andere tolle Sachen im guten Zustand feilbot - eine Hobbyaufgabe. Und jetzt ist die Kamera meine, fuer 920 Pfund ersteigert. Dann hoffe ich mal auf den "Nachbrenner-Effekt" und ich bin gespannt, was mir das gute Stueck so bringen wird. Wahrscheinlich wird 2x2-Binning okay sein, aber bald werde ich mehr dazu sagen koennen!

  • Hallo Jürgen,


    Ja, die Bayernmatrix ist ja blauweiss und rautenfoermig ... ;)

    :D . Jo so sans, die Bayern 8o


    Gratulation zu der neuen Kamera. Bin gespannt auf Deine Erfahrungen.


    Im Amateurbereich gelten ganz sicher andere Bedingungen. Wir haben weder das Geld noch die Zeit, für jede Aufgabe eine exakt abgestimmte Toolchain aufzubauen, sondern werden i.A. einen für viele Aufgaben geeigneten Kompromiss einsetzen.

    Ganz anders (und zunehmend) in der Berufsastronomie. Da gilt der alte Unix Spruch: one job one tool. Kostet dann eben entsprechend.


    Herzliche Grüsse Robert

    Ich habe keine besondere Begabung, sondern bin nur leidenschaftlich neugierig. (Albert Einstein)

  • Hi Markus und Robert,


    danke fuer Eure Glueckwuensche ... am Montag soll sie kommen. Ich habe noch den alten Laptop meiner Frau, der jetzt konfisziert und zum Sternwartenlaptop gemacht wird. Da werde ich die Altair-Software und Sharpcap drauf installieren.


    Und ja, ich mache ja als Amateur nur huebsche Bilder ohne wissenschaftlichen Anspruch. Dafuer ist gerade bei unserem wechselhaften Wetter ein Farbchip am besten geeignet. Auch werde ich mir so einen Tribandfilter holen, um dann bei Mondlicht auf Gasnebel Jagd zu machen. Geld habe ich nach dem Schnapper ja jetzt uebrig, und so bekommt der Haendler immerhin doch noch ein Geschaeft. ;)

  • Hallo Jurgen,


    was macht denn nun die Kamera?


    Ist sie schon da?

    Das Wetter spielte mit und nun bist du auf grund der tollen Bilder wohl sprachlos 8)


    Lass mal was von dir hören ;)


    CS und viele Grüße auf die Insel


    Matthias

    8" -f6 Newton, Selbstschliff * im Gitterohrtubus "deep blue" platziert * mit Selbstbau-Reibradantrieb angetrieben, wohl temperiert und allzeit startklar in der Gartensternwarte montiert

    TS294CP, Canon600Dac, ASI178 und ASI120mini zum Guiden, GPU Koma Korrektor

  • Hi Matthias,



    die Kamera ist da und ich arbeite mich in die Benutzung derselben ein. Mit Sharpcap muss ich ja wieder eine neue Software erlernen. Und dann ... welcher Gain? Ich werde mal mit 200 starten, wobei ich bis 20000 machen kann. Letzteres koennte beim Einstellen des Bildes oder Fokussieren helfen.


    Am 14" haengt noch die SBIG 8300C fuer den M1-Binningtest. Die Altair Hypercam 26C hat ein zu kurzes Datenkabel und meine Stromversorgung muss auch kabelmaessig verlaengert werden. Die Kabel sind unterwegs. Also noch ein paar Interfaceprobleme, um die Kamera an das Teleskop zu bekommen. Ich habe immerhin den alten Laptop meiner Frau erfolgreich konfisziert und zum CCD/CMOS-Laptop gemacht.


    Hoffentlich gibt es diese Neumondperiode erste Bilder!

  • Ideales Sampling nach Nyquist ist, mindestens zwei Pixel pro Halbwertsbreite der Punktbildfunktion zu haben. Wesentlich mehr bringt aber keine bessere Aufloesung.

    Das stimmt nicht. Es geht damit los, dass Nyquist eine punktförmige Abtastung vorraussetzt, die Pixel aber zu einer Konvolution führen. Dann ist die Auflösung in der Diagonalen geringer als in den Achsen und hat eine andere Konvolution. Oversampling verringert den Effekt der Konvolution und bringt darum mehr Kontrast.


    Die Konvolution von Pixeln unter Mikrolinsen ist dabei besser als ohne Mikrolinsen. Effektiv ergibt sich eine Sensor-MTF, die bei Nyquist-Frequenz bei alten Kameras durchaus nur 0,2 sein kann und bei modernen Sensoren um 0,7 erreicht. Speziell manche Sensoren von Sony haben weniger QE als man erwarten könnte, weil sie kleinere Pixel verwenden, was etwas QE verschenkt, aber dafür die Sensor-MTF erhöht.


    Jenseits von 3,5 Pixeln/Zyklus ist allerdings kaum noch mehr zu gewinnen:


    Image sensors: Modulation transfer function


    Bei Farbkameras wird das Ganze erheblich komplizierter. Natürlich haben sie weniger Nyquist-Frequenz als eine monochrome Kamera, aber bezogen auf die Frequenz quasi kleinere Pixel und damit weniger Konvolution, was die Sache deutlich besser macht, als man naiverweise meinen könnte.


    Michael

  • Hallo Michael,



    das ist sehr interessant! In der beobachtenden Astronomie lernt man als Student immer nur "zwei Pixel pro PSF", was also nur eine Naeherung darstellt.


    Ich habe schon oft gnadenlos uebersampled, ob mit dem RC bei 2m Brennweite oder dem 14" bei sogar 3.5m, mit der Canon 40D und ihren 5.4 Mikrometer kleinen Pixeln. Dennoch habe ich gegenueber "vernuenftigeren" Brennweiten einen Detailgewinn erzielt, und mir das mit der Bayermatrix und dem Spaxelbegriff erklaert, wie weiter oben in diesem Thread beschrieben:


    Ein Ortselement des Farbbildes hat eigentlich vier Pixel, und der Umstand der gleichen Pixelzahl des Farbchips verglichen zum Monochromchip ist der Interpolation gewidmet. Samplingmaessig agiert das alles wie ein doppelt so grosses Pixel (Seitenlaenge) und deshalb gewinne ich mit der hohen Brennweite noch Ortsaufloesung.


    Soweit meine Theorie. Dein Einwand ist sehr interessant, an die Faltung des Samplings mit der Pixelausdehnung habe ich noch nicht gedacht.


    Auch das zeigt in die Richtung, die ich in der Praxis beoachtet habe. Mit 5.4my-Pixeln bekomme ich 1.11"/pix bei 1000mm, 0.56"/pix bei 2000mm, 0.47"/pix bei 2350mm und 0.32"/pix bei 3500mm.


    Ich habe mit meiner 40D bei all diesen Brennweiten fotografiert, und ich konnte bei jeder Brennweitensteigerung einen Aufloesungsgewinn feststellen.


    Instrumente waren ein Sky-Watcher 200/1000er Newton, ein TS-RC 250/2000, ein Celestron C9.25 und das 14" Meade SCT. Es klappte meistens, aber nicht immer - mir ist noch lebhaft ein M27 durchs C9.25 in Erinnerung, der wie "unter Wasser" wirkte, das das Seeing an dem Abend ausserordentlich schlecht war. Nun ist aber das Seeing in England selten besser als 2" - das ist zumindest ein haeufig zitierter Wert - und deshalb wuerde ich im Extremfall Meade 14" sechs Pixel per Seeingshalbwertsbreite haben. Ich denke, ich werde gut damit fahren, die Hpercam 26C mit ihren noch kleineren Pixeln im 2x2-Binning zu betreiben, da sie mit ihren 3.76my-Pixeln nominell 0.21"/pix ergibt. Auf dem Cerro Paranal koennte ich dann volles Binning einsetzen ... ;)

  • Die Betrachtung einer Vierergruppe als Farbpixel ist nicht falsch, wenn es einen low pass Filter gibt, aber die low pass Filter arbeiten nicht pro Pixelgruppe, sondern sind nur eine vorgeschaltete Faltung, und damit muss man alle überlagerten Vierergruppen betrachten. DSLRs haben zumeist so einen Filter (es gibt nur wenige Sondermodelle ohne), aber astronomische Kameras haben das nicht. Hier zwei Artikel, die sich der MTF eines Farbsensors widmen. Ich kann das Blog des Autors empfehlen, aber es ist teilweise schwere Kost:


    Combining Bayer CFA Modulation Transfer Functions – I
    In this and the following article I will discuss my thoughts on how MTF50 results obtained from  raw data of the four Bayer CFA color channels off  a neutral…
    www.strollswithmydog.com

    COMBINING BAYER CFA MTF Curves – II
    In this and the previous article I present my thoughts on how MTF50 results obtained from  raw data of the four Bayer CFA channels off  a uniformly illuminated…
    www.strollswithmydog.com


    Es stimmt, dass das Samplingtheorem oft falsch angewendet wird, sowohl bei Kameras als auch bei ADCs, wo es einen Unterschied macht, ob man periodisch den aktuellen Wert mit sample and hold für die Wandlung festhält oder das Integral währund einer Wandlungszeit bestimmt, weil letzteres auch wieder eine Faltung ist. Es gibt nur wenige Hersteller, die die Sensor-MTF ins Datenblatt schreiben und darum kommt man nicht direkt drauf, dass es da etwas zu beachten gibt. Mir war das Thema auch unbekannt, bis ich es in einem Datenblatt sah: MTF bei Nyquistfrequenz und 550 nm: 0.7. Und ich dachte, huch, wieso verliert man da so viel? Am Ende der Reise war klar: Das ist ein sehr guter Wert und darum steht es im Datenblatt.


    Dann ist es so, dass das Samplingtheorem eigentlich für periodische Signale gilt. Etwas wie die Auflösung eines Doppelsterns ist aber nicht periodisch: Der Unterschied zwischen der FT und der DFT ist das Fenster bei letzterer, aber bei aller Kunst kann man nicht vermeiden, dass sich bei einem Impuls ein Peak im Spektrum in eine Glockenkurve im Spektrum verwandelt und die hat eben auch noch einen etwas höheren Anteil. Leider finde ich gerade den Artikel nicht mehr, der diesen Unterschied betrachtet. Man merkt das, wenn man ein Diagramm für das Ergebnis einer FT numerisch mit dem Ergebnis einer DFT plotten will: Es kommt nicht genau das raus, was man erwartete, weil es nicht ganz das Gleiche ist.


    Mathematisch wird die Sache schnell sehr anspruchsvoll, aber man kann es simulieren, indem man schaut, welche Faltung eines Bildes wie digital erscheint, wenn man sie mit einem Pixelraster integriert. Frans van den Bergh hat das für seine Software MTF Mapper gemacht und es gibt eine Artikelserie dazu, mit der man ein paar Tage verbringen kann:


    How to Measure Modulation Transfer Function (1) « Harvest Imaging Blog


    Ich denke mit dem Ansatz kann man auch klären, was Seeing tut, wenn man es als Faltung simuliert.


    Es gibt in der Astronomie schon lange einen Streit, weil Praktiker sagen, dass etwas Oversampling durchaus noch mehr bringt, aber jenseits von 3-4 Pixel/Zyklus lohnt es kaum noch und die Theoretiker halten mit Nyquist-Shannon dagegen. In Wahrheit haben die Praktiker aber die Theorie auf ihrer Seite, nur ist es leider viel komplizierter, als man erst denkt. :)

    Michael

  • Hallo Jürgen und Michael,


    eine interessante Diskussion führt ihr hier. Leider bin ich, was die theoretischen Hintergründe angeht, nicht so bewandert wie ihr. Kürzlich habe ich mir eine moderne gekühlte Astro – Farbkamera geleistet, die mit 3,76 my Pixeln und Bayermatrix aufwartet. Meine Teleskop arbeitet mit einer Brennweite von ca. 2500 mm.


    Zur Zeit teste ich verschiedene Gain – Offset – Kombinationen in Verbindung mit der Aufnahmedauer eines Einzelbildes. Bezüglich der Pixel habe ich ohne weitere Überlegung das 2x2 Binning vorausgesetzt, da ich damit 0,61“ / Pixel erreiche und mich auch dann noch im leichten Oversampling befinde.


    Aufgrund der Erfahrungen von Jürgen mit seiner DSLR komme ich jetzt ins Grübeln, ob ich nicht doch die volle Auflösung ohne Binning verwenden soll. Das Seeing ist hier vor Ort in der Regel nicht besser als in England. Könnt ihr mir diesbezüglich einen Rat geben?


    Schöne Grüße

    Heinz

  • Hallo Heinz,


    ich habe die Erfahrung gemacht, dass das Binning bei meiner DSLR nicht richtig funktioniert. Ich hatte das mal bei einer EOS60D ausprobiert, und es rauschte furchtbar. Deswegen nutze ich mit der DSLR immer die volle Aufloesung, trotz Oversampling.

  • Und jetzt mal endlich Neuigkeiten hier!


    Ich wollte ja noch den Crabnebel mit der nunmehr 2x2-gebinnten SBIG 8300C nachreichen, bevor ich die neue Altair Hypercam 26C zum Einsatz bringe.


    Die Hypercam kam an, und damit die Wolken. Acht geschlagene Wochen Mistwetter, unterbrochen von einer klaren Nacht, die windig war. Ich bekam am 14" nur Wuerstchen, keine Chance.


    Gestern war es dann endlich mal wieder klar. Hier 33 x 5min bei maessiger Transparenz und Mondschein ein M51 bei voller Brennweite, SBIG 8300C mit 2x2-Binning. Das ist eine Reduktion auf die Schnelle, und sicher laesst sich da noch mehr rausholen. Auch haette ich die Kamera lieber um 90 drehen sollen. ;) Eigentlich wollte ich 3min belichten, aber durch ein Versehen gab ich 300s ein, was ja 5min sind. Aber die Rupp hat diesmal mit Autoguider alle 33 Aufnahmen punktfoermig gehalten - Chapeau! Deshalb mache ich normalerweise nur 3min.


    Die ersten Flats waren furchtbar. Ich musste sie vorhin nochmal machen, da ich bei 0.1s Shuttereffekte bekam. Da musste ich das LED-Leuchtpanel noch durch das Inkontinenzbettlaken abdaempfen, das normalerweise als Staubschutz auf dem Teleskop liegt. Bei 0.3s gab es dann keine Verschlusseffekte mehr.


    M51, 33x5min, SBIG 8300C, 2x2bin, 2023 03 27.



    Natuerlich konnte ich es nicht lassen, und in der Sternwarte daneben flanschte ich die neue Altair Hypercam 26C an meinen Vixen 102/660er ED-Refraktor. Bislang habe ich nur eine Session bei Regenwetter am Kuechentisch hinter mir gehabt, und das was das 1st light. Aaaaaber ... die Montierung muss wohl in den 8 Wochen einen Bums abbekommen haben, denn die Nachfuehrung war furchtbar. Von ueber 30 Aufnahmen konnte ich gerade mal 6 verwerten. Und noch schlimmer: Die Flats waren fuer die Tonne! Ich habe ein paar interessante Strukturen im Bild (M51 Weitfeld), die eventuell die Loesung des Raetsels auf der Suche nach der Dunklen Materie darstellen. ;) Heute habe ich das Fenster kontrolliert, und das war sauber. Ich wundere mich, ob diese Wuerste Kondensation am Fenster waren, da ich die Kamera wie auch die SBIG auf -20 Grad Celsius gekuehlt hatte.


    Hier ist also noch etliches an Lernarbeit faellig, bevor ich sinnvolle Bilder hinbekomme. Immerhin: Ich konnte bei Gain 20000 und passender Histogrammstellung im Livemodus bei t=1s M51 sehen. Das hilft mir ungemein beim Einstellen des Bildausschnitts. Dann runter auf Gain 200 und normal lang belichten, in meinem Fall waren es 3min bei f/6.5.


    Hier das, ahem, nicht ganz perfekte 1st light:


  • Hallo Jürgen,


    danke für deine Info zum Binning mit der DSLR. Ja, dieses Mistwetter macht zur Zeit den meisten von uns zu schaffen.

    Dein M51 sieht doch schon gut aus. Ich würde in diesem Fall bei den 300 Sekunden bleiben, die haben sich bei früheren Fotos mit meiner ATIK Farbkamera stets bewährt. Bei der langen Brennweite wirst du sicher Off Axis guiden.


    Die Flecken bei der Aufnahme mit der CMOS Kamera sehen nicht aus wie Frostartefakte. Bei mir sahen diese Frosteffekte immer dunkler aus und haben sich meist von den Rändern der Kamera her ausgebreitet. Es waren also zusammenhängende Bereiche, keine diskreten Flecken wie auf deinem Bild. Du solltest erwägen, die neue CMOS Kamera nur bis – 10 Grad zu kühlen, da diese in der Regel ein geringeres Rauschverhalten als die CCD's haben.


    Viele Grüße

    Heinz

  • Hallo Heinz,


    danke fuer Dein nettes Feedback! Ich habe keinen Off-Axis-Guider, und ich hatte normalerweise immer eine Drift zwischen Haupt- und Leitrohr. Inzwischen habe ich zu dem "Mirror-Lock" des LX200 noch drei Schrauben mit Plastikspitzen eingebracht, um den Spiegel weiter aussen etwas zu unterstuetzen. Dennoch hat es mich verwundert, dass es diesmal so wenig Drift gab. Vielleicht lat das am grossen Stundenwinkel, denn M51 stand noch weit im Osten.


    Danke auch fuer Deine Meinung ueber die Flecken. Ich muss die Kamera nochmal kuehlen und inspizieren, um zu sehen, was das Problem sein koennte. Vielleicht bringt es ja was, weniger stark zu kuehlen, da die Kamera ja ohnehin viel rauschaermer ist als meine alte DSLR.


    Auf Dauer soll die SBIG 8300C am 14" durch die Hypercam 26C ersetzt werden, die dann aber ebenfalls im Binningbetrieb laufen soll. Ein natives Pixel ist ja nur 0.22" gross. Vielleicht versuche ich dann auch wieder einen Fokalreduktor, obwohl mich die Leistung des Antares 0.63x und des CCD067 mit der DSLR nicht begeisterte. Vielleicht bekomme ich ja einen besseren Abstand hin.

  • Flats funktionieren bei den modernen Chips anders. Dimme dein Panel so ab, dass du Flats mit >1 Sekunde belichten musst. Dann klappt das sofort, vertrau mir.


    BIAS sind gar nicht möglich ohne Pattern, am besten Flat Darks machen. Also bspw.:


    Flat 1,5s

    Dazugehöriges Dark 1,5s


    Es ist nicht nötig, den Chip unter 0 Grad Celsius zu kühlen. Das bringt keine (sichtbare) Verbesserung. Der Vorteil von nur 0 Grad Chiptemperatur ist, dass du im Sommer keine Pause einlegen musst.

  • Hallo Drehn,


    auch Dir ein Danke fuer Deine Tips. Ich mache immer Biases, Flats, Darks und Flatdarks. Das mit der laengeren Belichtung fuer Flats leuchtet mir bei der SBIG ein, da sie einen mechanischen Shutter hat. Bei den DSLRs ist der Shutter so konstruiert, dass er auch bei 1/8000s das Bild gleichmaessig ausleuchtet. Bei den auf Langzeitbelichtungen getrimmten Astrokameras ist das wohl nicht so. Das hatte ich als Student am 1m des Observatorium Hoher List erlebt, wo ein Compurverschluss verwendet wurde, der nicht in einer Zwischenpupille lag. Bei Belichtungen kleiner als 1s gab es ein huebsches Spiralmuster, das von den Lamellen erzeugt wurde.


    Bei der Altair mit ihrem elektronischen Verschluss haette ich das Problem nicht erwartet. Aber ich werde mal mit Daempfung und laengerer Belichtung ausprobieren. Auch mit der Kuehlung werde ich mal weniger rabiat sein. Auf der Arbeit wird halt alles auf -110 Grad Celsius gekuehlt (Optimum fuer "Science grade" CCDs), von daher bin ich etwas "verdorben". ;)

  • Hallo Jurgen,


    ich wünsche dir viel Erfolg bei deiner neuen Kamera.


    "Heute habe ich das Fenster kontrolliert, und das war sauber."


    Redest du hierbei vom Küchenfenster :?: 8o


    Ist das ein Einzelbild von M51?


    Bin schon gespannt, was du mit der Kamera erreichen wirst....


    Viele Grüße und CS aus dem Norddeutschland

    Matthias

    8" -f6 Newton, Selbstschliff * im Gitterohrtubus "deep blue" platziert * mit Selbstbau-Reibradantrieb angetrieben, wohl temperiert und allzeit startklar in der Gartensternwarte montiert

    TS294CP, Canon600Dac, ASI178 und ASI120mini zum Guiden, GPU Koma Korrektor

    Einmal editiert, zuletzt von MatthiasG ()

  • Hi Matthias,

    natuerlich das Chipfenster. ;) Das Bild ist ein Stapel aus sechs Bildern. Ich bin auch gespannt, was ich mit der Kamera erreichen kann, wenn ich sie erstmal vollstaendig beherrsche.


    Gain 200 habe ich im Web als besten Gain gefunden. Darunter geht das Ausleserauschen hoch, und hoehere Gains reduzieren den Dynamikbereich. Gibt es hier Nutzer der Hypercam 26C oder der ZWO ASI 2600MC, die das anders handhaben?

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!