Beiträge von tbstein

    Hallo,


    angespornt durch die tolle Darstellung des Pulsierens des Pulsars im Krebsnebel im Thread:
    http://www.astrotreff.de/topic.asp?TOPIC_ID=257999
    habe ich nochmal eine etwas ältere ultrakurzbelichtete Bildserie vom Februar 2017 bildbearbeitungstechnisch durchgesehen und ich habe auch das Problem gefunden, warum ich damals ohne Ergebnis aufgegeben habe. Aber zuerst das Resultat:
    (Leider sind alle Bilder in x und y gespiegelt, ich bitte um Entschuldigung)


    Bild1: Krebsnebel M1 mit Pulsar NP 0532 (rechts oben), Aufnahmedatum 21.01.2017. Pulsarperiode 33,371ms, dargestellt mit jeweils 3,4ms Einzelbildern, welche aus jeweils phasenrichtigen Stacken von 7600 Einzelbildern mit 5ms Belichtungszeit (38s pro Phasen-Bild) entstanden sind.



    Bild2: 3x Vergrößerte Darstellung


    Die Aufahmebedingungen waren damals:
    Aufnahmedatum: 21.01.2017
    Teleskop: Meade 12" ACF mit 3000mm Brennweite
    Kamera: ANDOR IXON 897D EMCCD (16µ Pixel, 90%QE, -80°C Kühlung) mit 300x EM-Gain, nur Luminanz
    Einzelbelichtungszeit: 5ms
    Bildserie: ~76000 Einzelbilder
    Bildfolge/Kadenz: 34,99ms (Bildfrequenz bei 256x256 und 5MHZ Auslesefrequenz)



    Bild3: Bildfolge von 100 Einzelbildern zur Veranschaulichung, Bei 5ms Belichtungszeit ist nur 1 Stern mit etwa 11mag links unten zu erkennen. Der Bildausschnitt wurde extra so eingestellt das dieser Stern gerade noch mit drauf ist, da das die einzige Möglichkeit für ein Alignment ist.


    Bild4: Summenbild ohne Alignment



    Bild5: Summenbild mit Alignment, Grenzgröße ist etwa 19mag bei 380s Gesamtbelichtungszeit. Der Hintergrund ist etwas "wellig", die Kamera fühlt sich bei solch extrem kurzen Belichtungszeiten nicht so ganz wohl.



    <b>Wo war 2017 der Fehler und wie habe ich es jetzt gemacht?</b>
    Kurzum habe ich nicht gut genug zum Pulsar recherchiert und es war auch eine ganzschöne Datenschlacht mit vielen Fehlversuchen. Es ist nämlich extrem wichtig, dass die Periode des Pulsars und das Bildaufnahmetiming bei den tausenden Bildern auf Bruchteile von µs bekannt ist und auch ausreichend stabil über die Aufnahmedauer (~2700s) bleibt.


    Nach neuerlicher Untersuchung sind folgende Parameter herausgekommen:


    <b>(Berechnete) Pulsarperiode (21.01.2017): 33,371ms</b>
    (habe ich per Excelsheet und den aktuellen Timingparametern gerechnet, ändert sich schon merklich, aktuell ist sie bei 33,378ms)


    <b>Bildfolge/Kadenz: 34,98285ms</b>
    (musste ich exakt mittels FFT bestimmen, alles andere funktioniert nicht)


    Damals hatte ich mit ungenauen und auf 2 Nachkommastellen gerundeten Werten gerechnet. Das geht dann nur über einige 100 Bilder gut, dann läuft das Stacking aus der Phase. Es ist halt leider eine doch recht lange Bildfolge über 76000Bilder notwendig.


    <b>Praktisch, bzw. Softwaretechnisch habe ich das unter Verwendung von ImageJ (bzw. AstroImageJ) realisiert. [Ich liebe das Programm :)]</b>
    - alle Bilder sind abfolgerichtig in einem TIFF-Bildstack von insgesamt 9,2GB gespeichert
    - ich lasse ImageJ per skript die Bilder durchzählen und das Programm berechnet die jeweilig Phase des Bildes mittels der exakten Pulsarperiode sowie der genauen Bildkadenz und der Position des Einzelbilds im Stack
    - das Programm schreibt dann in die Einzelbilder des TIFF-Stacks den Label als Metadaten, wobei im Label die ausgerechnete Phase steht
    - anschließend kann ich die Bilder automatisch nach dem Phasenlabel sortieren, bzw. in Bins eingruppieren
    - Stacken und fertig
    - kann man mit dem ImageJ alles komplett skripten und vollautomatisiert durchlaufenlassen


    Die für die phasenrichtige Berechnung erforderliche Bildkadenz, bzw. die Phasenverschiebung habe ich mit ImageJ und QtiPlot bestimmt. Ist schon etwas trickreich, da faktisch nur einzelne Photonen ankommen:
    1. 4 Pixel an der Position des Pulsars pro Bild summieren
    2. in z-Richtung des Bilderstacks auswerten (plot z-axis profile)
    3. diese Zahlenreihe exportieren und mittels QTIPlot importieren und eine FFT drüberlaufen lassen.
    4. Position des/ bzw. der Peaks auswerten, siehe unten:


    Bild6: FFT Auswertung mit QTIPlot


    Mit der FFT kann man die Frequenz des Pulsars bezogen auf die Bildfolge superexakt auswerten. Die Messung ergibt, dass die Phase sich alle 1 / (0,037113 +- 0,00001) Bilder mit ausreichend hoher Genauigkeit wiederholt, nominell also alle 26,94473 Bilder. Thats it!


    Vg Tino

    Mist,
    habe gerade festgestellt, dass ich die Rotationsperiode des Pulsars falsch angenommen hatte. Dann passt die ganze Phasenberechnung nicht. Im Januar 2017 war die Periode schon 33,73ms, statt der angenommenen 33,09ms (Zur Entdeckung 1968). Aktuell ist sie bei 33,78ms, zumindest, wenn ich alles richtig gerechnet habe. Hätte ich nicht gedacht, dass sich hier soviel ändert.
    Vg Tino

    Hallo Martin,


    von mir auch eine herzlichen Glückwunsch zu der gelungenen Aufnahme. Es gibt diesbezüglich aber schon einige Referenzen. Beispielweise hier:
    https://www.cloudynights.com/t…r-is-blinking-not-a-joke/
    Vom 1m Teleskop am Pic du Midi, aber halt auch schon mit Profi-Equipment. Die Variante mit dem PLL-stabilisierten Shutterrad gibts schon noch viel länger und da funktionieren schon verhältnismäßig kleine Teleskope. Diesbezüglich ist dein 0,6m Teleskop doch schon ein Riese. Aber gut, Direktabbildung funktioniert definitiv nur mit einer enstprechenden Apertur, es kommen nämlich bei Mag16 und so kurzen Belichtungszeiten nur vereinzelte Photonen an, da lässt sich die Physik leider nicht austricksen.
    Ich habe mich übrigens auch 2017 mit meinem Meade 12"ACF daran versucht, hab auch eine exotische EMCCD zu bieten. Ist aber wirklich nicht ganz so einfach. Ich bin gerade dabei mir die Daten nochmal anzuschauen, hab es aber damals definitiv nicht hinbekommen. Ist schon eine ganzschöne Datenschlacht, das Ganze und einige Dinge, wie beispielweise das Alignment, bzw das Guiding können einem die Tour versauen.
    Meine Belichtungsdaten waren übrigens:
    12" ACF mit 3000mm Brennweite
    ANDOR IXON 897D EMCCD (16µ Pixel, 90%QE, -80°C Kühlung) (wirkt also so ähnlich, wie dein Nachtsichtverstärker)
    Belichtungszeit 5ms (nur ein einziger Stern mit etwa 11Mag ist gerade so zu erahnen, aber zum Alignment noch ausreichend)
    Insgesamt ~75000 Einzelbilder
    Kadenz 34,99ms (max. Bildfrequenz (==&gt;)256x256, aktuelle CMOS sind hier sicherlich im Vorteil)


    Dh. bei 33,09ms Pulsarfrequenz schiebt die Phase mit jeder Belichtung immer 1,9ms oder 20,5° (respektive 380,5°) weiter. Wie stabil die Bildfrequenz steht, ist schon sehr problematisch, bei den langen Serien. GPS wäre da wahrscheinlich sehr hilfreich. Es müssen mit dem 12" also etwa 5000 Bilder addiert werden (~25s Belichtungszeit) um die 16mag Zentralsterne mit etwas SNR zu versehen. Da hat ein 0,6m Teleskop in der selben Zeit schonmal die 4fache Photonenzahl eingefangen, ein bisschen Neidisch bin ich also schon ;).
    Bilder sagen aber mehr als Worte, ich werde das nochmal aufbereiten.


    Vg Tino

    Hallo nochmal,


    falls jemand wirklich mal stöbern möchte, was eigentlich alles zu einer Weltraummission gehört, hier beispielsweise das Red-Book der ESA-Cheops Mission:
    https://sci.esa.int/documents/…I_RP_001_RedBook_i1.0.pdf
    Es handelt sich hierbei um ein 2019 gestartetes streulichtoptimiertes 330mm RC-Teleskop mit 1Mpix-Kamera, welches zur Untersuchung von Planetentransits dienen soll (oh neine, die Defokussieren das Ding mit Absicht, was für ein Frevel). Die Mission ist laut ESA eine S-Mission, also eine Kleinmission. Hier sind die Kosten auf 50M€ beziffert, wahrscheinlich mit allem drum und dran und daher nurmal so als Hausnummer. Ich denke, wenn man nicht komplettes Risiko gehen will, kann man wohl die Kosten mit sher viel Phantasie auf 5-10M€ runterbringen. Außer man bekommt den Spare-Satelliten in 5 Jahren günstig auf Ebay ;) Ich habe die letzten 10 Jahre übrigens einige optische Elemente für Forschungssatelliten mitentwickelt und hergestellt. Ist schon ziemlich aufwendig, aber es muss halt alles auf anhieb und über Jahre hinweg wartungsfrei in einer unwirtlichen Umgebung funktionieren. Und es ist nicht zu unterschätzen, wie viele Einzelkomponenten zu betrachten sind. Und selbst bei 5-10M€ möchte man keine 50% Ausfallwahrscheinlichkeit haben, sonst stehen die Crowd-Funder mit Mistgabeln vor der Haustüre.


    Vg Tino

    Hallo Heiko,


    sollte kein Plädoyer sein, sondern dass es rein technisch schonmal gar keinen Sinn ergibt, wenn man unter einer bestimmten Teleskopgröße bleibt. Außer man möchte aus Liebhaberei 10^3fach so viel Geld ausgeben. Oder vielleicht doch eher als Marketinggag, wie hieß nochmal das von dir angepriesene überteuerte EAA-Miniteleskopchen mit Smartphoneanbindung, ... hihi ;). Da könnte man mit den Crowdfundingmilliönchen schonmal was Sinnvolles machen. Spass beiseite, wenn man ne marketingwirksame kostenlose Mitfahrgelegenheit aufner Musk-Rakete hätte, könnte man sich ja mal Gedanken machen. Wäre vermutlich ein Heidenspass, nen 20"-handpolierten Spiegel in ner Wurzelholz-Rockerbox mit allerfeinsten Nagler-Okularen und nem angeflanschten Top-Huawei Smartphone mittels Okularprojektion hochzuschicken.


    Lg Tino

    Hallo Allerseits,


    ich denke die zu allererst zu beantwortende Frage ist, bei welchen Parametern, bzw. ab wann ein Teleskop im Weltraum überhaupt einen Vorteil bezüglich einer Remotesternwarte in einer guten Astrolocation bringt.
    Ich fange mal an:
    1. Seeing
    &gt;&gt;&gt; Ergebunden (Atacama FWHM=0,5-0,7asec, Südpol FWHM=0,3-0,5asec) Ich denke ein 1m Teleskop sollte das schon gut ausreizen können.
    &gt;&gt;&gt; Weltraum (Min 500mm Apertur für FWHM=0,5-0,6asec)
    Auflösungsvorteil erst ab 0,5m Apertur, drunter brauch man wohl garnicht anfangen.


    2. Beobachtungswellenlängen
    &gt;&gt;&gt; Ergebunden (VIS-NIR/IR)
    &gt;&gt;&gt; Weltraum (Komplett)
    Große Vorteile im UV.


    4. Himmelshintergrund
    &gt;&gt;&gt; Erdgebunden ~22Mag/arcsec^2
    &gt;&gt;&gt; Erdorbit 23-24Mag/arcsec^2
    Man kommt in erster Näherung etwa 2Mag tiefer.


    3. Nettobeobachtungszeit
    &gt;&gt;&gt; Erdgebunden ? (Tag/Nacht/Mond) vllt. 15% Netto
    &gt;&gt;&gt; Erdorbit ?


    Aber Vorsicht, alles beim Milchmädchen abgeschaut.


    Vg Tino

    Hallo Quilty,


    deine Motivation in Ehren, aber es hapert noch an einigen prinzipiellen Dingen. Mit Retusche ist eigentlich die (meist händische) Korrektur (Politur) eines nicht perfekten optischen Elements gemeint, nicht die eigentliche Korrektur der optischen Bildfehler des Teleskops per Design.
    Bezüglich Korrektur der verschiedenen optischen Bildfehler gibt es unterschiedliche Ansätze, welche umso kompliziertere Spiegeloberflächen haben müssen, je mehr Bildfehler für ein definiertes Feld korrigiert werden sollen. Mit zwei komplizierteren Spiegeln (RC) kann man alle geometrischen Abbberrationen korrigieren, außer die Bildfeldwölbung. Genau das Gleiche gelingt einem SC bzw. Maksutov, wobei hier die Meniskuslinse, bzw die Schmidtplatte eine zusätzliche Korrekturfunktion übernimmt und im Gegenzug dazu, die Spiegeloberflächen, bzw die Justierung nicht so kompliziert sein müssen. Die Linse bringt aber Probleme in Form von Farbfehlern mit hinein, sodass hier das Design sorgfältig abgestimmt sein muss. Diese geometrischen Abberrationen müssen übrigens nicht Null sein, sondern die Abbildungsleistung des Teleskops wird im besten Falle durch die Beugung begrenzt, die geometrischen Fehler müssen nur im Vergleich zur Beugung entsprechend klein sein.
    Dh. die Abbildungsleistung eines RCs, eines SC und eines Maskutovs kann für ein (nicht allzugroßes) Bildfeld komplett nicht unterscheidbar sein. Auf der optische Achse ist das für alle kein Problem, aber jedes Design hat seine Grenzen, bezüglich Größe des korrigierbaren Bildfelds, da Fehler höherer Ordnung dazukommen.
    Also kurz: Es gibt also für nicht übermäßig große Bildfelder in erster Näherung kein besser oder schlechter. Weniger Flächen bedeuted aber weniger Streuung und somit höheren Kontrast.
    Gruß Tino


    p.s. Ist natürlich alles ein bisschen verkürzt dargestellt.

    Hallo,


    lt. Wikipedia ist die Definition der Brennweite aber nicht Abstand der Linse zum selbigen, sondern Abstand der Hauptebene der Linse zum Brennpunkt. Die Hauptebene der Meniskuslinse liegt eben nicht Mittig zur Linsengeometrie. Deswegen ist die Brennweite, bzw der resultierende Abbildungsmaßstab in beide Richtungen aber trotzdem gleich. Bei komplizierteren optischen Systeme wirds diesbezüglich noch unübersichtlicher, dann kann man die effektive Brennweite nur über den Abbildungsmaßstab bestimmen. Es tut aber wahrscheinlich nicht viel zur Sache, so ein optimiertes Maksutov-Design lässt sich in jedem besseren Optikdesignprogramm berechnen, aber nur richtige "Fachleute" verstehen, was das Programm eigentlich genau macht. Ist eigentlich nicht schlimm, man sollte aber schon respektieren, dass manche Dinge etwas komplizierter sind und wenn man sich Mühe gibt, kann man vieles auch Verstehen.


    Gruß Tino

    Hallo,
    wenn die Kamera sich nicht an der richtigen Position im OAZ befindet (nennt sich bfd, back-focal-distance, oder Auflagemaß bei normalen Fotoapparaten), dann kann man dies per Hauptspiegelfokussierung zwar korrigieren, das bedeutet aber, dass sich die EFL (effective-focal-length) ändert und somit die Vergrößerung. Kann man ganz einfach testen, indem man die Kamera ein Stück aus dem Okularauszug herauszieht. Dannn ists zwar erstmal unscharf, aber das kann man Nachfokussieren. Durch das Nachfokussiern ändert sich aber die effektive Brennweite. Der Sensor bzw die Kamera hat laut Optikdesign an einer bestimmten Stelle im OAZ zu sitzen, dann sind die Bildfehler im Feld optimiert. Dies entspricht dann meistens auch der nominell angegebenen Brennweite.
    Vg Tino

    Hallo,
    praktisch fokussiert man ja bei Maks und SCs mit dem Hauptspiegel. Wenn man den Detektor etwas weiter weg oder auch näher an der Tubusrückseite fixiert, kann man mit der Hauptspiegelfokussierung dies korrigieren, was dann auch die Brennweite verändern würde. Dh. die Brennweite ist in gewissen Grenzen veränderbar. Die angegebene nominelle Brennweite von 1900mm wäre die optimale Einstellung, dann wäre auch die Feldkorrektur optimal. Diese nominelle Brennweite ergibt sich aber nur, wenn der Detektor in der Fokusebene einen bestimmten Abstand hat. So zumindest die Theorie. Ich würde daher eher mal deinen Kameraposition überprüfen, "Quilty".
    Vg Tino

    Hallo Peter,


    ich denke es war nicht meine und bestimmt auch nicht Heikos Absicht, dich in eine Ecke zu drängen. Es wurde zwar einiges Kontroverses geschrieben, aber ich denke das ihr beide schon euer Handwerk, bzw. Hobby vesteht. Es geht hier m.E. auch nur um Spitzfindigkeiten, das Wichtigere ist, das man seine Technik beherrscht. Ich habe diesbezüglich übrigens mal vor einiger Zeit die ganzen Aspekte in einer Excel-Kalkulation versucht zu berechnen, um besser zu Verstehen, wo man noch etwas zu optimieren ist. Ist alles ein bisschen im Sande verlaufen, da die Wahrheit meist doch auf
    dem Rasen, bzw. dem Sensor liegt. Falls mal jemand etwas übereifrig eine Erkenntnis, bzw. Erfahrung zum besten gibt, muss man das nicht immer gleich negativ auffassen. Daher vertragen wir uns wieder und erfreuen uns am Hobby.


    Vg Tino

    Hallo Peter, hallo Heiko, hallo Lars,


    bezüglich Kurzbelichtung usw. gab es schon viele Diskussionen hier im Astrotreff. Die Quintessenz ist meines Wissens:
    Belichtungszeit so lang wählen, dass das Rauschen des Sky-Backgrounds möglichst größer ist, als das Ausleserauschen der Kamera (ich denke 3-5x größer ist ausreichend, aber darüber lässt sich streiten). Dann ist es egal, ob man länger belichtet, oder ob man die Belichtungsserie in einzelne Belichtungen unterteilt und diese dann Stackt. Das S/N ist das Gleiche, das kann man auch ziemlich gut mathematisch aus der S/N-Formel herleiten. Dh. im Umkehrschluss, dass man mit einer modernen CMOS-Kamera mit sehr niedrigem Ausleserauschen bei hellem Himmel und ohne Schmalbandfilter relativ schnell im Sky-Background-dominierten Bereich ankommt. Da ist man mit einigen Sekunden als Einzelbelichtungszeit ausreichend lang unterwegs. Mit Schmalbandfilter, bzw. sehr dunklem Himmel ist der Sky-Background u.u viel geringer, sodass hier wirklich lange belichtet werden sollte, falls man kein S/N verschenken möchte. Die kurzen Belichtungszeiten haben aber wie bereits mehrfach gesagt sehr viele Vorteile. Geringere Anforderungen an Montierung/Guidung und damit kleinere FWHM, geringerer Ausschuss durch Satellitenspuren. Und bezüglich Dynamikumfang muss ich dem Heiko auch Recht geben. Wenn man viele Aufnahmen stackt, dann steigt der Dynamikumfang mit der Wurzel der Anzahl der Belichtungen. Für normale "Pretty Images" vllt. unerheblich, aber wenn man photometrieren möchte, ist es schon von großem Interesse, dass auch die hellen Sterne nicht ausgebrannt sind. Ich denke aber, dass die Unterschiede durch das Belichtungsregime nicht so extrem groß sind, sondern dass hier ein dunkler Himmel schon Wunder wirkt und viel extremer das Ergebnis beeinflusst.


    Gruß Tino

    Hallo Ralf,


    hast du die 120x10er Gruppen einzeln gestackt, na dann alle Achtung. In ImageJ gibt es übrigens eine schöne Funktion, "Grouped Z Project". Damit kann man das Stacking in beliebiger Gruppengröße ziemlich geschickt erledigen lassen. Trotzdem eine atemberaubende Animation.


    Lg Tino

    Hallo Peter,


    das kann schon von der TOPAZ AI kommen. Ähnliche AI-Entrauschungs- und Schärfungstools teilen große Bilder in mehrere Blocks auf, welche den trainierten AI-Einheiten besser entsprechen.


    Vg Tino

    Hallo Sven,


    das perfekte Sampling ist immer Definitionssache. Für gewöhnlich versucht man den Stern mit mindestens 4 Pixeln abzubilden, dh. in der Atacama mit 0,6asec Seeing solltens wohl mindestens 0,3asec/Pixel sein. Ein bisschen mehr ist besser, sonst verschenkt man Auflösung. Das Sampling ist im übrigen nur von der Brennweite und der Pixelgröße abhängig. Den Abbildungsmaßstab kann man recht leicht ausrechnen:
    206/Bennweite ergibt den Abbildungsmaßstab in asec/µm.
    Dh bei bei 2800mm Brennweite ist der Abbildungsmaßstab 0,074 asec/µm und bei 800mm Brennweite 0,26 asec/µm. Wenn ich beispielweise 5µm Pixel habe dann ist das Sampling bei 2800mm etwa 0,37asec/Pixel und bei 800mm Brennweite 1,3asec/Pixel. Dh. die Brennweite definiert die Bildgröße.


    VG Tino

    Hallo Ralf,


    tja, Strukturen sind leider nicht so gut auszumachen. Wie hast du denn die Orientierungen miteinander verrechnet, hast du sie einfach aligned und gestackt? Dies würde dann nur eine Abschwächung bewirken. Falls die Möglichkeit besteht, kannst du mir bitte mal die gestackten Daten für die jeweiligen unterschiedlichen Orientierungen bereitstellen. Ich würde gerne mal schauen, ob sich die Mehrfachbilder etwas besser herausrechnen lassen. Ich würde hierzu die Differenz der jeweilig unterschiedlichen Orientierungen, nachdem diese korrekt Aligned sind, extrahieren. Diese sollte dann hauptsächlich die Mehrfchbilder aufgrund der Beugung enthalten. Das könnte man dann explizit abziehen. Ist zumindest einen Versuch wert.
    Ich denke aber, dass die Pferdeohren sich nicht so leicht entfernen lassen. Hier ist vllt ein Leckerli zielführender. ;)


    Vg Tino

    Hallo Ralf,


    ich schicke dir den Filter zu.
    Ich habe mal noch ein bisschen recherchiert und um 1010nm WL ist die Atmosphäre wirklich recht transparent, man kann also praktisch die heiße Oberfläche sehen.


    Siehe hier:
    https://earthweb.ess.washingto…ce/ESS495/venus_arney.pdf
    und ein bisschen Ausführlicher hier:
    https://www.mps.mpg.de/phd/the…here-using-vmc-images.pdf


    War mir so nicht geläufig, man lernt halt nie aus. ;)
    Das Signal sollte aber ziemlich schwach sein und die 178er hat vermutlich auch nur noch eine unterirdische Empfindlichkeit bei der WL.
    Zumindest das Seeing ist im IR etwas gutmütiger.
    Bin gespannt und drücke die Daumen.


    Vg Tino

    Ich habe nochmal schnell nachgeschaut und ich habe 2 IF Metallinterferenzfilter von Zeiss (Siehe Seite 6 in http://optik-online.eu/Mikroko…tallinterferenzfilter.pdf)
    für 1000nm und für 1025nm mit einer Halbwertsbreite von jeweils 22nm gefunden. Das könnte vielversprechend sein. Ich könnte den 1025nm Filter übrigens auch gerne leihweise zur Verfügung stellen.
    Wenn genug Licht da ist, könnte man ja auch nochmal einen schmalbandigen (FWHM 3nm) 1064er Filter ausprobieren.


    Vg Tino

    Hallo Ralf, hallo Mario,


    interessantes Thema. Würde mich auch mal mit meienr EM-CCD daran versuchen, wenns demnächst mal passt.
    (==&gt;)Ralf: Würde auch sagen, dass die Mikrolinsen die Reflexe verursachen, aber vermutlich nicht alleine, sondern im reflektiven Zusammenspiel mit dem Sensorglas.
    Ich denke mal, dass die Entspiegelung das Hauptproblem ist. Was im VIS noch gut funktioniert, machts dann im NIR eher schlechter. Wenn man den entsprechenden Mut aufbringt,
    könnte man das Deckglas ggfs. abknupeln. ;)
    Der RG-1000 Kantenfilter ist wahrscheinlich auch nicht sonderlich gut geeignet. Lässt halt schon vorher ziemlich viel durch und man sollte sich wohl schon recht stark auf das schmale
    Durchlassfenster um die 1010nm konzentrieren. Hier könnte ein Linien-Interferenzfilter, beispielsweise für 1064nm, aber möglichst nicht ganz so schmalbandig,
    funktionieren. Wenn man diesen entsprechend schrägstellt, kann man die Durchlasswellenlänge in gewissen Grenzen zu kürzeren Wellenlängen verstimmen.
    Siehe auch hier: https://forum.astronomie.de/th…hlen.242769/#post-1266134
    Ich kann ja mal schauen, ob ich was passendes Auftreiben kann.


    Vg Tino

    Hallo Joshi58,


    ich habe nochmal schnell nachgeschaut und du hast Recht aber nur zum Teil. Die Framerate skaliert eigentlich nur zur Bildhöhe. Die Bildbreite ist irrelevant für die Framerate, solange die Bandbreite der Datenübertragung nicht begrenzt. Ich vermute mal, dass das Auslesen jeweils sequentiell zeilenweise stattfindet. Ich vermute mal, dass der eingeschränkte ROI dann oben liegen muss, damit die Framerate steigt. Bei Rolling Shutter fängt das Auslesen eigentlich immer ganz oben an. Ich kann es aber leider nicht beweisen, da ich keine ASI-Kamera hab. ;)


    Gruß Tino


    Bearb: Sorry, hab deinen Beitrag nochmal gelesen, hattest du ja in etwa so schon geschrieben.

    Hallo Armin,


    ja, beim Binnig werden Pixel in Blöcken zuammengefasst. Diese haben dann eine größere Fläche, wodurch die Empfindlichkeit steigt. Die Auflösung sinkt dann aber entsprechend. Das Binning kann direkt in der Hardware erfolgen, also im Chip, oder später in der Software. Bei CCD-Sensoren hat das Hardwarebinning einen wirklichen Vorteil, da das Ausleserauschen beim Auslesen der Pixelblocks nur einmal auftritt. Bei modernen CMos-Sensoren ergibt sich kein wirklicher Vorteil, es ist also egal, ob man das Binning in der Software erledigen lässt oder im Chip. Eine kleine Auswirkung hat es aber doch, die Datenrate wird kleiner, wenn man das Binning im Chip erledigen lässt. Mann kann dann eine höhere Bidwiederholrate erreichen, da weniger Daten übertragen werden müssen. Wenn man einen kleinen Planeten aufnehmen möchte, croppt man das Bild normalerweise, man wählt also einen kleineren Bildausschnitt. Je kleiner der Bildausschnitt, umso höher die erreichbare Bildrate. Es gibt aber auch hier Unterschiede. Bei Global Shutter CMos kann man den Bildausschnitt recht frei wählen, es wird dann nur dieser Bereich schneller ausgelesen. Bei Rolling Shutter, wie die 178er, muss der kleinere Bildausschnitt definitiv in der Sensorecke liegen, welche zu erst ausgelesen wird. Erst dann kann man eine höhere Framerate erreichen. Wenn der Bildausschnitt bspw. in einer der anderen Ecken liegt, liest der Chip erst das ganze restliche Bild aus und schneidet dann das gewünschte Bild aus. Die Framerate bleibt also niedrig.


    Vg Tino


    Bearb.: Mit Crop oder Bildausschnitt ist das ROI gemeint.

    Hallo Leute,


    ich habe gestern auch mal versucht, die Objekt der Begierde ins Visier zu nehmen. Nachdem es ausreichend dunkel war, hat mir aber das Hausdach einen gehörigen Strich durch die Rechnung gemacht, war leider auch schon vorher absehbar. :( Da waren dann die aufziehenden Wolken auch kein Problem mehr. Tja sorry, bleibt leider nur der südliche Sternhimmel, oder ich reaktiviere meine alte Losmandy im Garten mit DSLR und Widefield drauf. Hatte sie eigentlich gerade erst schön weggepackt, mal schauen. Trotzdem ziemlich beeindruckend, was der Peter bereits wegbelichtet hat, da wirds schwer noch eine Schippe draufzulegen.


    Vg Tino

    Hallo Ralf, hallo Piotr, hallo Team,


    vielen Dank für eure Mühen. Ich bin wirklich sehr begeistert und auch gespannt, was die Jury dazu sagt. Aber auch ohne Anerkennung durch den Wettbewerb, freue ich mich sehr. Es ist wirkich ein tolles Beispiel, wo der Eigennutz in den Hintergrund tritt und man viel mehr erreichen kann, wenn man zusammenarbeitet. Warum wir uns im globalen Maßstab auf den allermeisten Gebieten trotzdem unglaublich schwer tun, ist zwar mit realistischem Blick oftmals nicht komplett unverständlich, aber trotzdem sehr schade.


    Vg Tino