Beiträge von tbstein

    Hallo Stathis,

    hast schon recht, aber bei Edmund Optics gibts die "Enhanced Aluminium" Spiegel mit Lambda/20 und 20mm Apertur, also mit echter dieelektrischer Vergütung und Ravg >95% @ 450 - 650nm bereits für 115€. https://www.edmundoptics.de/p/…num-lambda20-mirror/3731/

    Sind natürlich keine 99%, aber dielektrisch Vergütung bei den Omegon-Dingern könnte schon sein.

    Die reine PV-Definition der Ebenheit ist halt unter Umständen nicht ausreichend, die zusätzliche Angabe des rms-Werts kann da sehr hilfreich sein. Als Beispiel wäre eine recht hochfrequente Welligkeit auf einem ansonst perfekten Spiegel mit Lambda/4 PV. Strehl 0,8 ist dann mit Sicherheit nicht drin. Der zugehörige rms-Wert ist dann aber auch viel höher als der Erwartungswert (PV/7) als für eine gewöhnliche Politur mit einer mehr oder weniger gleichförmigen Verteilung der Abberationen. Falls es jemand weiß, gibts dazu eigentlich Erwartungswerte für die Verteilung der Anteile der Zernikes?

    Vg Tino

    Hallo Frank,

    dann ist aber Lambda/20 auch eher unrealistisch, zumindest als ptv, als rms dagegen aber ganz gewöhnlich. Herstellen lässt sich ein Lamda/4 (rms) Spiegel übrigens auch ganz wunderbar, ich sage ja nur, dass man es unbedingt angeben sollte. Wird auch unangenehm mit reklamieren, "war doch lambda/4 (rms) gemeint". Lambda ansich ist ja im besten Falle auch nur eine Maßeinheit, wie Äpfel, und Birnen und ein Lambdawert gibts ja in der Form eigentlich nicht, vllt. maximal in der Umgangssprache. Aber kein Problem, der Threaderöffner hat ja die Zenitspiegelfrage schon anderweitig geklärt.

    Gruß Tino

    Hallo in die Runde,

    "dieelektrische Vergütung" ist schon korrekt, es wird jan nicht von "dielektrischer Spiegel" gesprochen. Und der diskutierte "Lambdawert" bedarf auch einer genaueren Betrachtung. Man kann die Ebenheit bspw. als ptv (peak to valley) in Lambda angeben, aber auch als rms (root mean sqare) in Lambda. Im Normalfall ist zwischen den beiden der Faktor 7. Dh ab Lambda/14 (rms) ists "beugungsbegrenzt", was Lambda/2 (ptv) entspricht. Also ohne Angabe von "rms" oder "ptv" ists eigentlich sinnlos.

    Lg Tino

    Hallo Reinhold,

    ich antworte mal, obwohl Andreas angesprochen ist:

    1. "Alle geometrisch optischen Darstellungen" können die Beugung nicht erfassen und auch nicht erklären, Punkt!

    2. Die Begrifflichkeit Auflösung muss man vllt nochmal genauer definieren. "Abstand der beiden Beugungsbilder" ist nicht die Auflösung, sondern der Abbildungsmaßstab.

    Mal als Beispiel: Ich habe 2 ideale Linsen mit 1000mm Brennweite. Die eine hat eine Apertur von 1000mm und die andere eine von 1mm. Geometrisch optisch können beide Linsen einen Doppelstern von 1 Winkelsekunde Abstand ganz locker abbilden, da geometrisch bei einer idealen Linse jeder Stern als infinidesimal kleiner Punkt abbildet wird, egal ob große oder kleine Linse. Da die Brennweiten der beiden Linsen gleich ist, ist auch der Abbildungsmaßstab gleich, also auch der Abstand der beiden Punkte. Jetzt schlägt aber die Stunde der Beugung. Hier ist definitiv Feierabend für die Geometrie, die Beugung erfordert eine Transformation im Fourierraum. Die Fouriertransformation der Eingangspupille/Ausgangspupille ergibt eine Beugungsfigur, auch kurz Airy-Scheibchen genannt und ersetzt in der Realität die ideal punktförmigen geometrischen Abbildungsspots. Die Beugungsfigur der 1000mm Linse ist aber um den Faktor 1000 kleiner als die der 1mm Linse. Bei der 1mm Linse sind zwei riesige Spots überlagert, sodass ein längliches Etwas rauskommt und bei der 1000mm Linse sind die beiden Beugungsfiguren schön räumlich getrennt. DIe Auflösung definiert nun den Winkel, bzw. den Abstand, ab wann die beiden Spots visuell oder optisch getrennt werden können, ist etwas Definitionssache, siehe auch Rayleigh- oder Dawes-Kriterium.

    3. Fast alle Berechnungsprogramme, wie Zemax usw., berechnen entweder Geometrisch oder Wellenoptisch, ist also beides um Welten verschieden und nicht ohne weiteres kombinierbar. Spezielle, besonders schlaue Programme (bspw. Phosim) berechnen geometrisch und überlagern/falten die geometrische PSF mit der fouriertransformierten der Pupille, oder tracen die Photonen gleich mit einem MonteCarlo-Algorithmus, sodass man der Realität schon ziemlich nahe kommt. Ist aber wirklich die hohe Kunst der Optik und definitiv nicht mehr als Skizze aufzuzeichen.

    Vg Tino

    Hallo,

    mit Gedankenspielen bezüglich Münzen und Feldblenden usw. wird man vllt. die geometrische Optik duchblicken, aber wenn die Beugung dazukommt, vermute ich mal ganz stark, wird das wohl nicht so richtig funktionieren.

    Ich versuche vllt nochmal kurz meine Gedankengänge diesbezüglich zu erörtern.

    Das Licht vom Stern kommt als paralleles (kollimiertes) Strahlenbündel in der Apertur des Teleskops an. Hier wird das Strahlenbündel fokussiert und würde ein Fokalbild erzeugen, aber da ein Okular verwendet wird, wird das Strahlenbündel wieder kollimiert, also es kommt ein paralleles Strahlenbündel aus dem Okular, welches auf die Augenlinse fällt. Dh das Auge schaut nach unendlich, weil es so am entspanntesten ist. Das vom Stern kommende Strahlenbündel in der Eintrittspupille ist equivalent der Austrittspupille am Okular, außer dass es um die Vergößerung des Teleskops verkleinert ist und mglw. gespiegelt. Dh. der Fangspiegelschatten und der der Spinne sollte hier sichtbar sein. Wenn die Pupille des Auges nun die Randstrahlen abschneidet, schneidet es die Randstrahlen auch in der Eintrittspupille weg. Und nun kommt die Beugung ins Spiel. Die Randstrahlen (die mit den hohen Winkeln) sind aber genau die, welche die Auflösung bringen. Man schaue auch unter dem Begriff "numerische Apertur".

    Interessant wäre der Grenzfall einer sehr kleinen Pupille, welche die Randstrahlen bis zum Fangspiegelschatten wegschneidet, dann sollte es dunkel werden. Ist vllt aber auch nicht wirklich relevant, da man mit dem Auge korrigiert und dann etwas schräg reinschauen kann. Inwiefern das Auge die sich ändernde Auflösung aufgrund der Zapfnegrößen überhaupt bewerten kann, ist eine andere Frage.

    Vg Tino

    Hallo Ralf,

    auf dem Papier sollte die Primärfokusvariante eigentlich schon fast nur Vorteile bringen, bis auf die Abwärme im Strahlengang. Das Justieren wird sicherlich ein bisschen trickreich, aber für die Kabelage usw. kann man sicherlich etwas improvisieren. Das bisschen Spannungsversorgung und die Gigabit-Ethernet-Käbelchen (muss mal schauen ob POE) kann man bestimmt auch hinter der Halterungsstrebe verstecken. Und für die optischen Qualität ist eben weniger doch mehr, weniger Reflexionsverluste und der bei mir verbaute Planspiegel (gemessene 0,8 Strehl) machts nicht besser. Wie schätzt du deinen 0,33er Reducer ein, taugt der was? Ist ja dann immer die Frage, ob die optische Qualität durch die Zusatzkomponenten schneller sinkt, als die Vorteile durch die kürzeren Belichtungszeiten. Vielleicht ist es aber auch nur Jammern auf hohem Niveau. Zumindest meine IMX183 BlackflyS Kameras von Flir/PointGrey sind wirklich schnuckelig klein mit 30x30x30mm^3, sie schreien förmlich nach einer Integrationslösung.

    Vg Tino


    Ps. Ich denke die Schiefspieglervariante mit F/4.5 wird wohl nicht so gut funktionieren, müsste man aber mal simulieren.

    Hallo Ralf,

    von mir auch ein großes Lob. Zu deiner schon sehr guten 2015er Version mit 11" und den 120er ASIs ist ein ordentlicher Sprung in der Qualität zu sehen, Chapeau. Ist schon etwas anderes mit 16" und auch die 178er Kameras sind nochmal eine andere Liga. Aber sind wir ja von dir bereits gewohnt ;)

    Ich habe leider derzeit nicht die allergrößte Motivation, aber ich hatte etwa zur selben Zeit wie du eine gebrauchte 16"/F4.5 Lightbridge-Optik im Carbonmantel geschnäppert. Ist schon ein ziemlich langes Ungetüm (1,8m) und daher hatte ich mich noch nicht durchgerungen, das Ding mal auf die Montierung zu packen. Ich trage mich aber eh mit dem Gedanken, den Sekundärspiegel gleich rauszuscheißen und eine kleine und niedliche PointGrey Kamera mit 174er Mono-IMX, oder ne 183er Color in den Primärfokus zu setzten. Wird dann nochmal ein Stück länger, aber Platz ist ja genug da, auch für einen obligatorischen Komakorrektor. Fokussieren müsste man dann wohl oder übel elektrisch an der Kamera, oder ich schaue mal, ob die Hauptspiegelzelle etwas Bewegungs-Spielraum hat. Charmant wäre die Primärfokusvariante allemal. Ich hoffe nur, dass die großen Jungs mit Ihren Halbmeterdobsons nicht auf dumme Ideen kommen und sich auch Laptops und Kameras anschaffen (und endlich die müden Augen in den Ruhestand schicken ;))

    Vg Tino

    Hallo Stathis,

    eigentlich ein sehr interessantes Thema. Meines Wissens gibt es bezüglich der Defektspezifikationen (ISO- bzw. MIL) drei optische Aspekte, welche hier betrachtet werden sollen.

    - Erstens die Streulichtproblematik bei Optiken, welche nicht in der Abbildungsebene liegen. Dies trifft wohl primär auf die Teleskopspiegel zu.

    - Zweitens ist bei Laseroptiken die Zerstörschwelle sehr stark von Defekten usw. beeinflusst, da diese zu lokale Zerstörungen bei High-Power-Anwendungen führen. Daher auch die besonders hohen Anforderungen.

    - Und Zuguterletzt möchte man die Defekte natürlich nicht in bzw. nahe der Abbildungsebene haben.


    Praktisch gibt es aber bei der ISO bzw. MIL-Definition einige Dinge, die nicht wirklich an den zwei, drei Zahlen festzumachen sind.

    Die eigentliche Meßvorschrift ist in der ISO10110 vorgegeben, also definierte kollimierte, schräge Beleuchtung (Spaltlampe) mit definierter Helligkeit und ohne Vergrößerung und dann wird der visuelle Eindruck der Fläche mit dem Vergleichsnormal verglichen, soweit ich mich errinnere. Ist halt sonst sehr Anwenderabhängig und eher qualitativ. Daher sind wir schon auf Arbeit seit längerem dazu übergegangen, ein automatisiertes Inspektionsmikroskop zu verwenden, wobei tausende Bilder aufgenommen werden und anschließend gestitched und ausgewertet werden. Hier bekommt man die größenzugeordnete Anzahl der Defekte, sowie eine Defektmap, welche man explizit in die ISO-Norm umrechnen kann. Praktisch ist das aber doch recht aufwendig, sodass das hauptsächlich zur Prozessevaluierung und nicht zur Einzelteilprüfung angewendet wird. Eine weitere vergleichbare, aber einfachere Definition sind PAC-Werte (particle contamination), weche in einer ECSS-Norm der ESA

    "ECSS-Q-ST-70-50C ) definiert sind. Hier werden alle Defekte >5µm ausgewertet und der Gesamtflächenanteil der Defekte in ppm angegeben. Hiermit kann man auch recht gut die Streulichtperformance abschätzen. Für eine wirklich exakte Modellierung der Streulichtperformance gibts aber Streulichtmessplätze, mit welchen man die BDSF (bidirektionale Streulichtfunktion) direkt messen kann und dann die PSD (power spectral-density function) ausrechen kann

    Diesbezüglich gibt es übrigens auch Berechnungstabellen, welche airborne-contamination bezüglich einer Reinraumklasse zu erwarten ist, wenn die Optik eine Zeit lang offen liegt oder steht.


    Inwiefern das im professionellen Hobbybereich für die großen Spiegel überhaupt zu realisieren ist, weiß ich nicht. Vllt ist es auch nicht nötig, ich denke nämlich auch, dass wenn man keine prinzipiellen Fehler bei der Bearbeitung und Politur macht, man eigentlich schon ganz gut dabei ist. Ich würde übrigens ein nicht zu kleines Planglas mit den Standardprozess läppen und polieren und dann unterm Mikroskop inspizieren, mglw. könnte ich aber da auch behilflich sein. ;)


    Vg Tino

    Hallo Nobbi,

    das mit dem Photon-Counting kann man aber auch anders sehen. Bei 3 sigma hat man bereits 95% Detektionswahrscheinlichkeit. Dh. mit den 0,27e- (rms) ist man schon sehr nah dran. Da sind die gewöhnlichen 1e- (rms) schon ein ganzes Stück entfernt, vllt sogar so weit, wie die CCD vom CMOS. Der Sensor ist aber natürlich nur Evolution und nicht Revolution, ist eigentlich nur ein SCMOS mit rolling-shutter mit all seinen Problemchen. Aber besseres gibts derzeit nicht, sogar die EMCCDs tun sich damit schwer. Und 5Hz im Quiet-Modus sind aber bei fast 10Mpx eigentlich schon ok und der Standardmodus ist mit 0,43e-(rms) und max. 120Hz auch nicht von schlechten Eltern. Um die Stackingsoftware mache ich mir diesbezüglich die wenigsten Sorgen.

    Vg Tino

    Hallo in die Runde,


    für die ganz großen Schüsseln kann ich leider nicht ganz soviel beitragen, hab hauptsächlich Erfahrung mit Phase-Shifting Planflächeninterferometrie mit diversen Zygos bis 12", im Reinraum und in waagerechter Anordnung. Wir haben vor einiger Zeit einen Studenten mal nachmessen lassen, was eine Abdeckung des Strahlengangs eigentlich bringt. Wie erwartet war die Reproduzierbarkeit der Messungen mit Abdeckung etwas besser, aber die hauptsächlichen Fehler ohne Abdeckung wurde wahrscheinlich von mehr oder weniger gerichteten Luftströmungen verursacht. Eine provisorische Anordnung von Lüftern zur Erzeugung einer (nicht übermäßigen) Turbulenz brachte auch ganz gute Verbesserungen. Die Einzelmessungen waren zwar etwas stochastischer, aber da wir immer >20 Messungen mitteln, war es zu verschmerzen. Zumindest sind hierbei keine fehlerhaften Zonen aufgetreten. Aber so ein Meßturm bzw. eine Meßröhre ist natürlich auch was Feines. Hab mal in einem Projekt mitgearbeitet und gesehen, was Safran-Reosc für die ELT-Spiegel für einen Aufwand treibt.


    Vg Tino

    Hallo liebe Mitstreiter,


    Hamamatsu hat recht aktuell einen neuen SCMOS-Clone gelauncht. >>> qCMOS

    http://image-sensors-world.blo…u-photonics-releases.html


    Interessant ist hier, dass das Rauschen nur ~0,27e (rms) beträgt, sodass das Zählen einzelner Photonen möglich ist und der Sensor schon sehr praktikable Randbedingungen hat, wie bspw. 9,4MPx, Pixelgröße 4,6µm, QE90%, 7ke- FW, sowie eine ordentliche Bildrate. Praktisch würde das die ganze Diskussion bezüglich einer optimalen Belichtungszeit ad absurdum führen. Dann wäre es nämlich egal, ob ich einmal lang oder viele male kurz belichte. Ist dann nur noch die Gesamtbelichtungszeit relevant. Ich bin mal gespannt.


    Vg Tino

    Hallo Dieter,


    um trotzdem nochmal eine Lanze für die Frage zu brechen, interessant ist es in technischer Hinsicht schon, welche Kriterien für ein gutes Astrobild gelten. Ich versuche mal ein paar Punkte aufzulisten, welche mir gerade einfallen. Einige sind auch hier schon zur Sprache gekommen. Praktisch hätte ich aber eine ganz klare Trennung zwischen wissenschaftlicher Astronomie und Astrophotografie gesehen.


    Für wissenschaftliche Bilder gibt es ganz klare Metriken, bzw. Kriterien:

    - Tiefe der Aufnahme/Grenzgröße

    - Dynamikumfang

    - Linearität (Photometrie)

    - Bildschärfe (FWHM)

    - Artefakte/Cosmics

    - Verzeichnung

    - Spektrale Filterkurven

    Ich denke hierfür gibt es sicherlich einige Tools, welche die Bilder diesbezüglich eingruppieren können, beispielweise zur Bestimmung der Bildschärfe bzgl. FWHM >>SEXTRACOR.


    Für die Astrophotografie gelten mehr oder weniger die gleichen Kriterien, aber hier kommt die künstlerische Freiheit der Bildbearbeitung hinzu. Da ist halt die Frage schon zu stellen, soll es natürlich wirken, oder sollen vielleicht irgendwelche Bildeigenschaften, bzw. astronomische Phänomene besonders betont werden. Hier sind wohl hauptsächlich ästhetische Aspekte relevant, wobei aber bestimmte Probleme, wie beispielweise Schärfungsartefakte, unruhiger Hintergrund, Gradienten, übermäßiges Farbrauschen doch sehr schnell den Bildeindruck trüben.


    Vg Tino

    Hallo,

    ich denke auch, dass das Streifenmuster erstmal eine Ursache haben muss. Normal ist das nicht, wobei ich mich aber auch nur phasenschiebende Fizeauinterferometrie beziehen kann. Mglw gibts da Probleme mit der Kameralinearität, wie Michael schon angemerkt hat. Bezüglich Plausibilität ist ein Strehl von 0,99x schon etwas verdächtig, da der optische Aufbau ein reales Teleskop beinhaltet und einen Referenzspiegel, sowie insgesamt 4 ADC-Prismen, welche gekittet sind. Da müssten die Einzelemente jeweils einen Strehl von 0,998 haben. Mhm. Eine hohe laterale Auflösung des Interferogramms ist schon sehr interessant, da das für die kleinen Fläche des ADCs extrem relevant ist. Man muss sich veranschaulichen, dass 1mm auf dem ADC einer 20mm Struktur auf einem 500mm Spiegelapertur entsprechen.

    Frank: Und eine Messung in Transmission im Doppeldurchgang ist sehr wohl vergleichbar mit einer Messung in Reflexion, wobei die Reflexionsmessung ungleich schwerer und empfindlicher bezüglich Deformation aufgrund der Halterung usw. ist. In Transmission würde ich die Messung übrigens Zweiteilen, erst eine Nullmessung ohne ADC aber mit dem Rest. und dann eine normale Messung mit ADC. Die Nullmessung könnte man dann Abziehen und man hat ein genaues Ergebnis für den ADC.

    Vg Tino

    Hallo in die Runde,


    ich habe auch aufmerksam die Diskussion verfolgt und es ist natürlich schön, wenn Messungen und Tests hier im Forum präsentiert werden. Der Wert dieser Messungen ist aber trotzdem geschmälert, wenn man nicht nachvollziehen kann, welche Intention, bzw. welchen Hintergrund der jeweilige Messende damit verbindet. Ob der Klarname die alleinige Lösung ist, ist fraglich, aber bei wissenschaftlichen Arbeiten und Artikeln ist es schon Usus, dass der Auftraggeber bzw. Geldgeber genannt wird. Praktisch hat man nämlich schon für komplizierte Messaufbauten die Möglichkeit die Messung positiv oder negativ zu beeinflussen, gerade auch dann, wenn das Messequipment unverhältnismäßig teuer ist. Die für die besagten ADCs gemessen Strehlwerte von 0,992 und 0,998 sind da meiner Ansicht nach schon sehr an der Grenze des technisch Machbaren. Praktisch hängt ja auch noch ein reales Teleskop dran. Hier kann man mit Smoothing usw., wie der Michael schon angemerkt hat, einen starken Einfluss nehmen. Es geht halt hier nicht nur um Peanuts, sondern schon sehr teuere Instrumente von mehreren tausend Euro.


    Vg Tino

    Hallo Andreas,

    es gibt hier: https://www.telescope-optics.net/seeing_and_aperture.htm gleich oben auf der Seite eine schöne Tabelle, wo ein (Standard)Seeingwert von 2asec auf die jeweiligen Strehlwerte umgerechnet wird. Hier ist der Einfluss der Apertur abgeschätzt und auch ob es eine Kurzbelichtung (Visuell) oder eine Langzeitbelichtung handelt. Diesen Strehlwert durch das Seeing müsste man mit dem Strehlwert der Optik multiplizieren >>> "Gesamtstrehl" = Seeing-Strehl * Optik-Strehl. So zumindes meine Milchmädchenversion.


    Als Beispiel:

    Seeingstrehl(2asec rms-Seeing; ShortExposure; 300mm Apertur)=0,24

    Optikstrehl=0,6

    Gesamtstrehl=0,144


    Vg Tino

    Hallo,


    die Physikalisch Technische Bundesanstalt ist natürlich gemeint. ;)

    https://www.ptb.de/cms/en/ptb/…c-flatness-metrology.html

    Hier sitzt die genaueste Referenz für interferometrische Messungen, leider ist der passende Publikation aber nicht frei verfügbar. Auf Arbeit habe ich sie. Auf der angegebnen Seite kann man aber gut erkennen, was gemeint ist. Den entsprechenden Einfluss der V-Auflage wurde auch mit FEM nachgerechnet, es sind nur ein paar wenige nm-PV. Es handelt sich übrigens um eine ebene Zerodurscheibe mit 330mm Durchmesser und 60mm Dicke. Auf Arbeit verwenden wir auch eine Schlingenlagerung für eine ähnliche Flatness-Referenz. Wenn der zu messende Teleskopspiegel in eurem Fall sehr stark gekrümmt ist und im Vergleich zur Größe sehr dünn, kann natürlich der eingeführte Astigmatismus relevant werden. Aber die Schlingenhalterung ist schon eine im Vergleich zu anderen Varianten gutmütige Variante.

    Vg Tino

    Hallo,


    ich denke auch, dass man für relativ dicke Spiegel man mit einer Schlingenlagerung nicht viel falsch machen kann. Wenn die Schlinge eine bestimmte Breite hat, sollte eigentlich auch nichts kipplen. Die PTB übrigens nutzt für ihren 300mm Zerodur-Referenceflat mit 60mm Dicke einen schnöden V_Groove als Lagerung.


    Vg Tino

    Hallo Werner,


    bei der Vermessung der Sternörter im Halbjahresrhytmus fällt eigentlich die Entfernung als sehr wichtige Information ab, auch genannt Parallaxe. Die Parallaxe ist der Kehrwert der Entfernung in Parsec, in Lichtjahre kann man das dann leicht umrechnen. Die Astrometriesatelliten Hipparcos und Gaia sind fast hauptsächlich dafür gemacht. Bei Alladin usw. sollten in den Katalogen eigentlich immer auch die Parallaxe angegeben sein, außer die Sterne sind rechtweit weg.


    Gruß Tino

    Hallo Martin,


    auch von mir Glückwünsche zum APOD. Leider läuft bei mir das Video nicht in einer Endlosschleife und die Bildqualität hat durch die Kompression auch etwas gelitten. Ein bisschen schade ists schon.


    (==>)Nobbi Hallo Norbert, ich habe diesbezüglich nochmal die ganzen Daten durchgeforstet, bzw. aufbereitet und es ging dann doch erstaunlich gut. Siehe hier: http://www.astrotreff.de/topic…258228&whichpage=1#875815
    Das Problem lag ein bisschen woanders.
    Ich habe übrigens eine ältere IXON+. Die auf 10ns genauen Timestamps sind erst ab der IXON-Ultra angepriesen. Trotzdem ist die Stabilität der Bildfrequenz erstaunlich gut. Ich hatte ein bisschen stärkere Bedenken wegen der Betriebstemperatur, da die Kamera ja für Labortemperaturen spezifiziert ist und ich zwar ein recht primitives mit Arduino+Lüfter temperaturgeregeltes Gehäuse für die Kamera hab, aber die Temperatur im Januar ist für die Kamera nicht so richtig angenehm. Der Absolutwert der Kadenz hat daher vermutlich auch nicht ganz gepasst. Für die 76000Bilderserie muss man diesen aber etwa auf 50ns genau kennen (dann ist die Phasenverschiebung am Ende der Serie etwa 1/10tel der Periode) und er muss möglichst stabil sein. Ich dachte eigentlich, dass die neueren Kameras mit den besseren Timestamps vllt. auch verbesserte temperaturstabilierte hochgenaue Echtzeituhren (TCXO) haben. Ist eigentlich kein großer Aufwand, bzw. hätte ich zumindest so gemacht. Ein GPS zum Einhegen der langfristigen Abweichungen, wäre zusätzlich auch nicht zu verachten.


    Vg Tino

    Hallo,


    um das Projekt abzuschließen, habe ich nochmal die Parameter zur Phasenberechnung durchvariiert und der endgültige optimale Wert für die Kadenz ist:
    Bildfolge/Kadenz: 34,98270ms (anstatt der ursprünglich angewendeten 34,98285ms, also nur 150ns weniger)
    Dies hat einen deutlichen Einfluss auf die Sichbarkeit des schwächeren Interpulses und auch die Periode lässt sich nun durch insgesamt 20 Zwischenbilder darstellen.
    Dies entspricht dann einer zeitlichen Auflösung von 1,69ms, welche aber mit der 5ms Einzelbelichtungszeit gefaltet ist.



    Finale Bildsequenz der Pulsation des Krebs-Pulsars, Bildausrichtung ist auch korrigiert.



    Zeitlicher Verlauf der Helligkeit bei 34,98285ms Kadenz, ursprüngliche FFT Auswertung.



    Zeitlicher Verlauf der Helligkeit bei 34,98270ms Kadenz, optimierte Auswertung. Die Modulation und der Zwischenpuls ist nun viel besser aufgelöst.


    Vg Tino

    Hallo,


    durch die beeindruckenden Bilder von der letzten Marssaison habe ich mittels PHOSIM (http://www.astrotreff.de/topic…IC_ID=258342&whichpage=1#) versucht den Effekt des Seeings und der Teleskopgröße auf das Belichtungsergebnis möglichst relistisch zu simulieren. Hierbei ist ganz interessant, was bspw. im besten Falle zu erwarten ist, bzw. was die Stackingsoftware, bzw übertriebene Schärfung bzw. aggressive Bildbearbeitung beitragen kann.
    Hierzu habe ich das Programm PHOSIM verwendnet und jeweils eine 100Bilder Kurzzeitbelichtungsserie (Einzelbelichtungszeit 5ms) mit einem (idealen) 400mm Newton-Teleskop, Luminanz, Mars steht im Zenit, für unterschiedliches Seeing simuliert. Das Referenzbild ist ein hochaufgelöstes HST-Bild vom Mars:



    Bildserie ohne Seeingeffekt



    Bildserie mit Seeing 1asec (rms)



    Bildserie mit Seeing 2asec (rms)


    Ist schon interessant, wie die Profis das Seeing unter die Lupe nehmen. https://phosim.rcac.purdue.edu/phosim.html
    Da kann man sehen, dass in unterschiedlichen Höhen und mit unterschiedlichen Windgeschwindigkeiten sich das Seeing anders auswirkt. Man hat einen hochfrequenten Anteil von den schnell durchs Bild ziehenden Anteilen in niedriger Höhe und einen großskaligen wabbelnden Anteil in größerer Höhe, welcher die kleinen Strukturen nicht so stark verwischt, aber eine sichtbare Deformation hervorruft. Daraus muss das Stackingprogramm erstmal was sinnvolles machen. Hier kann man wahrscheinlich bezüglich Patchgröße usw. einiges optimieren.


    Vg Tino

    Hallo,


    auf der Suche nach einem Simulationstool zur Berechnung und Visualisierung des Einflusses des Seeings auf das Bildergebnis bin ich auf eine tolle freie Software gestossen - PHOSIM.
    https://bitbucket.org/phosim/phosim_release/wiki/Home


    Dieses Tool dient zum Assessment (Einschätzung der Bildqualität) bzw. zur Simulation des finalen Bildergebnisses des sich derzeit in Konstruktion befindlichen LSST (https://de.wikipedia.org/wiki/Vera_C._Rubin_Observatory).


    PHOSIM läuft auf Linux und kann quasi <u>alle</u> und ich meine wirklich alle wichtigen Effekte und Einflüsse auf das Belichtungsergebnis simulieren:
    - fast umfassende Simulation des Seeings mit high layer, low layer, ground layer, domeseeing, Windgeschwindigkeit, Windrichtung mittels sogenannter PhaseScreens, auch Kurzzeitbelichtungen usw. simulierbar
    - Simulation der Atmosphäre bezüglich Absorption, Refraktion, Streuung usw. (Mondstand, Zodakiallicht, Airglow, Transparenz, Wolken)
    - Umfassende Simultion der Optik mittels Optikdesign (ZEMAX-ähnlich), Beugung (Spinne, Obstruktion), Deformation der Optik ("Pertubations", Thermisch, Mechanisch), Misalignment und Tracking Fehler
    - Simulation des Sensors (CCD, CMOS) bezüglich Chargediffusion, Ausleserauschen, Dunkelstrom, Blooming, Filterkurven, Poissonrauschen usw.


    Dies geht sogar soweit, dass bei einer Belichtungsserie der Einfluss durch die Beugung durch die virtuelle Drehung der Fangspiegelspinne bei azimutaler Montierung simuliert werden kann.


    Auf der oben angebenen Seite zur Software ist alles sehr gut erklärt.


    Der Grundablauf ist praktisch dieser:
    <b>1. Definition des zu simulierenden Objekts oder der Objekte</b>
    - man gibt Himmelsausschnitt bzw. Feldgröße mit punktförmigen oder flächigen Lichtquellen mittels Katalog an oder definiert Sterne usw. über ihre Helligkeit und die SED (spectral energy distribution, Spektrum) mit Belichtungszeitpunkt. Es kann auch Mondphase, Mondstand usw. angegeben werden
    - zusätzlich kann auch stattdessen ein "Groundtruth-Image" (bspw. höchstaufgelöstes Hubble-Bild) angegeben werden


    <b>2. Das Bild wird durch die Atmosphäre "getraced" mit Seeing und allem drum und dran</b>


    <b>3. Das Teleskop wird geometrisch-optisch sowie mit Beugung simuliert und bildet auf den Sensor, bzw. Detektor ab</b>


    <b>4. Die Bildentstehung im Sensor wird simuliert und das detektierte Bild kann untersucht werden.</b>


    A. Alle Effekte können an, bzw ausgeschaltet werden, sodass die jeweiligen Einflüsse separat untersucht werden können


    Trotz der blumigen Ankündigung nun mal Butter bei die Fische. Ich habe das Programm in der Virtual Box installiert, als Linux-Greenhorn ist das schon mit einigen Hürden verbunden. Die Dokumentation ist auch etwas dürftig, aber mit einigem Willen kann man die Parameter nachvollziehen. Ich habe diesbezüglich schon sehr viel ausprobiert und herausgefunden, falls jemand am Erfahrungsaustausch interessiert ist.

    Was habe ich bereits simuliert? Aufgrund der tollen Marsbilder im Forum mit unterschiedlichen Teleskopen bei unterschiedlichen Seeing/bzw. Standorten, habe ich das Programm mal einige kurzbelichtete Bildserien durchrechnen lassen, bei unterschiedlichem Seeing usw. Das Referenzbild ist ein hochaufgelöstes Marsbild vom HST. Ich werde das hier in einem separaten Thread nochmal aufbereiten. Hier kann man vllt. auch die Leistungsfähigkeit der diversen Stackingprogramme wie ASS, PSS usw. objektiv testen. Es ist aber schon ziemlich rechenintesiv das Ganze, pro Bild ist mit etwa eine Minute bis mehrere Minuten zu rechnen.


    Vg Tino

    Hallo,


    ich denke, dass das Wort "anspruchsvoller" nicht wirklich den Kern trifft. Ich würde sagen "mühseliger" trifft es wohl besser. Dh. man musste damals ziemlich hohe Hürden überwinden, um überhaupt zu einem Ergebnis zu kommen, zumindest wenn man als Ergebnis ein vorzeigbares Foto sieht. Heutzutage ist die Eintrittsschwelle im Vergleich dazu sehr niedrig, hauptsächlich weil die Bildaufnahmetechnik sich extrem entwickelt hat. Früher waren die Unterschiede von Gut und Schlecht sehr von der "Kunstfertigkeit" des Fotografen und der verwendeten Fototechnik abhängig. Heutzutage unterscheiden sich die Ergebnisse bei handwerklich guter Ausführung nur noch wenig, hauptsächlich weil die Fototechnik bezüglich Empfindlichkeit nicht mehr viel Optimierungsspielraum hat, Quanteneffizienz fast 1 und extrem niedriges Rauschen, da unterscheiden nur Nuancen. Das Seeing und ein dunkler Himmel sind dann wohl eher die Qualitätskriterien.
    Die visuelle Astronomie dagegen ist meiner Ansicht nach ein Sonderfall, der Fels in der Brandung sozusagen. Am Detektor (Auge) ändert sich nichts, und ein guter Himmel sowie ein gutes und großes Teleskop, waren schon immer der Dreh- und Angelpunkt, außer man "Cheatet" mittels EAA ;)


    Wo geht es meiner Ansicht nach hin:
    - Teleskopgröße stagniert im Amateurbereich, 0,5m Apertur ist schon eine Ausnahme und entsprechend teuer
    - Kameratechnik entwickelt sich wohl eher in Richtung große Sensoren, bzw. Bildfelder und extrem schnelle Bildfolgen, bspw zur Kurzbelichtung, die eigentliche Empfindlichkeit ist wohl nicht mehr zu steigeren
    - Gemeinschaftsprojekte mit in Summe extrem langen Belichtungszeiten sind vllt. die Zukunft
    - Vllt auch Zusammenschlüsse von ambitionierten Amateuren in Bezug auf gemeinschaftliche Sternwarten in astronomisch gutgelegenen Regionen
    - die Goldgräberstimmung mit Zufallsentdeckungen von Kometen, Planetoiden, usw. gehören wohl der Vergangenheit an, spätestens wenn die Profis mit dem LSST (C.Rubin) den kompletten (Süd)himmel mit 24-25mag in 3 Tagen komplett abgrasen. Auf der Nordhalbkugel haben wir wohl noch etwas mehr Zeit und Supernovazufallstreffer wird es wohl noch weiter geben.
    - vllt. tritt auch die Amateur-Spektroskopie ein bisschen aus dem Schattendasein heraus


    Aber alles halb so wild, ich freue micht trotzdem über das schöne Hobby.


    Vg Tino

    Hallo Ralf, Gerd, Martin, Winni,


    danke für eure Kommentare. Man sollte immer neugierig bleiben und manchmal bedarf es einfach auch etwas Zeit, um alles richtig zu bedenken.
    Ich hatte die Bildserie damals vor 4 Jahren aufgenommen und hab auch Verschiedenes ausprobiert, die Pulsation war aber nicht herauszuarbeiten. Die Enttäuschung war daher schon recht groß und die Flinte lag dann auch recht schnell im Korn, leider wie sooft.
    Als Martin dann seinen tollen blinkenden Pulsar gezeigt hat, hat mich der Ehrgeiz nochmal gepackt. Die notwendigen Berechnungen habe ich damals aber im nachhinein nicht konsequent genug durchgeführt, hatte auch um ehrlich zu sein mit der falschen Pulsarperiode gerechnet. (Wikipediaangabe: 33.5028583 ms[2])) Habe schlauerweise den Kommentar überlesen, dass dieser Wert der aktuelle für 2006 war. Hatte auch die Größenordnung für den SpinDown unterschätzt, aber irgendwo muss ja die Leuchtkraft herkommen. Der Pulsar hat auch schon seit seiner Entdeckung in den 70ern 0,5Hz von etwa 30Hz eingebüsst.


    Btw. Interessant sind diesbezüglich auch die Untersuchungen und Erklärungsversuche für die sporadisch auftretenden "Anti-Glitches". Dh. der Pulsar rotiert normalerweise recht gleichmäßig immer langsamer, verursacht durch die stetige Energieabgabe aufgrund der schnellen Rotation und des starken Magnetfelds. Nach einem sogenannten "Anti-Glitch" teilweise aber um (10^-5)Hz schneller. Eigentlich genau andersherum, als man erwartet hätte. Dies wird derzeit durch eine differentielle Rotation des festen Kerns, einer suprafluiden Zwischenschicht und der festen Kruste erklärt. Dh. die Kruste wird mit der Zeit langsam abgebremst, der Kern rotiert aber noch schnell. Durch einen nicht bekannten physikalischen Effekt geht das nur bis zu einer bestimmten Differenz in der Rotationsgeschwindigkeit gut, dann wird die Kruste wieder mitgezogen. Richtige Glitches, also mit Verlangsamung der Rotation, tritt meisten nur bei Magnetaren auf und ist mit einem gigantischen Energieausbruch begleitet. Hier wird vermutet, dass durch die erhöhte Abbremsung (durch das tausendfach stärkere Magnetfeld der Magnetare), die geometrische Form des Neutronensterns (Rotationsellipsoid) sich den veränderten Parametern anpasst und durch die feste Kruste, dies katastrophal erfolgt. Dies erzeugt spezielle GRBs (Gamma-Ray-Burst), welche teilweise so stark sind, dass u.U. die obere Atmosphäre, bzw Ionosphäre und das Magnetfeld der Erde sogar messbar beinflusst wird. ( siehe auch https://en.wikipedia.org/wiki/SGR_1806%E2%88%9220 ). Wirklich sehr spannend. Das man diese Monster an der "Grenze der Physik" sogar als Amateur im Hobbymodus darstellen kann (zumindest den Krebspulsar), ist echt der Hammer.


    Zurück zum Thema: Der ausschlaggebende Punkt für die neuerliche, nun doch einigermaßen erfolgreiche Bildbearbeitung, war die FFT-Auswertung der realen Daten. Hier bekommt man die zur Berechnung notwendigen Werte ziemlich genau auf dem Tablett serviert. Mit großem Fleiss, Ausprobieren und Rantasten kommt man bei den Datenmengen leider nicht mehr zum Ziel. Mit 300mm Apertur sind halt bei 16mag und 5ms Belichtungszeit nur noch durchschnittlich etwa 1-2Photonen am Start. Für ein einigermaßen gutes SNR müssen dann schon viele hunderte bis tausende Bilder phasenrichtig gestackt werden. Eigentlich erstaunlich, dass das trotzdem irgendwie funktioniert.


    (==&gt;)Ralf - Das Seeing war eigentlich ganz ordentlich, aber das Alignemt mit dem extrem verrauschten 11mag Sternchen ist halt dann mehr schlecht als recht. Und das Sampling ist auch mit nominell 1,1asec/Pixel ziemlich grob. Für einen Auflösungrekord hats also leider nicht gereicht. ;)
    Was macht eigentlich dein 16er Newton? Ich habe mir 2019 auch einen Gebrauchten für &lt;1k€ mit Carbontubus geschnäppert, mit f/4,5 ist das Ding aber schon sehr unhandlich. Es gab aber leider noch kein first Light, mache derzeit ziemlich wenig fürs Hobby.


    Genug geschwafelt.


    Vg Tino