Posts by tbstein

    Hallo Peter, hallo Jochen,

    ihr liegt falsch mit eurer Annahme, dass in der Astrophotografie ein kleines konstantes Signal in einem umgebenden Rauschen verborgen ist. Das Licht ansich besteht aus Photonen und diese gehorchen einer Poisson-Verteilung. Diese beschreibt, dass bei einer Menge von Photonen, bspw 1000, das dazugehörige Rauschen der Wurzel aus 1000 entspricht, also etwa 31,6Photonen. Dies wird auch als Shot-Noise bezeichnet. Dh, wenn ich ein Pixel habe, welcher mit jeweils 1000Photonen beleuchtet wird, dann schwankt die Anzahl der detektierten Photonen mit einer Standardabweichung von 31,6Photonen um diese 1000, egal was man macht. Dies ist eine grundlegende Eigenschaft des Lichts. Selbst ein idealer Detektor kann daran nichts ändern. Alles was mit Ausleserauschen, thermisches Rauschen, usw. zutun hat, lässt sich minimieren und systematische Fehler bsw. in der Empfindlichkeit der Pixel lassen sich herauskalibrieren. Nur der sogenannte Shot-Noise bleibt und dieser wird nur kleiner, wenn man die Anzahl der detektierten Photonen erhöht, aber auch dann nur mit der Wurzel. Deshalb ist das Rauschen eines gut kalibrierten Astrobildes im besten Falle Shot-Noise dominiert. Und daher gehört auch die Rauschunterdrückung nicht zur Standardbearbeitung in der wissenschaftlichen Astronomie, weil das Rauschen definitiv zum Signal gehört.


    Ich habe mal einige verrauschte Beiträge von mir angehängt, sind halt keine klassischen Pretty-Pictures


    Vg Tino

    Hallo Peter,

    ich habe nochmal deinen Eingangspost und meinen Beitrag gründlich durchgelesen und ich möchte mich für meinen Kommentar "Jedem Tierchen sein Plässierchen" entschuldigen, war nicht so despektierlich gemeint, wie es aufgefasst werden könnte. Andererseits ist es schon ein bisschen schade, dass du mit deinem doch recht reisserischen Eingangspost nur potentielle Anwender und Bekehrte ansprechen möchtest. Das was ich vom Ralf mitbekommen habe, ist, dass er deine Akriebie und deine vorbildlich kalibrierten Bilder, beispielweise für unser M64-Gemeinschaftsprojekt, sehr gelobt hat. Meine Meinung dazu habe ich ja schon oben dargelegt, das ordentlich kalibrierte Bild hat den kompletten Informationsgahalt. Alle weiteren Schritte, wie bspw. Entrauschen, Kontrastanpassungen usw. dienen zur Visualisierung gewisser Teilaspekte und Auffälligkeiten und sind sicherlich für eine Analyse und ansprechende Darstellung absolut notwendig. Ich denke worauf wir uns glaube ich alle einigen können, ist, dass die Softwareanwendung ok ist, wenn hierdurch nicht Strukturen und Informationen generiert werden, welche nicht da sind. Daher wiederhole ich nochmal meinen "technophilosophischer Kommentar", dass der Informationsgehalt eines sauber kalibriertes Bilds nicht gesteigert werden kann, da hier nicht irgend ein mikriges Signal in einem übergestülpten Rauschen verborgen ist, sondern das Signal ist das Rauschen und reale Informationen lassen sich nur dazugewinnen, wenn man die Statistik durch mehr Photonen verbessert.

    Viele Grüße

    Tino

    Hallo in die Runde,

    ein interessantes und kontroverses Thema. Ich möchte meinerseits, wie Ralf, ein Lanze für das Rauschen brechen und auch eingewisses Unbehagen erklären. Das Rauschen hat in der Wissenschaft eigentlich einen ziemlich konkreten Zweck, es definiert die Verlässlichkeit eines Signales. Es gibt diesbezüglich einerseit Rauschquellen, die mit dem Instrumentarium in engem Zusammenhang stehen, was sich meistens beispielweise durch eine sorgfältige Kalibrierung oder Optimierung des Instrumentariums eliminieren lässt und was auch die "echte" Wissenschaft extensiv betreibt. Andererseits gibt es ein "natürliches" Rauschen des Signales, den Photon-Shotnoise. Dieses ist eine inhärente Eigenschaft des Signales und das Signal lässt sich definitiv nicht durch irgendein Rauschunterdrückungsverfahren rekonstruieren. Alle diesbezüglich arbeitenden Algorithmen tricksen, indem sie die Nachbarpixel anschauen und diese für eine wie auch immer geartete Ausgleichsrechung verwenden. Man tauscht also immer Auflösung gegen weniger Rauschen. Natürlich kann man dies zum Hervorheben von speziellen Eigenschaften des Beobachtungsobjektes verwenden. Andererseits kann man bei nicht so schlauer Software Informationen zerstören und auch Strukturen vorgaukeln, welche nicht der Realität entsprechen. Ich denke die "große" Astronomie verzichtet genau aus diesem Grund auf Sofwareentrauschung. Aber jedem Tierchen sein Plässierchen. Und meiner Meinung nach ist "Game-Changer" wohl etwas dick aufgetragen, vielleicht aber auch nicht, wer weiß. ;)

    Vg Tino

    Hallo in die Runde,

    auch wenn schon einige Zusammenhänge erklärt wurden, hab ich as Gefühl dass noch einiges Klargestellt werden sollte. Ein niedriger Readnoise hat eigentlich nur auf die Grenzgröße Einfluss, also alles was sehr wenig Signal hat. Da ist jede Verbesserung des Ausleserauschens, bspw durch höheren Gain hilfreich. Helle Partien, bspw Nebel usw. sind nicht durch den Sensor verrauscht, sondern durch den Shotnoise der Photonen (bzw. den der umgewandelten Elektronen, welcher durch die sogenannte Quanteneffizienz des Sensors dann doch wieder beeinflusst wird). Der Shotnoise wird durch die Wurzel aus den ankommenden Photonen beschrieben, also hat beispielweise eine helle Partie eines Nebels 1000 Photonen ist das Rauschen im besten Falle 31,7 Photonen. Bei einem idealen Sensor mit einer QE von 1 sind das 31,7e (rms), also viel höher, als für gewöhnlich das Ausleserauschen. Also ist es auch herzlich egal ob der Sensor 1e-/DN, bzw Unity-Gain hat, da das Signal eh mit 32 Helligkeitsstufen rauscht. Daher ist es hier übrigens auch verschenkte Liebesmühe mit extrem hoher linearer (Bit)-Auflösung zu samplen. Die Auflösung muss diesbezüglich eigentlich nur das Rauschen ausreichend gut Samplen, dh. bei 5e-Rauschen wäre schon Unity-Gain ganz gut. Und Übrigens bringt ein höherer Gain, selbst wenn die Elektronen eh nur quantisiert auftreten, eine Verbesserung des Rauschens, die ist dann nur nicht mehr sehr groß und rechtfertigt den Verlust im Dynamikumfang nicht.

    Vg Tino

    Ps Frank "Kleiner Nebensatz, mir ist kein Verstärker bekannt der bei höherer Verstärkung weniger rauscht. Wenn mehr Verstärkung wirklich weniger Rauschen tut, dann ist es der AD Wandler? Die haben ja auch Umwandlungstolleranzen von +-? DIDIT? Das dann als Rauschen rauskommen würde. So aus elektronischer Sicht ist mir das etwas suspekt, mir wäre der Praxistest lieber."

    Es geht nicht um das Rauschen des Verstärkers an sich, sondern solange die Verstärkung des Signals höher ist, als das Rauschen dabei ansteigt, hat der Verstärker seinen Job gemacht.

    Hallo Ralf, hallo Peter,


    sorry für die späte Antwort.

    Ralf: Ich möchte in dem Bezug nur zu bedenken geben, dass ich das Schärfen eher nicht als Ursache sehe, sondern der RGGB-Demosaicing. Technisch gesehen füllen alle Algorithmen die Zwischenwerte auf irgendeine (möglichst schlaue) Art und Weise (AMaZE, LMMSE der IGV) wieder auf , da ja die einzelnen Farbendaten jeweils Löcher bei den nicht passenden Farbpixeln haben. Auch Autostakkert macht da ganz sicher keine Ausnahme. Dies funktioniert zugegebenermaßen recht gut, zumindest falls man das Gesamtbild auflösungstechnisch betrachtet. Es handelt sich dabei aber definitiv um Interpolation. Das führt aber auch dazu, dass durch die spezielle Anordnung der Pixel in unterschiedlichen Richtungen unterschiedliche Auflösungen auftreten. Bei Tageslichtfotografie versucht man daher mittels Algorithmus senkrechte und waagerechte Linien zu bevorzugen, da diese häufiger auftreten als Diagonale. Wenn ich aber an der Auflösungsgrenze und mit grenzwertigem Sampling die Schärfung auf Pixelebene richtig hochziehe, weiss ich nicht, ob das immer zu ordentlichen Ergebnissen führt. Ich denke die deutliche Verschiebung der Komponente A nach oben und das "Loch" in der Mitte kommt vom Demosaicing. Dies steigert den Eindruck, dass der Parachute super getrennt ist.

    Das ein geschicktes Schärfen zu tollen Ergebnissen führt ist übrigens unbestritten.

    Peter: Kannst du in etwa sagen, wieviele Bilder gestacked wurden, bzw was für eine Gesamtbelichtungszeit sich ergibt. Interessant wäre auch die ungeschärfte Variante.

    Ich denke aber trotzdem nicht, dass wir zu einer Ursache finden.


    Wir müssen uns aber auch nicht wirklich darum streiten, sondern können uns auch gerne an den interessanten physikalischen Prozessen erfreuen, ein bisschen Disput tut manchmal aber auch ganz gut. ;)


    Lg Tino

    Hallo Peter, hallo in die Runde,


    es wurde ja bereits genügend Lob verteilt. Daher möchte ich doch ein wenig Salz in die Suppe streuen. Ich hatte mich ja auch 2018 an Andromedas Fallschirm versucht mit 12" Meade ACF und EMCCD. Andromedas Fallschirmchen

    Es wundert mich daher, dass das jetzt mit deinem 14 Zöller so gut klappt, wobei das Sampling von 0,38"/Px mit deiner Farbkamera ja doch ziemlich grob ist. Selbst bei perfektem Seeing sollte das grobe Sampling, vor allem mit einer Farbkamera, problematisch sein. Ich hatte damals mit Schwarz-Weiss und 0,55"/Px auch definitiv Probleme die jeweils 1,3" auseinander liegenden Quasarabbilder zu trennen, da das Sampling schonmal nicht mehr viel Spielraum für eine richtige Trennung lässt.

    Um auf die Abbildung zurückzukommen, die mittlere A-Komponente sollte eigentlich am hellsten sein und etwas mehr auf einer Linie mit B/C liegen. Ich habe mir dein Video angesehen und dort sieht alles so aus wie du es dargestellt hast. Ich kann mir daher nur vorstellen, dass der RGGB-Farbalgorithmus im Zusammenhang mit der Schärfung hier etwas überbetont, was die Daten eigentlich nicht hergeben sollten.


    Sorry, falls das so klingt als ob ich dein Bild schlecht machen möchte. Hab nur damals auch recht viel Zeit in die Auswertung gesteckt und war aber schlussendlich der Meinung, dass mit dem groben Sampling nichts mehr zu holen ist.


    Vg Tino

    Hallo in die Runde,


    die Kühlung muss denke ich nur den Erfordernissen entsprechen. Dh. wenn ich kurze Belichtungen mache, oder bei lichtversifften Hintergrund, dann muss das thermische Rauschen nur substantiell kleiner sein. Dh. es fällt dann praktisch nicht mehr ins Gewicht, ob bei -10°C oder bei -25°C. Die Cmos-Kameras verhalten sich diesbezüglich eh etwas anders als die CCDs. Bei Cmos sinkt das Rauschen ab einer bestimmten Temperatur nicht mehr, weil andere Rauschkomponenten (bspw. Telegraph-Noise, usw.) die Oberhand gewinnen. Bei Schmalbandaufnahmen oder bei Spektrometern oder bei wirklich dunklem Himmel kann man aber gerne die Temperatur etwas niedriger wählen. Ich denke lieber etwas Regelspielraum lassen und nicht maximal kühlen, sodass man immer eine konstante Temperatur einstellen kann, dann klappt auch die Kalibrierung besser.


    Vg Tino

    Hallo Robert,


    eigentlich fast alle modernen IMX-CMOS-Sensoren haben Column-ADCs, dh. jede Bildspalte hat einen eigenen Analog-Digital-Wandler. Es sind also beim IMX571 mehr als 4000. Ich denke dies ist nicht der Grund. So eine richtige Idee habe ich aber leider auch nicht.


    Viele Grüße

    Tino

    Hallo Leute,


    da ich auf Arbeit ein kleines bisschen mit adaptiver Optik und Wellenfrontsenorik zu tun habe, möchte ich fragen ob hier schonmal der Versuch unternommen wurde, eine echte (also nicht nur Tip/Tilt wie die AO8 von SBIG) adpative Optik im Hobbymodus zu realisieren? Wer sich diesbezüglich nochmal informieren möchte, im Wikipedia ist das Prinzip nochmal kurz erklärt. https://de.wikipedia.org/wiki/Adaptive_Optik


    Technisch gesehen muss man als erstes die Wellenfront messen, was prinzipiell mit einem Hartmann-Shack-Sensor erfolgen kann. Dieser besteht aus einem Kamerasensor, vor welchem ein Mikrolinsenarray sitzt. Wenn man diese kaufen möchte, muss man schon recht tief in die Tasche greifen (>4k€), wie beispielsweise: https://www.thorlabs.com/newgr…9.cfm?objectgroup_ID=5287

    Hier kann man die Mikrolinsenarrays aber auch separat für 400€ bestellen, wenn man eine passende Kamera hat. Diese Kamera sollte möglichst schnell und sehr empfindlich sein, also am besten USB3 und ein moderner Sony IMX-CMOS. Sinnvoll ist so ein Wellenfrontsensor auch ohne adaptive Optik, da man Ihn auch andersweitig, bspw. zur Vermessung von Spiegel und zum justieren von Optiken verwenden kann.

    Ich habe diesbezüglich vor kurzem 3 monochrome FLIR Industriekameras mit USB3 und einem IMX174 Sensor ziemlich günstig geschnäppert, sodass ich mich hier mal versuchen würde.

    Richtige adaptive Optiken verwenden aber oft pyramidale Wellenfrontsensoren, wo anstatt der vielen Mikrolinsen ein 4-seitiges sehr flaches Pyramidenprisma verwendet wird, was die Wellenfront nur sehr grob in vier Teile aufteilt, aber daher auch viel lichtempfindlicher ist.


    Die größere Hürde ist aber der DMM, also der deformierbare Spiegel. Also der Spiegel muss ja seine Form möglichst instantan der erforderlichen Korrektur mit nm-Genauigkeit anpassen. Hier sind ein paar schlaue Ideen gefragt. Technische Ausführungen verwenden bspw. Piezos, kleine Magnetspulen oder auch Mikroaktuatoren, welche auf eine relativ dünne Spiegelmembran wirken. Ist aber als Kaufvariante finanziell außerhalb des Rahmens. Siehe Thorlabs: https://www.thorlabs.com/newgr…9.cfm?objectgroup_ID=5056 Hier gibt es leider noch keine richtigen Massenmarkt, sodass man sicherlich improvisieren müsste.

    Diesbezüglich habe ich kürzlich einen nicht mehr allzu frischen, aber interessanten Beitrag gefunden: https://www.ti.com/graphics/re…site/Ljubljana-Report.pdf

    Hier wird eine Piezoscheibe aus einem Piezosummer segmentiert geätzt und elektrisch kontaktiert. Die erforderliche mehrkanalige Piezo-Ansteuerung ist nicht ganz billig, aber der Einzug haptischer Bedienelemente (also welche bei Berührung vibrieren) mittels Piezos geht derzeit, bspw für Mobiltelefone vonstatten, sodass sich hier mglw. sehr Interessantes bezüglich Aktuatoren und Hochspannungs-Treiberschaltkreise entwickelt, bspw. von TDK:

    Mini PowerHap Aktuatoren für haptisches Feedback
    Tech Library: Die TDK Corporation hat ihr Portfolio an PowerHap™ Piezo-Aktuatoren für haptisches Feed­back um die rechteckigen Mini-Aktuatoren 0904H014V060 und…
    www.tdk-electronics.tdk.com

    Hier gibts auch entsprechende Eval-Kits zum ausprobieren, bspw auch auch von anderen Herstellern.


    Und das dritte Problem ist die Echtzeitberechnung der erforderlichen Korrektur und die Ansteuerung. 100Hz wäre schon anzustreben. Mal schauen, ob das realistisch ist.


    Viele Grüße

    Tino

    Hallo in die Runde,

    ich kann Michaels Aussage komplett bestätigen. MetroPro ordnet die Auswertungen in Fenstern an und wenn in dem jeweiligen Fenster die Ergebnisanzeigen wie RMS/PV/POWER platziert werden/sind, dann beziehen die sich auf auf die Messdaten in dem jeweiligen Fenster. Die flächige Auswertung ist Oben Links und die dazugehörigen Messwerte direkt darunter und unter dem Linienscan sind die Auswertungen dazu angeordnet. Ist eigentlich logisch. Also hat der Spiegel wohl eher Lambda/17 PV. Die obere Auswertung hat aber nur Piston/Tilt abgezogen, mit Power-Abzug wirds ein bisschen besser, aber bei schrägem Einfall wird aus Power streng genommen Astigmatismus. Es ist im übrigen korrekterweise nicht möglich, mit einer Lambda/40 (PV) Referenz, genauer als Lambda/40 (PV) zu messen, zumindest bei Messung in Reflexion.

    Vg Tino

    Hallo Nils,

    man kann es auch mit Sky-, bzw. Twilight-Flats probieren. Kurz, man nimmt bei stehender Montierung den noch hellen Himmel während der Dämmerung auf. Gibt da zwar auch einige Problemchen, aber sollte eigentlich funktionieren. Bitte einfach nochmal im www. danach suchen.

    Vg Tino

    Hallo Backroad_Yeti,

    ich denke, dass ist keine gute Idee mit dem roten Licht für die Flats. Praktisch hat ja deine EOS jeweils rote, grüne und blaue Pixel, bei roter Beleuchtung sollten also die grünen und blauen gar kein Signal bekommen. Ist dann eigentlich nicht verwunderlich, dass es nicht, bzw. nicht ordentlich funktioniert.

    Vg Tino

    Hallo Peter,

    kann schon ein Spare-Part von irgend einem Satelliten oder aus Militärbeständen sein. Heißt dann nicht direkt, dass es nichts taugt, sondern falls genügend Geld da ist (oder der Steuerzahler eh bezahlt), bestellt man halt gleich 2. Aber 100.000USD ohne Messprotokoll ist schon etwas teuer. ;)

    Vg Tino

    Hallo Andreas,


    wie hast du denn die Kamera ausgelöst, per Hand etwa? Dann wundert es mich nicht wirklich. Ich kann trotz massiver Betonplatte nicht mal in die Nähe meines Teleskops gehen, ohne das man das Zittern nicht sieht. Dann ist auch klar, warum die 10s vllt sogar besser aussehen, der Anteil vom Auslösewackeln ist dann anteilig geringer.


    Vg Tino

    Hallo in die Runde,


    ich denke auch wie Ralf, dass das Bild soweit ok ist, die Sonnenscheibe nur etwas ungewöhnlich gestreckt. Die Lokalität wurde übrigens auch angebenen. https://es.wikipedia.org/wiki/…Archivo:Silla_del_Cid.jpg

    Also ein ~1200m hoher etwas skurril geformter Berg mit Bäumen drauf. Wenn man von der Ebene aus etwas schräg nach oben fotografiert, kann dass schon alles seine Richtigkeit haben, also kein Grund zur Aufregung.


    Vg Tino

    Hallo Holger,

    ich glaube nicht, dass es am Siegeszug der adaptiven Optik liegt, ich dachte mal irgendwo gelesen zu haben, dass es am Südpol leider nicht sonderlich dunkel wird. Die Sonne steht im Winter immer nur relativ knapp unter dem Horizont. Aber Sonnenbeobachtung, Interferometrie und Infrarotteleskope sind wohl noch in Diskussion.

    Tino

    Hallo Ralf,

    vielleicht noch ein paar FunFacts. Das beste Seeing überhaupt gibts wohl in der Antarktis. Als Beispiel ist da Dome C zu nennen. Da ist die hauptsächliche Turbulenz in einer bodennahen Schicht von ~30m. Alles was drüber ist, kann fast ideale Bedingungen von besser 0,4asec erwarten, teilweise runter bis 0,15asec, da die zirkuumpolaren Luftströmungen immer schön gleichmäßig im Kreis drehen und die obere Atmosphäre somit fast ideal ist. Aber leider hauptsächlich im Sommer. Mhhm, irgendwas ist leider immer. ;)

    Vg Tino

    Hallo Ralf,

    wirklich klasse Ergebnisse, übrigens wie auch die vom Robert.

    Bezüglich Seeing hatte ich vor einiger Zeit mehrere Artikel gelesen und ein Artikel ist wirklich sehr aufschlussreich:

    (PDF) Optical turbulence characterization at the SAAO Sutherland site
    PDF | We present results from the first year of a campaign to characterize and monitor the optical turbulence profile at the South African Astronomical... |…
    www.researchgate.net

    Hier wurde das Seeing am "South African Astronomical Observatory" untersucht (wo das 10m SALT steht) (https://de.wikipedia.org/wiki/…_Astronomical_Observatory).

    Besonders interessant wirds ab Seite 7, bspw. in Table 3 und Table 4 auf Seite 9. Hier ist dargestellt wieviel Beitrag die jeweiligen Höhenschichten der Atmosphäre bei Median-Seeing beitragen. Da das SAAO im Vergleich zu anderen Spitzenobservatorien nicht besonders hoch liegt (nur 1700m) (siehe auch Tabelle 6 auf Seite 13) ist hier der sogenannte Groundlayer (GL), also bis max 500m Höhe für mehr als 80% des Seeings verantwortlich, die FA (Free Atmosphere) mit dem Jetstream macht verhältnismäßig wenig aus.

    Im Groundlayer passiert bodennah bis 35m und in etwa 300-400m das meiste.
    In Abschnitt 5.4 (Correlation of seeing with the weather) sind auch die weiteren Einflüsse beschrieben, wobei der Wind die Hauptrolle spielt. Hier ist aber eher die Windrichtung maßgeblich (im Bezug auf die gewöhnlich vorherschende Windrichtung), wobei die absolute Windgeschwindigkeit nur bei sehr hohen Werten relevant wird.

    Im Rahmen des Artikel wird auch auf die sogennante Kohärenzzeit eingegangen, welche die Änderungsgeschwindigkeit der Seeingzellen beschreibt und ein Maß für die unterste sinnvolle Einzelbelichtungszeit ist. Bei den angegebenen Median-Seeing am SAAO (1,4asec) etwa 2,9ms. Ich denke viel weiter runter muss man bei recht guten Seeingperioden in unseren Breiten auch nicht.

    Interessant ist übrigens auch, wie die Kohärenzzeit für die jeweiligen Höhen mittels Szintillation bestimmt wird. Es wird ein heller Stern defokussiert (ob intrafokal oder extrafokal weis ich jetzt nicht genau, kriegt man aber raus) sodass dass Teleskop nicht mehr auf Unendlich schaut, sondern die zu untersuchende Atmosphärenschicht scharfstellt.

    Dann werden die Bilder mit etwa 1000Hz (etspricht 1ms) Bildwiederholfrequenz aufgenommen und mittels Korrelation auf Ähnlichkeit der jeweils flackernden aufeinanderfolgenden Bilder bestimmt.

    Vg Tino

    Hallo Stathis,

    hast schon recht, aber bei Edmund Optics gibts die "Enhanced Aluminium" Spiegel mit Lambda/20 und 20mm Apertur, also mit echter dieelektrischer Vergütung und Ravg >95% @ 450 - 650nm bereits für 115€. https://www.edmundoptics.de/p/…num-lambda20-mirror/3731/

    Sind natürlich keine 99%, aber dielektrisch Vergütung bei den Omegon-Dingern könnte schon sein.

    Die reine PV-Definition der Ebenheit ist halt unter Umständen nicht ausreichend, die zusätzliche Angabe des rms-Werts kann da sehr hilfreich sein. Als Beispiel wäre eine recht hochfrequente Welligkeit auf einem ansonst perfekten Spiegel mit Lambda/4 PV. Strehl 0,8 ist dann mit Sicherheit nicht drin. Der zugehörige rms-Wert ist dann aber auch viel höher als der Erwartungswert (PV/7) als für eine gewöhnliche Politur mit einer mehr oder weniger gleichförmigen Verteilung der Abberationen. Falls es jemand weiß, gibts dazu eigentlich Erwartungswerte für die Verteilung der Anteile der Zernikes?

    Vg Tino

    Hallo Frank,

    dann ist aber Lambda/20 auch eher unrealistisch, zumindest als ptv, als rms dagegen aber ganz gewöhnlich. Herstellen lässt sich ein Lamda/4 (rms) Spiegel übrigens auch ganz wunderbar, ich sage ja nur, dass man es unbedingt angeben sollte. Wird auch unangenehm mit reklamieren, "war doch lambda/4 (rms) gemeint". Lambda ansich ist ja im besten Falle auch nur eine Maßeinheit, wie Äpfel, und Birnen und ein Lambdawert gibts ja in der Form eigentlich nicht, vllt. maximal in der Umgangssprache. Aber kein Problem, der Threaderöffner hat ja die Zenitspiegelfrage schon anderweitig geklärt.

    Gruß Tino

    Hallo in die Runde,

    "dieelektrische Vergütung" ist schon korrekt, es wird jan nicht von "dielektrischer Spiegel" gesprochen. Und der diskutierte "Lambdawert" bedarf auch einer genaueren Betrachtung. Man kann die Ebenheit bspw. als ptv (peak to valley) in Lambda angeben, aber auch als rms (root mean sqare) in Lambda. Im Normalfall ist zwischen den beiden der Faktor 7. Dh ab Lambda/14 (rms) ists "beugungsbegrenzt", was Lambda/2 (ptv) entspricht. Also ohne Angabe von "rms" oder "ptv" ists eigentlich sinnlos.

    Lg Tino

    Hallo Reinhold,

    ich antworte mal, obwohl Andreas angesprochen ist:

    1. "Alle geometrisch optischen Darstellungen" können die Beugung nicht erfassen und auch nicht erklären, Punkt!

    2. Die Begrifflichkeit Auflösung muss man vllt nochmal genauer definieren. "Abstand der beiden Beugungsbilder" ist nicht die Auflösung, sondern der Abbildungsmaßstab.

    Mal als Beispiel: Ich habe 2 ideale Linsen mit 1000mm Brennweite. Die eine hat eine Apertur von 1000mm und die andere eine von 1mm. Geometrisch optisch können beide Linsen einen Doppelstern von 1 Winkelsekunde Abstand ganz locker abbilden, da geometrisch bei einer idealen Linse jeder Stern als infinidesimal kleiner Punkt abbildet wird, egal ob große oder kleine Linse. Da die Brennweiten der beiden Linsen gleich ist, ist auch der Abbildungsmaßstab gleich, also auch der Abstand der beiden Punkte. Jetzt schlägt aber die Stunde der Beugung. Hier ist definitiv Feierabend für die Geometrie, die Beugung erfordert eine Transformation im Fourierraum. Die Fouriertransformation der Eingangspupille/Ausgangspupille ergibt eine Beugungsfigur, auch kurz Airy-Scheibchen genannt und ersetzt in der Realität die ideal punktförmigen geometrischen Abbildungsspots. Die Beugungsfigur der 1000mm Linse ist aber um den Faktor 1000 kleiner als die der 1mm Linse. Bei der 1mm Linse sind zwei riesige Spots überlagert, sodass ein längliches Etwas rauskommt und bei der 1000mm Linse sind die beiden Beugungsfiguren schön räumlich getrennt. DIe Auflösung definiert nun den Winkel, bzw. den Abstand, ab wann die beiden Spots visuell oder optisch getrennt werden können, ist etwas Definitionssache, siehe auch Rayleigh- oder Dawes-Kriterium.

    3. Fast alle Berechnungsprogramme, wie Zemax usw., berechnen entweder Geometrisch oder Wellenoptisch, ist also beides um Welten verschieden und nicht ohne weiteres kombinierbar. Spezielle, besonders schlaue Programme (bspw. Phosim) berechnen geometrisch und überlagern/falten die geometrische PSF mit der fouriertransformierten der Pupille, oder tracen die Photonen gleich mit einem MonteCarlo-Algorithmus, sodass man der Realität schon ziemlich nahe kommt. Ist aber wirklich die hohe Kunst der Optik und definitiv nicht mehr als Skizze aufzuzeichen.

    Vg Tino

    Hallo,

    mit Gedankenspielen bezüglich Münzen und Feldblenden usw. wird man vllt. die geometrische Optik duchblicken, aber wenn die Beugung dazukommt, vermute ich mal ganz stark, wird das wohl nicht so richtig funktionieren.

    Ich versuche vllt nochmal kurz meine Gedankengänge diesbezüglich zu erörtern.

    Das Licht vom Stern kommt als paralleles (kollimiertes) Strahlenbündel in der Apertur des Teleskops an. Hier wird das Strahlenbündel fokussiert und würde ein Fokalbild erzeugen, aber da ein Okular verwendet wird, wird das Strahlenbündel wieder kollimiert, also es kommt ein paralleles Strahlenbündel aus dem Okular, welches auf die Augenlinse fällt. Dh das Auge schaut nach unendlich, weil es so am entspanntesten ist. Das vom Stern kommende Strahlenbündel in der Eintrittspupille ist equivalent der Austrittspupille am Okular, außer dass es um die Vergößerung des Teleskops verkleinert ist und mglw. gespiegelt. Dh. der Fangspiegelschatten und der der Spinne sollte hier sichtbar sein. Wenn die Pupille des Auges nun die Randstrahlen abschneidet, schneidet es die Randstrahlen auch in der Eintrittspupille weg. Und nun kommt die Beugung ins Spiel. Die Randstrahlen (die mit den hohen Winkeln) sind aber genau die, welche die Auflösung bringen. Man schaue auch unter dem Begriff "numerische Apertur".

    Interessant wäre der Grenzfall einer sehr kleinen Pupille, welche die Randstrahlen bis zum Fangspiegelschatten wegschneidet, dann sollte es dunkel werden. Ist vllt aber auch nicht wirklich relevant, da man mit dem Auge korrigiert und dann etwas schräg reinschauen kann. Inwiefern das Auge die sich ändernde Auflösung aufgrund der Zapfnegrößen überhaupt bewerten kann, ist eine andere Frage.

    Vg Tino