Beiträge von Amateurastronom im Thema „Messung der Wirkung von Rauhigkeit“

    Hallo Uwe!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: suessenberger</i>
    <br />
    das entspricht dann wohl dem Robofoucault-Prinzip von James Lerch.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ja, davon habe ich auch gelesen. Das klappte scheinbar nicht
    so gut.


    Ich sehe die mechanische Verstellung auch als gewisses
    Problem an.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Wow, das klingt ja schon sehr vielversprechend. Ich drücke die Daumen, dass es klappt!
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich hoffe, am Samstag/Sonntag daran weiterarbeiten zu können.

    Hallo Uwe!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: suessenberger</i>
    <br />das hat "per Hand" offenbar Michael Peck schonmal ausprobiert:
    http://pw1.netcom.com/~mpeck1/astro/autof/autof.htm
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das habe ich schon gesehen und entspricht etwa dem,
    was die Leute von Kodak gemacht haben, über die
    geometrische Deutung des Tests eine Art von automatisierten
    Foucault-Test mit mechanischer Verstellung
    der Messerschneide zu machen.


    Was ich vorhatte, ist prinzipiell einfacher, da ich von
    einem einzigen Foucaultgramm ausgehen wollte.
    Aus der Intensität des Foucaultgramms wollte ich
    anhand der wellenoptischen Theorie auf die
    Fehler zurückrechnen, wie es die NASA schon
    erprobt hatte.


    Das Lösen der dazu existierenden Integralgleichung
    wollte ich anders als bei der NASA zunächst ohne
    Fourieranalyse probieren. Evtl. kann man darauf
    bei heutigen PCs verzichten und zur Auswertung
    direkt eine Matrix, die den Zusammenhang im Fall
    kleiner Fehler beschreibt, erstellen und invertieren,
    wenngleich diese sehr gross ist, was früher
    sicherlich ein Hindernis war.


    Ich habe mal einen kleinen Test gemacht und
    danach war eine solche 100x100 Matrix in
    Bruchteilen einer Sekunde invertiert, eine
    500x500 Matrix in wenigen Sekunden.
    Sofern ich später etwas Zeit habe, probiere
    ich das mal an einem synthetischen Foucaultgramm
    aus.

    Hallo Alois!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Alois</i>
    <br />
    Derzeit sind sie als scharf begrenzte Scheibchen dargestellt
    und auf einer Kante ist der Helligkeitsunterschied leichter zu erkennen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich hatte das absichtlich so gemacht, um die Grenze des Tests
    zu ermitteln. Flachere Anstiege hatte ich ebenfalls
    probiert.


    Mit einem flacheren Anstieg kann man aber
    Lambda/100 auf einer kleinen Fläche durchaus noch erkennen.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Ich bin jetzt 2 Wochen weg und kann erst nachher wieder weiter machen.
    Bin gespannt was es bis dahin Neues gibt.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Momentan bin ich noch dabei, ein paar kleine technische Probleme
    in bezug auf die Umkehrung des Foucault-Tests zu lösen, konnte
    jedoch leider noch nicht sehr viel Zeit damit verbringen.

    Hallo!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Alois</i>
    <br />
    Da hast du eine sehr interessante Simulation gemacht.
    Auch mir ist der linke Rand aufgefallen, hm was ist mit dieser Parabel
    los, dachte ich mir. Aber du wirst das schon noch hin kriegen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich hatte zunächst diesen logarithmischen Term einfach
    herunterskaliert. Hiedurch wurde der Rayleigh-Ring unterdrückt.
    Für diese Abbildungen hatte ich das jedoch ausgebaut.
    Ich muss mir mal ansehen, wie man die begrenzte Grösse
    der Pupille des Auges möglichst realistisch in die Berechnungen
    einfliessen lässt.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Die Kontrastsimulation ist eine gute Übungsmöglichkeit geworden,
    noch echter wäre sie wenn sie verlaufend gemacht werden könnte,
    weil dann würde sie der Praxis entsprechen.
    Wünsche dir gute Erfolge bei der Weiterentwicklung.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Inwiefern denn verlaufend?


    Ein paar andere Sachen müsste man eigentlich auch noch ändern.
    Aber im Moment interessiert mich eher die umgekehrte Berechnung
    der Fehler aus den Intensitäten für kleine Fehler.

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Mit einen aufgeweiteten Laser kann ich im Moment noch nicht dienen.
    Aber mein Lichtspalt denke ich würde den selben Zweck erfüllen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Der Lyot-Test mit Laserbeleuchtung interessiert mich,
    um zu sehen, ob man die Theorie des Zernike-Tests für den
    Lyot-Test einfach anpassen kann.


    Wäre es nicht möglich, mit einem grünen Festkörperlaser
    und etwa einer (vorzugsweise neuen) Kugellagerkugel mal
    einen Lyot-Test zu probieren?


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Ich habe hier die ganze Serie von meinen gestaffelte Teststreifen,
    wobei ich auch den Lichtspalt der Streifenbreite angepasst habe.
    Also ist auch diese Änderung mit drinnen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Problem ist nur, dass bei schmalem Spalt die Lichtintensität
    für den Lyot-Test vermutlich zu gering wird. Deshalb wäre
    ein Test mit einem regelbaren Laser interessant.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Eines kann ich schon sagen.
    Wenn man den Lichtspalt breiter oder schmäler macht wird nur das Bild heller oder dunkler aber die Strukturen bleiben gleich.
    Ändert man die Breite des Dichtestreifens, dann ändert sich die Struktur.
    Ändert man die Dichte dann ändert sich der Kontrast.
    Wenn du das gebrauchen kannst, würde ich dir das per Email schicken.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das würde meine Erwartungen bestätigen. Dann macht man den Spalt
    also nur so breit, um genügend Intensität zu bekommen und die
    Theorie des Zernike-Tests sollte nach einer Anpassung verwendbar
    sein.

    Hallo!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: RobertS</i>
    <br />
    Kannst Du in Deinem Programm die Form der Blende im Brennpunkt
    beliebig gestalten?
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Man kann theoretisch dort jede beliebige Form so eines Tests
    simulieren. Nur würden sich dann alle Formeln ändern.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    1) Realistisch große Eintrittspupille für Kamera bzw. Auge.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das wollte ich evtl. mal probieren und sehe mir das demnächst mal
    genauer an. Jedoch hat das für mich im Moment keine Priorität,
    nachdem ich sah, dass auch die NASA in ihrer Veröffentlichung mit exakt dem gleichen logarithmischen Ausdruck die Intensität am Rand berechnet hat.


    Mich interessiert zunächst vor allen Dingen die Umkehrung,
    aus einem Foucaultgramm quantitativ die Fehler zu bestimmen.
    Das läuft auf die Lösung einer Integralgleichung hinaus.


    Eine sehr primitive Methode dafür wollte ich gleich mal testen.
    Hoffentlich ist die benötigte Rechenzeit bei dieser Idee kein Hindernis.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    2) Eine Simulation der Aufnahme von Kurt, durch Weiterschieben der
    Schneide bis das zentrale Beugungsscheibchen abgedeckt ist.
    3) Ein fortgesetztes Weiterschieben der Schneide über 2) hinaus,
    zu Simulation der Messungen von Alois. (Aus meiner Sicht sollte
    das einer zunehmenden Hochpassfilterung entsprechen)
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das könnte man evtl. probieren, liefert dann jedoch kompliziertere
    Ausdrücke, da ich die Integrale so weit wie möglich
    von Hand ausgewertet habe nur eine Integration numerisch ausführe.


    Ich rechne im Moment mit einer Messerschneide, die
    exakt im Nullpunkt des Koordinatensystems ihre Durchlässigkeit
    von 0 auf 1 ändern.

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: RobertS</i>
    <br />Hallo Amateurastronom!
    Tolle Simulation und ein sehr aufschlussreicher Beitrag.
    Bin schon gespannt, ob das mit der Umkehrung klappt.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Nachdem ich gestern noch einen Artikel in Applied Optics fand,
    in dem Wilson (NASA Langley research center) einen solchen
    quantitativen Foucault-Test vorgestellt hat, hat sich mein
    Eindruck bestätigt, dass eine Umkehrung möglich sein müsste.


    Wilson hat nämlich exakt das realisiert. Gedacht war so ein
    Foucault-Tester, um im Weltall an einem Weltraumteleskop
    die Optik im Betrieb testen zu können.


    Es gibt zu dem Thema noch zwei weitere Technical Notes
    bzw. reports der NASA von zwei anderen Autoren, die
    jedoch dummerweise nicht per Internet sondern nur
    als Fotokopie über NTIS erhältlich sind. Schon der
    kürzere, weniger interessante Bericht würde bei NTIS
    ca. $ 70 kosten, sofern ich keinen Kollegen in den USA
    bitte, ihn mir zum etwa halben Preis zu beschaffen oder
    man ihn evtl. irgendwo per Fernleihe bekommen kann, was ich
    gerade versuche.

    Hallo Kurt!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Kurt</i>
    <br />
    Mit der speziellen Mathematik zu diesem Problem bin ich leider nur unzureichend vertraut und ich weiss, das ist bei fast allen Spiegelschleifern ähnlich. Ich kenne da wen der könnte uns hierzu vielleicht bitte eine spezielle Vorlesung geben...[:p]. Vielleicht kann das auch Amateurastronom, wie ich aus seinem Beitrag zur Foucault- Simulation schließe. Bei Anwendung der Foucault- Schneide wird es sicherlich wellenoptisch noch komplexer, weil nämlich die Schneide je nach Position einen Teil des Airy- Disk "abschneidet".
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Nur ganz kurz, weil ich noch schnell etwas erledigen muss:
    Prinzipiell berechnet man den Foucault-Test (oder Ronchi-Test)
    und Zernike-Test nach dem Konzept der räumlichen Filterung
    über zwei Fourier-Transformationen. Eine Fourier-Transformation
    berechnet die Amplitude in der Brennebene,
    wo die Messerschneide steht, eine Rücktransformation die am Foucaultgramm.
    Man faltet jedoch noch eine Modulationsfunktion M im Brennpunkt mit
    den in der ersten Transformation berechneten Amplituden.
    Für den Foucault-Test ist M besonders einfach
    nämlich 1 für eine Hälfte der Ebene der Messerschneide
    und 0 für die andere. Aber selbst das ist schon hinreichend kompliziert.


    Im Falle des Zernike-Tests hat M die Form exp(ik delta) für den
    Durchmesser des kleinen Phasenplättchens und 1 für den Rest
    der Ebene, in der die Phase moduliert wird.


    Beim Lyot-Test hat man schließlich noch zusätzlich ziemlich starke Absorption im Phasenplättchen, die man berücksichtigen müsste.
    Insofern ist das über die Frequenzen gesagte zumindest grob zutreffend, aber es gibt z.Z. angeblich noch keine richtige Theorie
    zum Lyot-Test.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    sehr spannend, Dein Simulationsprogramm. Was mich daran im Moment noch etwas irritiert ist der auf beiden Seiten des Bildes helle Rand bei sphärischer Aberration. Eine Seite ist bei meinen Foucault- Messungen im Krümmungsmittelpunkt an Parabolspiegeln immer dunkel, mit einem nur sehr schmalen, oft kaum wahrnehmbaren Lichtsaum.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich nehme an, dass das an dem Rayleigh-Ring-Term liegt. Bei
    der Annahme eines unbegrenzten Detektors bekommt man bei
    der Berechnung für diesen Term einen logarithmischen Helligkeits-
    anstieg am Rand. Direkt an der Kante wäre die Intensität durch
    diesen Term dann riesig - sogar divergent.
    Das ist jedoch unrealistisch, da die Pupille des Auges nur
    wenige Millimeter gross ist. Die Berechnungen für diesen Term
    gelten so jedoch für ein unendlich ausgedehntes Auge.


    Man kann das lt. Literatur berücksichtigen und korrigieren und es gibt angeblich zwei Artikel dazu, die ich mir aber noch nicht angesehen habe.


    Andererseits ist der ziemlich helle Rayleigh-Ring für eine Optik ohne grosse Fehler schon deutlich auf beiden Seiten zu erkennen, solange
    man die Messerschneide nicht zu weit vorschiebt. Die Rechnungen
    zeigen aber, dass der Rayleigh-Ring z.T. bei der Erkennung einer
    abgesunkenen Kante stören kann.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Nach eigenen Versuchen mit Kompensationslinsen an 10", 12" und 16" Spiegeln kann ich bestätigen, dass man 1/10 lambda PtV sphärische Aberration sehr sicher erkennen kann. Bei Wiederholmessungen wie in der Praxis üblich dürfte auch der messtechnische Nachweis mit besser als 1/10 PtV gesichert sein. (S. dazu auch
    http://www.astrotreff.de/topic…hTerms=Standardabweichung).
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Klar, das war auch der Grund, wieso ich bei meinem letzten Spiegel
    auf weitere Retuschen verzichtet habe, obwohl im Dall-Nulltest evtl. ein minimaler Fehler evtl. gerade noch knapp erkennbar war.
    Der wäre sowieso derart unbedeutend, dass dies Zeitverschwendung
    gewesen wäre.


    Mich interessiert aber wie gesagt besonders die Umkehrung also
    ein Programm, das aus einem aufgenommenem Foucaultgramm
    quantitative Werte für die Zonenfehler errechnen kann.
    Dies sollte möglich sein und damit beschäftige ich mich
    gerade. Zufällig fand ich heute zwei mir bisher unbekannte
    Publikationen der NASA, wo das bereits in sehr ähnlicher Weise
    für kleine Fehler durchgeführt wurde.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Ein Simulationsprogramm für Rauhigkeit wäre natürlich besonders spannend.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Leider gibt es nach Malacara für den Lyot-Test bisher noch keine richtige Theorie. Vermutlich wird man aber auf obiger Beschreibung
    des Zernike-Tests aubauen können.
    Probleme könnte es jedoch durch die inkohärente Ausleuchtung
    des Spiegels im Lyot-Test geben.


    Dazu hätte ich jedoch an die besonders erfahrenen Lyot-Test-Nutzer
    eine Frage: Könnten die mal bitte probieren, ob der Test auch mit
    einem aufgeweiteten Laserstrahl bei passend eingestellter
    Laserleistung durchführbar ist.


    Dann sollte sich die Rechnung für den Zernike-Test mit einer
    Ergänzung eines Absorptionsterms übernehmen lassen.
    Vielleicht wäre auch hier eine
    Umkehrung wie beim Foucault-Test möglich, so dass man aus
    Intensitäten quantitative Rückschlüsse auf die Grösse
    der Fehler ziehen könnte, sofern das nicht zu kompliziert ist.

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Alois</i>
    <br />
    Jetzt steht nur noch die Frage, wie viel % Kontrast erkennt jemand mit dem freien Auge, der seinen ersten Spiegel schleift, damit man ihm auch brauchbare Antworten geben kann.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich habe eben mal ein kleines Simulationsprogramm geschrieben,
    das in der vorläudigen Version folgende Foucaultgramme nach der physikalischen Theorie von Barakat simuliert. Das Programm ist
    noch etwas grob und macht u.a. die Näherung, dass die Fehler
    kleiner als 1 Wellenlänge sind. Außerdem müsste die Simulation
    des Rayleigh-Rings evtl. noch geändert werden.
    Ich versuche es evtl. mal weiterzuentwickeln, wenn es meine Zeit erlaubt, hoffe jedoch, dass die noch sehr vorläufigen Ergebnisse
    halbwegs korrekt sind.


    Für einen Spiegel, der gerade etwa an der Grenze der
    üblichen Definition von "beugungsbegrenzt" (Strehlintensität&gt;=0.8) liegt mit W=Lambda/4 *1/sqrt(2)*(6*rho^4-6*rho^2+1)=Lambda/4*1/sqrt(2)*R^0_4,
    ergibt sich numerisch folgendes Foucaultgramm:



    Dabei wurde ein linearer Kontrast angenommen, wie man ihn
    etwa erhält, wenn man Foucaultgramme mit einer CCD-Kamera
    aufnimmt und auf dem Computer wiedergibt.


    Bei W=Lambda/10*R^0_4 erhält man entsprechend das folgende Bild:


    Das sollte noch ziemlich gut erkennbar sein.


    Bei Lambda/20 sphärische Aberration kann man meiner Meinung
    nach den Fehler auch noch deutlich erkennen, wenn man
    von der Bildröhre des Monitors 1-2 m zurücktritt:




    Ist der Fehler stärker lokalisiert, wie dieser Lambda/20 Peak-to-Valley-Sprung in der Wellenfront bei 1/10 des Durchmessers des Spiegels, so fällt er ebenfalls deutlich auf:



    Bei Lambda/100 ist er gerade noch erkennbar:



    Bei einem defekt, der sich auf nur 2% des Spiegeldurchmessers ausdehnt, fallen aber bereits Sprünge von Lambda/100 auf:


    Hier würde ich Lambda/200 noch als erkennbar bezeichnen:



    Insofern sind schon relativ kleine Defekte sichtbar, wenn der
    Spiegel kohärent ausgeleuchtet wird (Kohärenzbedingung-&gt;Spaltbreite
    des Beleuchtungsspalts genügend klein machen!).
    Das ist allerdings zwingend nötig - sonst sind selbst grössere
    Fehler unsichtbar.


    Mit Berechnungen für den Lyot-Test habe ich mich noch nicht beschäftigt. Die Theorie dazu ist jedoch sehr ähnlich
    und für den Zernike-Test ist sie prinzipiell in dem genannten Artikel
    zu finden.

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Amateurastronom</i>
    <br />
    Ich kann gerne nochmal die Quellen angeben. Malacara schreibt
    in seinem Buch "Optical Shop Testing" (immerhin ein Standardwerk),
    1. Auflage, S. 253 zur Empfindlichkeitsgrenze, dass ausgehend
    davon, dass das Auge 2% Kontrastunterschied erkennen kann,
    und man daraus anhand von Gleichung 8.40 ein Limit für
    die erkennbaren Aberrationen ableiten kann,...
    Er löst das nach W' auf und erhält W'_i(x2,y2)=Lambda/(200*Pi)
    für gamma=0.02, was in guter Übereinstimmung mit der von Texereau angegebenen Empfindlichkeit von Lambda/600 für eng lokalisierte Fehler
    sei. Das ist also eine theoretische Vorhersage.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Dazu noch ein Nachtrag:
    Die obige Passage habe ich aus einem längeren Abschnitt über
    die Theorie des Foucault-Tests zitiert und ist in dem genannten
    Buch am angegebenen Ort zu finden. Aber auch in der sonstigen
    Literatur kann man Hinweise darauf finden, dass diese
    Empfindlichkeitsschätzung nicht ganz abwegig ist.


    Barakat berechnet in seinem per Fernleihe beschaffbaren Artikel
    im Journal of the Optical Society of America Vol. 59 Number 11,
    S. 1432 (November 1969) für diverse Aberrationen (u.a.
    0.125 Wellenlängen Koma) Foucaultgramme. In diesen Foucaultgrammen
    ändert sich die Intensität gegenüber einer fehlerfreien Optik
    erheblich. Bei einem Foucaulttest mit einer Phasenplatte verdoppelt
    sich die Empfindlichkeit sogar und er zeigt dementsprechend
    Foucaultgramme für Aberrationen von 0.0625 Lambda.


    Wenn nun Fehler von Lambda/8 (oder Lambda/16), die langsam
    über die ganze Optik zunehmen, noch deutlich und problemlos
    erkennbar sind, dann sollten derartige Fehler auch noch erkennbar sein, wenn sie noch etwas geringer sind. Und es sollten ebenfalls
    viel geringere Fehler erkennbar sein, wenn diese stärker
    an einer bestimmten Stelle lokalisiert und deshalb eine
    abruptere Intensitätsänderung gegenüber der restlichen Fläche im Foucaultgramm zeigen.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Texereau schreibt auf S. 75 seines Buches in
    der englischen Auflage (S. 65 der französischen), dass er Oberflächendefekte von weniger als 1 mm Breite, deren Steigung aus geometrischen Überlegungen 10^-6 gewesen sei und deren Höhe daher
    10 Angstrom bzw. Lambda/600 gewesen sei.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Auch diese Passage stammt aus einem längeren Abschnitt.
    Texereau gibt darin an, dass er nach eigenen Experimenten
    und kohärenter Ausleuchtung der Optik (im Falle seiner
    Spiegel mit einem 10 Mikrometer Spalt) und zugehörigen
    geometrischen Rechnungen zum Foucault-Test noch Steigungsfehler
    bezogen auf die Wellenfront dW/dy der von 10^-6 bis 2x10^-7
    erkennen konnte.
    Er geht ferner wie Malacara davon aus, dass der minimal erkennbare Kontrast die Grenze des Tests bestimmt.


    Er schätzt daraus einfach ab, dass ein Fehler Delta W=dW/dy *Delta y
    noch erkennbar sei und setzt dabei Ausdehnungen von Fehlern von
    (2.5 inch =&gt;Lambda/60) und (1 mm =&gt; Lambda/600) ab, die er
    mit ähnlichem Kontrast schon photographiert haben will.


    Sieht man sich das mal an, so erscheint dies nicht unplausibel.
    Lambda/2 bis Lambda/10 sphärische Aberration eines 300 mm Spiegels wäre dann z.B. noch erkennbar.
    Wäre der Test unempfindlicher, müsste jeder Spiegelschleifer,
    der grössere Spiegel herstellt, unbedingt einen Hartmann-Test
    usw. durchführen. Das machen jedoch nur wenige hier, weil
    der Foucault-Test dafür noch hinreichend empfindlich ist.
    Wenn der Defekt nur 10 cm gross ist, wäre er noch mit Lambda/6 bis Lambda/30 erkennbar.
    Und wenn der Fehler auf einer Ausdehnung von 1 cm lokalisiert wäre,
    so wären noch Abweichungen von Lambda/60 bis Lambda/300 bei
    gleichem Kontrast erkennbar.
    Insofern erscheinen diese Werte keineswegs von vorneherein abwegig.


    Nun kann man durchaus skeptisch sein und das selbst genauer
    überprüfen. Skepsis ist durchaus sinnvoll, denn auch berühmte
    Wissenschaftler bis einschließlich Albert Einstein haben schon mal
    allgemein unbekannte Fehler in Publikationen begangen
    und gelegentlich wird ein von berühmten Wissenschaftlern begangener
    unbemerkter Fehler ca. 150 Jahre lang unverändert übernommen und taucht dann selbst in Publikationen von 2001 noch auf, obwohl
    ihn eigentlich längst jemand hätte bemerken müssen, da es sich
    sogar um technisch relevante Fakten handelt, die aber selbst von
    Weltfirmen in Publikationen falsch übernommen wurden, obwohl
    man es in der Praxis sicherlich anders gemacht haben wird.


    Alles kann man jedoch leider nicht kontrollieren. Sonst wäre
    das eine Daueraufgabe, die sämtliche Zeit verschlingen würde.
    Insofern muss man in erheblichem Umfang meist allgemein
    akzeptierte Forschungsergebnisse glauben.


    Mir erschienen die Empfindlichkeitsangaben für den Foucault-Test
    keineswegs so abwegig, dass man dies zwingend anzweifeln muss
    zumal diese Frage eher von theoretischem Interesse ist.
    Trotzdem wollte ich die genannten Literaturwerte mal
    nennen, nachdem in manchen Diskussionen die Erkennbarkeit
    von weit grösseren Fehlern schon angezweifelt wurde
    oder strittig war.


    Ich selbst bin bei Texereau's Abschätzung nach der
    geometrischen Deutung bei Fehlern mit 1 mm Grösse
    etwas skeptisch, da ich annehme, dass bei
    Fehlern mit einer Ausdehnung &lt;15 mm auf einem Spiegel
    durch Beugungseffekte der Kontrast zu sehr verschlechtert
    werden wird, so dass nur grössere Abweichungen erkennbar
    sein dürften. Aber geht man mal davon aus, dass Lambda/10 sphärische Aberration (Peak-To-Valley in der Wellenfront) bei einem 300 mm
    Spiegel gerade noch erkennbar sind, würde die Abschätzung bei
    einem Defekt von 15 mm Durchmesser einen erkennbaren Fehler
    von ca. Lambda/200 ergeben. Insofern würde ich davon
    ausgehen, dass Fehler von Lambda/100 sicherlich noch erkennbar
    sein sollten. Genau wird man die Auswirkungen so eines
    Fehlers auf ein Foucaultgramm allerdings erst durch
    eine Computersimulation anhand der Beziehungen in obigem
    Artikel errechnen können.

    Hallo Alois!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Alois</i>
    <br />
    Nun liest man des öfteren über mögliche Genauigkeiten von Lambda / 600 in der Schattenprobe messbar und Fehler von 0,01 nm mit dem Lyottest.
    Leider ohne Angabe von PV oder RMS, Oberfäche oder Wellenfront.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das sind schon Angaben von PV für sehr stark lokalisierte Fehler.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Versuche ich diese Werte mit denen aus der Erfahrung zu vergleichen ist es mir nicht
    möglich und sie wirken wie wilde Zahlen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich kann gerne nochmal die Quellen angeben. Malacara schreibt
    in seinem Buch "Optical Shop Testing" (immerhin ein Standardwerk),
    1. Auflage, S. 253 zur Empfindlichkeitsgrenze, dass ausgehend
    davon, dass das Auge 2% Kontrastunterschied erkennen kann,
    und man daraus anhand von Gleichung 8.40 ein Limit für
    die erkennbaren Aberrationen ableiten kann,
    da nach seiner Gleichung 8.43 der Intensitäts-Kontrast
    gamma von solchen Abweichungen W'_i(x2,y2) im Foucaultgramm nach
    gamma=4*Pi/Lambda *W'_i(x2,y2) abhängt.
    Er löst das nach W' auf und erhält W'_i(x2,y2)=Lambda/(200*Pi)
    für gamma=0.02, was in guter Übereinstimmung mit der von Texereau angegebenen Empfindlichkeit von Lambda/600 für eng lokalisierte Fehler
    sei. Das ist also eine theoretische Vorhersage.


    Texereau schreibt auf S. 75 seines Buches in
    der englischen Auflage (S. 65 der französischen), dass er Oberflächendefekte von weniger als 1 mm Breite, deren Steigung aus geometrischen Überlegungen 10^-6 gewesen sei und deren Höhe daher
    10 Angstrom bzw. Lambda/600 gewesen sei. Diese
    Werte seien durch Vergleich mit dem Lyot-Phasenkontrast Test
    bestätigt worden.


    Nachlesen kann man es in der französischen Auflage
    hier (Kapitel 2 Teil 2):
    http://www.astrosurf.com/texereau/chapitre2suite.pdf
    bzw.
    http://www.astrosurf.com/texereau/chapitre.htm


    Die Angabe von 1 Angstrom Empfindlichkeit für den Lyot-Test
    bei 15% Kontrast findet man im Buch von Malacara auf
    S. 270.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Meine Englischkenntnisse sind nicht ausreichend, aber vielleicht findet aus diesen Büchern doch jemand heraus, wie man Messen muss und was alles berücksichtigt werden muss das diese Zahlen gültig werden.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Wenn es meine Zeit erlauben sollte, schreibe ich mal ein Programm,
    was aus vorgegebenen Aberrationen ein theoretisches Foucaultgramm
    errechnet. Damit sollte sich hoffentlich verifizieren lassen,
    ob eine Empfindlichkeit von bis zu Lambda/600, wie sie die
    Fachliteratur nennt, realistisch ist.

    Hallo Kurt!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Kurt</i>
    <br />
    mir scheint, es gibt doch noch mehr Objekte als die Sonnencorona wo es auf extreme Streulichtarmut ankommt. In diesem Zusammenhang wäre es sicher nützlich, wenn man das durch die Optik erzeugte Streulicht in der Bildebene messen könnte. Ob dazu meine Versuchsanordnung ausreicht weiß ich noch nicht, stehe aber auch erst am Anfang der Versuche.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich hatte an solche Objekte auch erst gar nicht gedacht.
    Daraufhin hatte ich nochmal nachgesehen, wieso Texereau in
    seinem Buch dem Lyot-Test und der Glattheit von Poliermethoden
    eigentlich so viel Platz einräumt und sah dann das Beispiel
    Sirius B und musste an meine eigenen Experimente mit Phobos/Deimos
    denken.


    In der astronomischen Optik spielen solche Fälle scheinbar eine
    grössere Rolle als bei anderen Anwendungen, wo Microripple
    scheinbar eher nebensächlich ist.

    Hallo Kurt!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Kurt</i>
    <br />
    soeben habe ich gelernt, dass man die Marsmonde tatsächlich mit mittelgroßen Newtons sehen kann. Das hab ich erst gar nicht probiert in der Annahme, die seien nur unter super-seeig- Bedingungen sichtbar....
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    In Sky&Telescope wurde in einem längeren Artikel die Sache
    2003 diskutiert und eine Beobachtung angeregt.


    Ich hatte 2003 mit einem 6.1" Newton leider Pech :( und werde es
    bei der nächsten Opposition mit einem grösseren Fernrohr nochmal
    probieren.


    Sirius B soll lt. Burnham's Handbook mit einem 6-12" unter
    mehr oder weniger günstigen Bedingungen zu sehen sein und
    steht dann im Winter auch auf meiner Beobachtungsliste.

    Hallo Roland!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Roland</i>
    <br />
    das ist auch visuell kein allzugroßes Problem, und ist mit mittlerer Öffnung zu bewältigen, Deimos war auf der Alm 2003 für meinen ehemaligen 15er Dob überhaupt kein Problem, Phobos dagegen ist schon etwas schwieriger, aber auch machbar. Spezies wollen Deimos sogar schon mit 6Zoll oder weniger gesehen haben. Der Helligkeitsunterschied zwischen Deimos und Mars beträgt übrigens eins zu einer halben Million!
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das kann ich mir vorstellen. Ich hatte es 2003 auch mit einem
    6" Newton und einer handelsüblichen ToUCam Pro probiert aber leider
    keinen Erfolg. Bei 6" wäre 2003 vermutlich eine für Langzeitbelichtungen gebaute/modifizierte Kamera geeignet
    gewesen. Damit haben schon einige Leute (siehe Bilder bei der
    ALPO in Japan) bei geringer Öffnung Erfolg gehabt.


    Ab 10-12" reichte dann 2003 scheinbar schon die handelsübliche
    ToUCam (siehe etwa die ALPO-Fotos auf
    http://www.kk-system.co.jp/Alpo/kk03/m2003Satellites.htm).


    Im Grunde sind die auftretenden Probleme ähnlich.
    Sirius B hat ca. 8.5 mag und dürfte momentan ca. 5-8 Bogensekunden neben Sirius zu sehen sein, Phobos und Deimos sind zwar mit 12.3-13.5 mag dunkler aber dafür z.T. etwas weiter entfernt.

    Hallo Kurt!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Kurt</i>
    <br />
    genau das hab ich auch schon gelesen. Spiegel sind wegen des i. a. vernachlässigbaren Streulichtanteils der Spiegelschicht nicht für Coronografen geeignet. Ob und wie stark das vielleicht bei Multi-Spieglern und Planetenbeobachtung eine Rolle spielt kann man vielleicht mit meiner Methode herausfinden.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Texereau gibt noch ein weiteres Beispiel an, für das eine
    glatte Oberfläche einer Optik besonders wichtig ist: Die Beobachtung
    dunkler Objekte direkt neben sehr hellen Planeten/Sternen
    wie Sirius B. Die Beobachtung von z.B. Phobos/Deimos
    neben Mars fällt wohl in die gleiche Kategorie.
    Das haben Amateure mit Spiegelteleskopen und CCD-Kamera
    schon geschafft (siehe etwa die Seite von Bernd Gährken
    http://www.astrode.de/nampl03.htm#v2.htm
    http://www.astrophoto.de/Grafi…Cam/Mars280803MoComp2.jpg ).

    Hallo Kurt!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Kurt</i>
    <br />
    Selbstverständlich bin ich sehr froh über Deine Versuche zur direkten Messung der Rauhigkeit.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Die Methode von Vandenberg et al. (Eastman KODAK, aus Opt. Eng. 32, 1951(1993)) lässt sich leider wohl nicht auf den Lyot-Test übertragen
    soweit ich den Artikel eben überflogen habe.
    Meine Idee war etwas anders. Ich muss mir das mal in Ruhe
    überlegen.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Es schadet natürlich nicht wenn eine Messmethode wesentlich genauer ist als erforderlich.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Der Lyot-Test ist nach Texereau's Testfotos in seinem
    Buch so empfindlich, dass man auf dem Glas einzelne
    Striche mit einem poliermittelbestrichenen Seidentuch
    anhand der abgebildeten Fäden nachvollziehen kann.


    Das ist schon ziemlich extrem.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Bitte nachrechnen und ggf. korrigieren! Man vertut sich am liebsten bei scheinbar einfachen Rechenbeispielen. Falls ich mich nicht verrechnet habe frage ich: „Lohnt es sich um 0,5% nicht erfassten Strehl zu weinen?“
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Wie gesagt stört sowas normalerweise nicht und ist
    auch sonst schwer zu messen. Wichtig kann
    dies jedoch werden, wenn es etwa um die Optik für einen
    Koronographen geht, bei dem durch solche Fehler
    produziertes geringes Streulicht aufgrund des
    intensiven Sonnenlichts stören kann.


    Schroeder diskutiert das Thema in Zusammenhang
    mit Hochleistungsoptiken für Weltraumteleskope.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Nö, ist eine ganz stinknormale polykristalline Solarzellenbatterie von Conrad Electronic 56x50 mm. Deren Leerlaufspannung liegt bei voller Sonne bei ca. 3,3 V. Zur Messung wird sie je nach Intensität so belastet dass max. ca. 40 mV am Lastwiderstand anliegen. Noch besser, weil rauschärmer war eine einzelne monokristalline Zelle, die mir aber während der Versuche zu Bruch gegangen ist.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Eine Solarzelle ist letztlich auch eine Art grossflächiger
    Fotodiode.
    Kürzlich sah ich bei Farnell interessante Fotodioden
    für Meßzwecke mit integriertem Verstärker, die obendrein
    preiswert waren. Da ich meine alte Siemens-Fotodiode nicht
    wiederfinde, wollte ich für die Messung an Spiegelschichten
    eine bestellen. Leider waren sie schon vergriffen.

    Hallo Kurt!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Kurt</i>
    <br />Optisch raue Flächen sind soo böse, dass man sich da gar kein Bückelchen oder sonstwie verborgenes leisten kann, so glauben vielleicht viele.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Es bestehen dafür ähnliche Toleranzgrenzen wie für Zonenfehler auch.
    Bei z.B. sphärischer Aberration kann man sich auch noch ca.
    Lambda/14 rms erlauben und trotzdem gerade noch eine
    beugungsbegrenzte Optik erhalten. Genauso ist es auch bei
    Micro-Ripple.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Wenn man die „mittlere“ Rauhigkeit kennt , kann man sehr simpel mit einem Taschenrechner ausrechnen wie „böse“ Rauhigkeit tatsächlich ist. Angenommen eine sonst fehlerfreie Oberfläche habe eine mittlere Rauhigkeit von PMS =1/10 lambda Wellenlänge, dann zieht das den Strehl herunter ungefähr ziemlich genau:


    Strehl = e -(exp 2*pi*0,1)² = 0,67.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich war in der Zwischenzeit auch nicht untätig und habe einen
    Artikel aus der SPIE-Gazette angefordert, um zu untersuchen,
    ob man den Lyot-Test zu einem quantitativen Meßverfahren
    abändern kann, um diesen Fehler direkt zu messen,
    da mich ein analog durchzuführender quantitativer
    Foucault-Test selbst interessiert.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Für solche Rauhigkeiten muss man sich aber schon gewaltig anstrengen. Mit Pechpolitur und sanftem Händchen schafft man das kaum. Das soll heißen, amateurpolierte Flächen sind meistens viel glatter.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das zeigt aber auch bereits der Lyot-Test.
    Texereau liefert in seinem Buch einige Beispiele. Besonders schlimm
    sieht die "HCF"-Politur mit einer Bienenwabe anstelle von opt. Pech aus.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Wie glatt in RMS ausgedrückt? Das weiß ich auch nicht. Es muss auch gar nicht interessieren, wenn man denn die optische Wirkung der Rauhigkeit messen und dabei zuverlässig feststellen könnte, dass nichts messbar wichtiges verloren geht.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich fürchte, angesichts des geringen Microripple von winzigen Bruchteilen einer Wellenlänge wird man auf diese Weise in der
    Regel nur eine Obergrenze bestimmen können.


    Der Foucault-Test kann lt. Texereau/Malacara immerhin noch enge Fehler von ca. Lambda/600 zeigen.
    Beim Lyot-Test sieht man lt. Malacara noch Fehler
    von 0.1 nm (!) mit 15% Kontrast. Wenn im Lyot-Test kaum etwas
    zu sehen ist, dann muss die Optik deshalb so glatt sein, dass dies
    für die Praxis keine nennenswerte Rolle mehr spielt.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Die Messvorrichtung (Detektor) besteht aus einer ganz primitiven Fotozelle mit einigen cm² Fläche und einem Digitalmultimeter.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich nehme an, Du benutzt eine Photodiode.