Mikrorauheit und deren Messung

  • Hallo alle Mitleser,
    ich hatte den ursprünglichen Thread gesperrt, weil zu viele Beiträge sich auf - höflich gesagt - persönliche Zwischentöne konzentrentierten und sich nicht auf fruchtbare Weise um das Thema kümmerten.


    Meine urspüngliche Absicht war, nach einer Denkpause, den Thread wieder zu öffnen. Ich habe die Denkpause dahingehend genutzt, dass ich den Thread noch mal genau nachgelesen habe. Dabei bin ich zu dem Schluss gekommen, dass es unkommentiert, genau dort weiter gehen würde, wo ich ihn unterbrochen habe. Sein fachlicher Wert - auch die Arbeit Alois - würde unterminiert.


    Andererseits finde ich das Thema zu interessant die Diskussion darüber gänzlich zu unterbinden.


    Deshalb habe ich mir die Mühe gemacht, den gesamten Thread zu überarbeiten. Ich mache mir damit den Inhalt praktisch zu eigen.


    Mein Ziel war es nicht, den Thread zu verfremden. Es geht mir vorrangig um die Wiederherstellung
    <ul><li>a) der Lesbarkeit </li><li>b) einer Diskussionskultur, wie wir sie bislang im Asrotreff immer beachtet haben.</li></ul>
    Im Wesentlichen besteht meine Bearbeitung darin, dass ich einige Beiträge gänzlich gestrichen habe, weil sie nichts zur Sache besagen UND sich auch keine sachdienlichen Antworten darauf beziehen.


    Andere Beiträge habe ich um diverse Rechtschreibfehler, Formatierungsschwächen, und andere Kleinigkeiten bearbeitet. Auch im Sinne, dass ich bewusst, Anspielungen persönlicher Art "entschärft" oder gestrichen habe.


    In wiederum anderen Fällen, habe ich die chronologische Reihenfolge dahingehend angepasst, dass Antwortsbeiträge unmittelbar einem Fragebeitrag, Erwiderungsbeiträge unmittelbar einem Thesenbeitrag folgen. Das ging nur zu einem gewissen Grad.


    Ersatzlos gestrichen habe ich Beiträge, die offenkundig verspätet auf einen Beitrag erschienen und den Fluss der Diskussionsentwicklung nur stören.


    Technisch musste ich alle Beiträge "anfassen" und werde sie in einem nachfolgenden Sammelthread - optisch nach wie vor als Beiträge erkennbar - präsentieren.


    Ich bitte im weiteren Verlauf der Diskussion, die anschließend wieder möglich ist, dass alle bisher Beteiligte sich vielleicht noch mal die Mühe machen erst nachzulesen, was ich hier zusammenfassend präsentiere.


    <font color="yellow"> Worum ich ausdrücklich bitte:
    Bitte keine "Gut-so" oder "Nicht-gut" Bekundungen. Das ist hier nicht Facebook. Das würde meine Arbeit konterkarieren und ich wäre in jedem Fall "not amused".


    Auf die Umgangsformen hier im Astrotreff werde ich hier nicht noch mal hinweisen.</font id="yellow">


    Gruß


    PS: Sollte jemand das Gefühl haben, dass ich einen Beitrag unangemessen überarbeitet habe, so kann er sich bei mir per PN melden. Der Originalthread ist zu Vergleichszwecken noch ein zwei Tage sichtbar - wenngleich geschlossen.

  • <font color="yellow"><b>Autor des Themas:</b> </font id="yellow"> Alois
    <font color="yellow"><b>Betreff:</b> </font id="yellow">Mikrorauheit und das Problem der Quantifizierung
    <b><font color="yellow"><b>Gesendet am:</b> </font id="yellow"></b> 06.12.2013 03:35:02 Uhr
    <hr noshade size="1">


    Liebe Interessenten der glatten Flächen.


    Da dieses Thema im Nachbarforum, ade gegangen ist, habe ich mich entschlossen die versprochene Antwort hier zu bringen.
    Auch weil der Bilder-Upload mit horizontal 800 Pixel schon eine gute Möglichkeit bietet Feinstrukturen zu zeigen.
    Für die Stellen, wo dies immer noch nicht reicht, gelang es mir Ausschnitte einzufügen und für hochauflösende Bilder
    Zwar habe ich einen anderen Upload gefunden. Allerdings verschwinden dort die Bilder, wenn sie 50 Tage lang nicht mehr angeklickt werden.


    Ich erzähle einfach was ich bemerkt, gesehen, gedacht und getan habe.
    Es gibt kein Ende, weil bei mir auch noch nicht alles vollständig ist und jeder dazu helfend beitragen soll, wo er kann.


    Als erstes nehme ich wahr das es in der Astroszene unterschiedliche Vorstellungen der Mikrorauheit gibt.
    Aus meiner Sicht muss ich diese Kontrollen in 5 Stufen einteilen. Wobei A und B noch nicht zu den Mikrorauheiten zählen.
    A - feine Unformen, die man heute schon in der Schattenprobe sieht.
    B - kleine Unformen, die man noch mit dem Interferometer Zygo oder auch Bath bei Messungen der ganzen Fläche sehen kann.
    C - jene Unformen, die man mit dem Lyottest sehen kann.
    D - jene Strukturen, die man mit dem Nomarski Polaristionsmikroskop sichtbar machen kann. Laterale Auflösung bereits im hundertstel mm Bereich.
    E - Strukturen, die das Weißlichtinterferometer aufzeigen kann. Hier gibt es Daten für laterale und vertikale Abweichungen. Sie ist die einzige interferometrische Methode mit hoher Sicherheit und Auflösung. Allerdings nur auf einer sehr kleinen Fläche.
    In der Industrieoptik zählt zur Mikrorauheit jene Rauheit, die mit der Schattenprobe und dem Zygo Interferometer lateral nicht mehr erfassbar sind.
    Daher braucht es die Erfassung mit dem Mikroskop. Meistens mit 200- bis 500-facher Vergrößerung.


    Privat bin ich aber an die Schattenprobe gebunden. Da bemerkte ich schnell, dass ich einen verstellbaren Lichtspalt brauche, der die 4 Schneiden in eine Ebene hat.
    Die Länge von 0,3 mm, die ich als Fixeinstellung halte, und als Maßstab im Bild dient, hat sich aus der Praxis ergeben. Sie ist das Maß, bei der ich noch sehr scharfe Abbildungen verlustfrei abbilden kann und sehr starke Abweichungen das Bildfeld noch nicht verlassen.
    Deshalb dient er mir auch gut zur Berechnung der lateralen Abweichungen.



    Der Lichtspalt hat auch den Vorteil, dass das Licht linear verteilt wird und daher auch kleine Lichtmengen aufzeigt, die beim Sterntest durch die radiale Verteilung oft schon schwach werden. Er zeigt dafür auch, wie sich der Fehler auf einer harten hell dunkel Grenze verhält, wie es bei Mondkratern und am Planetenrand ist.
    Erschreckt aber nicht an den Beispielbildern, weil sie zeigen den Fehler wegen der Autokollimation doppelt so stark an.



    Vollaufösung
    http://www.bilder-upload.eu/sh…ile=f440d1-1386270056.jpg
    und ein anderes Beispiel in Vollauflösung. Erst bei dieser Größe ist es möglich auch den ersten Ring um das Beugungsscheibchen zu zeigen.
    Rechts unten kann man auf die gewünschte Vergrößerung gehen.
    http://www.bilder-upload.eu/sh…ile=e1d3af-1386270870.jpg
    Danach ging es zum Lyottest - mittels verschiedenen Dichtestreifen aus Technical Pan Film gemacht. Die Dichte 2 hat sich als recht gut erwiesen.
    Das war so um die 1990ger Jahre. Um schnell herauszufinden welche Streifenbreite am besten ist, kam ich auf die Idee einen gestaffelten Streifen zu machen.
    Damit entstand dieses Bild.

    Vollauflösung
    http://www.bilder-upload.eu/sh…ile=fcf07d-1385989820.jpg
    Es ist zwar schön, beweist aber nur, dass verschiedene Streifenbreiten andere Strukturen zeigen. Praktisch ist die Wiederholbarkeit der Messungen weil die Einstellung der Streifenbreite gleich bleibt. Eine Veränderung der Breite des dahinter verdeckten Lichtspaltbildes hat die Struktur nicht verändert. Also bring das noch nicht viel Hilfe zur Quantifizierung.
    Danach begann ich zu untersuchen, ob sich die Rauhigkeit eher im Kontrast dieser Strukturen zeigt. Da bin ich fündig geworden und da muss ich sagen, dass mein schönes Bild oben nicht brauchbar ist weil es kontrastverstärkt und zu hell ist.
    Da ist das nachfolgende Bild von Kurt viel aussagekräftiger und bewirkt durch seitliches Verstellen die gleichen Strukturveränderungen.

    Aus der Wirkung Streifenbreite oder dem Abstand von der Kante müsste in Verbindung mit noch etwas schon einen Ableitungshife zu finden sein.
    Im Lauf der Zeit ist mir durch viele Messungen aufgefallen, dass immer eine gewisse Streulichtbreite vorhanden war, die nicht auf die Rauhigkeit reagiert hat. Auf der Suche danach bemerkte ich, dass der Rand der Apertur zu hell war. Es war das Licht, welches auf der Kante gebeugt wird und eben dasselbe Licht, welches die Tannennadeln so hell leuchten lässt bevor der Mond aufgeht.
    Um diese Lichtmenge zu ermitteln war es notwendig immer eine Belichtungsreihe zu machen, um das Bild zu finden bei dem der leuchtende Rand noch nicht abgesoffen ist. Da wurde die Fläche des Spiegel sehr dunkel. Ein Versuch die Gesamtlichtmenge des Bildes zu messen und dann den hellen Ring mit einem Bilbearbeitungprogramm zu entfernen ergab auf Anhieb 50% weniger Streulicht.
    Da kommt schon der Gedanke auf, ob wir das Problem Streulicht wohl etwa überbewerten.
    Nun wollte ich wissen, welches Streulicht wie hell ist, und, wie weit geht es vom abgebildeten Lichtspalt weg.
    Dabei zerstörte die Körnung des Technical Pan Films die Schärfe der Lichtspaltabbildung und ich konnte nicht alles gleichzeitig messen.
    Da musste ich mir einen aufgedampften Dichtespalt machen lassen. Wenn schon, dann auch einen der daneben in seiner Breite auch ein Quadrat hat, damit man auch die radiale Verteilung messen kann. Das große Quadrat unten dient zur Messung wie Kurt sie macht.



    Der Unterschied ist so.



    Und der nächste Schritt so.



    Nun noch einmal zur Messung der Lichtmenge die durch die Beugung am Rand entsteht, hat mir Guntram seinen noch nicht ganz fertigen aber schon ziemlich
    guten Kugelspiegel zur Verfügung gestellt. Er hat den Vorteil dass man mit ihm ohne Planspiegel auch den Sterntest im Krümmungsmittelpunkt machen kann.
    Da konnte ich zum ersten mal detaillierte Messungen machen . Was mir schon einiges bestätigt.



    In der Schattenprobe sieht man, dass der Rand nicht ganz scharf ist. Das dürfte dazu führen, dass das Streulicht in der Streifennähe heller ist als Jenes im 1% leuchtenden Lichtspalt. Diese Messung werde ich später noch einmal mit einer Maske machen.
    Hier die volle Information mit Berechnungen.



    Hier der Parabolspiegel von Peter den ich vor 2 Wochen in Autokollimation gemessen habe.
    Da ist der Streulichtanteil neben der Dichtestreifenkante weniger hell, obwohl hier auch die Rauhigkeit meines Planspiegels auch dabei ist.
    Sicher sind beide Flächen gut und das deutet wiederum darauf hin, dass die Streulichtwirkung der Mikrorauheit nicht so sehr zum Tragen kommt … wie wir denken. Weil die Spiegelfläche bleibt sehr dunkel.



    Nun komme ich zu den Messmöglichkeiten in der Firma.
    Für die Herstellung der Objektive zur Chipproduktion braucht es sehr glatte Flächen. Für diese konnte ich Versuche machen und mit neuen Messmethoden arbeiten. Die erste Möglichkeit war mit einem Nomarski Polarisatonsmikroskop zu messen. (http://de.wikipedia.org/wiki/Differentialinterferenzkontrast)


    Dadurch konnten verschieden geneigte Flächenteile sichtbar gemacht werden.
    Dabei sind diese Bilder entstanden.



    Zur Vollauflösung: http://www.bilder-upload.eu/sh…ile=88d019-1386715707.jpg


    Später konnte ich dann mit dem Weißlichtinterferometer arbeiten und da wurde es so richtig interessant. Weil jetzt konnte ich auch Höhen und Tiefen messen und das war eine tolle Herausforderung. Leider habe ich immer nur die besten Flächen gemessen und habe keine Vergleiche für die gröberen Flächen. Es war ja der Fortschritt wichtig und die Grenze zu finden, wie weit man mit dem Normaski Polaristionsmikroskop arbeiten kann. Dieses hatte die Grenze so bei 8 Nanometer Mikrorauheit. Das entspricht dem Bild D von oben.


    Hier das Protokoll der besten Fläche.



    Und hier noch ein Ausschnitt zur näheren Betrachtung.



    ***
    Nachfolgend noch ein paar Beispiele, wie verschieden Rauigkeiten sein können und wie sie sich auswirken.


    Hier ist die Streulichthelligkeit deutlich stärker als der mit 1% leuchtende Lichtspalt, aber noch nicht breiter als die übliche Streulichtbreite.



    Hier ein Beispiel mit grober Rauigkeit, die man sogar schon mittels FFT Analyse messen kann. Das Streulicht ist deutlich heller als der mit 1% leuchtende Lichtspalt und auch deutlich breiter als das übliche Streulicht.



    Das nachfolgende Bild zeigt deutlich den Messunterschied von Gestern zu Heute.



    Und hier der Vergleich Schattenprobe und Lyottest. Hier zeigt sich, dass Rauigkeit sich im Kontrast ausdrückt. Bei neuerlichen Messungen werde ich das genauer beobachten.



    Diese Rauigkeit lässt sich bereits im Profil der FFT Analyse gut aufzeichnen und berechnen.



    Thomas Winterer den ich derzeit betreue, hat ein ausgezeichnetes störungsfreies Foucaultbild gemacht. Bei dem sieht man gut, was passiert, wenn man bei Minitools mit zu hartem Pech und zu schnellen Bewegungen arbeitet. Auch das könnte mathematisch quantifiziert werden. Aber mit sehr viel Mühe und guten Helligkeitsabschätzungen.



    Thomas hat sich bereit erklärt uns weiterhin über seine Poliererlebnissen zu informieren.
    So jetzt glaube ich haben wir Stoff genug um neue Überlegungen zu machen. Bin gespannt wies weiter geht.


    Viele Grüße
    Alois
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Kurt
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 06.12.2013 09:37:10 Uhr
    <hr noshade size="1">
    Hallo Alois,
    vielen Dank für diesen Bericht mit der sehr aufwändigen und spannenden Dokumentation.[^] Aus "Erstellt am : 06.12.2013 03:35" kann man nur schließen dass du dir eine Ruhepause verdient hast.


    Sicher werden noch zahlreiche Fragen kommen, auch von mir. Dazu muss ich natürlich erst deinen Bericht gründlich studieren und sicherheitshalber die Vollformatbilder bei mir speichern. Beides sollte jeder andere Fragesteller sinnvollerweise auch tun.


    Also, bis bald
    Gruß Kurt
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Alois
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 06.12.2013 10:40:48 Uhr
    <hr noshade size="1">
    Hallo Kurt.


    Ja eine Pause kann ich jetzt gut brauchen.
    Um diese Nachtzeit hatte ich keinen Forenbetreuer mehr zum Freischalten. Ist ja klar. Die können auch nicht ewig arbeiten.
    Deshalb kommt die Änderung des Vorletzten Bildes erst jetzt.


    Freundliche Grüße
    Alois
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> rolf
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 06.12.2013 12:40:32 Uhr
    <hr noshade size="1">
    Hallo Alois,


    bin froh, dass Du jetzt auch einmal zu Wort kommst. Du bist hier nicht unbekannt und man freut sich, dass Du Dir die Mühe machst, die Debatte zu bereichern.
    Das Thema wird auf französischer Seite wie nicht anders zu erwarten ebenfalls weiter vertieft und Charles Rydel - jemand aus der sogenannten "Strehlfraktion" hat sich hinzugeschaltet.


    Ich habe Euren Link bei uns einkopiert.


    Hier nochmal zur Information die frz. Adresse: http://www.astrosurf.com/ubb/Forum2/HTML/039889-11.html


    Gruß Rolf
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> PeJoerg
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 06.12.2013 12:59:03 Uhr
    <hr noshade size="1">
    Hallo Alois,
    da hast du dir wieder mal viel Mühe gemacht, vielen Dank!
    Ich sehe mich durch deine Darstellung in meiner Vermutung bestärkt,dass die gesehenen Unterschiede von unseren und den französischen Sternenfreunden zwischen "Superpoli" und Normaloptik, wohl dem Optikfehlerbereich vom Typ B (B - kleine Unformen, die man noch mit dem Interferometer Zygo oder auch Bath bei Messungen der ganzen Fläche sehen kann.) zuzuschreiben sind und nicht der Mikrorauheit auf Atomgrößenebene.
    Viele Grüße
    Jörg
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> rolf
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 06.12.2013 20:08:49 Uhr
    <hr noshade size="1">
    Alois, hier kommt eine erste konkrete Frage aus 'Frankreich'.
    Verstehen wir es richtig, dass Du mit dem Lyot-Test keine Messungen machst?
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Gerd-2
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 02:36:58 Uhr
    <hr noshade size="1">
    Hallo Alois,


    schöne Arbeit, da kommen wir der Sache schon näher.
    Ist ja ne umfangreiche Geschichte die Du da geliefert hast, da weiß man gar nicht wo man anfangen soll und es hat bisher ja auch noch keiner konkret was zu geschrieben.
    Na ja da fang ich man an und komm gleich auf den Punkt der mich besonders interessiert.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Alois schrieb: …
    Später konnte ich dann mit dem Weißlichtinterferometer arbeiten und da wurde es so richtig interessant.
    Weil jetzt konnte ich auch Höhen und Tiefen Messen und das war eine tolle Herausforderung. Leider habe ich immer nur die besten Flächen gemessen und habe keine Vergleiche für die gröberen Flächen. Es war ja der Fortschritt wichtig um die Grenze zu finden, wie weit man mit dem Normaski Polaristionsmikroskop arbeiten kann. Dieses hatte die Grenze so bei 8 Nanometer Mikrorauheit. Das entspricht dem Bild D von oben… <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Endlich kann mal Jemand an so was ran und mit konkreten Zahlen zur echten Mikrorauheit dienen.
    Alles was wir in der Vergangenheit diskutiert hatten waren doch eher Formfehler und nicht wirklich die Mikrorauheit.
    Auch die FFT Analyse kann schließlich bei weitem nicht die laterale Auflösung liefern die Du uns hier mit dem Weißlichtinterferometer zeigst. Das gilt letztlich auch für Foucault und Lyottest.


    Schade dass Du nur für eine absolute super Politur so eine Messung hast. Klar was soll bei der super Politur schon passieren da müssen wir nicht drüber reden. Wirklich interessant wird es erst bei einer Politur wie Du sie mit dem Polarisationsmikroskop Bild A zeigst. Da sind auch paar schöne Mikrokratzer ´zu sehen, genau das ist es was mich interessiert.


    Das ist also wie Du schreibst das was man in den 70gern für ne gute Politur gehalten hatte. Na ja wie muss es denn dann um die Schlechte bestellt gewesen sein.


    Der lange Kratzer könnte schätzungsweise 0,005mm breit sein, das ist genau die Größenordnung die mich interessiert denn das erschließt sich nicht mit FFT.


    Und ganz wichtig, der Kratzer scheint auch tief zu sein und zwar echt und nicht dramatisch übertrieben wie es die Höhenunterschiede der globalen Fehler in der Wellenfront Karte der FFT Analyse sind.
    Sowas ist also offenbar keine Seltenheit bei einer Politur.
    Alois schreibt sogar das sowas in den 70gern als gute Politur galt.


    Alois wäre es Dir mal möglich von der Oberfläche die Du in Bild A zeigst eine Auswertung mit dem Weißlichtinterferometer zu machen?
    Der lange Kratzer sollte möglichst mit erfasst werden so das wir mal PV und RMS so einer Oberfläche hätten.
    Ich denke das ist ein wichtiger Punkt um in dieser Diskussion überhaupt weiter zu kommen.


    Grüße Gerd
    <hr noshade size="1"> <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Emil Nietlispach
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 10:33:44 Uhr
    <hr noshade size="1">
    Die Kratzer welche das Polarisationsmikroskop zeigt, haben eine extrem kleine laterale Grösse. Kommt da nicht irgenwann die Grenze, wo die Verspiegelungsschicht, solche Fehler einfach zuschmiert, (wie die Schneedecke die Eisspalten im Gletscher.)? Wäre interessant zu sehen, was eine verspiegelte optische Fläche an Mikrorauheit zeigt im Polarisationsmikroskop. Letzlich zählt ja nur die verspiegelte Oberfläche für den Beobachter.
    Gruss Emil
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> fraxinus
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 11:00:20 Uhr
    <hr noshade size="1">
    Einen schönen Guten Morgen,


    leider habe auch ich im Moment wenig Zeit, muss Skifahren gehen[8D]
    Werde die nächsten Tage etwas ausholen und grundsätzliches zum Thema <b>Messen/Vergleichen</b> schreiben.

    Jetzt würde ich für alle eine Knobel-Aufgabe stellen, die für das allgemeine Verständnis der Lichtablenkung von extremer Bedeutung ist:


    <b>Aufgabe 1)</b>


    Gegeben sei ein ansonster perfekter Spiegel, dessen einziger Fehler Ripple einer einzigen Periode ist.
    Form sei Sinus (1 Periode = 1 Berg + 1 Tal)
    (Alternativ darf mit einer Dreiecks- oder Sägezahnform gerechnet werden)


    Etwa so wie in diesem Bild:



    <b>Fall A</b> - Periodenlänge 1mm, Höhe 2nm (Höhe = Differenz zwischen Berg und Tal)


    <b>Fall B</b> - Periodenlänge 1mm, Höhe 4nm


    <b>Fall C</b> - Periodenlänge 2mm, Höhe 2nm


    <b>Fall D</b> - Periodenlänge 2mm, Höhe 4nm


    Gesucht ist jeweils der Streuwinkel bei senkrechtem Einfall.


    Zusatzaufgabe: Berechne jeweils die Intensität des gestreuten Lichts in Prozent der einfallenden Intensität.


    (Wer mit einem konkreten Spiegel rechnen will, der nimmt D=200mm f=1000mm)


    Viele Grüße
    Kai


    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Kurt
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 11:08:29 Uhr
    <hr noshade size="1">
    Hallo Gerd,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">...Endlich kann mal Jemand an sowas ran und mit konkreten Zahlen zur echten Mikrorauheit dienen... <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    um den Alois zu entlasten, konkrete Zahlen von ihm findest du bereits in der Diskussion:
    http://www.astrotreff.de/topic…OPIC_ID=11979&whichpage=2


    Dort hat Alois am 3. 8. 2004 ähnliche oder gleiche Bilder mit Daten präsentiert.
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Gerd-2
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 14:14:16 Uhr
    <hr noshade size="1">
    Hallo Kai,
    In welcher Welt lebst Du denn?
    Du bist da absolut Praxisfremd, es ist vollkommen unsinnig hier mit 2 bis 4 nm zu rechnen.

    Ein Weiterer Fehler ist ausschließlich Licht mit senkrechtem Einfall zu betrachten!
    Wenn es um Streulicht geht und darum geht es hier ja wohl dann ist das gesamte die Optik treffende Licht aus den unterschiedlichsten Richtungen zu betrachten.
    Es steht nicht nur 1 Stern am Himmel und es gibt auch Irdisches Licht das auf diese trifft.
    Wie ist das mit dem Kratzer der vom knapp neben dem Gesichtsfeld stehenden Vollmond angestrahlt wird?
    Aber wenn wir gerade bei Rechenaufgaben sind auch eine von mir.
    Beobachtet wird ein enger Doppelstern.


    Zwischen Komponente A und Komponente B besteht ein Helligkeitsunterschied von 10 Größenklassen.


    Die Optik erzeugt für eine Punktabbildung Streulicht dessen Helligkeit im Abstand der beiden Komponenten bei 0,01% liegt.Wie wirkt sich dieses Streulicht auf die Beobachtung von Komponente B aus?


    Grüße Gerd
    ***
    (==&gt;)Kurt:
    ja da findet sich auch ne Auswertung mit dem Weislichtinterferometer, allerdings nicht für die fragliche Fläche sondern wieder nur für ne super Politur.
    Mich interessiert aber PV und RMS von der Politur Bild A und zwar inklusive der korrekten Erfassung der dort sichtbaren Mikrokratzer, vor allem des größeren Exemplars.
    Nun zufällig hat Alois exakt das was ich dort sehen wollte in Seinem Bild A.



    Einen Kratzer mit etwa 0,005mm Breite und einer Tiefe die sich natürlich schlecht schätzen lässt aber so ganz grob könnten da rein zufällig 0,002mm durchaus im Bereich des Möglichen liegen.
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Horia
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 14:52:33 Uhr
    <hr noshade size="1">
    Hallo allerseits.


    Danke Alois für die ausführliche Darstellung der Erfahrungen mit Oberflächen-Rauheit und Streulicht. Es sind extrem viele Informationen in deiner Beschreibung, die ich noch einsortieren muss.


    In der Zwischenzeit habe ich die theoretischen Grundlagen mir näher angeschaut, insbesondere das sehr interessante Buch "Optical Scattering - Measurement and Analysis" von John Stover. Dabei ein großes Dankeschön an Kay für das zur Verfügung stellen.


    Eine sehr einfache Charakterisierung von Oberflächenrauheit und Streulicht geht über eine Größe die den schönen Namen "Total Integrated Scatter" (oder auch TIS) trägt. Die TIS Definition ist extrem einfach: Sie zeigt, wie viel Licht, in Prozent, aus einem einfallenden Lichtstrahl zerstreut wird.


    Mit einer einfachen Formel: TIS =Ps/Pi. Wobei


    - Pi - Leistung des Einfallsstrahls und
    - Ps - gesamte Leistung des in alle Richtungen diffus gestreuten Lichts


    Der TIS hat einen riesen Vorteil: man kann den Wert relativ leicht aus dem RMS-Wert der Oberflächenrauheit berechnen. Die Beziehung TIS - RMS wurde schon vor langer Zeit von zwei berühmten Menschen, einmal Herr Kirchhoff und einmal Herr Rayleigh, jeweils als Näherungsformel, ermittelt. Die Rayleigh-Näherung hat einige Vorteile und hat sich durchgesetzt:


    TIS = (4 * pi * sigma * cos(theta-i))² / lambda²


    wobei:
    sigma - die Oberflächenrauheit als RMS-Wert, in nm.
    theta-i - der Einfallswinkel. Für den Newton-Teleskop ist theta-i praktisch = 0 und somit cos(theta-i) = 1.
    lambda - die Wellenlänge die uns interessiert, in nm.


    Nehmen wir als Beispiel die Werte aus dem ZYGO-Protokoll, das Alois oben zeigt: Rauheit PV = 3nm und RMS = 0,36nm. Bei lambda = 500nm ergibt das:


    TIS = (4 * pi * 0,36 / 500)² = 0,008%


    Das ist aber eine richtige, ultrafeine Politur. Um ein Gefühl zu bekommen, wie viel verschiedene Rauheiten an Streulicht erzeugen, habe ich folgende Tabelle errechnet:



    Wie man leicht sieht, das gestreute Licht nimmt extrem schnell mit der Rauheit zu. Es ist ganz klar, wir wollen nicht, dass unsere Spiegel zu rau sind.


    Aus der Tabelle kann man auch lesen, dass bei 4nm Rauheit, 1% an Streulicht erzeugt wird. Mit anderen Worten, wenn man sich einen Stern anschaut, 1% der einfallenden Photonen arbeiten nicht mit, zur Bildung des Airy-Scheibchens, sondern fliegen nur rum und produzieren einen Halo. Bedeutet das nun, dass um jeden Stern ein Halo entsteht welcher mit 1% der Intensität des Zentralsterns leuchtet ?


    Selbstverständlich nicht. 1% ist die gesamte Lichtmenge (die gesamte Photonenmenge) die als Streulicht zur Verfügung steht. Wie genau die Verteilung der Streuphotonen um den Zentralstern aussieht ist eine andere Frage, wofür es leider keine leichte Antwort gibt. (Es gibt eine Antwort!)


    Bleiben wir aber bei dem 1% Gesamtstreulicht. Um zu entscheiden ob das viel oder wenig ist, betrachten wir eine andere Streulicht-Quelle, und zwar die Teleskopöffnung. Jeder weißt, dass ein perfektes Teleskop (keinerlei optische Aberrationen, unendlich fein poliert) als Abbild einer Punktquelle (ein Stern) "nur" ein Airy-Scheibchen produziert. Viele wissen auch, dass das so perfekte Teleskop nur ca. 84% des einfallenden Lichts in das Airy-Scheibchen konzentriert. Die restlichen 16% werden rumgestreut und bilden die jedem bekannten Beugungsringe.


    Wenn jetzt unsere durch Rauheit gestreutes Licht zu den 16% noch einen Prozent dazu beiträgt, ist das viel oder wenig? Ich würde sagen, es ist an der Grenze der Wahrnehmung.


    Nicht zu vergessen, 4nm RMS-Wert als Rauheit sind mindestens 10nm PtV Rauheit. Das kann man ohne Probleme in einem richtig gemachten Foucault-Bild sehen. In Alois Beitrag sind einige Beispiele, wo man sowohl Foucault-Bilder der Rauheit als auch das Profil der Oberfläche sieht und vergleichen kann. Ich werde noch einige Bilder suchen und zeigen, die das Belegen.


    Ich kann dazu eine eventuell unfreundlich klingende Empfehlung noch geben: Das Suiter Buch "Star Testing Astronomical Telescopes" enthält eine sehr detaillierte Diskussion über Oberflächenrauheit und erklärt alle notwendige Konzepte, ohne dabei wild mit der Mathe-Keule zu schlagen. Schaut euch es an.


    Viele Grüße,
    Horia
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Christian_P
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 15:07:14 Uhr
    <hr noshade size="1">
    Hallo Leute,


    erst mal herzlichen Dank an Alois für diesen Bericht. Ich habe die Diskussion um die Mikrorauhigkeit und deren noch nicht gesicherte Einflüsse hier und auf A.de mitverfolgt. Was mir bisher fehlt ist eine genaue Definition, was man unter Mikrorauhigkeit zu verstehen hat.

    Also: Was ist nun SUPERPOLI und was ist es nicht?

    Der Hobby-Spiegelschleifer bleibt doch letzlich auf altbewährte Methoden der Schleiftechnik angewiesen.


    just my two cents


    Viele Grüße
    Christian
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Horia
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 16:03:46 Uhr
    <hr noshade size="1">
    (==&gt;)Gerd-2
    Die verblüffende Eigenschaft, dass Fehler in der Höhe automatisch mit der Lateralen Ausdehnung kleiner werden, wird in der Literatur verschiedenen Materialien zugesprochen. Ein Beispiel davon ist unter diesen Link zu lesen: http://www.cosmo.ucar.edu/publ…ns/nelson_tech4_10-06.pdf


    Dort wird - zwischen anderen - die Rauheit Messung an einem LIGO-Spiegel erläutert, und genau dieses Model dokumentiert.


    Viele Grüße,
    Horia
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> rolf
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 16:04:30 Uhr
    <hr noshade size="1">
    (==&gt;)Christian
    Bisher gab es in unserem Austausch dazu nur eine allgemein formulierte und rein persönliche Meinung von Vernet, die im anderen Forum so übersetzt wurde:


    Übersetzung:
    "Es gibt keine universelle Definition von 'superpoli', es ist ganz einfach eine Bezeichnung, die eine erheblich bessere Fläche als die gewöhnlich übliche bedeutet. In der Praxis gibt es soviele 'superpoli' wie es Firmen gibt, die sie anbieten.
    Außerdem verwenden manche diesen Begriff für eine einzige Klasse von Fehlern, wie z.B. die mikrometrische Mikrorauheit ohne andere Frequenzen in der Rauheit zu berücksichtigen. Ich selbst mag die Definition von Serge Koutchmy, nachdem eine 'superpoli'-Optik eine Residualdiffusion von ungefähr 1*10-6 bedeutet. Das sind Optiken, mit denen man die untere Sonnenkorona (im geeigneten Hochgebirge) beobachten kann - außer den Sonnenfinsternissen natürlich."
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Alois
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 16:20:58 Uhr
    <hr noshade size="1">
    Hallo liebe Teilnehmer.


    So jetzt bin ich wieder ausgeruht und danke euch für die interessierten Rückmeldungen. Leider kann ich nicht alle beantworten, daher nur auszugsweise.


    (==&gt;)Jörg
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">"Superpoli" und Normaloptik, wohl dem Optikfehlerbereich B (B - kleine Unformen die man noch mit dem Interferometer Zygo oder auch Bath bei Messungen der ganzen Fläche sehen kann.)zuzuschreiben sind und nicht der Microrauheit auf Atomgrößenebene.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Ja . Wenn jemand nicht mit zu harten Pech und guten Poliermittel arbeitet, kommt er mit sicherheit in die der Politur zwischen A und B.
    Ich würde sage näher zu B als A. Mikrorauheit auf Atomgrößenebene ist zu übertrieben. Viel wichtiger ist die Formgenauigkeit.


    (==&gt;)Rolf
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Verstehen wir es richtig, dass Du mit dem Lyot-Test keine Messungen machst? <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Derzeit noch nicht. Da habe ich noch zu wenig Anhaltspunkte. Beim Lichtpalt mit dem Streulicht , der ja auch zum Lyottest gehört, da geht es schon besser. Aber auch da bin ich noch am erkunden
    wie viel Streulicht von wo kommt.


    (==&gt;)Gert
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wirklich interessant wird es erst bei einer Politur wie Du sie mit dem Polarisationsmikroskop Bild A zeigst. Da sind auch paar schöne Mikrokratzer ´zu sehen, genau das ist es was mich interessiert. Der lange Kratzer könnte schätzungsweise 0,005mm breit sein, das ist genau die Größenordnung die mich interessiert denn das erschließt sich nicht mit FFT.
    Und ganz wichtig, der Kratzer scheint auch tief zu sein und zwar echt und nicht dramatisch übertrieben wie es die Höhenunterschiede der globalen Fehler in der Wellenfront Karte der FFT Analyse sind. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Die Breite hast du richtig eingeschätzt. Nur ist das kein Kratzer sondern ein Wischer . Aber ein starker. Diese Striche sind mit der Lupe kaum warnehmbar. Aber weil sie glatt sind leuchten sie auf wenn sie in einer bestimmten Stellung unter der Lampe sind. Solche Wischer werden am Zygo nicht gemessen weil sie aus dieser Entfernung nicht sichtbar sind. Am Weißlichtinterferometer wäre er sehr stark. Aber da müßte ich extra für die Forschung messen und das habe ich damals nur für die glatten Flächen Zeit. Leider habe ich diesen Spiegel schon überpoliert.


    (==&gt;) Emil
    Leider deckt die Verspiegelung solche Wischer nicht zu.



    Viele Grüße
    Alois
    <font size="1"><font color="yellow">Beitrag redaktionell bearbeitet- Kalle</font id="yellow"></font id="size1">
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> stefan-h
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 16:38:20 Uhr
    <hr noshade size="1">
    Hallo Alois, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn jemand nicht mit zu harten Pech und guten Poliermittel arbeitet, kommt er mit sicherheit in die der Politur zwischen A und B<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Ich hab so das Gefühl, das ihr hier nur die Arbeit der Amateure betrachtet. Wie schaut es aus mit industriell gefertigten Spiegeln? Werden die auch mit Pech poliert?


    Das die Glasquäler in D und F viel Arbeit in eine gute Politur stecken ist eigentlich klar, aber viele Amateure kaufen sich ihre Ausrüstung und bekommen dabei teilweise sogar schöne Qualitätswaschzettel mitgeliefert.


    Können diese normalen Messmethoden dann auch diese Rauigkeit erfassen oder bleibt die dabei verborgen? Auch das wäre doch mal eine Frage, die es zu beantworten gäbe.


    Gruß
    Stefan
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Gerd-2
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 16:49:24 Uhr
    <hr noshade size="1">
    Hallo Horia,
    sehr interessante Tabelle und der „TIS“ scheint mir endlich mal ein brauchbares Kriterium um die Mikrorauheit zu beurteilen.
    Sehr Gut ist auch Dein Vergleich mit dem Beugungsbedingten „Streulicht“ das schafft da eine Relation mit der man letztlich den TIS vernünftig interpretieren kann.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Nicht zu vergessen, 4nm RMS-Wert als Rauheit sind mindestens 10nm PtV Rauheit. Das kann man ohne Probleme in einem richtig gemachten Foucault-Bild sehen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Lieber Horia, bitte unterscheide zwischen Formfehlern und Welligkeit mit größerer lateraler Ausdehnung und der echten Mikrorauheit.
    Formfehler und Welligkeit lässt sich mit Foucault gewiss auf 10nm Pv bestimmen.
    Aber ganz gewiss nicht die echte Mikrorauheit mit lateraler Ausdehnung im Mikrometerbereich um die es uns hier geht.
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Die verblüffende Eigenschaft, dass Fehler in der Höhe automatisch mit der Lateralen Ausdehnung kleiner werden, wird in der Literatur verschiedenen Materialien zugesprochen. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Wir müssen unbedingt zwischen Welligkeit, globalen Formfehlern und der Mikrorauheit unterscheiden! Wichtig ist auch die Laterale Ausdehnung der globalen Formfehler und der Mikrorauheit zu betrachten.


    Laut Kais Theorie hätte ein Spiegel mit 200mm Durchmesser und einem globalen Formfehler mit sagen wir mal 100nm PV Oberfläche bei 20mm Lateral dann maximal 10nm Pv und bei den 0,1mm die Alois zb. mit dem Weillichtinterferometer untersucht hat dementsprechend maximal 200mm/0,1mm 1/2000 also 100nm /2000 = 0,05nm PV.
    Man könnte das, wenn man die Mikrorauheit ignoriert tatsächlich so rechnen wenn der globale Formfehler absolut gleichmäßig verlaufen würde. Aber es gibt sie nun mal die Mikrorauheit und Alois hat selbst bei der absoluten Super Politur 3nm PV gemessen. Bei einer normalen Politur kommt man auf wesentlich größere Werte und trotzdem kann der globale Formfehler auf 100nm PV genau eingehalten sein.
    Wenn nun noch ein paar Pits oder Kratzer vorhanden sind käme man auf dramatische PV Werte bei der Mikrorauheit.


    (==&gt;)Alois
    Würdest Du es wagen mal abzuschätzen welchen RMS die Polituren BILD B bis C haben? Eventuell hast Du ja ne Vergleichsmessung mit dem Weißlichtinterferometer für solche Polituren. Dann könnte man auch mal den TIS für nicht ganz so super perfekte Polituren berechnen.


    Grüße Gerd

  • <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Gerd-2
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 17:07:59 Uhr<hr noshade size="1">
    Hallo Stefan,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Können diese normalen Messmethoden dann auch diese Rauigkeit erfassen oder bleibt die dabei verborgen? Auch das wäre doch mal eine Frage, die es zu beantworten gäbe.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    genau das ist der Punkt um den sich letztlich die gesamte Kontroverse dreht.
    Dabei wird auch ständig Welligkeit mit Mikrorauheit verwechselt.
    Echte Mikrorauheit wie Sie Alois mit dem Weißlichtinterferometer gemessen hat wird mit den schönen Zertifikaten nicht erfasst.
    Der Strehl ist da auch ein eher ungeeignetes Mittel sowas zu berücksichtigen.


    Wirklich aufschlussreich wären nur eine Stichprobe der Oberfläche mit Weißlichtinterferometer.
    Wie es Aussieht gibt es mit dem TIS ein geeignetes Instrument diese Messungen dann zu interpretieren.
    Hier wäre es sehr hilfreich für diverse Politurglätten auch mal entsprechende Messwerte der echten Mikrorauheit zu haben und daraus den TIS zu berechnen.
    Dann wüssten wir woran wir sind.


    Grüße Gerd
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Horia
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 17:36:45 Uhr
    <hr noshade size="1">
    Hallo Gerd,
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> … bitte unterscheide zwischen Formfehlern und Welligkeit mit größerer lateraler Ausdehnung und der echten Mikrorauheit.
    Formfehler und Welligkeit lässt sich mit Foucault gewiss auf 10nm Pv bestimmen. Aber ganz gewiss nicht die echte Mikrorauheit mit lateraler Ausdehnung im Mikrometerbereich um die es uns hier geht.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Das stimmt, und ich hätte klar machen sollen, dass ich die Lyot-Bilder des ganzen Spiegels, so wie sie immer gezeigt werden, im Sinn habe und nicht Rauheit in Mikrometerbereich meine. Ich habe auch nicht von Mikrorauheit gesprochen, da, wie ich finde, die gesamte Rauheit gleich wichtig ist.


    Viele Grüße,
    Horia
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Alois
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 18:15:16 Uhr
    <hr noshade size="1">
    Hallo Stefan.


    Wir in der Industrie verwenden je nach Möglichkeit beides. Weil bei sphärischen Flächen geht das auch gut. Natürlich muss dabei der Druck, die Drehzal und die Exenterbewegung so eingestellt sein, dass es keine Riefenbildung machen kann. Aber bei asphärischen Flächen geht nur Pech.
    Was ich an Polituren an Astrooptiken gesehen habe, konnte ich als Pechpolitur erkennen. Nur beim 10“ Cas Beispiel, das ich am Schluss habe, scheint es nicht Pech zu sein. Aber diese Politur ist am Sterntest sicher gut zu erkennen, weil er wird ausgefranst sein.


    Gruß
    Alois
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Kurt
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 18:53:51 Uhr
    <hr noshade size="1">
    Hallo Christian,
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">...Der Hobby-Spiegelschleifer bleibt doch letzlich auf altbewährte Methoden der Schleiftechnik angewiesen...<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    stimmt nicht ganz, ist im Moment auch weniger wichtig. Was sich aber im Verlauf der letzten 10 Jahre dramatisch geändert hat das ist die Prüftechnik für Amateure. Ich nehme an du hast schon mitbekommen dass Kai und Horia als sehr erfolgreiche Spiegelschleifer versuchen hier die theoretischen Hintergründe nach dem Stand der Wissenschaft zu vermitteln. Als erfahrener ATM mit Praxis in Prüftechnik profitiere ich sehr davon. Deshalb kann ich mir auch sehr gut vorstellen dass auch viele Amateure ohne ATM- Ambitionen mitbekommen wo z. B. Probleme bei QS- Angaben für unsere Optiken liegen.


    Gruß Kurt
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Alois
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 20:47:42 Uhr
    <hr noshade size="1">
    Hallo Gerd


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Würdest Du es wagen mal abzuschätzen welchen RMS die Polituren BILD B bis C haben?
    Eventuell hast Du ja ne Vergleichsmessung mit dem Weißlichtinterferometer für solche Polituren.
    Dann könnte man auch mal den TIS für nicht ganz so super perfekte Polituren berechnen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ja ich werde es wagen weil ein paar Zahlen habe ich noch im Kopf, die ich damals als Orientierungshilfe hatte.
    Bitte aber darum mir +- 5% Toleranz zu zugestehen.
    Ein Problem habe ich zusätzlich noch und das ist schlimm.
    Die Messungen habe ich damals nicht selber gemacht sondern ein Messtechniker. Ich war nur der Polierer.
    Jetzt weis ich nicht wie der Messtechniker das Interferometer eingestellt hat. Auf Oberfläche oder Wellenfront?
    Automatsch misst das Interferometer Wellenfront und weil ich nichts gehört habe das es umgestellt worden ist
    will ich annenhmen das diese Werte als Wellenfront gelten. Aber ein Faktor 2 Fällt auf, wenn die Rechnungen stimmen.


    Und nun die Schätzung
    Bild____In nm_________In Lambda 550 nm
    _____PV___RMS________ PV______RMS____1/L
    A____40___5,00_______0,073____0,009____14
    B____25___3,13_______0,046____0,006____22
    C____12___1,50_______0,022____0,003____46
    D ____8___1,00_______0,015____ 0,002____67


    Bin gespannt ob eine Übereinstimmung zustande kommt.


    Viele Grüße
    Alois
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> rolf
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 22:15:30 Uhr
    <hr noshade size="1">
    Horia,


    Ich hab mir die Mühe gemacht und Deinen langen sehr schön entwickelten Beitrag komplett übersetzt und ins französische Forum gestellt.
    Hier die Antwort von Vernet (sinngemäße gekürzte Übersetzung):
    Horia argumentiert, als ob er sich einzig für das Airy-scheibchen ganz alleine interessieren würde, ohne ein wesentlich helleres Objekt in der Nähe in Betracht zu ziehen. Das hatten wir doch schon im letzten thread (dem auf dem anderen Forum) besprochen. Wenn man nicht eine wesentlich hellere Lichtquelle in der Nähe der Diffraktionsscheibe berücksichtigt,versteht man nicht die schädliche Auswirkung, die von diesem helleren Objekt kommt.


    Was den theoretischen Teil Deiner Ausführungen betrifft, so wird das hier auch so gesehen. Hier nochmal zur Erinnerung:
    Mit dem Limit besage ich nur, dass 1% weniger Strehl am Planeten nichts bedeutet, und 1 % Lichtdiffusion (der Gesamtlichtmenge des Planeten) eine sichtbare Verminderung der kontrastschwachen Details bedeutet.


    Was man sich merken muss, ist, dass der Strehl nicht beschreibt, wie sich die Diffraktionsscheibe in Anwesenheit einer viel helleren Lichtquelle verhält, die daneben ist. Man untersucht nicht einfach eine isolierte Diffraktionsscheibe ohne etwas um sie herum, das sie stört.
    Um es grob zu vereinfachen:
    Eine eine Million mal stärkere Lichtquelle neben einer Diffraktionsscheibe mit einem Spiegel, der 1*10-3 mal diffusiert verschluckt die Diffraktionsscheibe in einem Halo, der 1000 mal stärker als sie selbst ist, d.h. sie verschwindet. Der Strehl geht von 1 auf O. Das ist heute das Problem bei der Auffindung der Exoplaneten, die ja so unendlich weniger leuchten als ihre Sonnen.
    Anbei ein Link, der das exemplarisch bei Sirius illustriert. http://www.astrosurf.com/ubb/Forum2/HTML/018573.html


    Gruß Rolf
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> fraxinus
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 23:21:08 Uhr
    <hr noshade size="1">
    Guten Abend,


    die Lösung der Aufgabe kann gern per PM an mich geschickt werden. Das ganze ist wirklich simpel. Ein paar Klicks auf einem 3-Euro Taschenrechner. Man muss sich nur entscheiden, ob Licht in diesem Fall ein Strahl oder eine Welle ist.


    Horia hat die Zusatzaufgabe praktisch schon beantwortet.
    Meine eigenen Berechnungen zum allgemeinen Streullicht-Problem sind dank Alois' Puzzlestücks ziemlich weit gediegen.
    Viele Grüße
    Kai
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> mkoch
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 07.12.2013 23:50:18 Uhr
    <hr noshade size="1">
    Hallo Kai,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Jetzt würde ich für alle eine Knobel-Aufgabe stellen …<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Nach geometrischer Betrachtung:
    Fall A +-2.6"
    Fall B +-5.2"
    Fall C +-1.3"
    Fall D +-2.6"
    Und nach wellenoptischer Betrachtung (für lambda = 550nm):
    Fall A +-113"
    Fall B +-113"
    Fall C +-57"
    Fall D +-57"
    Zusatzaufgabe: Berechne jeweils die Intensität des gestreuten Lichts in Prozent der einfallenden Intensität.
    Fall A 0.03%
    Fall B 0.11%
    Fall C 0.03%
    Fall D 0.11%
    (für lambda = 550nm)


    Gruß
    Michael
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> ebi_ebi
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 08.12.2013 01:00:29 Uhr
    <hr noshade size="1">
    Hallo Alois, hallo Kurt,
    schön das ihr hier mit dem hochspannenden Thema weiter macht!
    Danke Alois für die anschaulichen Beispiele!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Kurt schrieb: Deshalb kann ich mir auch sehr gut vorstellen dass auch viele Amateure ohne ATM- Ambitionen mitbekommen wo z. B. Probleme bei QS- Angaben für unsere Optiken liegen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Dazu noch grundlegende Betrachtungen:
    Horia hat es vortrefflich beschrieben, Skalartheorien sind sehr nützlich, wenn man TIS-Betrachtungen anstellt (Total Integrated Scattering). Mit TIS-RMS wird genau der Anteil des insgesamt an einer optischen Oberfläche reflektierten Lichts bezeichnet, der diffus an den Mikrorauhigkeiten in beliebige Raumrichtungen gestreut wird und damit in Richtung des geometrischen Reflexionswinkels verloren geht. Man setzt im Rahmen der skalaren Lichtbeugungstheorie als Wellenfunktion des gestreuten Lichts das altbekannte Fresnel-Kirchhoff´sche Beugungsintegral an. Integriert man nun über die Intensitäten des in die verschiedenen Raumrichtungen gestreuten Lichts, kann man die TIS-Intensität gut abschätzen.


    Die Beziehung zwischen TIS und Rauhigkeit bzw. Lichtwellenlänge liefert für reale optische Oberflächen (wobei auch polierte Metalloberflächen eingeschlossen sind!) im nahen Ultraviolett, im Sichtbaren und im nahen Infrarot gute Vorhersagen. Aus TIS-Messungen konnten außerdem für poliertes Glas Mikrorauhigkeitswerte in guter Übereinstimmung mit entsprechenden interferometrischen Rauhigkeitsanalysen bestimmt werden.


    Will man jedoch eine präzise Aussagen über die Winkelverteilung von gestreutem Licht machen, liefern Skalartheorien naturgemäß weniger erfolgreiche Vorhersagen. Denn die Winkelverteilung des Streulichts hängt nicht allein von der Höhenfluktuation der Mikrorauhigkeiten ab, sondern ebenso von der lateralen Ausdehnung der Strukturen und ihrer Steilheit.


    Das erfolgt mit Vektorstreutheorien. Sie haben im Vergleich zu den skalaren Streutheorien vor allem den Vorteil, daß korrektere Aussagen über die Winkelverteilung des Streulichts möglich sind. Der Grund dafür ist, daß im Rahmen dieser Theorien Polarisationseigenschaften des einfallenden und des gestreuten Lichts ebenso berücksichtigt werden können wie die statistischen Eigenschaften von rauhen Streuoberflächen.


    In zwei prinzipiell verschiedene Ansätzen wird dazu die Rauhigkeit bezogen auf eine ideal glatte Oberfläche störungstheoretisch wie z.B. für die Small Perturbation Method beschrieben.


    Diese Vektorstreutheorien zur Lichtstreuung an rauhen Oberflächen beschreibt die optischen Eigenschaften einer Oberfläche stets als Funktionen eines 2-dimensionalen Leistungsdichtespektrums (PSD Spektrums). Eine glatte, optische Oberfläche beschreibt daher die fraktalen Parameter und die Mikrorauhigkeit der Oberfläche. Denn wie aus der Praxis bekannt, kann eine Fläche mit gleichem Rauhigkeitswert bei gleicher Grundfläche unterschiedliche Strukturen haben.


    In der Optik-Technologie wie Alois sie kennt kommt daher für die Serienherstellung die differentielle Interferenz-Kontrast-Mikroskopie (DICM) im 2D Verfahren zum Einsatz. Bei den unterschiedlichen Glasoberflächen gibt es auch qualitätsbestimmende Normen für deren Beschaffenheit.


    DICM hat den Vorteil, das dieses Analyse-Instrumente aus drei Eigenschaften bestehen: Einem großen lateralen Auflösungsvermögen bis zu wenigen Angström, einer einfachen Handhabung und damit keinem langwierigen Meßverfahren und schließlich der Verwendbarkeit für beschichtete und unbeschichtete Oberflächen!


    Diese Eigenschaften ermöglichen es, die Beschaffenheit der optischen Oberfläche während des Polierverfahrens zu überwachen; So wie es in der Serienfertigung heute angewendet wird. <u>Man eicht</u> dabei über Röntgenlichtstreuung die DICM-Aufnahmen. In der Optik-Fertigung greift man bei der Qualitätskontrolle (Vergleichsmessung) sehr gern auf diese Methode zurück, denn Sie lässt sich auch wirtschaftlich gut darstellen.


    Es müssten daher "nur" noch Festlegungen als Referenz für eine glatte Spiegeloberfläche getroffen werden. [:)]


    Aber in unserem Fall scheitert es nach meinem Empfinden an der für Amateure geeigneten, bezahl- und <u>eichbaren</u> Meßmethode.


    LG
    Eberhard
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Kurt
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 08.12.2013 02:49:32 Uhr
    <hr noshade size="1">
    Hallo Christian,
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">...Besteht eine größere Auswahl an optischem Pech, sodass man da variieren kann? Und ist die Poliertechnik so Variantenreich, dass man dadurch die Politur optimieren kann und es wirklich einen Unterschied zur "normalen" Politur macht?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Es reichen 2 bis max. 3 Sorten von Pech. Zur erfolgreichen Poliertechnik mit dem Ziel hinreichend geringer Rauheit gibt es doch in der einschlägigen den Amateuren zugänglichen Literatur genügend Infos. Wenn dir das nicht ausreicht steht dir doch nichts im Wege ein spezielles Thema zu eröffnen.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">...Inwieweit unterscheidet sich die Politur von Kai und Horia von einer 0815 Politur eines Hobbyschleifers, der sagen wir 3,4 Spiegel geschliffen hat? Naja ich bin echt mal gespannt. [:)] <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Erlaube mir erst eine Gegenfrage. Warum richtest du denn die Frage nicht an Kai und Horia? Etwas kann ich aber beantworten. Ich hab schon mehrere Erstlingswerke geprüft, die man zur "besser geht nicht" Kategorie zählen darf.


    Das gehört aber auch nicht so richtig zum Thema finde ich. Ich möchte dich daher bitten von weiteren Fragen abzusehen, die das aktuelle Thema zudecken. Das wäre auch ein Akt der Höflichkeit und Respekt gegenüber Alois.


    Gruß Kurt


    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Gerd-2
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 08.12.2013 14:23:12 Uhr
    <hr noshade size="1">
    Hallo Alois,


    schön das Du uns mal mit konkreten Zahlen zu den verschiedenen Polituren dienst. Auf ein paar % Toleranz kommt es ja nun wirklich nicht an. Wir müssen also mit einer Mikrorauheit so zwischen 8 und 40 nm PV bei Pech Polituren rechnen. Wobei nicht ganz klar ist ob das nun Oberfläche oder Wellenfront ist.


    Das sind immer noch recht kleine Werte, zeigt aber deutlich das es müßig ist sich mit einer Welligkeit zu befassen die im Bereich von 2 nm PV liegt wenn die Mikrorauheit im ungünstigen Fall bei 40nm PV liegt.
    Wenn wir den Vorteil von besonders glatten Polituren beweisen wollen sollten wir das natürlich mit Blick auf mögliche Nachteile weniger glatter Polituren tun. Also schon mit den 40nm PV rechnen.


    Es bestätigt also das mein Einwand bezüglich der Beschäftigungstherapie mit der 2 nm PV Welligkeit die dem gemeinen Volk hier vom Schulmeister aufgegeben wurde seine Berechtigung hatte.


    Es ist irreführend bei der Welligkeit mit 2nm PV zu rechnen wenn die Mikrorauheit bei 40nm PV liegt.


    Wenn es ums Streulicht geht sollten wir uns auch nicht nur auf exakt senkrecht einfallendes Licht beschränken. Es ist mit Fremdlicht aus den unterschiedlichsten Richtungen zu rechnen das zum Teil um ein vielfaches Heller als das Beobachtungsobjekt ist.


    Grüße Gerd
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Kalle66
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 08.12.2013 15:02:04 Uhr
    <hr noshade size="1">


    Gerd,
    Dein ein paar Postings vorher erwähntes irdisches Fremdlicht ist meines Erachtens eine Standort- und Tubusdesignfrage, weniger eine der Spiegelqualität ... [;)]


    ***


    Warum arbeitet man bei Fremdlicht und ihren Einfluss nicht einfach über die Kontrast-Übertragungsfunktion? Die arbeitet mit genau den gleichen Parametern: Auflösungsvermögen bei welchem Kontrast. Quasi der Kehrwert zur Frage: Welches Kontrastverhältnis ist bei gegebenen Winkelabstand zweier Punkthelligkeiten unterscheidbar (z.B. Trennung von Doppelsternen wann, wie?)


    Da die Kurven in Relation zu einer idealen Optik, einer typischen obstruierten Newtonoptik ... und alle ATMler müssten "happy" sein.
    Gruß
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Kurt
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 08.12.2013 15:40:06 Uhr
    <hr noshade size="1">


    Hallo Alois, liebe Mitleser,


    hier meine Stellungnahme zu deinem Bericht aus der Sicht eines ATM, Gelegenheitsprüfers und Berichteschreibers.
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">...Als erstes nehme ich wahr das es in der Astroszene unterschiedliche Vorstellungen der Mikrorauheit gibt. Aus meiner Sicht muss ich diese Kontrollen in 5 Stufen einteilen. Wobei A und B noch nicht zu den Mikrorauheiten zählen...<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Meines Wissens gibt es dazu keine international gültige Sprachregelung. Falls doch bitte korrigieren. Jedenfalls ist deine Einteilung sehr gut nachvollziehbar. Im Englischen werden deine Stufen A und B als <b>Dog Bisquit, Ripple oder Medium Schale Roughness</b> die Stufe C als<b> Microripple oder Small- Scale Roughness </b> bezeichnet. Ich bin mir nicht sicher ob Suiter in <b>Kap 13.4. The Aberration Function of Small Scale Roughness</b> die Mikrorauheit vom Typ D und E mit einbezogen hat.

    Betrachtet man die kontrastmindernde Wirkung Mikrorauheit im Sinne der MTF dann gibt es zwischen den Stufen C, D und E keinen Unterschied. Dh. jeweils gleicher RMS- Wellenfrontfehler bedeutet auch nahezu deckungsgleichen Verlauf der MTF Kurven. Erst bei sehr niedrigen Ortsfrequenzen, dh. sehr großen Testgitterabständen (entsprechend Objektabständen) gibt es Unterschiede. Diese sind aber bei kleinen RMS- Werten praktisch bedeutungslos. Das gilt dann auch für die kontrastmindernde Wirkung der Rauheit insgesamt.


    Jeder andere opt. Fehler wirkt ebenfalls kontrastmindernd auf die Abbildung. Dazu kommt noch wie Horias bereits erläutert hat das kontrastmindernde aber leider unvermeidbare Streulicht der Optik in Form der Beugungsringe. Dazu bitte zurück zu Horias gestrigen Beitrag.


    (==&gt;)Zu Bild “Feldmessungen ED-Apo…“
    Hier ist ganz offensichtlich der Farbfehler dramatisch höher als irgendeine Form von Rauheit. Wer hier trotzdem nach Rauheit sucht dem sei der Spaß gegönnt.[:D]


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">...Also bring das noch nicht viel Hilfe zur Quantifizierung.
    Danach begann ich zu untersuchen ob sich die Rauhigkeit eher im Kontrast dieser Strukturen zeigt. Da bin ich fündig geworden und da muss ich sagen das mein schönes Bild oben nicht brauchbar ist weil es kontrastverstärkt und zu hell ist.
    Da ist das Bild von Kurt viel Aussagekräftiger und bewirkt durch seitliches Verstellen die gleichen Strukturveränderungen...<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Vielen Dank für diesen Fund, lieber Alois. Ich hab dieses Bild in etwas modifizierter Form schon wiederholt gezeigt um die Sinnlosigkeit der Beurteilung von Rauheit allein an Hand solcher Bilder zu demonstrieren. Mir war schon bei der Erstellung klar was man zur Quantifizierung braucht:


    1. Ein Lyotfilter mit genau definierter Dämpfung und Phasenverschiebung, idealerweise ¼ Lichtwellenlänge für das durchgehende Licht.


    2. Eine genau definierte Breite des Filterstreifens


    3. Eine fotografische Ausrüstung mit hoher Auflösung, Dynamik und Reproduzierbarkeit

    4. Eine kalibrierbare Messeinrichtung zur punktuellen Vermessung des Bildkontrastes.


    5. Eine spezielle Auswertesoftware bei der die bekannten Formeln zur Auswertung integriert sind.


    6. Eine fotografische Ausrüstung mit hoher Auflösung, Dynamik und Reproduzierbarkeit


    7. Optional: Eine Lichtquelle mit hoher Leuchtdichte um auch bei Verwendung von Lyotfiltern mit der Normdichte ND3 und mehr um insbesondere für die Prüfung von unbelegten Spiegeln genügend Licht zu haben. Eine Halogenlampe oder Power-LED reicht hier nicht wirklich.


    Vermutlich gibt es noch einige Parameter mehr die zu beachten sind. Dann muss man noch berücksichtigen dass man mit der Wahl der Streifenbreite oder Form nur einen begrenzten lateralen Frequenzbereich der Rauheit erfassen kann. Das zeigen deine Aufnahmen mit dem Stufenfilter sowie mein Bilder "Anlage 2" ganz deutlich.
    Ich bin neugierig auf die Meinung der mathematisch- physikalisch besser versierten Kollegen.


    (==&gt;)Zu dem Zygo Protokoll nur eine Frage:
    Hast du noch in Erinnerung wo die Nachweisgrenze als PtV und/oder RMS liegt?


    (==&gt;)Zu der Aufnahmeserie 10“ Cassegrain mit verschiedenen Messmethoden


    Da sieht man ganz klar was eine Strehlzahl wert ist die allein auf der Zernike- Auswertung basiert. Wenn man also nur mit einer Auswertesoftware von der Art „Atmosfringe“ oder "FringeXP" arbeitet dann hat man ein Problem. Das lässt sich am einfachste dadurch lösen indem man die Strehlzahl neu definiert, so in der Art sie sei ja nur ein Maß für Qualität der Parabel oder ähnlichen Blödsinn. Dem folgen Sprüche sinngemäß so: Was mir ein hoher Strehl wenn die Optik rau ist?


    Bereits bei der hier vorgeführten Auswertung mit der allgemein verfügbaren FFT Auswertesoftware von Dale Eason, David Rove Michael Beck kommt ja statt stolze S= 0,86 nur recht schlappe S = 0,50 heraus eben will die hier bereits im Foucaulttest erkennbare Rauheit vom Typ A bis B mit erfassst worden ist. Wer in diesen Fall noch nach Mikrorauheit sucht der möge fündig werden.


    Heute ist diese hochleistungsfähige Freeware unter dem Namen „openFringe" Vers. 12.3“ Standard bei allen Amateur- Interferometrikern. (Sorry, ich weiß nicht so genau wer der eigentliche Erfinder ist). Man kann sie auch nutzen um nicht selbst gefertigte Interferogramme auszuwerten. Dafür braucht man nämlich gar kein eigenes Interferometer.[8D]


    Jetzt halte ich aber erst mal die Luft an und sage:
    Der Nächste bitte!


    Gruß Kurt
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Gerd-2
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 08.12.2013 15:40:44 Uhr
    <hr noshade size="1">


    Hallo Kalle,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Dein ein paar Postings vorher erwähntes irdisches Fremdlicht ist meines Erachtens eine Standort- und Tubusdesignfrage, weniger eine der Spiegelqualität<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    da will ich Dir nicht wiedersprechen weil Du die Spiegelqualität nicht ganz ausschließt.
    Neben den genannten Faktoren sollte man aber auch in diesem Punkt die Qualität optischer Oberflächen nicht völlig vernachlässigen. Da geht es auch nicht nur um den einen Spiegel.
    Schon ein Newton hat 2 Spiegel und es gibt Optiken mit noch mehr optischen Flächen.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Warum arbeitet man bei Fremdlicht und ihren Einfluss nicht einfach über die Kontrast-Übertragungsfunktion? <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Zum einen weil diese nun mal kein Fremdlicht berücksichtigt. Die MTF wird aus der PSF also einer Punktabbildung gebildet und die berücksichtigt nur das Licht einer Punktlichtquelle, also exakt parallel einfallendes Licht. Licht von benachbarten Lichtquellen das unter Umständen um ein vielfaches heller ist wird nicht berücksichtigt. Zum anderen weil es na ja zumindest Uneinigkeiten unter den Experten darüber gibt wie man die Mikrorauheit in den Wellenfrontfehler aus den man die PSF respektive die MTF errechnet einbinden soll.
    Wesentlich geeigneter erscheint mir der von Horia eingebrachte TIS zur Beurteilung von Streulicht wegen Mikrorauheit.


    Grüße Gerd
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> tommy nawratil
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 08.12.2013 17:37:14 Uhr
    <hr noshade size="1">


    hallo,


    Alois ist bis jetzt der einzige der mit dem Lichtspalt dezidiert eine Dokumentation zum Streulicht gezeigt hat.
    Sein Beispiel des Reibeisen-Cassis zeigt die Anteile die von der FS-Strebe, der Beugung vom Objektivrand und jene die von der rauen Fläche kommen. Da kann man einschätzen wie stark und weit sich der Anteil des Streulichts aus der Rauigkeit auswirkt. In diesem einen sehr krassen Beispiel, wo man die Rauheit schon in den Fringes sieht.


    Was mir jetzt wirklich fehlt, sind sondern weitere Dokumentationen. Wieso bringt niemand etwas, damit man weiss über welchen Effekt man spricht?
    Das Beispiel das Vernet gezeigt hat, mit den beiden Marsmonden neben Mars, hat mich nicht recht überzeugt weil der eine Marsmond ja sogar hinter dem Streulicht der FS-Strebe sichtbar gemacht werden konnte. Wahrscheinlich nicht visuell - aber es kann sichtbar gemacht werden.
    Also nichtmal dieses offensichtlich starke Streulicht vernichtet den Mond komplett. Es war auch die Rede von den zarten Strukturen auf Jupiter, wie ist es zB denn damit? Gibt es denn kein Vergleichsbild? Warum?


    Wenn das Streulicht ein so grosses Problem ist, wieso gibt es keine weiteren Bilder von seiner schädlichen Auswirkung? Das muss doch irgendwo dokumentiert und dargestellt sein, wenn es ein so wichtiger Punkt ist. Für das Streulicht einer abfallenden Kante finde ich Bilder zuhauf im Netz, und habe auch selber schon welche gemacht.


    Es gibt diverse Verweise, zB von Eberhard auf Arbeiten des MPI, aber darunter kann ich mir leider nichts vorstellen. Niemand bestreitet dass Glätte gut ist und das sich Fehler addieren, aber ich würde den Fehler gerne in seiner Auswirkung sehen, und zwar in praktischen Beispielen.


    So wie hier der Effekt einer abfallenden Kante, und deren Maskierung mit einer nur 2mm verdeckenden Maske:
    http://www.teleskop-shop.at/te…1000_turned_down_edge.jpg
    http://www.teleskop-shop.at/te…rned_down_edge_masked.jpg


    Jeder sieht sofort wie das Problem sich auswirkt und wie es aussieht, wenn es beseitigt ist. Mit der Rauheit geht es nicht so einfach, schon klar, aber es muss doch irgendwo Beispiele geben.


    Bitte nicht falsch verstehen, ich bin an einer sachlichen und ergebnisoffenen Diskussion interessiert. Aber nicht an Glaubensfragen sondern an handfesten überzeugenden Darstellungen. Ich vermesse auch Optiken und wenn das ein wichtiger Punkt ist, dann möchte ich darüber Bescheid wissen.


    Ich lade daher alle Beitragenden ein, solche Dokumentationen des Rauheitsproblems - möglichst anschaulich so wie die Sterntestbilder - zugänglich zu machen.


    viele Grüsse
    Tommy
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Kurt
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 08.12.2013 20:20:02 Uhr
    <hr noshade size="1">
    Hallo Tommy,


    ich verstehe dein Problem sehr gut. Leider hab ich bisher auch noch keinen wissenschaftlich belastbaren Beweis gesehen dass nur wenige
    Promille messtechnisch nachgewiesener Streulichtanteil zur merklichen Kontrastminderung am Himmel führt. Ich frag mal so: Welche Versuchsanordnung würde dich oder auch andere davon überzeugen das das von einer normalen Spiegeloberfläche ausgehende Streulicht als Störung sicher erkannt wird? Was dann unter normaler Spiegeloberfläche zu verstehen ist darauf können wir uns vielleicht danach verständigen. Du kannst dich vielleicht noch daran erinnern dass schon mal einen Vorschlag zur Durchführung veröffentlich habe der aber schlicht ignoriert worden ist.


    Vielleicht noch etwas was mir Probleme bereitet. Jeder Nutzer eines Teleskopen wird anerkennen das so ein Gerät nach theoretischen Überlegungen und Rechnungen von Physikern und Ingenieuren entstanden ist. Das wird auch von den Usern geglaubt welche derartige Überlegungen und Rechnungen nicht nachvollziehen können weil die entsprechende (langwierige) Ausbildung nicht vorhanden ist. Wenn dann z. B. ein Physiker wie Suiter in seinem Buchs sinngemäß sagt: Das Streulicht eines normalen Spiegelteleskops liegt weit unter dem was durch andere unvermeidbare Fehler verursacht wird, dann wird das von einigen schlicht nicht akzeptiert. Merkwürdigerweise glauben aber die meisten Physiker und Ingenieuren dem Kollegen Suiter, weil sie sich einfach die Zeit sparen um seine Rechnungen im Detail nachzuvollziehen.

    Wie soll man dann noch relativ komplizierte Sachverhalte an Nichtphysiker glaubhaft vermitteln?


    Gruß Kurt
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> tommy nawratil
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 08.12.2013 21:05:21 Uhr
    <hr noshade size="1">


    hallo,


    es gibt haufenweise Astrofotografen, und sie lichten wirklich mit dem technisch bestmöglichen Equpiment Planeten in hoher Auflösung, und Deepsky Objekte ebenfalls in bestmöglicher Auflösung ab. Da wird auch probiert und verglichen und untersucht bis ins kleinste Detail was die besten Rohbilder ergibt. In der Deepsky Fotografie verstärken wir die schwachen Signale soweit, dass selbst Apos mit über 90% Strehl nicht gut genug sind, wenn sie nur ein kleines bisserl Streulicht verursachen, welches unsymmetrisch verteilt ist und die Sternabbildung dadurch beeinträchtigt. Hier dazu Beispiele in meinem Blog:
    http://interferometrie.blogspo…bei-apos-ii-triplett.html


    Planetenfotografen wissen sehr wohl wie ein gutes Rohbild aussieht, genauso wie visuelle Beobachter welche einen guten Kontrast sofort erkennen.
    Hier sollte sich doch Material aus der Praxis finden lassen. Allein: (Mikro)Rauheit ist bei Fotografen kein Thema, und es gibt meines begrenzten Wissens nach niemanden dem da jemals etwas aufgefallen wäre. Im Gegenteil, viele Planetenfotografen verwenden SCTs mit ihren unpolierten gerieften Schmidtplatten und erzielen beste Resultate damit! Da sieht die Rauheit manchmal so aus:


    http://www.teleskop-shop.at/te…EHD_startest_Beta_Tau.jpg
    http://www.teleskop-shop.at/te…D_Ronchitest_Beta_Tau.jpg


    Es geht mir nicht darum irgendwelche Erfahrungen anzuzweifeln, ich bin auch ein visueller Beobachter und habe Freude an einem kontrastreichen Bild. Aber es sollte sich doch im Bild verifizieren lassen, und da scheint es gar nichts zu geben. Vielleicht kommt ja noch was. Zum Beispiel hier, ein Jupiter Rohvideo von einem Skywatcher 10" mit 0,95 interferometrischen Strehl bei gutem Seeing:
    http://www.vibes.co.at/images/jup2010_5_sampleDivX.avi


    hat jemand ein kontrastreicheres mit einem glatteren Spiegel?


    viele Grüsse
    Tommy
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Gerd-2
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 08.12.2013 22:49:00 Uhr
    <hr noshade size="1">
    Hallo Tommy,
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Allein: (Mikro)Rauheit ist bei Fotografen kein Thema, und es gibt meines begrenzten Wissens nach niemanden dem da jemals etwas aufgefallen wäre. Im Gegenteil, viele Planetenfotografen verwenden SCTs mit ihren unpolierten gerieften Schmidtplatten und erzielen beste Resultate damit! Da sieht die Rauheit manchmal so aus:
    http://www.teleskop-shop.at/te…EHD_startest_Beta_Tau.jpg
    http://www.teleskop-shop.at/te…D_Ronchitest_Beta_Tau.jpg<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Wenn es um Kontrast geht, dann können wir Foto und digitale Bildbearbeitung mit deren Möglichkeiten der Kontrastverstärkung nicht so einfach mit der visuellen Beobachtung vergleichen. Du wirst daher vergebens nach fotografischen Beweisen für visuell wahrgenommene Kontrastvorteile glatter Polituren suchen.


    Die visuelle Erfahrung etlicher Leute das glatte Spiegel Vorteile haben lässt sich nur visuell verifizieren und da muss halt Jeder selbst durchs Teleskop schauen wenn Er sich persönlich davon überzeugen will. Ansonsten bleibt da erst mal nur das man‘s den Leuten halt glaubt oder eben nicht oder schlicht sagt ich weiß es nicht was ich da jetzt glauben soll, die Sache ist unklar. Im Zweifel bevorzuge ich immer die letztere Option.
    Der Mensch ist schon ein eigenartiges Geschöpf, er will unter allen Umständen eine Antwort auf all seine Fragen und mag es so ganz und gar nicht sich mit einem „kann man nicht sagen“ abzufinden. Es gibt sie aber die Fragen auf die es keine verlässliche Antwort gibt. Dann gerät die Geschichte zur Glaubensfrage und Jeder glaubt Seine Sicht wäre dann die Richtige und man streitet bis aufs Messer. Ich weiß nicht was das soll.
    Es wäre doch so einfach mal die Realität anzuerkennen und zu sagen man weiß es schlicht nicht genau und gut ist.


    Grüße Gerd
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Guntram
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 08.12.2013 23:20:43 Uhr
    <hr noshade size="1">


    Hallo miteinander.


    Im Mai 2000 erschien ein Artikel in Sky & Telescope, der die Politur von Astrooptiken mit Schwerpunkt Amateurspiegel zum Thema hatte.
    Verfasst wurde der Artikel von Jose Sasian, der Amateur-Spiegelschleifer, professioneller Optikdesigner und Professor am Optical Sciences Center in Tucson ist. Somit Kollege von Wyant, Shack, und anderen Größen der theoretischen und praktischen Optik.


    Es folgt eine kurze Zusammenfassung dieses lesenswerten Artikels.


    Sasian definiert die Micro surface roughness als Defekte mit einem Abstand von 0,25mm und weniger. Oberflächen mit einer micro surface roughness von 1/5500 wave oder weniger (ja) werden als superpolished bezeichnet. Die Methoden, die zur Herstellung solcher Flächen verwendet werden, werden von Amateuren normalerweise nicht angewendet ( "...achieved through special techniques generally not used by amateurs".)
    Mit Standardmethoden beim Polieren können Amateure etwa 1/500 wave Oberflächenrauigkeit erreichen. Diese Rauigkeit streut 0,06% des Lichtes, und führt zu einer Reduktion des Kontrastes in der Größenordnung von 1/10 des Kontrastverlustes durch typische Zonenfehler.


    Schlimmer als Mikrorauigkeit seien Zonen und primary ripple (Hundekuchenoberfläche) - sanfte Änderungen in der Spiegelkurve, die 1/2 bis 1/20 des Spiegeldurchmessers ausmachen.
    Durch gute Polierpraxis können diese Oberflächenfehler auf 1/100 wave reduziert werden; Streulichtanteil 1,6%. Offensichtlich gilt die erste Sorge beim Polieren der Vermeidung dieser relativ groben Fehler.


    Er beschreibt, wie Spiegel, die in einem Kurs unter seiner Leitung geschliffen wurden, mit einem Interferenzprofilometer auf Mikrorauigkeit geprüft wurden.
    Gemessene Mikro Oberflächen Rauigkeiten zwischen etwa 0,0027 und 0,0044 wave. Ein Spiegel war bei der Messung nicht besonders sauber, und schnellte gleich auf 0,007 wave hoch. Sasian merkt dazu an, dass eine staubige oder nicht ganz saubere Spiegeloberfläche ganz klar bereits mehr Licht streut als typische Mikrorauigkeit.


    Sasian merkt an, dass exzellente Spiegel ptv Werte (Oberfläche) von 1/40 wave erreichen, und Rauigkeiten von 1/200 wave.


    Er führt weiter aus, dass für Obeflächenfehler, die Licht in alle Richtungen streuen, der Strehlwert ein nützliches Maß ("...a useful indicator of the loss in contrast on extended objects...")für den Kontrastverlust in Objekten wie Planeten und Nebeln ist.


    Soweit zu diesem Artikel.


    Amateuroptiker können demnach mit guten Poliermitteln und Verfahren, die in klassischen Werken (Texereau, auch "A Manual for Amateur Telescope Makers", von Karine und Jean-Marc Lecleire, erschienen bei Willmann-Bell, soll sehr gut sein, ich kenne das Buch aber nicht genau) beschrieben sind sowie dem Studium von Beiträgen von Experten wie Alois, Stathis und anderen in Foren wie diesem alles erfahren, was für die Herstellung exzellenter Oberflächen notwendig ist.


    Ich persönlich sehe das "Problem" Rauigkeit als komplett gelöst an.
    Es war einmal ein Problem, verursacht durch schlechte Poliermittel und antiquierte Arbeitsverfahren (Papierpolitur, Tuchpolitur, HCF Politur etc.).

    Viele Grüße,
    Guntram
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> fraxinus
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 09.12.2013 11:12:11 Uhr
    <hr noshade size="1">


    Guten Morgen,


    zuerst Danke an Guntram für den Überblick über den interessanten S&T Artikel!


    Da ich meinen Beitrag schon angefangen hatte stelle ich ihn jetzt auch hier rein. Das macht erheblich mehr Mühe, als chips-kauend und rülpsend den Saal vollzukotzen.[xx(] Die Lösung meiner Rechenaufgabe möchte ich ebenfalls noch kurz vorstellen, das bin ich denen schuldig, die es versucht haben.


    Zunächst etwas Grundsätzliches zum Messen und Vergleichen.


    <font color="red"><b>Messen heißt Vergleichen!</b></font id="red">


    Mit diesem Satz begann damals bei uns der Physikunterricht und der Pauker - einer von denen die noch Rückgrat hatten und zu ihrer exzellenten Trefferquote mit dem Schlüsselbund standen, denn es traf selten die Falschen -
    warf seine Mappe auf den Tisch und erklärte:


    "Das ist ein Mapp! - Ich definiere hiermit einen <b>Längenstandard</b>!"
    "Wir können Vielfache davon bilden, lasst uns das Zimmer damit vermessen...."

    Soweit, so gut.
    Leider ist das Messen von Längen eines der wenigen Beispiele für eine <b>direkte Messung</b>.
    Die meisten Messungen sind <b>indirekter</b> Natur! (http://de.wikipedia.org/wiki/Messung)

    Das bedeutet, man misst eine (oder mehrere) andere physikalische Größen und schließt daraus mittels <b>mathematisch/physikalischer Modelle </b>auf die gesuchte Messgröße. (http://de.wikipedia.org/wiki/Modell#Wissenschaftstheorie)


    Ein einfaches Beispiel für eine indirekte Messung ist die Temperaturmessung:
    Hier wird die Höhe einer Quecksilbersäule gemessen, die an zwei Punkten kalibriert wird.
    Das physikalische Modell heißt "Wärmeausdehnung", was letztlich auf eine Längenmessung an der Kapillare hinausläuft. (http://de.wikipedia.org/wiki/W%C3%A4rmeausdehnung)


    Zum Beispiel muss man sicherstellen, dass sich die benutzte Flüssigkeit auch linear ausdehnt. Das ist keinesfalls Selbstverständlich. (http://de.wikipedia.org/wiki/Dichteanomalie)


    Übertragen auf die <b>Abbildungsqualität</b> von Teleskopen bedeutet das:


    Direkt vergleichen kann man nur zwei Teleskope, die <i>nebeneinanderstehen</i> und von denen eines als <b>Standard</b> gekennzeichnet wird. Das ist noch <i>keine</i> Messung, erlaubt aber die Attribute "besser/schlechter" zu vergeben.


    Für eine direkte Messung bräuchte es pro Öffnungsklasse <i>und</i> Objektklasse <i>mehrere</i> Referenzen! Dazu geschulte Beobachter und einen Blindtest, wobei das in diesem Fall nicht exakt wörtlich genommen werden darf.[8D] (http://de.wikipedia.org/wiki/Blindstudie)


    Der einzige mir bekannte Test dieser Art ist der von Peter Ceravolo, der vier gleiche Spiegel herstellte, die sich lediglich im Grad der sphärischen Korrektur unterschieden.
    (Die Franzosen behaupten zwar, dass sie Teleskope nebeneinander stehen hatten, aber keiner weiß welche Eigenschaften die Spiegel hatten. Außer dass der Durchmesser gleich war...)


    Früher, vor über 200 Jahren, war der direkte Vergleich mangels Prüfmethoden noch verbreitet.


    In "<i>Fernrohre und Ihre Meister</i>" von <i>Rolf Riekher </i>ist auf Seite 132 zu lesen:


    <font size="2">"Herschel hatte eine eigenartige Arbeitsweise. Er fertigte Spiegel in recht großen Stückzahlen an.
    Hatte er mehrere fertig bearbeitet, so verglich er sie durch Prüfung. Die besten behielt er zurück, alle anderen wurden wieder eingeschmolzen.
    Von der nächsten Serie wählte er wieder die besten aus, um sie mit den früher angefertigten zu vergleichen.
    Auf diese Weise hat er schrittweise die Qualität verbessert. ..... Herschel gibt selber an, auf diese Weise in sechs bis sieben Jahren über 400 Spiegel angefertigt zu haben...
    ."</font id="size2">
    Zu den Gründen dieser Arbeitsweise schreibt Riekher:
    <font size="2">"Ein weiterer Grund war der, dass es keine sichere Prüfmethode für die Gestalt des Spiegels gab, um den Poliervorgang entsprechend überwachen zu können.
    Man war auf reine Funktionsprüfungen angewiesen...." </font id="size2">


    Ja, das waren noch Männer mit Charakter, "<i>Einschmelzen</i>" wäre für mancherlei Optik die richtige Behandlung und nicht "<i>zurücklegen ins Versand-Lager</i>"! Herschels Schaffenskraft ist sicher bewundernswert, aber das will heute wohl keiner mehr. Die meisten bekommen in ihrem Leben nicht einen einzigen Spiegel selbst gebacken.
    Und ich schaffe es aus logistischen Gründen nicht, meinen 28" und 33" <i>gleichzeitig</i> unter guten Himmel zu stellen. That's live [;)]

    Heutzutage ist es üblich, die <i>Produkteigenschaften</i> schon lange vor der Bestelllung der ersten Schraube exakt und im Detail zu studieren. Das ist meistens die kostengünstigste Lösung. Für einen Teleskopspiegel heißt das speziell:


    Brücke schlagen zwischen <b>Spiegel-Oberfläche </b>und der zu erwartenden <b>Abbildungsqualität</b>!


    Es handelt sich dabei um eine <b>indirekte Messung</b>. Die gesuchte Größe ist zB die Übertragungsfunktion für Kontraste (MTF). Diese ergibt sich durch <b>Modellbildung</b> einer Längenmessung - speziell einer <b>Höhenmessung</b> der Oberflächentopografie über einer <b>Referenzfläche</b>.


    Da man Höhen im Nanometer-Bereich wiederum nicht per Messschieber messen kann, ist das eine <b>indirekte Messung</b>. Dafür braucht es ein weiteres <b>Modell</b>. (Interferometer-Modell, Foucault-Modell etc)


    Alles ziemlich komplex.
    Der <i>entscheidende</i> Punkt ist aber, dass es ohne <b>theoretischen Hintergrund </b>bzw <b>Modellbildung</b> nicht gelingt, von einer gegebenen Oberfläche auf Abbildungseigenschaften zu schließen.


    Eine Temperaturmessung mit unkalibriertem Thermometer mit unbekannter Flüssigkeit in der Säule würde sich jeder verbitten.
    Bei Lyot Bildchen behaupten dagegen manche stur und steif, dass man das am Himmel sehen muss, weil es rau aussieht und weil das "eben so ist" - und drücken sich ebenso geschickt davor, exakt gleiche Versuchsbedingungen herzustellen.


    Ich kenne weder eine Modellbildung zu diesem Test noch einen erfolgreichen Kalibrierungsversuch. Zum Foucault Test gibt es übrigens beides - allerdings auch für echte Profis keine einfache Aufgabe.


    Ich fasse zusammen:


    <font color="red"><b>Eine indirekte Messung ohne Modell ist sinnlos.</b></font id="red">


    Damit komme ich zu meiner "Hausaufgabe":


    Der Hintergrund war, ein einfaches Modell vorzustellen, was die Brücke zwischen einer einfachen Oberflächenform (Sinuswelle) und der Abbildung im Fokus schlägt. Das ist unter anderem wesentlich für das Einschätzen der Zygo-Messung von Alois.


    Aufgabe 1)
    Gegeben sei ein an sonsten perfekter Spiegel, dessen einziger Fehler Ripple einer einzigen Periode ist.
    Form sei Sinus (1 Periode = 1 Berg + 1 Tal)
    (Alternativ darf mit einer Dreiecks- oder Sägezahnform gerechnet werden)



    Fall A -Periodenlänge 1mm, Höhe 2nm (Höhe = Differenz zwischen Berg und Tal)
    Fall B -Periodenlänge 1mm, Höhe 4nm
    Fall C -Periodenlänge 2mm, Höhe 2nm
    Fall D - Periodenlänge 2mm, Höhe 4nm


    Gesucht ist jeweils der Streuwinkel bei senkrechtem Einfall.


    Lösung von Michael, der ich 100% zustimme:


    Streuwinkel nach wellenoptischer Betrachtung (für lambda = 550nm):


    Code
    Fall A +-113"
    Fall B +-113"
    Fall C +-57"
    Fall D +-57"


    Zusatzaufgabe: Berechne jeweils die Intensität des gestreuten Lichts in Prozent der einfallenden Intensität.


    Code
    Fall A 0.03%
    Fall B 0.11%
    Fall C 0.03%
    Fall D 0.11%
    (für lambda = 550nm)


    Zusätzlich hat Michael noch die Ablenkung für die geometrische Bertachtung geliefert (Modell Lichstrahl, Sinusform)


    Code
    Fall A +-2.6"
    Fall B +-5.2"
    Fall C +-1.3"
    Fall D +-2.6"


    Ich komme mit der Dreiecksform auf die gleiche Größenordnung,
    Konsens: niedriger, einstelliger Bogensekunden-Bereich!


    Dass in diesem Fall das wellenoptische Modell das Richtige ist, dürft ihr mir getrost glauben oder ein paar Zeilen runter blättern.


    Der Streuwinkel wird mit der Gitterformel berechnet:
    http://de.wikipedia.org/wiki/Optisches_Gitter


    Wobei es bei einem Sinusgitter nur eine einzige Ordnung rechts und links gibt. Bei einem Dreicksgitter gibt es mehrere Ordnungen, mit fallender Intensität.


    Die Streu-Intensität wird entsprechend Horia's hervorragendem Beitrag mit der TIS Formel berechnet.
    Kleines Problem: Es sind nur die Höhenunterschiede gegeben (PV), die Formel verlangt aber den RMS!
    Lösung: Für eine feste, definierte Oberflächenform gibt es einen <i>festen</i> Umrechnungsfaktor.
    In diesem Fall ist es Faktor 2.82 oder 2*Wurzel(2)
    Das sieht man, indem man den RMS des Sinus berechnet oder schlicht nachschaut. RMS ist auch als Effektivwert bekannt:
    http://de.wikipedia.org/wiki/Effektivwert


    Halten wir fest - für kleine Streuwinkel und kleine Höhendifferenzen gilt:


    <ul>
    <li> <b>Der Streuwinkel ist umgekehrt proportional der Strukurbreite</b>
    </li>
    <li> <b>Die Streu-Intensität ist proportional dem Quadrat des RMS Wertes</b>
    </li>
    </ul>


    Dieses Ergebnis steht im <i>fundamentalen</i> Widerspruch zum Modell Lichtstrahl (= geometrische Betrachtung bzw Reflexionsgesetz)!
    Hier würde es auf die <b>Anstiege </b>ankommen. Doch das Ergebnis ist offensichtlich nicht von der Form der Rauheit abhängig. (Exklusive einer kleine Korrektur beim Auftreten mehrerer Ordnungen.)


    Und da jedem Modell eine zweite Überprüfung gut bekommt, anbei eine kleine Simulation mit OpenFringe!


    Mein 3D Surface Bildchen von oben ist nämlich das Resultat einer <i>echten</i> Messung an einer <i>realen</i> Oberfläche.


    Es handelt sich um Polierspuren von Zwirnsfäden auf einem Areal von 3mm Durchmesser, welche ich eigenhändig ins Glas gefrickelt habe - ja es gab schon systematische Versuche hier! Entstanden im Rahmen des ASAI Projektes auf Anregung von Kurt, da gibt's evtl auch einen echten Sterntest von ihm zu sehen.


    (Nebenbei: das war der Grund der Frage an David Vernet - Wie kann man gezielt rau Polieren?
    Die Antwort (gammelige Pechhaut) zeigte, dass er offenbar keine systematischen Versuche gemacht hat. Sowas bringt ausser 1000 Kratzer nicht das gewünschte Ergebnis....)


    Man sieht im fokusiertem Stern-Abbild die beiden Peaks rechts und Links des zentralen Spots.



    Der Winkel-Abstand (circa 12.Beugungsring) passt sehr gut mit der Gitterkonstanten (g=0.215mm) zusammen.



    PV und RMS lässt sich aus dem Schnittbild grob schätzen: PV 10nm (RMS = 3.5nm)
    Das wären 0.7% Streulicht - passt inclusive kleiner Restfehler gut zu den angegebenen Strehl 0.990


    (Die TIS-Formel ist nämlich nichts anderes als eine Taylor Approximation der Strehlformel im Fall kleiner Höhendifferenzen - als Differenz zu 1.000)


    So würde das Foucault Bild dazu aussehen, wieder mit OF simuliert....



    .... und weil es so schön ist, das ganze um 90° gedreht.



    MTF, als <i>die</i> zentrale Übertragungseigenschaft für Kontraste, darf natürlich nicht fehlen - ja ich weiß, mit dem Mund voller Chipse kann man sowas schlecht interpretieren[:D]



    Weitergehende Folgerungen erspare ich mir, ich wollte nur zeigen, was der Stand der Technik in Sachen Modellbildung/Messtechnik ist.


    Und dass es mit zielgerichtetem <b>Messaufwand</b> und den <b>passenden Modellen </b>möglich ist, sich ein komplettes und realistisches Bild über die Auswirkungen von Rauheit zu machen.

    Da ich die Daten von Alois und Guntram (S&T Artikel) sowie Kurt jetzt skizzenhaft in meine Modelle eingebaut habe, ist für mich klar, dass ein weiteres Vertiefen unweigerlich auf das <b>Festlegen von Toleranzen </b>, direkt auf der Spiegeloberfläche, hinausläuft.

    Toleranzen festlegen ist aber ein extrem heikler Punkt, den ich schon vor zwei Jahren für meinen 33" Dünnspiegel intensivst betrieben habe. Sogar expilzit unter dem Einfluss von Seeing.
    (So ein Projekt anzugehen ohne <i>theoretische</i> Chance auf eine akzeptables Bild wäre heller Wahnsinn, Überraschungen gibt es dann immer noch genug!)


    Die Details dieser Berechnungen werden aus verschiedenen Gründen nicht das Licht der Öffentlichkeit erblicken. Jedenfalls solange nicht, bis verlässliche Messungen von ein paar anderen Spiegeln vorliegen. Ich fürchte das kann dauern und interessieren tut es mich bis dahin nicht mehr wirklich.


    Das gleiche gilt für die Feinheiten der Poliertechnik. Denn das hängt eng mit den Toleranzgrenzen zusammen.

    Alois war so großzügig und hat seine Erfahrungen öffentlich gemacht. Es gibt also mehr als ausreichend Anregungen für jeden Spiegelschleif Einsteiger. Inzwischen gelingen Anfängerwerke so gut, dass sich <i>jeder</i> Hersteller besser um einen Vergleich herum drückt:
    http://www.astrotreff.de/topic…PIC_ID=156108&whichpage=4


    Wünsche weiterhin fröhliches Chips-Knabbern![:I]
    Ich bin dann mal draußen...[;)]


    Viele Grüße
    Kai

  • <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Gert
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 10.12.2013 04:56:11 Uhr
    <hr noshade size="1">


    Hallo Beisammen,


    Wie würde der Vergleich zwischen Rauheit 'in' der Spiegeloberfläche und Staubkrümels 'auf' der Oberfläche aussehen? Sieht man ein Staubkorn als 'schwarze' Abschattende Maske oder als weißes / (graues) Lichtpünktchen an? Beides würde zu Kontrastverlust beitragen. Von den Experten würde ich gerne mal wissen, ob es mehr Sinn macht sich über die Staubfreiheit der Optik Gedanken zu machen, oder über die Rauheit.


    Clear Skies,
    Gert
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Alois
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 10.12.2013 11:06:00 Uhr
    <hr noshade size="1">


    Hallo Gert.


    Staubkrümel sind unterm Normaskimikroskop hell leuchtende Punkte. Solchen Staub musste ich bei sehr guten Flächen bewusst als Fokusierhilfe erzeugen damit ich die Lage der Fläche finden konnte. Deshalb sind meine Bilder am Linsenrand gemacht worden. Damit habe ich gleichzeitig den Beweis der Fokuslage dabei. Bei stellen innerhalb der Fläche habe ich das nicht mehr. Da hilft nur Noch die Aperturblende oder der Staub als Starthilfe bis man endlich auch die Struktur der Fläche sieht.


    Beim Weisslichtinterferomter escheinen Staubteilchen als dunkle Ausfallstelle, weil dort keine Interferenz zustande kommt.


    Beim Lyottest erscheint der Staub selber auch als dunkle Stelle aber an seinem Rand entsteht Beugung und die leuchtet genau so hell wie jene die vom Aperturrand oder der Fangspigelstrebe. Das kann sehr breit werden. Siehe das Bild oben, wo ich die Breite des Streulichts der Aperturkante gemessen habe.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">ob es mehr Sinn macht sich über die Staubfreiheit der Optik Gedanken zu machen, oder über die Rauheit.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> Hier würde ich sagen. Wenn es um ein gutes Dunkelfeld zu bekommen geht, ist mehr auf den Staub zu achten.
    Wenn es um eine gute scharfe Abbildung geht ist eher auf die Mikrorauheit zu achten.


    Beim Lyottest kann ich zum Glück mit der Streulichtmessung gut dienen. Aber bei der Darstellung der Flächengestalt habe ich bemerkt dass nicht nur die Spaltbreite eine Rolle spielt sondern auch die Breite Des Lichtspalts.
    Dazu werde ich in einer Woche eine Dokumentation bringen können.


    Viele Grüße
    Alois
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Amateurastronom
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 10.12.2013 14:35:27 Uhr
    <hr noshade size="1">


    Hallo Kurt!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Kurt</i>
    … Ein Lyotfilter mit genau definierter Dämpfung und Phasenverschiebung, idealerweise ¼ Lichtwellenlänge für das durchgehende Licht. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Nur eine kleine Anmerkung, wo ich mich gerade durch diesen Mammut-Thread arbeite: Ich würde in diesem Zusammenhang von einem Lyot-Testplättchen etc. sprechen.


    Unter einem Lyot-Filter versteht man eigentlich einen Polarisationsinterferenzfilter verstehen wie er zur Sonnenbeobachtung (Day-Star-Filter) verwendet wird und z.B. im Buch von Ingalls "Amateur Telescope Making" Band 3 oder im Bergmann-Schäfer Optikband beschrieben ist. Ich habe mal selbst angefangen, einen solchen Filter zu bauen.


    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Kurt
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 10.12.2013 15:37:17 Uhr
    <hr noshade size="1">


    Hallo Amateurastronom,


    vielen Dank für die Korrektur. Klar, das muss Lyotplättchen oder Lyot-Testplättchen heißen.


    Gruß Kurt


    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> astrohans
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 10.12.2013 12:51:18 Uhr
    <hr noshade size="1">


    Da der Foucault Test (wenn der Testaufbau entsprechend ausgefeilt ist) Strukturen im Bereich weniger Nanometer zeigen kann gab es eigentlich für Spiegelschleifer bisher keine Probleme hinsichtlich Bewertung der Rauheit. Probleme werden fast ausschließlich durch die Verwendung schlechter Materialien und falscher Poliertechnik verursacht. Auch Wellenoptik, Gitterkonstanten und Beugungserscheinungen sind hinlänglich bekannt (Physik Oberstufe).
    Welches Problem wurde jetzt eigentlich gelöst ? Aus meiner Sicht ist einzig und allein die Quantifizierung der Oberflächengüte (Rauheit) offen - wenn sich da ein Standard durchsetzen würde hätten die Amateure sicher kein Problem.
    Ich akzeptiere jedenfalls keinen Spiegel mehr der mit meinem Foucault-Tester Abweichungen in der Feinstruktur zeigt. (Kratzer nicht mit eingeschlossen)
    Beste Grüße, Joachim


    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Kurt
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 10.12.2013 18:02:04 Uhr
    <hr noshade size="1">


    Hallo Joachim,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Da der Foucault Test (wenn der Testaufbau entsprechend ausgefeilt ist) Strukturen im Bereich weniger Nanometer zeigen kann gab es eigentlich für Spiegelschleifer bisher keine Probleme hinsichtlich Bewertung der Rauheit...
    ...Probleme werden fast ausschließlich durch die Verwendung schlechter Materialien und falscher Poliertechnik verursacht…
    …Ich akzeptiere jedenfalls keinen Spiegel mehr der mit meinem Foucault- Tester Abweichungen in der Feinstruktur zeigt. (Kratzer nicht mit eingeschlossen)… <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Bis dahin wird dir zumindest niemand aus der Spiegelschleiferzunft widersprechen. Wäre nur zu ergänzen dass man mit Foucault nur extrem großen Asti sehen kann. In der „Urzeit“ der Spiegelschleiferei (so ca.10 Jahre zurückliegend) waren noch Substrate mit D/d =6 üblich.
    D = Spiegeldurchmesser
    d = Dicke
    Da war das Risiko für Asti relativ gering. Gewerbliche Anbieter arbeiten immer noch gerne mit ähnlichem Dickenverhältnis und schaffen es trotzdem des Öftern Asti einzubauen. Deshalb würde mich beim Kauf eher auf ein ordentliches Protokoll auf Interferometerbasis verlassen. Für die Spiegelschleifer mit ihren zunehmend dünneren Spiegel ist das Interferometer als zusätzliches Prüfgerät mittlerweile unentbehrlich geworden.
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Auch Wellenoptik, Gitterkonstanten und Beugungserscheinungen sind hinlänglich bekannt (Physik Oberstufe) <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Der ist gut! Was schätzt du denn wie viele Leser und Poster hier Physik Oberstufe absolviert und/oder jemals in ihrem Leben ein physikalisches Grundpraktikum absolviert haben? Da erhoffe ich mir von Kais Posting für diese „Benachteiligten“ etwas an Nutzen.
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">…Welches Problem wurde jetzt eigentlich gelöst ? Aus meiner Sicht ist einzig und allein die Quantifizierung der Oberflächengüte (Rauheit) offen - wenn sich da ein Standard durchsetzen würde hätten die Amateure sicher kein Problem. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Quantifizierung von Rauheit bis in den Sub-mm Bereich ist selbst mit Amateurmitteln kein Problem, die Quantifizierung der Wirkung auf die Kontrastübertragung ebenfalls nicht. Dazu gibt es einschlägige Fachliteratur.


    Gruß Kurt


    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> fraxinus
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 10.12.2013 23:49:53 Uhr
    <hr noshade size="1">


    Hallo Gert,


    wegen dem Staub: Horia hat ein PDF ausgegraben, wo die ganzen Einflüsse, speziell für Koronografen, sauber aufgelistet sind:
    http://www.cosmo.ucar.edu/publ…ns/nelson_tech4_10-06.pdf


    Bin gespannt was Du dazu sagst. Nebenbei beantwortet es die Frage von Emil, ob die Aluschicht eventuell einen Teil der Rauheit zudeckt.
    Ja, tut sie. Bis zu Defekt-Breiten von1µm bei nicht zu großer Höhe.
    ***


    Hallo an alle,
    hier ist ein interessanter Link zur Energieverteilung der Airy Disc bis zum 100. Ring
    http://home.strw.leidenuniv.nl…se/2006/07/11/airy_rings/


    Ich hatte ein einfaches Modell vorgeschlagen, wie man das Streulicht aus einer gegebenen Oberflächenform berechnen kann:


    Für kleine Streuwinkel und kleine Höhendifferenzen gilt:
    <ul>
    <li> <b>Der Streuwinkel ist umgekehrt proportional der Strukurbreite</b>
    </li>
    <li> <b>Die Streu-Intensität ist proportional dem Quadrat des RMS Wertes</b>
    </li>
    </ul>
    Ich hatte weiterhin erwähnt, dass dies eine ungeheuerliche Sache ist, wenn man sich das mit dem gesunden Menschenverstand (=Modell Lichtstrahl) vorstellt. Ist das nicht komisch?


    Und weiter:
    Die Streuintensität vervierfacht sich, wen sich die Defekt-Höhen verdoppeln?


    Wollen wir das jetzt als Modell nehmen, ja oder nein?
    Bedenkt es wohl, es gibt kein zurück


    Nach dieser Warnung und zur weiteren Verunsicherung Festigung gibt es eine kleine Advents Aufgabe:


    Es ist bekannt, dass die Wichtel um die Weihnachtszeit gern an Spiegeln herumschaben.
    Deshalb lässt man die guten Optiken in dieser Zeit nie ohne Deckel irgendwo herumliegen.


    Denn allzu schnell kann so etwas passieren:


    Code
    _____  4mm  _____       _____       _____       _____
         |     |     |     |     |     |     |     |     |
         |     |     |     |     |     |     |     |     |       h=4nm (PV)
          -----  4mm  -----       -----       -----       -----


    Regelmäßige Gräben, 4mm breit, wurden gezogen. Saubere Arbeit, oben und unten alles glatt gegangen!


    Die Wichtel hoffen natürlich darauf, dass niemand den Schabernack im Foucault-Test sehen kann. Um sich später beim Firstlight spöttisch die Hände zu reiben.


    Aber sicher sind sie sich nicht. Wird überhaupt Streulicht entstehen? Wieviel wird es sein und welche Richtung ist zu erwarten? Oder sieht man es im Foucault Test doch?


    Helft den Wichteln und ihr werdet reich belohnt!


    Viele Grüße
    Kai
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Gerd-2
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 11.12.2013 03:17:07 Uhr
    <hr noshade size="1">
    Hallo,
    die theoretischen Grundlagen sind schon weitestgehend die Richtigen. Allein die Größenordnung der angenommenen Fehler ist das Problem.
    Natürlich, wenn ich winzige Fehler annehme dann verwundert es auch nicht wenn dann beim Rechenergebnis rauskommt das diese zu vernachlässigen sind da deren Auswirkung nahezu bedeutungslos ist.


    Sicher das hat uns Kai schön vorgerechnet, dass aber die angenommenen Werte für eine mögliche hochfrequente Welligkeit viel zu klein sind interessiert Ihn nicht und offenbar auch sonst niemanden hier.


    Hochfrequente Welligkeit ist das was im Allgemeinen irrtümlicherweise als Rauheit angesehen wird da es zb. im Lyot Test diesen Eindruck erweckt. Kais Sinuswelle ist hochfrequente Welligkeit. Mit der Echten Mikrorauheit hat das allerdings noch nichts zu tun.


    Nun hat uns Alois aber schon in Seinem Eingangbeitrag gezeigt das es hochfrequente Welligkeit sehr wohl im beträchtlichem Ausmaß geben kann und sich diese dann geradezu dramatisch auf die Abbildung auswirkt. Und das obwohl Fehler niederfrequenter Welligkeit bzw. der globalen Form viel geringer ausgeprägt sind.



    Rechnet man den Strehl in RMS um so ergibt die klassische Auswertung welche nur die globale Form und niederfrequente Welligkeit berücksichtigt.


    Strehl 0,86 = RMS 0,062 lambda bzw. RMS 34,1 Nanometer
    Inklusive der hochfrequenten Welligkeit wie sie nur durch FFT zu erfassen ist ergibt sich.


    Strehl 0,5 = RMS 0,132 lambda bzw. RMS 72,6nm


    Zieht man vom Gesamtfehler RMS 72,6nm den Fehler für die niederfrequente Welligkeit mit RMS 34,1nm ab dann erhält man allein für die hochfrequente Welligkeit einen Fehler von
    Wurzel aus (72,6^2 – 34,1^2) = 64,1nm


    Fehler allein der hochfrequenten Welligkeit = RMS 64,1nm! [:0]
    Fehler der niederfrequenten Welligkeit = RMS 34,1nm


    Das führt Kais Theorie, dass hochfrequente Fehler zwangsläufig wesentlich kleiner sein müssen als niederfrequente Fehler ad absurdum. Leider kann er sich nicht von Seiner Sichtweise trennen und rechnet daher trotz des von Alois schon im Eingangsbeitrag gebrachten Beispiels stur mit ganz winzigen Fehlern.


    Seine Sinuswelle mit 2 bzw. 4nm PV also RMS 1nm bzw. RMS 2nm ist geradezu lächerlich gegen die von Alois gemessene hochfrequente Welligkeit mit RMS 64,1nm.


    Die Berechnung des RMS der Sinuswelle von Kai mit dem Umrechnungsfaktor 2 * Wurzel 2 also 2,8 ist übrigens falsch.
    Es ist zwar richtig das sich der Effektivwert also der RMS einer Halbwelle aus Amplitude der Halbwelle /Wurzel 2 berechnet aber das bedeutet nicht das der RMS der gesamten Welle dann einfach mit Gesamthöhe / (2* Wurzel 2) zu berechnen wäre so wie es Kai annimmt.


    Der RMS lässt sich nicht einfach nach dem Schema Wert A + Wert B = Gesamtwert addieren.
    Der RMS addiert sich wie folgt


    RMS gesamt = Wurzel (Wert A^2 + Wert B^2)


    Es ergeben sich für eine Sinuswelle mit der Gesamthöhe ( 2* Amplitude) von 2nm also für jede Halbwelle Effektivwerte von (die Amplitude ist ja 1nm) 1nm / 1,41 = RMS 0,71nm.
    RMS Gesamt ist demzufolge Wurzel aus (0,71nm^2 *2) = 1nm


    Man kann es natürlich auch einfacher haben wenn man simpelste Logik an den Tag legt.
    Teilt man die Sinuswelle exakt in der Mitte in 2 identische Halbwellen steht jedem Wellenberg exakt das gleiche Wellental gegenüber. Logischerweise ist der RMS daher also Gesamthöhe der Welle / 2 und nicht 2,83 wie es Kai behauptet.


    Aber zurück zum eigentlichen Thema.


    Halten wir fest.
    Es kann sehr wohl hochfrequente Welligkeit im beträchtlichen Ausmaß geben. Diese wird von der klassischen Streifenauswertung nicht erfasst!


    Es kann daher wegen dieser hochfrequenten Welligkeit auch bei Optiken die in der klassischen Streufenaswertung gut abschneiden zu einer erheblichen Kontrastminderrung kommen. Also auch dann wenn die niederfrequente Welligkeit noch ganz harmlose Werte aufweist.


    Hochfrequente Welligkeit ist das was irrtümlicherweise oft als Rauheit bezeichnet wird. Hochfrequente Welligkeit ist das, was im Lyot Test sichtbar wird.


    Wer den Begriff der Rauheit für hochfrequente Welligkeit verwendet hat damit absolut recht wenn Er auf deren Wichtigkeit hinweist und versucht diese im Rahmen seiner Möglichkeiten zu untersuchen.


    Wer nur Streifenauswertung betreibt, tut gut daran mit dem Lyot Test die Optik auf eine relevante hochfrequente Welligkeit hin zu überprüfen. Es sei ihm aber trotzdem unbedingt der Umstieg zur FFT Auswertung empfohlen, da nur diese eine vernünftige Quantifizierbarkeit ermöglicht.
    Die Unzulänglichkeiten des Lyot Testes wurden hier beschrieben, ändern aber nichts daran das dort sichtbare „ Rauheit“ durchaus ein Problem sein kann (nicht zwangsläufig sein muss).


    Grüße Gerd


    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Horia
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 11.12.2013 07:18:30 Uhr
    <hr noshade size="1">


    Hallo Gerd,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Sicher das hat uns der Kai schön vorgerechnet, dass aber die angenommenen Werte für eine mögliche hochfrequente Welligkeit viel zu klein sind interessiert Ihn nicht und offenbar auch sonst niemanden hier.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Ein Rechenbeispiel hat als Aufgabe eine abstrakte Formel mit Leben zu füllen. Man kann, so wie du und Kai es gemacht haben, entweder mit Zahlen der schlechten oder der guten Politur es tun.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Die Berechnung des RMS der Sinuswelle von Kai mit dem Umrechnungsfaktor 2 * Wurzel 2 also 2,8 ist übrigens falsch. ... <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Hier hast du leider das RMS-Prinzip falsch verstanden. Eine gute Erklärung z. B. hier: http://de.wikipedia.org/wiki/Effektivwert


    Viele Grüße,
    Horia
    <hr noshade size="1">


    Hallo Gerd,


    Ich kann deine Berechnung leider nicht nachvollziehen. Bitte beschreibe genauer was du hier gemacht hast. Wo kommen die Daten her, was versuchst du daraus zu berechnen, was wird in den Bildern dargestellt, und in welcher Beziehung stehen die Bilder zu deiner Berechnung?
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Gerd-2</i>
    Die Berechnung des RMS der Sinuswelle von Kai mit dem Umrechnungsfaktor 2 * Wurzel 2 also 2,8 ist übrigens falsch. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Kais Umrechnungsfaktor ist richtig.


    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Gerd-2
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 11.12.2013 11:53:55 Uhr
    <hr noshade size="1">


    Hallo Horia,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Man kann, so wie du und Kai es gemacht haben, entweder mit Zahlen der schlechten oder der guten Politur es tun.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    na ja es geht hier ja darum ob Rauheit bzw. eine hochfrequente Welligkeit wie sie im Lyot Test sichtbar ist ein Problem darstellt oder nicht.
    Das es bei einer super Politur keines ist darüber sind sich doch alle Seiten einig.
    Das muss hier also auch niemand beweisen.


    Es geht darum ob sie bei einer schlechten Politur Probleme machen kann und daher muss man natürlich dann auch mit den Zahlen einer schlechten Politur arbeiten wenn man das rausfinden will.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Hier hast du leider das RMS-Prinzip falsch verstanden. Eine gute Erklärung z. B. hier: http://de.wikipedia.org/wiki/Effektivwert<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">



    Wenn Du und Michael den Faktor zustimmt macht mich das schon nachdenklich. Allerding überzeugen könnt ihr mich nur mit einer entsprechenden Herleitung. Ich habe die Meine bereits dargelegt.


    Betrachten wir das mal konkret am Beispiel Wechselspannung, so wie es auch in Wiki gehandhabt wird. Der auf Wiki beschriebene Effektivwert U eff =1/wurzel 2*U gilt wenn die Richtung des Stroms keine Rolle spielt für beide Halbwellen.
    Möchten wir zb. die Leistung errechnen nach der Formel P = U * I benötigen wir den Effektivwert. Für die Leistung P ist es unerheblich in welche Richtung der Strom fließt. Der eigentliche Lastverlauf ist hier keine Sinuswelle sondern die Aneinanderreihung beider Halbwellen so wie das bei einer Gleichrichtung mit Brückengleichrichter der Fall ist.


    http://de.wikipedia.org/wiki/Gleichrichter


    Uns interessiert nun aber nicht der RMS so einer Aneinanderreihung von Halbwellen sondern der der gesamten Sinuswelle mit PV von Wellental zu Wellen Berg. Hier wäre jetzt eine Herleiten gefragt.
    Man kann für den RMS jetzt nicht einfach mit Faktor 2 arbeiten.


    Ich verstehe unter RMS den nach Fläche bzw. im Falle einer 2 dimensionalen Welle nach Länge gewichteten Durchschnitt. Es erschein mir bei der Sinuswelle logisch das dieser exakt auf halber Höhe also halben PV liegt. Es steht auf halber Höhe ( um im Beispiel Wechselstrom zu bleiben bei Spannung 0 ) einem Wellenberg immer das passende Wellental gegenüber.


    (==&gt;) Michael
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ich kann deine Berechnung leider nicht nachvollziehen. Bitte beschreibe genauer was du hier gemacht hast. Wo kommen die Daten her, was versuchst du daraus zu berechnen, was wird in den Bildern dargestellt, und in welcher Beziehung stehen die Bilder zu deiner Berechnung?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Ich habe doch eigentlich alles beschrieben. Die Bilder und damit die Strehlwerte kommen von Alois, siehe Eingangsbeitrag. Da Alois leider keinen RMS angegeben hatte habe ich diesen aus dem Strehl den Alois angegeben hat errechnet.


    Der Grund für diese Rechnung liegt darin, den Anteil der reinen hochfrequenten Welligkeit am Gesamtfehler zu ermitteln. Dieser muss logischerweise die Differenz von Gesamtfehler ( Strehl 0,5 bzw. RMS 72,6nm) und dem Fehler der nur die niederfrequente Welligkeit berücksichtigt ( Strehl 0,86 bzw. RMS 34,1nm) sein.


    Hier komme ich wie ich ausführlich vorgerechnet hatte auf einen Wert von RMS 64,1nm.


    Grüße Gerd


    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> mkoch
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 11.12.2013 13:08:16 Uhr
    <hr noshade size="1">
    Hallo Gerd,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Gerd-2</i>
    Uns interessiert nun aber nicht der RMS so einer Aneinanderreihung von Halbwellen sondern der der gesamten Sinuswelle mit PV von Wellental zu Wellen Berg.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    RMS ist der <u>quadratische</u> Mittelwert. Da beim Quadrieren das negative Vorzeichen der einen Halbwelle verloren geht, ist es völlig egal ob du eine Sinuswelle oder eine gleichgerichtete Sinuswelle betrachtest. Beide haben den gleichen RMS Wert.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Gerd-2</i>
    Ich verstehe unter RMS den nach Fläche bzw. im Falle einer 2 dimensionalen Welle nach Länge gewichteten Durchschnitt. Es erschein mir bei der Sinuswelle logisch das dieser exakt auf halber Höhe also halben PV liegt. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das was du hier beschreibst bezeichnet man üblicherweise als Mittelwert. Der Mittelwert ist nicht identisch mit dem quadratischen Mittelwert (RMS).


    Gruß
    Michael


    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Horia
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 11.12.2013 13:47:07 Uhr
    <hr noshade size="1">
    Hallo Gerd,


    Michael hat die Herleitung schon erklärt. In deiner ursprünglichen Herleitung ist noch einen subtilen Fehler enthalten:


    Die Quadratische Summierung von zwei RMS-Werten geht nur wenn die jeweiligen grundlegenden Größen voneinander unabhängig sind (keine Korrelation zueinander haben). Z.B. beim summieren von zwei Sinuskurven gleichen Amplitude und Frequenz aber in Antiphase bekommt man einen RMS-Wert = 0 und nicht 1,4 der einzelne RMS-Werte.


    Aus dem gleichen Grund funktioniert der Achromat: die RMS-Werte der optischen Fehlern einzelnen Linsen werden nicht quadratisch addiert weil gleiche Fehlerarten korrelieren und u. U. sich gegenseitig aufheben.


    Viele Grüße,
    Horia


    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> astrohans
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 11.12.2013 12:17:44 Uhr
    <hr noshade size="1">


    Beugung am Gitter würde ich nicht als Streulicht bezeichnen - als Modell sicher verwendbar da mathematisch erfassbar aber kaum Bezug zur Praxis. Als Streulicht bezeichne ich alle Photonen die vom Spiegel auf dem Chip ankommen aber nicht zur Bilddefinition beitragen sondern nur das Grundrauschen anheben.
    Beim Foucault Test würde ich z.B. alles was ausserhalb der Spaltebene zurückkommt wenn der Spiegel bereits dunkel ist als Streulich bezeichnen. (natürlich sollte der Spiegel auspoliert und die Kante abgedeckt sein)
    Ich gehe davon aus das Amateur bzw. Handpolituren mit dem richtigen Pech, feinem Ceri und nicht zu kleinen Tools weiterhin bessere Oberflächen bringen können als maschinelle Massenware.
    Beste Grüße, Joachim
    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Horia
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 11.12.2013 12:41:53 Uhr
    <hr noshade size="1">


    Hallo Joachim,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Beugung am Gitter würde ich nicht als Streulicht bezeichnen - als Modell sicher verwendbar da mathematisch erfassbar aber kaum Bezug zur Praxis.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Oh, da sind einige Feinheiten drin.


    Eine Raue Oberfläche ist nichts anderes als eine Überlagerung von vielen (sehr viele) sinusförmigen Beugungsgittern, mit unterschiedlichen Gitterkonstanten, und unterschiedlichen Orientierungen auf der Oberfläche. Wenn man verstanden hat, wie Beugung am Gitter (als einfache, mathematisch erfassbare Situation) funktioniert, hat man die Grundlage erschaffen um das Streulicht zu verstehen. Das kommt aber als zweiter Schritt dazu.


    Viele Grüße,
    Horia


    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Cleo
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 11.12.2013 12:45:10 Uhr
    <hr noshade size="1">
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: astrohans</i>
    Ich gehe davon aus das Amateur bzw. Handpolituren mit dem richtigen Pech, feinem Ceri und nicht zu kleinen Tools weiterhin bessere Oberflächen bringen können als maschinelle Massenware.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Die Frage ist noch, was heißt besser?
    Trägt man die mittels Interferometer / Mikrointerferometer / AFM etc. gemessene Oberflächenform (nach Fouriertransformation) gegen die Ortswellenlängen auf, erhält man die sogenannte Power Spectral Density. Mit der kann man den ganzen Bereich von den niedrigsten Zernikes bis zur Mikrorauhigkeit abdecken und sieht direkt, wieviel Streulicht man bei welchen Streuwinkeln zu erwarten hat. Umgekehrt kann man die PSD auch aus einer Streulichtmessung bestimmen.


    Zum Nachlesen (harte Kost auf Englisch, vielleicht mal nur die Einleitung[:)]): http://meripet.com/Papers/SPIE09_7390_0L.pdf


    Zum Beispiel der Vergleich einer Spiegelfläche vor und nach Aluminiumbeschichtung: hier


    Welche PSD-Verläufe bei der Beobachtung tatsächlich stören / relevant sind, ist eine andere Frage... zumal es sicher auch andere Streulichtquellen gibt.


    viele Grüße


    Holger


    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> FrankH
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 11.12.2013 13:29:23 Uhr
    <hr noshade size="1">


    Hallo


    Wenn man es mal mit Foucault probiert,da stellt sich das Problem das die Zone um mit Maske messbar zu sein eine Mindestbreite haben muß. Das Messergebniss gilt eigentlich für eine als Gerade abweichende Zone,die Programme versuchen aber es als Kurve um zurechnen da man annimmt das es von der Polierweise
    Die Form ist welche theoretisch Warscheinlich ist.
    Nimmt man nun einen Randabfall von 1/10 lambda auf einer Breite von 5mm,dann steht diese genau so schräg wie 1 lambda auf 50mm,wo das Licht dann hingeht braucht man wohl nicht weiter erklären.
    Setzt sich diese Welligkeit des Randes über die ganze Fläche mit dieser Breit und Amplitude fort ist der Spiegel trotz lambda/10 völliger Versager,es spielt nicht mal eine Rolle ob ich Surface oder Wavefront meine.
    Ich nehme an Layot zeigt nur an das die Flächen unterschiedliche Höhen aufweisen,der Winkel in dem die Flächen stehen ist nicht messbar.
    Alois sein Beispiel mit dem Interferogramm ist aber noch auf viel groberer Ordnung,eigentlich nicht Mikrorauhigkeit sondern Zentirauigkeit, die sichtbaren Interferenz Störungen der Optik der Prüfaperatur dann wohl im Millimeterbereich.
    Wenn diese Ripple vom Spiegel wären dann ist das die Grenze was ein Interferometer zeigen könnte,
    Bis zu der Strukturgröße welche Layot zeigt klafft eine riesige Ungewissheit.
    Eigentlich könnte man wenn man die Regeln def Spiegel Herstellung in Handarbeit befolgt einen f/15 Spiegel blind herstellen, es baut alles darauf auf das die Bewegungmachanik automatisch die richtige Form hervorbringt, darauf baut auch der angenommene Umrechnungsfaktor von PTV in RMS.
    Nun weis jeder das man auch mit Foucault schon eine schöne Orangenhaut sehen kann und oft liegt die Annahme wo dieser Fehler herkommt und wie man ihn abstellt richtig,die Regel ist alsowed die bewährte Methode anwendet wird ein schönes Ergebniss erreichen.
    Das ist im Fall der Minitoolpolierei nur noch der Fall wenn man im Inferferogramm wie Alois die Zentimeferrauigkeit noch messen kann.
    Interessant wäre ein 1cm Ausschnitt eines mit Volltool brav polierten Spiegels mit einem Ausschnitt zu vergleichen welcher mit Minnitool poliert wurde, ob dort verstärkt Fehler höherer Ordnung auftreten.
    Ist eigentlich anzunehmen,doch ist anzunehmen das eine Zone welche 1/4 lambda Höhe hat beim Wegpolierenin Der Rauigkeit nur einen geringeren Fehler aufweist,sonst könnte man es auch lassen.


    Gruß Frank


    <hr noshade size="1">
    <font color="yellow"><b>Antwort von:</b> </font id="yellow"> Kalle66
    <font color="yellow"><b>Gesendet am:</b> </font id="yellow"> 11.12.2013 16:58:30 Uhr
    <hr noshade size="1">
    Hallo Frank,
    zur Erklärung des Foucaulttests reicht simple geometrische Strahlenoptik aus. Damit kannst Du aber kein Streulicht aufgrund von Mikrorauheit erklären. Dazu musst Du mit Konzepten der Wellenfrontanalyse arbeiten oder die Orangenhaut nach Bauchgefühl beurteilen.


    Ich geb Dir aber recht, dass - soweit ich hier das noch nachvollziehen kann - Alois offensichtlich andere Größenordnungen der Rauheit untersucht, als Kai in seiner "Übungsaufgabe". Insoweit werden hier zwei unterschiedliche Fälle parallel diskutiert.


    Kai hat allerdings die Bestimmungsfaktoren auf den Nenner gebracht.
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Halten wir fest - für kleine Streuwinkel und kleine Höhendifferenzen gilt:
    Der Streuwinkel ist umgekehrt proportional der Strukurbreite
    Die Streu-Intensität ist proportional dem Quadrat des RMS Wertes<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Der Umkehrschluss bestätigt, was alle wissen: Die kleinste Ortsfrequenz der zu untersuchenden Spiegelfläche (das wäre der Spiegeldurchmesser selbst) liefert den geringsten Streuwinkel (Größe des Airydisk bzw. Auflösungsvermögen).[:D] Und dass dieser Zusammenhang linear ist, zeigt auch die klassische Rayleigh-Formel: sin(delta) = 1,22*Lambda/Durchmesser.


    Damit eröffnet sich - zumindest gedanklich - auch folgende Sichtweise auf das Problem. Man zerlege mittels Fouriertransformation die Oberflächenform des Spiegels (Ortsfrequenzen der Oberfläche) in einzelne Wellenlängen. Heraus kommt eine Reihe von additiven Termen mit jeweiligen Gewichtungsfaktoren. Anschließend wendet man auf die jeweiligen Wellenlängen der Ortsfrequenzen das Rayleigh-Kriterium an und erhält ein Maß wie sich das Licht im Abbild verteilt. Oder?

  • Hallo Interessierte der MiKrorauigkeit (oder der glatten Fläche)!


    Leider bin ich zwar schon länger aus dem Thema raus, möchte aber noch etwas beitragen.

    Bekannt ist doch zunächst, das jede noch so gut polierte Oberfläche Mikrorauigkeit zeigt. Dabei besteht die Abweichung von einer ideal glatten Oberfläche aus unregelmäßigen Strukturen, die je nach ihrer vertikalen und lateralen Ausdehnung und Verteilung das Ausmaß und die Art der Oberflächenrauigkeit festlegen.


    Grundsätzlich kann man sagen, das es nicht trivial erscheint, ein geeignetes Maß zur Charakterisierung von Mikrorauheit (und das Problem der Quantifizierung) zu finden.


    Legt man eine Nullebene fest und definiert man die mittlere quadratische Abweichung der realen Oberfläche von dieser Idealfläche als Maß für die Rauigkeit, so geht die Strukturinformation über die Oberfläche verloren.


    Sinnvoll erscheint es daher, eine spektrale Darstellung zur Charakterisierung vorzunehmen. Bei optischen Oberflächen nun hängen die optischen Eigenschaften u.a. von der Rauigkeit <u>und</u> der Art der Oberflächenstrukturierung ab.


    Wesentlich ist dabei, wie groß die laterale und die vertikale Ausdehnung der Rauigkeitsstrukturen im Vergleich zur verwendeten Lichtwellenlänge ist!


    Das Licht wird an den Rauigkeitsstrukturen gestreut und die <u>Lichtintensität, der Bildkontrast und das Auflösungsvermögen</u> der Abbildungsoptik nehmen bei wachsender Oberflächenrauigkeit ab.


    Ich hatte es bereits für die Lichtstreuung in Verbindung mit der Mikrorauigkeit optischer Oberflächen angesprochen.


    Zitat Eberhard:
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Dazu noch grundlegende Betrachtungen:


    Horia hat es vortrefflich beschrieben, Skalartheorien sind sehr nützlich, wenn man TIS-Betrachtungen anstellt (Total Integrated Scattering). Mit TIS-RMS wird genau der Anteil des insgesamt an einer optischen Oberfläche reflektierten Lichts bezeichnet, der diffus an den Mikrorauigkeiten in beliebige Raumrichtungen gestreut wird und damit in Richtung des geometrischen Reflexionswinkels verloren geht. Man setzt im Rahmen der skalaren Lichtbeugungstheorie als Wellenfunktion des gestreuten Lichts das altbekannte Fresnel-Kirchhoff´sche Beugungsintegral an. Integriert man nun über die Intensitäten des in die verschiedenen Raumrichtungen gestreuten Lichts, kann man die TIS-Intensität gut abschätzen.


    Die Beziehung zwischen TIS und Rauhigkeit bzw. Lichtwellenlänge liefert für reale optische Oberflächen (wobei auch polierte Metalloberflächen eingeschlossen sind!) im nahen Ultraviolett, im Sichtbaren und im nahen Infrarot gute Vorhersagen. Aus TIS-Messungen konnten außerdem für poliertes Glas Mikrorauigkeitswerte in guter Übereinstimmung mit entsprechenden interferometrischen Rauigkeitsanalysen bestimmt werden.


    Will man jedoch eine präzise Aussagen über die Winkelverteilung von gestreutem Licht machen, liefern Skalartheorien naturgemäß weniger erfolgreiche Vorhersagen. Denn die Winkelverteilung des Streulichts hängt nicht allein von der Höhenfluktuation der Mikrorauigkeiten ab, sondern ebenso von der lateralen Ausdehnung der Strukturen und ihrer Steilheit.


    Das erfolgt mit Vektorstreutheorien. Sie haben im Vergleich zu den skalaren Streutheorien vor allem den Vorteil, daß korrektere Aussagen über die Winkelverteilung des Streulichts möglich sind. Der Grund dafür ist, daß im Rahmen dieser Theorien Polarisationseigenschaften des einfallenden und des gestreuten Lichts ebenso berücksichtigt werden können wie die statistischen Eigenschaften von rauen Streuoberflächen.


    In zwei prinzipiell verschiedene Ansätzen wird dazu die Rauigkeit bezogen auf eine ideal glatte Oberfläche störungstheoretisch wie z.B. für die Small Perturbation Method beschrieben.


    Diese Vektorstreutheorien zur Lichtstreuung an rauhen Oberflächen beschreibt die optischen Eigenschaften einer Oberfläche stets als Funktionen eines 2-dimensionalen Leistungsdichtespektrums (PSD Spektrums). Eine glatte, optische Oberfläche beschreibt daher die fraktalen Parameter und die Mikrorauigkeit der Oberfläche. Denn wie aus der Praxis bekannt, kann eine Fläche mit gleichem Rauigkeitswert bei gleicher Grundfläche unterschiedliche Struktur haben.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das Stratton-Chu-Silver-Integral ist beispielsweise das vektorielle Gegenstück zu dem von Horia sehr gut beschriebenen skalaren Fresnel-Kirchhoffschen Integral.


    Im Prinzip kann man mit diesem Integral exakte Antworten zur Lichtstreuung in alle Richtungen geben. Praktisch läßt es sich aber für die Wellenfunktion des gestreuten Lichts nur unter nähernden Annahmen lösen denn die verschiedenen Streutheorien unterscheiden sich nur in ihren verschiedenen Näherungsmethoden.


    Bei der Small Perturbation Methode wird z.B. eine Störungsrechnung betrieben und die Oberflächenrauigkeit als Störung einer perfekt glatten Oberfläche betrachtet.


    Da man bei Störungsrechnungen sinnvollerweise von kleinen Störungen ausgeht, wird mit dieser Streutheorie zunächst nur der Extremfall einer „sehr glatten“ Oberfläche erfaßt, also für das Verhältnis zwischen der mittleren Rauigkeit und der Wellenlänge.


    <b>Man berechnet so die Streuwellenfunktion für eine perfekt glatte Oberfläche.</b>

    Das auf die Streuoberfläche einfallende Licht teilt sich in einen transmittierten und einen reflektierten Intensitätsanteil (in Richtung des geometrischen Reflexionswinkels ohne diffuse Streuung).


    In einem zweiten Schritt wird dann die Oberflächenrauhigkeit als Störung berücksichtigt. Störungstheoretisch heißt das, daß die perfekt glatte Oberfläche 0 ist.


    Und als Ergebnis erhält man bei dieser Störungsrechnung die pro Raumwinkel gestreute Lichtleistung, die proportional zur dimensionalen Leistungsdichtespektrum (2D PSD Spektrum) der Streuoberfläche ist.


    LG
    Eberhard

  • Hallo Kalle,


    Das ist ja echt klasse. Meine Infos sind aus einem Projekt zu EUVL- bzw. SXPL-Technologien. Ich habe noch Vortragsunterlagen zur Oberflächenbehandlung optischer Flächen, den sogenannten "Sputter"-Technologien. Es beschreibt das Herstellen sehr glatter Oberflächen für Waferstepper. In meinen Unterlagen wird sie auch bezüglich der Clustersputter namentlich zitiert.


    Aber gleich ihre Dissertation im Netz zu finden ist ja wohl der Hammer. Das nenne ich ja mal Transparenz... [:)]


    Und zur "Sputter"-Technologie, die im übrigen Stand der Technik in der prof. Politur von optischen Steppern geworden ist, gibts noch einiges im Netz zu finden.


    Vielen Dank für den Link!


    LG
    Eberhard

  • Hallo Dietmar,
    Staub ist in der Regel um ein Vielfaches größer als die Wellenlänge des Lichts. Es sei denn, Du meinst Feinstaub. Außerdem ist das Reflexionsverhalten von Staub deutlich kleiner als beim Spiegel. Es absorbiert, teilweise bricht es auch Lichtanteile (Farbe, Transparenz der Staubpartikel).


    Der Unterschied liegt aber hauptsächlich in den Höhenunterschieden. Damit man überhaupt von einem polierten Spiegel sprechen kann, ist man schon im zweistelligen Nanometerbereich bei den Oberflächen. Also den Faktor 1000 und mehr kleiner als die Staubabmessungen.


    Staub wäre somit ein Kapitel für sich, auch Mineralrückstände nach Verdunstung etc.


    Aber Gegenfrage: Meinst Du, es spielt eine Rolle, ob der Staub schon auf dem Spiegel liegt oder noch in der Luft durch den Strahlengang weht. Überleg mal ... Bei Wassertropfen in der Luft im Strahlengang pack ich zumindest ein.


    Gruß


    PS: Es kommt beim Staub m.E. auch auf die Menge an. Simpel gefragt, wieviel Prozent der Spiegelfläche sind vom Staub tatsächlich bedeckt. Das wäre eine erste Annäherung zum Streulichtanteil. Bis zu einem gewissen Grad entsprechen Staub eher lokalen Defekten.

  • Hallo Michael und Horia,


    ja ihr habt recht mit dem Faktor 2,8.
    Ich will aber trotzdem noch mal erleutern wie ich auf Faktor 2 kam.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das was du hier beschreibst bezeichnet man üblicherweise als Mittelwert. Der Mittelwert ist nicht identisch mit dem quadratischen Mittelwert (RMS).<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das ist mir schon klar, allerdings ist bei einer Sinuswelle die Fläche der über dem Mittelwert liegenden Halbwelle exakt die gleiche wie die Fläche der unter dem Mittelwert liegenden Halbwelle.
    Meine Annahme war daher das in diesem Spezialfall der Mittelwert das relevante Ergebnis liefert.


    Es ist durchaus nicht immer so eindeutig welche Art von Mittelwert denn nun überhaupt gefragt ist.
    Es gibt da ja ne ganze Reihe von Möglichkeiten.


    Ich war der Meinung das im für uns fraglichen Fall der Welligkeit die gesamte Sinuswelle im positiven Bereich liegt, also nicht von einem mittlerem Niveau mit + und – Aberration zu betrachten ist.


    Betrachten wir unseren Lichtstrom so haben wir 230V Effektivwert und 230 * Wurzel 2 also 325,3V Maximalwert.
    Es tritt zu keinem Zeitpunkt eine höhere Spannung als 325,3V auf, auch wenn der PV bei 2* 325,3 also 650,6V liegt


    Bei der Leistung liegt aber die gesamte Welle im positiven Bereich da es hier egal ist in welche Richtung der Strom fließt.


    Am einfachsten errechnet man sie natürlich aus den Effektivwerten von Spannung und Stromstärke.
    Also zb. 230V * 1A = 230W


    Wir könnten aber auch mit dem Maximalwert rechnen und diesen durch 2 teilen.


    Da die Stromstärke linear mit der Spannung ansteigt beträgt I max also auch I eff * Wurzel 2
    Also ist hier I max = 1,414A



    P max ist also 325,3V * 1,414A = 460W
    Die Welle der Leistung schwankt also zwischen 0 und 460W
    Der Effektivwert bzw. die Wirkleistung ist hier also tatsächlich 460/2 = 230W.


    http://elektroniktutor.de/grundlagen/p_blind.html


    Also in dem Fall Faktor 2.


    Grüße Gerd

  • Hallo Kalle.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">PS: Es kommt beim Staub m.E. auch auf die Menge an. Simpel gefragt, wieviel Prozent der Spiegelfläche sind vom Staub tatsächlich bedeckt. Das wäre eine erste Annäherung zum Streulichtanteil. Bis zu einem gewissen Grad entsprechen Staub eher lokalen Defekten.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    William Zmek gibt folgende Formel für den Kontrastverlust durch Lichtstreuung durch Partikel (Staub, Pits) an (S&T, September 1993 p. 84):


    Kontraständerungsfaktor = 1- 2*((Fläche Staub) / (Fläche Objektiv))


    Die Fläche, die von Staubteilchen oder Pits eingenommen wird, müsse durch mikroskopische Prüfung erfasst werden.


    Er rechnet ein Beispiel für eine Oberfläche, die 130 Pits von 10µm Größe pro mm^2 enthält, und bewertet diese Oberfläche als "sichtbar grau sogar bei normaler Raumbeleuchtung" und "unter dem Mikroskop fürchterlich anzusehen".


    Die Berechnung ergibt, dass nur 1% der Objektivfläche von diesen Pits bedeckt sind, und der Kontrastverlust nur 2% beträgt.


    Viele Grüße,


    Guntram

  • Liebe Elektronikberechner.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">ja ihr habt recht mit dem Faktor 2,8.
    Ich will aber trotzdem noch mal erläutern wie ich auf Faktor 2 kam. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Es ist ja gut dass wir wenigstens ein paar erklärbare Rechenmodelle haben die ich nicht vermissen möchte.


    Aber es kommt immer wieder vor, dass wenn ich mit den Physikern spreche, sie darauf hinweisen
    dass könne man alles wie in der Elektronik berechnen da die Welle sich ja überall gleich verhält.


    Dem kann ich leider nicht zu stimmen weil die Zygo-Auswertungen eine ganz andere Verhältniszahl von PV zum RMS ergeben.
    Meine Erfahrungen sind so.
    Um so genauer eine Oberfläche ist um so größer wird diese Verhältniszahl.
    Bei Polituren die nicht besonders genau sein müssen, zum Beispiel Linsen für Okulare haben wir eine Verhältniszahl von 4 bis 5.
    Bei Polituren die genau sein müssen, zum Beispiel für Objektive haben wir Verhältniszahlen von 5 bis 7.
    Und bei Polituren mit sehr hoher Genauigkeit kommen wir auf Verhältniszahlen bis 10.
    Schaut euch das Protokoll vom Weisslichtinterferometer an. da haben wir eine Verhältniszahl von 8,35 .
    Da ich ja kein Mathematiker bin, kann ich nur vernuten das eine Störung bestimmter Größe bei kleinen Einheiten
    stärker Stört als bei großen Einheiten.
    Wir benutzen diese Verhältniszahl auch zur Messkontrolle. Ist sie überdurchschnittlich groß, dann muss noch
    einmal gereinigt und gemessen werden und auch nach anderen Fehlern so oft gesucht und gemessen werden bis die wahre Ursache gefunden ist.


    Vielleicht sind da noch einige Parameter zusätzlich zu berücksichtigen.


    Viele Grüße
    Alois



    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">

  • Hallo Alois,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Alois</i>
    Dem kann ich leider nicht zu stimmen weil die Zygo-Auswertungen eine ganz andere Verhältniszahl von PV zum RMS ergeben.
    Meine Erfahrungen sind so.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das ist völlig richtig was du schreibst. Der Faktor PV/RMS = 2.8 gilt natürlich nur für eine Sinuskurve. Andere Kurvenformen haben andere Umrechnungsfaktoren.


    Gruß
    Michael

  • Hallo Michael.


    Danke für deine Zustimmung dass es auch mehrere Kurvenformen mit anderen Umrechnungsfaktoren gibt.
    Mir geht es darum dass die Teilnehmer, wenn sie das mit den Interferometrischen Ergebnissen vergleichen,
    den großen Unterschied sehen und dann alles als unglaubhaft empfinden und dadurch die Beiträge für sie wieder wertlos werden.
    Aber wenn das Alles Schritt für Schritt aufgeklärt wird, dann bekommt die Sache wieder Boden unter den Füßen.


    Viele Grüße
    Alois

  • Hallo


    für eine Sinuskurve?
    Ich habe mich schon gefragt wie man das Verhältnis PV/RMS von gehobeltem Hols auf mit Pech poliertes Glas anwenden kann.
    Eine angenommene Modelkurve, Gott sei Dank


    Ist eine Sinuskurve nicht eigentlich für Pechhaut poliertes Glas eher unwahrscheinlich? Bei während der Politur von schnell rotiernden Linsen ist es aber eher Möglich,
    das ist vielleicht die Beeinflussbarkeit welche Alois andeutet.
    Wenn das Verhältnis dann doch irgendwie steuerbar ist, durch andere Polierweise, anderes Tool, andere Poliermittel, andere Temperatur ist es nicht aus der groben Form herleitbar zu berechnen und es wäre doch Quantifizierung in Form von Messbarkeit erforderlich.


    Gruß Frank

  • Hallo Frank,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ist eine Sinuskurve nicht eigentlich für Pechhaut poliertes Glas eher unwahrscheinlich? Bei während der Politur von schnell rotiernden Linsen ist es aber eher Möglich,
    das ist vielleicht die Beeinflussbarkeit welche Alois andeutet.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    ja natürlich ist eine Sinuskurve unwahrscheinlich.
    Um die Sache mit einem nicht all zu komplexen mathematischen Modell näher zu untersuchen bedarf es aber einer solchen Vereinfachung.
    Das ist auch nicht weiter tragisch, man könnte auch andere Kurvenformen annehmen und käme zu ähnlichen Ergebnissen.
    Es geht ja nur darum sich einen groben Überblick über die Auswirkung einer wie auch immer gearteten hochfrequenten Welligkeit zu verschaffen.
    Die Kurvenform selbst ist da nicht das entscheidende sondern der RMS der sich daraus ergibt.


    Das Problem ist nicht die angenommene Kurve sondern die Größenordnung des angenommenen Fehlers.
    Also der PV den Kai rein willkürlich einfach so festgelegt hat.
    Da es für eine mathematisch eindeutig definierte Kurve dann auch einen festen Umrechnungsfaktor von PV zu RMS gibt wird mit der Festlegung der Kurve und deren PV dann natürlich auch der RMS festgelegt.


    Im Grunde genommen hätte also Kai eigentlich auch genauso gut gleich den RMS festlegen können anstatt die Kurve zu definieren und den PV anzugeben, das läuft letztlich aufs Gleiche hinaus.


    Da nun auch zwischen RMS und dem Strehl ein eindeutiger mathematischer Zusammenhang besteht hat Kai auch diesen mit der Festlegung des RMS automatisch mit festgelegt.


    Das Problem ist nun das diese Festlegung rein willkürlich geschah ohne jeglichen Praxisbezug.


    Wenn ich die hochfrequente Welligkeit als bedeutungslos hinstellen will dann lege ich halt einfach den RMS und damit den Strehl so fest das die hochfrequente Welligkeit entsprechend bedeutungslos erscheint.


    Nur hat so eine rein willkürlich getroffene Festlegung natürlich keinerlei Aussagekraft über real in der Praxis mögliche Auswirkungen von hochfrequenter Welligkeit.


    Dazu muss man schon eine Optik mit relevanter hochfrequenter Welligkeit mal vermessen und den Fehler bestimmen der allein auf diese hochfrequente Welligkeit entfällt.


    Vermessen hatte Alois so ein Exemplar und den Fehler der rein auf die hochfrequente Welligkeit entfällt hatte ich aus den Messergebnissen bestimmt.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Rechnet man den Strehl in RMS um so ergibt die klassische Auswertung welche nur die globale Form und niederfrequente Welligkeit berücksichtigt.


    Strehl 0,86 = RMS 0,062 lambda bzw. RMS 34,1 Nanometer
    Inklusive der hochfrequenten Welligkeit wie sie nur durch FFT zu erfassen ist ergibt sich.


    Strehl 0,5 = RMS 0,132 lambda bzw. RMS 72,6nm


    Zieht man vom Gesamtfehler RMS 72,6nm den Fehler für die niederfrequente Welligkeit mit RMS 34,1nm ab dann erhält man allein für die hochfrequente Welligkeit einen Fehler von
    Wurzel aus (72,6^2 – 34,1^2) = 64,1nm


    Fehler allein der hochfrequenten Welligkeit = RMS 64,1nm! [:0]
    Fehler der niederfrequenten Welligkeit = RMS 34,1nm
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das ist zweifellos en Extremfall der in der Praxis eher selten vorkommen wird aber es ist prinzipiell möglich das hochfrequente Welligkeit derart dramatische Ausmaße annehmen kann.
    Das ist hiermit eindeutig bewiesen!!
    Da hilft es überhaupt nichts wenn man mit rein willkürlich festgelegten winzigen Fehlern das Gegenteil zu beweisen versucht.


    Es geht hier ja darum ob eine raue Politur (hochfrequente Welligkeit) ein Problem sein kann.
    Natürlich muss man dann auch eine raue Politur annehmen um das zu ergründen.


    Das die selbstgefertigten Spiegel von etlichen der Akteure hier offenbar von vorzüglicher Glätte sind und einer Zambuto Politur in keinster Weise nachstehen ändert nichts daran das es grundsätzlich möglich ist das Rauheit Probleme machen kann und das es sehr wohl Spiegel gibt die sich bezüglich Glätte eben nicht mit einem Zambuto oder der gleichen messen können.


    Ich denke auch das es kein Zufall ist das Alois ausgerechnet bei einem Cassegrain welches ja einen hyperbolischen Sekundärspiegel besitzt eine derart raue Politur feststellen musste.


    Das bestätigt mir das Flächen die stark von einer Sphäre abweichen doch eher zu einer hochfrequenten Welligkeit neigen als es bei einer Sphäre der Fall ist.
    Das ist ja ne ziemlich alte Spiegelschleifer Weisheit die hier auch gelegentlich infrage gestellt wurde.


    Zweifellos ist das kein Automatismus, so alte Hasen wie Kurt bekommen sicher auch eine mäßige Hyperbel mit vorzüglicher Glätte hin.
    Sie sollten allerdings nicht von Ihren eigenen Meisterwerken auf alle Polituren schließen und vor allem nicht auf industriell gefertigte Massenware.


    Grüße Gerd

  • Hallo Gerd,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Zweifellos ist das kein Automatismus, so alte Hasen wie Kurt bekommen sicher auch eine mäßige Hyperbel mit vorzüglicher Glätte hin.
    Sie sollten allerdings nicht von Ihren eigenen Meisterwerken auf alle Polituren schließen und vor allem nicht auf industriell gefertigte Massenware.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Mit der Aussage zur industriell gefertigten Massenware wäre ich vorsichtig. Da hat sich viel verbessert. Die Berliner Glas macht industriell gefertigte, sphärische Optiken mit Typ. 0,2nm! RMS. Die wird man von Hand nicht poliert bekommen.


    Das ist sicherlich nicht Stand der Technik in Fernost, in Deutschland aber schon!


    http://www.berlinerglas.de/de/…uppen/sphaerische-optiken


    LG
    Eberhard

  • Hallo Gerd,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Gerd-2</i>
    Vermessen hatte Alois so ein Exemplar und den Fehler der rein auf die hochfrequente Welligkeit entfällt hatte ich aus den Messergebnissen bestimmt.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Mir ist nicht klar was du jetzt unter "hochfrequenter Welligkeit" verstehst. Wenn ich es richtig verstanden habe, dann hat Alois zwei Interferogramme von irgendeinem Speigel gezeigt, auf denen relativ wenige Interferenzstreifen zu sehen sind. Daraus kann man doch keine hochfrequente Welligkeit bestimmen, egal mit welcher Auswertung. Und erst Recht kann man daraus keine Rauheit im Sub-Millimeter Bereich bestimmen.


    Gruß
    Michael

  • Hi Michael, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Mir ist nicht klar was du jetzt unter "hochfrequenter Welligkeit" verstehst<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Also ich finde den Begriff schon verständlich- nimm als Beispiel Sandpapier. Eine Körnung von 800 ist sehr fein=hochfrequent und eine mit 80 ist sehr grob=niederfrequent.


    Es sind ja bei der feinen entsprechend mehr Erhebungen/Täler wenn man das quer zum Blatt in einer Linie abbilden würde.


    Und ebenso kann man das auch für einen Spiegel sehen- viele kleine Rippelchen oder Erhebungen erzeugen einen hochfrequenteren Anteil an Streulicht als weniger- die Größe der weniger Erhebungen kann dabei durchaus gleich sein oder auch entsprechend größer ausfallen- die Wirkung dürfte demenstprechend unterschiedlich sein.


    Gruß
    Stefan

  • Hi Stefan,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    Also ich finde den Begriff schon verständlich- nimm als Beispiel Sandpapier. Eine Körnung von 800 ist sehr fein=hochfrequent und eine mit 80 ist sehr grob=niederfrequent.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ist schon klar, genauso würde ich den Begriff auch interpretieren.
    Vergleich mit Elektrotechnik: Die Zernike-Polynome 1 bis 35 sind "fast Gleichspannung", alles bis hinunter zu 1mm Strukturbreite ist NF, und alles was noch kleiner ist kann man als HF bezeichnen.


    Aber diese hochfrequente Welligkeit kann man nicht so einfach mit einem Interferometer vermessen (jedenfalls nicht, wenn das Interferogramm den ganzen Spiegel zeigt und nur wenige Streifen hat).
    Die hochfrequente Information ist in dem Interferogramm einfach nicht enthalten und kann durch kein Rechenverfahren nachträglich daraus ermittelt werden.


    Gruß
    Michael

  • Hallo Eberhard,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Mit der Aussage zur industriell gefertigten Massenware wäre ich vorsichtig. Da hat sich viel verbessert. Die Berliner Glas macht industriell gefertigte, sphärische Optiken mit Typ. 0,2nm! RMS. Die wird man von Hand nicht poliert bekommen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    sicher kann man sehr sehr glatte Oberflächen erzeugen wenn man das will.
    Mit klassischer Pechpolitur erscheinen mir 0,2nm RMS aber schon sehr optimistisch.
    Ich orientiere mich da mal an einer der besten Oberflächen die Alois unter dem Weißlichtinterferometer hatte.



    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Leider habe ich immer nur die besten Flächen gemessen und habe keine Vergleiche für die gröberen Flächen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Man scheint da aber schon besondere Anstrengungen unternommen zu haben um so eine kleine Mikrorauheit hinzubekommen.
    Für „normale“ Pechpolituren hatte Alois auf meine Nachfrage hin ja auch schon Zahlen geliefert.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ja ich werde es wagen weil ein paar Zahlen habe ich noch im Kopf, die ich damals als Orientierungshilfe hatte.
    Bitte aber darum mir +- 5% Toleranz zu zugestehen.
    Ein Problem habe ich zusätzlich noch und das ist schlimm.
    Die Messungen habe ich damals nicht selber gemacht sondern ein Messtechniker. Ich war nur der Polierer.
    Jetzt weis ich nicht wie der Messtechniker das Interferometer eingestellt hat. Auf Oberfläche oder Wellenfront?
    Automatsch misst das Interferometer Wellenfront und weil ich nichts gehört habe das es umgestellt worden ist
    will ich annenhmen das diese Werte als Wellenfront gelten. Aber ein Faktor 2 Fällt auf, wenn die Rechnungen stimmen.


    Und nun die Schätzung
    Bild____In nm_________In Lambda 550 nm
    _____PV___RMS________ PV______RMS____1/L
    A____40___5,00_______0,073____0,009____14
    B____25___3,13_______0,046____0,006____22
    C____12___1,50_______0,022____0,003____46
    D ____8___1,00_______0,015____ 0,002____67
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Es ist hier also bei der Mikrorauheit mit 8 bis 40nm PV bzw. 1 bis 5 nm RMS zu rechnen, wobei nicht ganz klar ist ob das nun Wellenfront oder Oberfläche ist.


    Ich bezog mich mit meiner Aussage aber gar nicht auf die Mikrorauheit sondern die hochfrequente Welligkeit die wir auch mit Kais Sinuswelle untersucht hatten und die sich mittels FFT Auswertung noch quantifizieren lässt.


    Ich unterscheide ganz klar zwischen der Mikrorauheit mit Fehlern von sehr kleiner lateraler Ausdehnung wie sie nur unter dem Weißlichtinterferometer für recht kleine Flächenausschnitte zu quantifizieren sind und der hochfrequenten Welligkeit mit größerer lateraler Ausdehnung.


    (==&gt;)Michael


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Mir ist nicht klar was du jetzt unter "hochfrequenter Welligkeit" verstehst.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Alle Fehler die sich noch mit der FFT Auswertung erfassen lassen.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn ich es richtig verstanden habe, dann hat Alois zwei Interferogramme von irgendeinem Speigel gezeigt, auf denen relativ wenige Interferenzstreifen zu sehen sind. Daraus kann man doch keine hochfrequente Welligkeit bestimmen, egal mit welcher Auswertung.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Kommt drauf an was man unter hochfrequenter Welligkeit versteht.


    Nach meiner Definition lässt sich diese mittels FFT Auswertung sehr wohl bestimmen.
    Wenn Du darunter die Mikrorauheit verstehst natürlich nicht.


    Ich will‘s mal mit Zahlen Definieren.
    Unter richtiger Rauheit verstehe ich Fehler deren laterale Ausdehnung in Relation zu den Höhenunterschieden ein Verhältnis von sagen wir mal maximal 1 zu 10000 aufweist.
    Über den konkreten Punkt können wir gerne diskutieren.
    Die Welligkeit beginnt dann logischerweise bei Verhältnissen über 1 zu 10000.
    Kais Sinuswelle mit lateral 2mm und in der Höhe 2nm fällt mit einem Verhältnis von 1 zu einer Million also klar in den Bereich der Welligkeit.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Und erst Recht kann man daraus keine Rauheit im Sub-Millimeter Bereich bestimmen. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Deshalb hab ich ja auch nicht von Rauheit sondern von hochfrequenter Welligkeit gesprochen.
    Ich unterscheide hier ganz klar!


    Zu Deiner Bemerkung bezüglich der wenigen Streifen.
    Es ist zwar richtig das man mit mehr Streifen ein höheraufgelöstes Ergebnis bekäme aber auch die Auswertung dieses I-Gramms bringt schon eine klare Aussage.
    Wir müssen nicht um ein paar Nanometer beim RMS feilschen. Der Anteil der hochfrequenten Welligkeit am Gesamtfehler ist hier derart gewaltig das sich an der Grundaussage absolut nichts ändert wenn man mit mehr Streifen arbeitet.
    Außerdem ist die erhebliche Welligkeit allein schon an den „rauen“ Streifen offensichtlich.


    Darüber hinaus ist das I-Gramm und dessen FFT Auswertung nicht der einzige Nachweis.
    Alois hat das Streulicht schließlich auch am Lichtspalt klar nachgewiesen.



    Außerdem bestätigen Foucault und auch der Lyottest die hochfrequente Welligkeit dieser Optik.


    Grüße Gerd

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!