Statistik
Besucher jetzt online : 53
Benutzer registriert : 19302
Gesamtanzahl Postings : 950296
Die Bresser Astronews ...
Benutzername:
Passwort:
Passwort speichern
Passwort vergessen?

 Alle Foren
 Astronomie - der Teleskop-Selbstbau (ATM)
 Das Teleskop-Selbstbau Optikforum
 Mikrorauheit und deren Messung
 Neues Thema  Zum Thema antworten
 Druckversion
Nächste Seite
Autor Vorheriges Thema Thema Nächstes Thema
Seite: von 34

Kalle66
Forenmeister im Astrotreff

Deutschland
8876 Beiträge

Erstellt am: 13.12.2013 :  01:31:15 Uhr  Profil anzeigen  Antwort mit Zitat
Hallo alle Mitleser,
ich hatte den ursprünglichen Thread gesperrt, weil zu viele Beiträge sich auf - höflich gesagt - persönliche Zwischentöne konzentrentierten und sich nicht auf fruchtbare Weise um das Thema kümmerten.

Meine urspüngliche Absicht war, nach einer Denkpause, den Thread wieder zu öffnen. Ich habe die Denkpause dahingehend genutzt, dass ich den Thread noch mal genau nachgelesen habe. Dabei bin ich zu dem Schluss gekommen, dass es unkommentiert, genau dort weiter gehen würde, wo ich ihn unterbrochen habe. Sein fachlicher Wert - auch die Arbeit Alois - würde unterminiert.

Andererseits finde ich das Thema zu interessant die Diskussion darüber gänzlich zu unterbinden.

Deshalb habe ich mir die Mühe gemacht, den gesamten Thread zu überarbeiten. Ich mache mir damit den Inhalt praktisch zu eigen.

Mein Ziel war es nicht, den Thread zu verfremden. Es geht mir vorrangig um die Wiederherstellung
  • a) der Lesbarkeit
  • b) einer Diskussionskultur, wie wir sie bislang im Asrotreff immer beachtet haben.

Im Wesentlichen besteht meine Bearbeitung darin, dass ich einige Beiträge gänzlich gestrichen habe, weil sie nichts zur Sache besagen UND sich auch keine sachdienlichen Antworten darauf beziehen.

Andere Beiträge habe ich um diverse Rechtschreibfehler, Formatierungsschwächen, und andere Kleinigkeiten bearbeitet. Auch im Sinne, dass ich bewusst, Anspielungen persönlicher Art "entschärft" oder gestrichen habe.

In wiederum anderen Fällen, habe ich die chronologische Reihenfolge dahingehend angepasst, dass Antwortsbeiträge unmittelbar einem Fragebeitrag, Erwiderungsbeiträge unmittelbar einem Thesenbeitrag folgen. Das ging nur zu einem gewissen Grad.

Ersatzlos gestrichen habe ich Beiträge, die offenkundig verspätet auf einen Beitrag erschienen und den Fluss der Diskussionsentwicklung nur stören.

Technisch musste ich alle Beiträge "anfassen" und werde sie in einem nachfolgenden Sammelthread - optisch nach wie vor als Beiträge erkennbar - präsentieren.

Ich bitte im weiteren Verlauf der Diskussion, die anschließend wieder möglich ist, dass alle bisher Beteiligte sich vielleicht noch mal die Mühe machen erst nachzulesen, was ich hier zusammenfassend präsentiere.

Worum ich ausdrücklich bitte:
Bitte keine "Gut-so" oder "Nicht-gut" Bekundungen. Das ist hier nicht Facebook. Das würde meine Arbeit konterkarieren und ich wäre in jedem Fall "not amused".

Auf die Umgangsformen hier im Astrotreff werde ich hier nicht noch mal hinweisen.


Gruß

PS: Sollte jemand das Gefühl haben, dass ich einen Beitrag unangemessen überarbeitet habe, so kann er sich bei mir per PN melden. Der Originalthread ist zu Vergleichszwecken noch ein zwei Tage sichtbar - wenngleich geschlossen.


Kalle - Alles wird gut !
Meine Okulardatenbank im Astrotreff: hier
Termine Teleskoptreffen gibt es hier

Bearbeitet von: Kalle66 am: 13.12.2013 11:13:32 Uhr

Kalle66
Forenmeister im Astrotreff

Deutschland
8876 Beiträge

Erstellt  am: 13.12.2013 :  01:32:22 Uhr  Profil anzeigen  Antwort mit Zitat
Autor des Themas: Alois
Betreff: Mikrorauheit und das Problem der Quantifizierung
Gesendet am: 06.12.2013 03:35:02 Uhr



Liebe Interessenten der glatten Flächen.

Da dieses Thema im Nachbarforum, ade gegangen ist, habe ich mich entschlossen die versprochene Antwort hier zu bringen.
Auch weil der Bilder-Upload mit horizontal 800 Pixel schon eine gute Möglichkeit bietet Feinstrukturen zu zeigen.
Für die Stellen, wo dies immer noch nicht reicht, gelang es mir Ausschnitte einzufügen und für hochauflösende Bilder
Zwar habe ich einen anderen Upload gefunden. Allerdings verschwinden dort die Bilder, wenn sie 50 Tage lang nicht mehr angeklickt werden.

Ich erzähle einfach was ich bemerkt, gesehen, gedacht und getan habe.
Es gibt kein Ende, weil bei mir auch noch nicht alles vollständig ist und jeder dazu helfend beitragen soll, wo er kann.

Als erstes nehme ich wahr das es in der Astroszene unterschiedliche Vorstellungen der Mikrorauheit gibt.
Aus meiner Sicht muss ich diese Kontrollen in 5 Stufen einteilen. Wobei A und B noch nicht zu den Mikrorauheiten zählen.
A - feine Unformen, die man heute schon in der Schattenprobe sieht.
B - kleine Unformen, die man noch mit dem Interferometer Zygo oder auch Bath bei Messungen der ganzen Fläche sehen kann.
C - jene Unformen, die man mit dem Lyottest sehen kann.
D - jene Strukturen, die man mit dem Nomarski Polaristionsmikroskop sichtbar machen kann. Laterale Auflösung bereits im hundertstel mm Bereich.
E - Strukturen, die das Weißlichtinterferometer aufzeigen kann. Hier gibt es Daten für laterale und vertikale Abweichungen. Sie ist die einzige interferometrische Methode mit hoher Sicherheit und Auflösung. Allerdings nur auf einer sehr kleinen Fläche.
In der Industrieoptik zählt zur Mikrorauheit jene Rauheit, die mit der Schattenprobe und dem Zygo Interferometer lateral nicht mehr erfassbar sind.
Daher braucht es die Erfassung mit dem Mikroskop. Meistens mit 200- bis 500-facher Vergrößerung.

Privat bin ich aber an die Schattenprobe gebunden. Da bemerkte ich schnell, dass ich einen verstellbaren Lichtspalt brauche, der die 4 Schneiden in eine Ebene hat.
Die Länge von 0,3 mm, die ich als Fixeinstellung halte, und als Maßstab im Bild dient, hat sich aus der Praxis ergeben. Sie ist das Maß, bei der ich noch sehr scharfe Abbildungen verlustfrei abbilden kann und sehr starke Abweichungen das Bildfeld noch nicht verlassen.
Deshalb dient er mir auch gut zur Berechnung der lateralen Abweichungen.



Der Lichtspalt hat auch den Vorteil, dass das Licht linear verteilt wird und daher auch kleine Lichtmengen aufzeigt, die beim Sterntest durch die radiale Verteilung oft schon schwach werden. Er zeigt dafür auch, wie sich der Fehler auf einer harten hell dunkel Grenze verhält, wie es bei Mondkratern und am Planetenrand ist.
Erschreckt aber nicht an den Beispielbildern, weil sie zeigen den Fehler wegen der Autokollimation doppelt so stark an.



Vollaufösung
http://www.bilder-upload.eu/show.php?file=f440d1-1386270056.jpg
und ein anderes Beispiel in Vollauflösung. Erst bei dieser Größe ist es möglich auch den ersten Ring um das Beugungsscheibchen zu zeigen.
Rechts unten kann man auf die gewünschte Vergrößerung gehen.
http://www.bilder-upload.eu/show.php?file=e1d3af-1386270870.jpg
Danach ging es zum Lyottest - mittels verschiedenen Dichtestreifen aus Technical Pan Film gemacht. Die Dichte 2 hat sich als recht gut erwiesen.
Das war so um die 1990ger Jahre. Um schnell herauszufinden welche Streifenbreite am besten ist, kam ich auf die Idee einen gestaffelten Streifen zu machen.
Damit entstand dieses Bild.

Vollauflösung
http://www.bilder-upload.eu/show.php?file=fcf07d-1385989820.jpg
Es ist zwar schön, beweist aber nur, dass verschiedene Streifenbreiten andere Strukturen zeigen. Praktisch ist die Wiederholbarkeit der Messungen weil die Einstellung der Streifenbreite gleich bleibt. Eine Veränderung der Breite des dahinter verdeckten Lichtspaltbildes hat die Struktur nicht verändert. Also bring das noch nicht viel Hilfe zur Quantifizierung.
Danach begann ich zu untersuchen, ob sich die Rauhigkeit eher im Kontrast dieser Strukturen zeigt. Da bin ich fündig geworden und da muss ich sagen, dass mein schönes Bild oben nicht brauchbar ist weil es kontrastverstärkt und zu hell ist.
Da ist das nachfolgende Bild von Kurt viel aussagekräftiger und bewirkt durch seitliches Verstellen die gleichen Strukturveränderungen.

Aus der Wirkung Streifenbreite oder dem Abstand von der Kante müsste in Verbindung mit noch etwas schon einen Ableitungshife zu finden sein.
Im Lauf der Zeit ist mir durch viele Messungen aufgefallen, dass immer eine gewisse Streulichtbreite vorhanden war, die nicht auf die Rauhigkeit reagiert hat. Auf der Suche danach bemerkte ich, dass der Rand der Apertur zu hell war. Es war das Licht, welches auf der Kante gebeugt wird und eben dasselbe Licht, welches die Tannennadeln so hell leuchten lässt bevor der Mond aufgeht.
Um diese Lichtmenge zu ermitteln war es notwendig immer eine Belichtungsreihe zu machen, um das Bild zu finden bei dem der leuchtende Rand noch nicht abgesoffen ist. Da wurde die Fläche des Spiegel sehr dunkel. Ein Versuch die Gesamtlichtmenge des Bildes zu messen und dann den hellen Ring mit einem Bilbearbeitungprogramm zu entfernen ergab auf Anhieb 50% weniger Streulicht.
Da kommt schon der Gedanke auf, ob wir das Problem Streulicht wohl etwa überbewerten.
Nun wollte ich wissen, welches Streulicht wie hell ist, und, wie weit geht es vom abgebildeten Lichtspalt weg.
Dabei zerstörte die Körnung des Technical Pan Films die Schärfe der Lichtspaltabbildung und ich konnte nicht alles gleichzeitig messen.
Da musste ich mir einen aufgedampften Dichtespalt machen lassen. Wenn schon, dann auch einen der daneben in seiner Breite auch ein Quadrat hat, damit man auch die radiale Verteilung messen kann. Das große Quadrat unten dient zur Messung wie Kurt sie macht.



Der Unterschied ist so.



Und der nächste Schritt so.



Nun noch einmal zur Messung der Lichtmenge die durch die Beugung am Rand entsteht, hat mir Guntram seinen noch nicht ganz fertigen aber schon ziemlich
guten Kugelspiegel zur Verfügung gestellt. Er hat den Vorteil dass man mit ihm ohne Planspiegel auch den Sterntest im Krümmungsmittelpunkt machen kann.
Da konnte ich zum ersten mal detaillierte Messungen machen . Was mir schon einiges bestätigt.



In der Schattenprobe sieht man, dass der Rand nicht ganz scharf ist. Das dürfte dazu führen, dass das Streulicht in der Streifennähe heller ist als Jenes im 1% leuchtenden Lichtspalt. Diese Messung werde ich später noch einmal mit einer Maske machen.
Hier die volle Information mit Berechnungen.



Hier der Parabolspiegel von Peter den ich vor 2 Wochen in Autokollimation gemessen habe.
Da ist der Streulichtanteil neben der Dichtestreifenkante weniger hell, obwohl hier auch die Rauhigkeit meines Planspiegels auch dabei ist.
Sicher sind beide Flächen gut und das deutet wiederum darauf hin, dass die Streulichtwirkung der Mikrorauheit nicht so sehr zum Tragen kommt … wie wir denken. Weil die Spiegelfläche bleibt sehr dunkel.



Nun komme ich zu den Messmöglichkeiten in der Firma.
Für die Herstellung der Objektive zur Chipproduktion braucht es sehr glatte Flächen. Für diese konnte ich Versuche machen und mit neuen Messmethoden arbeiten. Die erste Möglichkeit war mit einem Nomarski Polarisatonsmikroskop zu messen. (http://de.wikipedia.org/wiki/Differentialinterferenzkontrast)

Dadurch konnten verschieden geneigte Flächenteile sichtbar gemacht werden.
Dabei sind diese Bilder entstanden.



Zur Vollauflösung: http://www.bilder-upload.eu/show.php?file=88d019-1386715707.jpg

Später konnte ich dann mit dem Weißlichtinterferometer arbeiten und da wurde es so richtig interessant. Weil jetzt konnte ich auch Höhen und Tiefen messen und das war eine tolle Herausforderung. Leider habe ich immer nur die besten Flächen gemessen und habe keine Vergleiche für die gröberen Flächen. Es war ja der Fortschritt wichtig und die Grenze zu finden, wie weit man mit dem Normaski Polaristionsmikroskop arbeiten kann. Dieses hatte die Grenze so bei 8 Nanometer Mikrorauheit. Das entspricht dem Bild D von oben.

Hier das Protokoll der besten Fläche.



Und hier noch ein Ausschnitt zur näheren Betrachtung.



***
Nachfolgend noch ein paar Beispiele, wie verschieden Rauigkeiten sein können und wie sie sich auswirken.

Hier ist die Streulichthelligkeit deutlich stärker als der mit 1% leuchtende Lichtspalt, aber noch nicht breiter als die übliche Streulichtbreite.



Hier ein Beispiel mit grober Rauigkeit, die man sogar schon mittels FFT Analyse messen kann. Das Streulicht ist deutlich heller als der mit 1% leuchtende Lichtspalt und auch deutlich breiter als das übliche Streulicht.



Das nachfolgende Bild zeigt deutlich den Messunterschied von Gestern zu Heute.



Und hier der Vergleich Schattenprobe und Lyottest. Hier zeigt sich, dass Rauigkeit sich im Kontrast ausdrückt. Bei neuerlichen Messungen werde ich das genauer beobachten.



Diese Rauigkeit lässt sich bereits im Profil der FFT Analyse gut aufzeichnen und berechnen.



Thomas Winterer den ich derzeit betreue, hat ein ausgezeichnetes störungsfreies Foucaultbild gemacht. Bei dem sieht man gut, was passiert, wenn man bei Minitools mit zu hartem Pech und zu schnellen Bewegungen arbeitet. Auch das könnte mathematisch quantifiziert werden. Aber mit sehr viel Mühe und guten Helligkeitsabschätzungen.



Thomas hat sich bereit erklärt uns weiterhin über seine Poliererlebnissen zu informieren.
So jetzt glaube ich haben wir Stoff genug um neue Überlegungen zu machen. Bin gespannt wies weiter geht.

Viele Grüße
Alois


Antwort von: Kurt
Gesendet am: 06.12.2013 09:37:10 Uhr


Hallo Alois,
vielen Dank für diesen Bericht mit der sehr aufwändigen und spannenden Dokumentation. Aus "Erstellt am : 06.12.2013 03:35" kann man nur schließen dass du dir eine Ruhepause verdient hast.

Sicher werden noch zahlreiche Fragen kommen, auch von mir. Dazu muss ich natürlich erst deinen Bericht gründlich studieren und sicherheitshalber die Vollformatbilder bei mir speichern. Beides sollte jeder andere Fragesteller sinnvollerweise auch tun.

Also, bis bald
Gruß Kurt


Antwort von: Alois
Gesendet am: 06.12.2013 10:40:48 Uhr


Hallo Kurt.

Ja eine Pause kann ich jetzt gut brauchen.
Um diese Nachtzeit hatte ich keinen Forenbetreuer mehr zum Freischalten. Ist ja klar. Die können auch nicht ewig arbeiten.
Deshalb kommt die Änderung des Vorletzten Bildes erst jetzt.

Freundliche Grüße
Alois


Antwort von: rolf
Gesendet am: 06.12.2013 12:40:32 Uhr


Hallo Alois,

bin froh, dass Du jetzt auch einmal zu Wort kommst. Du bist hier nicht unbekannt und man freut sich, dass Du Dir die Mühe machst, die Debatte zu bereichern.
Das Thema wird auf französischer Seite wie nicht anders zu erwarten ebenfalls weiter vertieft und Charles Rydel - jemand aus der sogenannten "Strehlfraktion" hat sich hinzugeschaltet.

Ich habe Euren Link bei uns einkopiert.

Hier nochmal zur Information die frz. Adresse: http://www.astrosurf.com/ubb/Forum2/HTML/039889-11.html

Gruß Rolf


Antwort von: PeJoerg
Gesendet am: 06.12.2013 12:59:03 Uhr


Hallo Alois,
da hast du dir wieder mal viel Mühe gemacht, vielen Dank!
Ich sehe mich durch deine Darstellung in meiner Vermutung bestärkt,dass die gesehenen Unterschiede von unseren und den französischen Sternenfreunden zwischen "Superpoli" und Normaloptik, wohl dem Optikfehlerbereich vom Typ B (B - kleine Unformen, die man noch mit dem Interferometer Zygo oder auch Bath bei Messungen der ganzen Fläche sehen kann.) zuzuschreiben sind und nicht der Mikrorauheit auf Atomgrößenebene.
Viele Grüße
Jörg


Antwort von: rolf
Gesendet am: 06.12.2013 20:08:49 Uhr


Alois, hier kommt eine erste konkrete Frage aus 'Frankreich'.
Verstehen wir es richtig, dass Du mit dem Lyot-Test keine Messungen machst?


Antwort von: Gerd-2
Gesendet am: 07.12.2013 02:36:58 Uhr


Hallo Alois,

schöne Arbeit, da kommen wir der Sache schon näher.
Ist ja ne umfangreiche Geschichte die Du da geliefert hast, da weiß man gar nicht wo man anfangen soll und es hat bisher ja auch noch keiner konkret was zu geschrieben.
Na ja da fang ich man an und komm gleich auf den Punkt der mich besonders interessiert.

Zitat:
Alois schrieb: …
Später konnte ich dann mit dem Weißlichtinterferometer arbeiten und da wurde es so richtig interessant.
Weil jetzt konnte ich auch Höhen und Tiefen Messen und das war eine tolle Herausforderung. Leider habe ich immer nur die besten Flächen gemessen und habe keine Vergleiche für die gröberen Flächen. Es war ja der Fortschritt wichtig um die Grenze zu finden, wie weit man mit dem Normaski Polaristionsmikroskop arbeiten kann. Dieses hatte die Grenze so bei 8 Nanometer Mikrorauheit. Das entspricht dem Bild D von oben…

Endlich kann mal Jemand an so was ran und mit konkreten Zahlen zur echten Mikrorauheit dienen.
Alles was wir in der Vergangenheit diskutiert hatten waren doch eher Formfehler und nicht wirklich die Mikrorauheit.
Auch die FFT Analyse kann schließlich bei weitem nicht die laterale Auflösung liefern die Du uns hier mit dem Weißlichtinterferometer zeigst. Das gilt letztlich auch für Foucault und Lyottest.

Schade dass Du nur für eine absolute super Politur so eine Messung hast. Klar was soll bei der super Politur schon passieren da müssen wir nicht drüber reden. Wirklich interessant wird es erst bei einer Politur wie Du sie mit dem Polarisationsmikroskop Bild A zeigst. Da sind auch paar schöne Mikrokratzer ´zu sehen, genau das ist es was mich interessiert.

Das ist also wie Du schreibst das was man in den 70gern für ne gute Politur gehalten hatte. Na ja wie muss es denn dann um die Schlechte bestellt gewesen sein.

Der lange Kratzer könnte schätzungsweise 0,005mm breit sein, das ist genau die Größenordnung die mich interessiert denn das erschließt sich nicht mit FFT.

Und ganz wichtig, der Kratzer scheint auch tief zu sein und zwar echt und nicht dramatisch übertrieben wie es die Höhenunterschiede der globalen Fehler in der Wellenfront Karte der FFT Analyse sind.
Sowas ist also offenbar keine Seltenheit bei einer Politur.
Alois schreibt sogar das sowas in den 70gern als gute Politur galt.

Alois wäre es Dir mal möglich von der Oberfläche die Du in Bild A zeigst eine Auswertung mit dem Weißlichtinterferometer zu machen?
Der lange Kratzer sollte möglichst mit erfasst werden so das wir mal PV und RMS so einer Oberfläche hätten.
Ich denke das ist ein wichtiger Punkt um in dieser Diskussion überhaupt weiter zu kommen.

Grüße Gerd

Antwort von: Emil Nietlispach
Gesendet am: 07.12.2013 10:33:44 Uhr


Die Kratzer welche das Polarisationsmikroskop zeigt, haben eine extrem kleine laterale Grösse. Kommt da nicht irgenwann die Grenze, wo die Verspiegelungsschicht, solche Fehler einfach zuschmiert, (wie die Schneedecke die Eisspalten im Gletscher.)? Wäre interessant zu sehen, was eine verspiegelte optische Fläche an Mikrorauheit zeigt im Polarisationsmikroskop. Letzlich zählt ja nur die verspiegelte Oberfläche für den Beobachter.
Gruss Emil


Antwort von: fraxinus
Gesendet am: 07.12.2013 11:00:20 Uhr


Einen schönen Guten Morgen,

leider habe auch ich im Moment wenig Zeit, muss Skifahren gehen
Werde die nächsten Tage etwas ausholen und grundsätzliches zum Thema Messen/Vergleichen schreiben.

Jetzt würde ich für alle eine Knobel-Aufgabe stellen, die für das allgemeine Verständnis der Lichtablenkung von extremer Bedeutung ist:

Aufgabe 1)

Gegeben sei ein ansonster perfekter Spiegel, dessen einziger Fehler Ripple einer einzigen Periode ist.
Form sei Sinus (1 Periode = 1 Berg + 1 Tal)
(Alternativ darf mit einer Dreiecks- oder Sägezahnform gerechnet werden)

Etwa so wie in diesem Bild:



Fall A - Periodenlänge 1mm, Höhe 2nm (Höhe = Differenz zwischen Berg und Tal)

Fall B - Periodenlänge 1mm, Höhe 4nm

Fall C - Periodenlänge 2mm, Höhe 2nm

Fall D - Periodenlänge 2mm, Höhe 4nm

Gesucht ist jeweils der Streuwinkel bei senkrechtem Einfall.

Zusatzaufgabe: Berechne jeweils die Intensität des gestreuten Lichts in Prozent der einfallenden Intensität.

(Wer mit einem konkreten Spiegel rechnen will, der nimmt D=200mm f=1000mm)

Viele Grüße
Kai



Antwort von: Kurt
Gesendet am: 07.12.2013 11:08:29 Uhr


Hallo Gerd,

Zitat:
...Endlich kann mal Jemand an sowas ran und mit konkreten Zahlen zur echten Mikrorauheit dienen...

um den Alois zu entlasten, konkrete Zahlen von ihm findest du bereits in der Diskussion:
http://www.astrotreff.de/topic.asp?ARCHIVE=true&TOPIC_ID=11979&whichpage=2

Dort hat Alois am 3. 8. 2004 ähnliche oder gleiche Bilder mit Daten präsentiert.


Antwort von: Gerd-2
Gesendet am: 07.12.2013 14:14:16 Uhr


Hallo Kai,
In welcher Welt lebst Du denn?
Du bist da absolut Praxisfremd, es ist vollkommen unsinnig hier mit 2 bis 4 nm zu rechnen.

Ein Weiterer Fehler ist ausschließlich Licht mit senkrechtem Einfall zu betrachten!
Wenn es um Streulicht geht und darum geht es hier ja wohl dann ist das gesamte die Optik treffende Licht aus den unterschiedlichsten Richtungen zu betrachten.
Es steht nicht nur 1 Stern am Himmel und es gibt auch Irdisches Licht das auf diese trifft.
Wie ist das mit dem Kratzer der vom knapp neben dem Gesichtsfeld stehenden Vollmond angestrahlt wird?
Aber wenn wir gerade bei Rechenaufgaben sind auch eine von mir.
Beobachtet wird ein enger Doppelstern.

Zwischen Komponente A und Komponente B besteht ein Helligkeitsunterschied von 10 Größenklassen.

Die Optik erzeugt für eine Punktabbildung Streulicht dessen Helligkeit im Abstand der beiden Komponenten bei 0,01% liegt.Wie wirkt sich dieses Streulicht auf die Beobachtung von Komponente B aus?

Grüße Gerd
***
(==>)Kurt:
ja da findet sich auch ne Auswertung mit dem Weislichtinterferometer, allerdings nicht für die fragliche Fläche sondern wieder nur für ne super Politur.
Mich interessiert aber PV und RMS von der Politur Bild A und zwar inklusive der korrekten Erfassung der dort sichtbaren Mikrokratzer, vor allem des größeren Exemplars.
Nun zufällig hat Alois exakt das was ich dort sehen wollte in Seinem Bild A.



Einen Kratzer mit etwa 0,005mm Breite und einer Tiefe die sich natürlich schlecht schätzen lässt aber so ganz grob könnten da rein zufällig 0,002mm durchaus im Bereich des Möglichen liegen.


Antwort von: Horia
Gesendet am: 07.12.2013 14:52:33 Uhr


Hallo allerseits.

Danke Alois für die ausführliche Darstellung der Erfahrungen mit Oberflächen-Rauheit und Streulicht. Es sind extrem viele Informationen in deiner Beschreibung, die ich noch einsortieren muss.

In der Zwischenzeit habe ich die theoretischen Grundlagen mir näher angeschaut, insbesondere das sehr interessante Buch "Optical Scattering - Measurement and Analysis" von John Stover. Dabei ein großes Dankeschön an Kay für das zur Verfügung stellen.

Eine sehr einfache Charakterisierung von Oberflächenrauheit und Streulicht geht über eine Größe die den schönen Namen "Total Integrated Scatter" (oder auch TIS) trägt. Die TIS Definition ist extrem einfach: Sie zeigt, wie viel Licht, in Prozent, aus einem einfallenden Lichtstrahl zerstreut wird.

Mit einer einfachen Formel: TIS =Ps/Pi. Wobei

- Pi - Leistung des Einfallsstrahls und
- Ps - gesamte Leistung des in alle Richtungen diffus gestreuten Lichts

Der TIS hat einen riesen Vorteil: man kann den Wert relativ leicht aus dem RMS-Wert der Oberflächenrauheit berechnen. Die Beziehung TIS - RMS wurde schon vor langer Zeit von zwei berühmten Menschen, einmal Herr Kirchhoff und einmal Herr Rayleigh, jeweils als Näherungsformel, ermittelt. Die Rayleigh-Näherung hat einige Vorteile und hat sich durchgesetzt:

TIS = (4 * pi * sigma * cos(theta-i))² / lambda²

wobei:
sigma - die Oberflächenrauheit als RMS-Wert, in nm.
theta-i - der Einfallswinkel. Für den Newton-Teleskop ist theta-i praktisch = 0 und somit cos(theta-i) = 1.
lambda - die Wellenlänge die uns interessiert, in nm.

Nehmen wir als Beispiel die Werte aus dem ZYGO-Protokoll, das Alois oben zeigt: Rauheit PV = 3nm und RMS = 0,36nm. Bei lambda = 500nm ergibt das:

TIS = (4 * pi * 0,36 / 500)² = 0,008%

Das ist aber eine richtige, ultrafeine Politur. Um ein Gefühl zu bekommen, wie viel verschiedene Rauheiten an Streulicht erzeugen, habe ich folgende Tabelle errechnet:



Wie man leicht sieht, das gestreute Licht nimmt extrem schnell mit der Rauheit zu. Es ist ganz klar, wir wollen nicht, dass unsere Spiegel zu rau sind.

Aus der Tabelle kann man auch lesen, dass bei 4nm Rauheit, 1% an Streulicht erzeugt wird. Mit anderen Worten, wenn man sich einen Stern anschaut, 1% der einfallenden Photonen arbeiten nicht mit, zur Bildung des Airy-Scheibchens, sondern fliegen nur rum und produzieren einen Halo. Bedeutet das nun, dass um jeden Stern ein Halo entsteht welcher mit 1% der Intensität des Zentralsterns leuchtet ?

Selbstverständlich nicht. 1% ist die gesamte Lichtmenge (die gesamte Photonenmenge) die als Streulicht zur Verfügung steht. Wie genau die Verteilung der Streuphotonen um den Zentralstern aussieht ist eine andere Frage, wofür es leider keine leichte Antwort gibt. (Es gibt eine Antwort!)

Bleiben wir aber bei dem 1% Gesamtstreulicht. Um zu entscheiden ob das viel oder wenig ist, betrachten wir eine andere Streulicht-Quelle, und zwar die Teleskopöffnung. Jeder weißt, dass ein perfektes Teleskop (keinerlei optische Aberrationen, unendlich fein poliert) als Abbild einer Punktquelle (ein Stern) "nur" ein Airy-Scheibchen produziert. Viele wissen auch, dass das so perfekte Teleskop nur ca. 84% des einfallenden Lichts in das Airy-Scheibchen konzentriert. Die restlichen 16% werden rumgestreut und bilden die jedem bekannten Beugungsringe.

Wenn jetzt unsere durch Rauheit gestreutes Licht zu den 16% noch einen Prozent dazu beiträgt, ist das viel oder wenig? Ich würde sagen, es ist an der Grenze der Wahrnehmung.

Nicht zu vergessen, 4nm RMS-Wert als Rauheit sind mindestens 10nm PtV Rauheit. Das kann man ohne Probleme in einem richtig gemachten Foucault-Bild sehen. In Alois Beitrag sind einige Beispiele, wo man sowohl Foucault-Bilder der Rauheit als auch das Profil der Oberfläche sieht und vergleichen kann. Ich werde noch einige Bilder suchen und zeigen, die das Belegen.

Ich kann dazu eine eventuell unfreundlich klingende Empfehlung noch geben: Das Suiter Buch "Star Testing Astronomical Telescopes" enthält eine sehr detaillierte Diskussion über Oberflächenrauheit und erklärt alle notwendige Konzepte, ohne dabei wild mit der Mathe-Keule zu schlagen. Schaut euch es an.

Viele Grüße,
Horia


Antwort von: Christian_P
Gesendet am: 07.12.2013 15:07:14 Uhr


Hallo Leute,

erst mal herzlichen Dank an Alois für diesen Bericht. Ich habe die Diskussion um die Mikrorauhigkeit und deren noch nicht gesicherte Einflüsse hier und auf A.de mitverfolgt. Was mir bisher fehlt ist eine genaue Definition, was man unter Mikrorauhigkeit zu verstehen hat.

Also: Was ist nun SUPERPOLI und was ist es nicht?

Der Hobby-Spiegelschleifer bleibt doch letzlich auf altbewährte Methoden der Schleiftechnik angewiesen.

just my two cents

Viele Grüße
Christian


Antwort von: Horia
Gesendet am: 07.12.2013 16:03:46 Uhr


(==>)Gerd-2
Die verblüffende Eigenschaft, dass Fehler in der Höhe automatisch mit der Lateralen Ausdehnung kleiner werden, wird in der Literatur verschiedenen Materialien zugesprochen. Ein Beispiel davon ist unter diesen Link zu lesen: http://www.cosmo.ucar.edu/publications/nelson_tech4_10-06.pdf

Dort wird - zwischen anderen - die Rauheit Messung an einem LIGO-Spiegel erläutert, und genau dieses Model dokumentiert.

Viele Grüße,
Horia
Antwort von: rolf
Gesendet am: 07.12.2013 16:04:30 Uhr


(==>)Christian
Bisher gab es in unserem Austausch dazu nur eine allgemein formulierte und rein persönliche Meinung von Vernet, die im anderen Forum so übersetzt wurde:

Übersetzung:
"Es gibt keine universelle Definition von 'superpoli', es ist ganz einfach eine Bezeichnung, die eine erheblich bessere Fläche als die gewöhnlich übliche bedeutet. In der Praxis gibt es soviele 'superpoli' wie es Firmen gibt, die sie anbieten.
Außerdem verwenden manche diesen Begriff für eine einzige Klasse von Fehlern, wie z.B. die mikrometrische Mikrorauheit ohne andere Frequenzen in der Rauheit zu berücksichtigen. Ich selbst mag die Definition von Serge Koutchmy, nachdem eine 'superpoli'-Optik eine Residualdiffusion von ungefähr 1*10-6 bedeutet. Das sind Optiken, mit denen man die untere Sonnenkorona (im geeigneten Hochgebirge) beobachten kann - außer den Sonnenfinsternissen natürlich."


Antwort von: Alois
Gesendet am: 07.12.2013 16:20:58 Uhr


Hallo liebe Teilnehmer.

So jetzt bin ich wieder ausgeruht und danke euch für die interessierten Rückmeldungen. Leider kann ich nicht alle beantworten, daher nur auszugsweise.

(==>)Jörg
Zitat:
"Superpoli" und Normaloptik, wohl dem Optikfehlerbereich B (B - kleine Unformen die man noch mit dem Interferometer Zygo oder auch Bath bei Messungen der ganzen Fläche sehen kann.)zuzuschreiben sind und nicht der Microrauheit auf Atomgrößenebene.

Ja . Wenn jemand nicht mit zu harten Pech und guten Poliermittel arbeitet, kommt er mit sicherheit in die der Politur zwischen A und B.
Ich würde sage näher zu B als A. Mikrorauheit auf Atomgrößenebene ist zu übertrieben. Viel wichtiger ist die Formgenauigkeit.

(==>)Rolf
Zitat:
Verstehen wir es richtig, dass Du mit dem Lyot-Test keine Messungen machst?

Derzeit noch nicht. Da habe ich noch zu wenig Anhaltspunkte. Beim Lichtpalt mit dem Streulicht , der ja auch zum Lyottest gehört, da geht es schon besser. Aber auch da bin ich noch am erkunden
wie viel Streulicht von wo kommt.

(==>)Gert
Zitat:
Wirklich interessant wird es erst bei einer Politur wie Du sie mit dem Polarisationsmikroskop Bild A zeigst. Da sind auch paar schöne Mikrokratzer ´zu sehen, genau das ist es was mich interessiert. Der lange Kratzer könnte schätzungsweise 0,005mm breit sein, das ist genau die Größenordnung die mich interessiert denn das erschließt sich nicht mit FFT.
Und ganz wichtig, der Kratzer scheint auch tief zu sein und zwar echt und nicht dramatisch übertrieben wie es die Höhenunterschiede der globalen Fehler in der Wellenfront Karte der FFT Analyse sind.

Die Breite hast du richtig eingeschätzt. Nur ist das kein Kratzer sondern ein Wischer . Aber ein starker. Diese Striche sind mit der Lupe kaum warnehmbar. Aber weil sie glatt sind leuchten sie auf wenn sie in einer bestimmten Stellung unter der Lampe sind. Solche Wischer werden am Zygo nicht gemessen weil sie aus dieser Entfernung nicht sichtbar sind. Am Weißlichtinterferometer wäre er sehr stark. Aber da müßte ich extra für die Forschung messen und das habe ich damals nur für die glatten Flächen Zeit. Leider habe ich diesen Spiegel schon überpoliert.

(==>) Emil
Leider deckt die Verspiegelung solche Wischer nicht zu.


Viele Grüße
Alois
Beitrag redaktionell bearbeitet- Kalle


Antwort von: stefan-h
Gesendet am: 07.12.2013 16:38:20 Uhr


Hallo Alois,
Zitat:
Wenn jemand nicht mit zu harten Pech und guten Poliermittel arbeitet, kommt er mit sicherheit in die der Politur zwischen A und B
Ich hab so das Gefühl, das ihr hier nur die Arbeit der Amateure betrachtet. Wie schaut es aus mit industriell gefertigten Spiegeln? Werden die auch mit Pech poliert?

Das die Glasquäler in D und F viel Arbeit in eine gute Politur stecken ist eigentlich klar, aber viele Amateure kaufen sich ihre Ausrüstung und bekommen dabei teilweise sogar schöne Qualitätswaschzettel mitgeliefert.

Können diese normalen Messmethoden dann auch diese Rauigkeit erfassen oder bleibt die dabei verborgen? Auch das wäre doch mal eine Frage, die es zu beantworten gäbe.

Gruß
Stefan


Antwort von: Gerd-2
Gesendet am: 07.12.2013 16:49:24 Uhr


Hallo Horia,
sehr interessante Tabelle und der „TIS“ scheint mir endlich mal ein brauchbares Kriterium um die Mikrorauheit zu beurteilen.
Sehr Gut ist auch Dein Vergleich mit dem Beugungsbedingten „Streulicht“ das schafft da eine Relation mit der man letztlich den TIS vernünftig interpretieren kann.

Zitat:
Nicht zu vergessen, 4nm RMS-Wert als Rauheit sind mindestens 10nm PtV Rauheit. Das kann man ohne Probleme in einem richtig gemachten Foucault-Bild sehen.

Lieber Horia, bitte unterscheide zwischen Formfehlern und Welligkeit mit größerer lateraler Ausdehnung und der echten Mikrorauheit.
Formfehler und Welligkeit lässt sich mit Foucault gewiss auf 10nm Pv bestimmen.
Aber ganz gewiss nicht die echte Mikrorauheit mit lateraler Ausdehnung im Mikrometerbereich um die es uns hier geht.
Zitat:
Die verblüffende Eigenschaft, dass Fehler in der Höhe automatisch mit der Lateralen Ausdehnung kleiner werden, wird in der Literatur verschiedenen Materialien zugesprochen.

Wir müssen unbedingt zwischen Welligkeit, globalen Formfehlern und der Mikrorauheit unterscheiden! Wichtig ist auch die Laterale Ausdehnung der globalen Formfehler und der Mikrorauheit zu betrachten.

Laut Kais Theorie hätte ein Spiegel mit 200mm Durchmesser und einem globalen Formfehler mit sagen wir mal 100nm PV Oberfläche bei 20mm Lateral dann maximal 10nm Pv und bei den 0,1mm die Alois zb. mit dem Weillichtinterferometer untersucht hat dementsprechend maximal 200mm/0,1mm 1/2000 also 100nm /2000 = 0,05nm PV.
Man könnte das, wenn man die Mikrorauheit ignoriert tatsächlich so rechnen wenn der globale Formfehler absolut gleichmäßig verlaufen würde. Aber es gibt sie nun mal die Mikrorauheit und Alois hat selbst bei der absoluten Super Politur 3nm PV gemessen. Bei einer normalen Politur kommt man auf wesentlich größere Werte und trotzdem kann der globale Formfehler auf 100nm PV genau eingehalten sein.
Wenn nun noch ein paar Pits oder Kratzer vorhanden sind käme man auf dramatische PV Werte bei der Mikrorauheit.

(==>)Alois
Würdest Du es wagen mal abzuschätzen welchen RMS die Polituren BILD B bis C haben? Eventuell hast Du ja ne Vergleichsmessung mit dem Weißlichtinterferometer für solche Polituren. Dann könnte man auch mal den TIS für nicht ganz so super perfekte Polituren berechnen.

Grüße Gerd

Bearbeitet von: am:
Zum Anfang der Seite

Kalle66
Forenmeister im Astrotreff

Deutschland
8876 Beiträge

Erstellt  am: 13.12.2013 :  01:34:47 Uhr  Profil anzeigen  Antwort mit Zitat
Antwort von: Gerd-2
Gesendet am: 07.12.2013 17:07:59 Uhr

Hallo Stefan,

Zitat:
Können diese normalen Messmethoden dann auch diese Rauigkeit erfassen oder bleibt die dabei verborgen? Auch das wäre doch mal eine Frage, die es zu beantworten gäbe.


genau das ist der Punkt um den sich letztlich die gesamte Kontroverse dreht.
Dabei wird auch ständig Welligkeit mit Mikrorauheit verwechselt.
Echte Mikrorauheit wie Sie Alois mit dem Weißlichtinterferometer gemessen hat wird mit den schönen Zertifikaten nicht erfasst.
Der Strehl ist da auch ein eher ungeeignetes Mittel sowas zu berücksichtigen.

Wirklich aufschlussreich wären nur eine Stichprobe der Oberfläche mit Weißlichtinterferometer.
Wie es Aussieht gibt es mit dem TIS ein geeignetes Instrument diese Messungen dann zu interpretieren.
Hier wäre es sehr hilfreich für diverse Politurglätten auch mal entsprechende Messwerte der echten Mikrorauheit zu haben und daraus den TIS zu berechnen.
Dann wüssten wir woran wir sind.

Grüße Gerd


Antwort von: Horia
Gesendet am: 07.12.2013 17:36:45 Uhr


Hallo Gerd,
Zitat:
… bitte unterscheide zwischen Formfehlern und Welligkeit mit größerer lateraler Ausdehnung und der echten Mikrorauheit.
Formfehler und Welligkeit lässt sich mit Foucault gewiss auf 10nm Pv bestimmen. Aber ganz gewiss nicht die echte Mikrorauheit mit lateraler Ausdehnung im Mikrometerbereich um die es uns hier geht.

Das stimmt, und ich hätte klar machen sollen, dass ich die Lyot-Bilder des ganzen Spiegels, so wie sie immer gezeigt werden, im Sinn habe und nicht Rauheit in Mikrometerbereich meine. Ich habe auch nicht von Mikrorauheit gesprochen, da, wie ich finde, die gesamte Rauheit gleich wichtig ist.

Viele Grüße,
Horia


Antwort von: Alois
Gesendet am: 07.12.2013 18:15:16 Uhr


Hallo Stefan.

Wir in der Industrie verwenden je nach Möglichkeit beides. Weil bei sphärischen Flächen geht das auch gut. Natürlich muss dabei der Druck, die Drehzal und die Exenterbewegung so eingestellt sein, dass es keine Riefenbildung machen kann. Aber bei asphärischen Flächen geht nur Pech.
Was ich an Polituren an Astrooptiken gesehen habe, konnte ich als Pechpolitur erkennen. Nur beim 10“ Cas Beispiel, das ich am Schluss habe, scheint es nicht Pech zu sein. Aber diese Politur ist am Sterntest sicher gut zu erkennen, weil er wird ausgefranst sein.

Gruß
Alois


Antwort von: Kurt
Gesendet am: 07.12.2013 18:53:51 Uhr


Hallo Christian,
Zitat:
...Der Hobby-Spiegelschleifer bleibt doch letzlich auf altbewährte Methoden der Schleiftechnik angewiesen...

stimmt nicht ganz, ist im Moment auch weniger wichtig. Was sich aber im Verlauf der letzten 10 Jahre dramatisch geändert hat das ist die Prüftechnik für Amateure. Ich nehme an du hast schon mitbekommen dass Kai und Horia als sehr erfolgreiche Spiegelschleifer versuchen hier die theoretischen Hintergründe nach dem Stand der Wissenschaft zu vermitteln. Als erfahrener ATM mit Praxis in Prüftechnik profitiere ich sehr davon. Deshalb kann ich mir auch sehr gut vorstellen dass auch viele Amateure ohne ATM- Ambitionen mitbekommen wo z. B. Probleme bei QS- Angaben für unsere Optiken liegen.

Gruß Kurt


Antwort von: Alois
Gesendet am: 07.12.2013 20:47:42 Uhr


Hallo Gerd

Zitat:
Würdest Du es wagen mal abzuschätzen welchen RMS die Polituren BILD B bis C haben?
Eventuell hast Du ja ne Vergleichsmessung mit dem Weißlichtinterferometer für solche Polituren.
Dann könnte man auch mal den TIS für nicht ganz so super perfekte Polituren berechnen.


Ja ich werde es wagen weil ein paar Zahlen habe ich noch im Kopf, die ich damals als Orientierungshilfe hatte.
Bitte aber darum mir +- 5% Toleranz zu zugestehen.
Ein Problem habe ich zusätzlich noch und das ist schlimm.
Die Messungen habe ich damals nicht selber gemacht sondern ein Messtechniker. Ich war nur der Polierer.
Jetzt weis ich nicht wie der Messtechniker das Interferometer eingestellt hat. Auf Oberfläche oder Wellenfront?
Automatsch misst das Interferometer Wellenfront und weil ich nichts gehört habe das es umgestellt worden ist
will ich annenhmen das diese Werte als Wellenfront gelten. Aber ein Faktor 2 Fällt auf, wenn die Rechnungen stimmen.

Und nun die Schätzung
Bild____In nm_________In Lambda 550 nm
_____PV___RMS________ PV______RMS____1/L
A____40___5,00_______0,073____0,009____14
B____25___3,13_______0,046____0,006____22
C____12___1,50_______0,022____0,003____46
D ____8___1,00_______0,015____ 0,002____67

Bin gespannt ob eine Übereinstimmung zustande kommt.

Viele Grüße
Alois


Antwort von: rolf
Gesendet am: 07.12.2013 22:15:30 Uhr


Horia,

Ich hab mir die Mühe gemacht und Deinen langen sehr schön entwickelten Beitrag komplett übersetzt und ins französische Forum gestellt.
Hier die Antwort von Vernet (sinngemäße gekürzte Übersetzung):
Horia argumentiert, als ob er sich einzig für das Airy-scheibchen ganz alleine interessieren würde, ohne ein wesentlich helleres Objekt in der Nähe in Betracht zu ziehen. Das hatten wir doch schon im letzten thread (dem auf dem anderen Forum) besprochen. Wenn man nicht eine wesentlich hellere Lichtquelle in der Nähe der Diffraktionsscheibe berücksichtigt,versteht man nicht die schädliche Auswirkung, die von diesem helleren Objekt kommt.

Was den theoretischen Teil Deiner Ausführungen betrifft, so wird das hier auch so gesehen. Hier nochmal zur Erinnerung:
Mit dem Limit besage ich nur, dass 1% weniger Strehl am Planeten nichts bedeutet, und 1 % Lichtdiffusion (der Gesamtlichtmenge des Planeten) eine sichtbare Verminderung der kontrastschwachen Details bedeutet.

Was man sich merken muss, ist, dass der Strehl nicht beschreibt, wie sich die Diffraktionsscheibe in Anwesenheit einer viel helleren Lichtquelle verhält, die daneben ist. Man untersucht nicht einfach eine isolierte Diffraktionsscheibe ohne etwas um sie herum, das sie stört.
Um es grob zu vereinfachen:
Eine eine Million mal stärkere Lichtquelle neben einer Diffraktionsscheibe mit einem Spiegel, der 1*10-3 mal diffusiert verschluckt die Diffraktionsscheibe in einem Halo, der 1000 mal stärker als sie selbst ist, d.h. sie verschwindet. Der Strehl geht von 1 auf O. Das ist heute das Problem bei der Auffindung der Exoplaneten, die ja so unendlich weniger leuchten als ihre Sonnen.
Anbei ein Link, der das exemplarisch bei Sirius illustriert. http://www.astrosurf.com/ubb/Forum2/HTML/018573.html

Gruß Rolf


Antwort von: fraxinus
Gesendet am: 07.12.2013 23:21:08 Uhr


Guten Abend,

die Lösung der Aufgabe kann gern per PM an mich geschickt werden. Das ganze ist wirklich simpel. Ein paar Klicks auf einem 3-Euro Taschenrechner. Man muss sich nur entscheiden, ob Licht in diesem Fall ein Strahl oder eine Welle ist.

Horia hat die Zusatzaufgabe praktisch schon beantwortet.
Meine eigenen Berechnungen zum allgemeinen Streullicht-Problem sind dank Alois' Puzzlestücks ziemlich weit gediegen.
Viele Grüße
Kai


Antwort von: mkoch
Gesendet am: 07.12.2013 23:50:18 Uhr


Hallo Kai,

Zitat:
Jetzt würde ich für alle eine Knobel-Aufgabe stellen …

Nach geometrischer Betrachtung:
Fall A +-2.6"
Fall B +-5.2"
Fall C +-1.3"
Fall D +-2.6"
Und nach wellenoptischer Betrachtung (für lambda = 550nm):
Fall A +-113"
Fall B +-113"
Fall C +-57"
Fall D +-57"
Zusatzaufgabe: Berechne jeweils die Intensität des gestreuten Lichts in Prozent der einfallenden Intensität.
Fall A 0.03%
Fall B 0.11%
Fall C 0.03%
Fall D 0.11%
(für lambda = 550nm)

Gruß
Michael


Antwort von: ebi_ebi
Gesendet am: 08.12.2013 01:00:29 Uhr


Hallo Alois, hallo Kurt,
schön das ihr hier mit dem hochspannenden Thema weiter macht!
Danke Alois für die anschaulichen Beispiele!

Zitat:
Kurt schrieb: Deshalb kann ich mir auch sehr gut vorstellen dass auch viele Amateure ohne ATM- Ambitionen mitbekommen wo z. B. Probleme bei QS- Angaben für unsere Optiken liegen.

Dazu noch grundlegende Betrachtungen:
Horia hat es vortrefflich beschrieben, Skalartheorien sind sehr nützlich, wenn man TIS-Betrachtungen anstellt (Total Integrated Scattering). Mit TIS-RMS wird genau der Anteil des insgesamt an einer optischen Oberfläche reflektierten Lichts bezeichnet, der diffus an den Mikrorauhigkeiten in beliebige Raumrichtungen gestreut wird und damit in Richtung des geometrischen Reflexionswinkels verloren geht. Man setzt im Rahmen der skalaren Lichtbeugungstheorie als Wellenfunktion des gestreuten Lichts das altbekannte Fresnel-Kirchhoff´sche Beugungsintegral an. Integriert man nun über die Intensitäten des in die verschiedenen Raumrichtungen gestreuten Lichts, kann man die TIS-Intensität gut abschätzen.

Die Beziehung zwischen TIS und Rauhigkeit bzw. Lichtwellenlänge liefert für reale optische Oberflächen (wobei auch polierte Metalloberflächen eingeschlossen sind!) im nahen Ultraviolett, im Sichtbaren und im nahen Infrarot gute Vorhersagen. Aus TIS-Messungen konnten außerdem für poliertes Glas Mikrorauhigkeitswerte in guter Übereinstimmung mit entsprechenden interferometrischen Rauhigkeitsanalysen bestimmt werden.

Will man jedoch eine präzise Aussagen über die Winkelverteilung von gestreutem Licht machen, liefern Skalartheorien naturgemäß weniger erfolgreiche Vorhersagen. Denn die Winkelverteilung des Streulichts hängt nicht allein von der Höhenfluktuation der Mikrorauhigkeiten ab, sondern ebenso von der lateralen Ausdehnung der Strukturen und ihrer Steilheit.

Das erfolgt mit Vektorstreutheorien. Sie haben im Vergleich zu den skalaren Streutheorien vor allem den Vorteil, daß korrektere Aussagen über die Winkelverteilung des Streulichts möglich sind. Der Grund dafür ist, daß im Rahmen dieser Theorien Polarisationseigenschaften des einfallenden und des gestreuten Lichts ebenso berücksichtigt werden können wie die statistischen Eigenschaften von rauhen Streuoberflächen.

In zwei prinzipiell verschiedene Ansätzen wird dazu die Rauhigkeit bezogen auf eine ideal glatte Oberfläche störungstheoretisch wie z.B. für die Small Perturbation Method beschrieben.

Diese Vektorstreutheorien zur Lichtstreuung an rauhen Oberflächen beschreibt die optischen Eigenschaften einer Oberfläche stets als Funktionen eines 2-dimensionalen Leistungsdichtespektrums (PSD Spektrums). Eine glatte, optische Oberfläche beschreibt daher die fraktalen Parameter und die Mikrorauhigkeit der Oberfläche. Denn wie aus der Praxis bekannt, kann eine Fläche mit gleichem Rauhigkeitswert bei gleicher Grundfläche unterschiedliche Strukturen haben.

In der Optik-Technologie wie Alois sie kennt kommt daher für die Serienherstellung die differentielle Interferenz-Kontrast-Mikroskopie (DICM) im 2D Verfahren zum Einsatz. Bei den unterschiedlichen Glasoberflächen gibt es auch qualitätsbestimmende Normen für deren Beschaffenheit.

DICM hat den Vorteil, das dieses Analyse-Instrumente aus drei Eigenschaften bestehen: Einem großen lateralen Auflösungsvermögen bis zu wenigen Angström, einer einfachen Handhabung und damit keinem langwierigen Meßverfahren und schließlich der Verwendbarkeit für beschichtete und unbeschichtete Oberflächen!

Diese Eigenschaften ermöglichen es, die Beschaffenheit der optischen Oberfläche während des Polierverfahrens zu überwachen; So wie es in der Serienfertigung heute angewendet wird. Man eicht dabei über Röntgenlichtstreuung die DICM-Aufnahmen. In der Optik-Fertigung greift man bei der Qualitätskontrolle (Vergleichsmessung) sehr gern auf diese Methode zurück, denn Sie lässt sich auch wirtschaftlich gut darstellen.

Es müssten daher "nur" noch Festlegungen als Referenz für eine glatte Spiegeloberfläche getroffen werden.

Aber in unserem Fall scheitert es nach meinem Empfinden an der für Amateure geeigneten, bezahl- und eichbaren Meßmethode.

LG
Eberhard


Antwort von: Kurt
Gesendet am: 08.12.2013 02:49:32 Uhr


Hallo Christian,
Zitat:
...Besteht eine größere Auswahl an optischem Pech, sodass man da variieren kann? Und ist die Poliertechnik so Variantenreich, dass man dadurch die Politur optimieren kann und es wirklich einen Unterschied zur "normalen" Politur macht?

Es reichen 2 bis max. 3 Sorten von Pech. Zur erfolgreichen Poliertechnik mit dem Ziel hinreichend geringer Rauheit gibt es doch in der einschlägigen den Amateuren zugänglichen Literatur genügend Infos. Wenn dir das nicht ausreicht steht dir doch nichts im Wege ein spezielles Thema zu eröffnen.

Zitat:
...Inwieweit unterscheidet sich die Politur von Kai und Horia von einer 0815 Politur eines Hobbyschleifers, der sagen wir 3,4 Spiegel geschliffen hat? Naja ich bin echt mal gespannt.

Erlaube mir erst eine Gegenfrage. Warum richtest du denn die Frage nicht an Kai und Horia? Etwas kann ich aber beantworten. Ich hab schon mehrere Erstlingswerke geprüft, die man zur "besser geht nicht" Kategorie zählen darf.

Das gehört aber auch nicht so richtig zum Thema finde ich. Ich möchte dich daher bitten von weiteren Fragen abzusehen, die das aktuelle Thema zudecken. Das wäre auch ein Akt der Höflichkeit und Respekt gegenüber Alois.

Gruß Kurt



Antwort von: Gerd-2
Gesendet am: 08.12.2013 14:23:12 Uhr


Hallo Alois,

schön das Du uns mal mit konkreten Zahlen zu den verschiedenen Polituren dienst. Auf ein paar % Toleranz kommt es ja nun wirklich nicht an. Wir müssen also mit einer Mikrorauheit so zwischen 8 und 40 nm PV bei Pech Polituren rechnen. Wobei nicht ganz klar ist ob das nun Oberfläche oder Wellenfront ist.

Das sind immer noch recht kleine Werte, zeigt aber deutlich das es müßig ist sich mit einer Welligkeit zu befassen die im Bereich von 2 nm PV liegt wenn die Mikrorauheit im ungünstigen Fall bei 40nm PV liegt.
Wenn wir den Vorteil von besonders glatten Polituren beweisen wollen sollten wir das natürlich mit Blick auf mögliche Nachteile weniger glatter Polituren tun. Also schon mit den 40nm PV rechnen.

Es bestätigt also das mein Einwand bezüglich der Beschäftigungstherapie mit der 2 nm PV Welligkeit die dem gemeinen Volk hier vom Schulmeister aufgegeben wurde seine Berechtigung hatte.

Es ist irreführend bei der Welligkeit mit 2nm PV zu rechnen wenn die Mikrorauheit bei 40nm PV liegt.

Wenn es ums Streulicht geht sollten wir uns auch nicht nur auf exakt senkrecht einfallendes Licht beschränken. Es ist mit Fremdlicht aus den unterschiedlichsten Richtungen zu rechnen das zum Teil um ein vielfaches Heller als das Beobachtungsobjekt ist.

Grüße Gerd


Antwort von: Kalle66
Gesendet am: 08.12.2013 15:02:04 Uhr



Gerd,
Dein ein paar Postings vorher erwähntes irdisches Fremdlicht ist meines Erachtens eine Standort- und Tubusdesignfrage, weniger eine der Spiegelqualität ...

***

Warum arbeitet man bei Fremdlicht und ihren Einfluss nicht einfach über die Kontrast-Übertragungsfunktion? Die arbeitet mit genau den gleichen Parametern: Auflösungsvermögen bei welchem Kontrast. Quasi der Kehrwert zur Frage: Welches Kontrastverhältnis ist bei gegebenen Winkelabstand zweier Punkthelligkeiten unterscheidbar (z.B. Trennung von Doppelsternen wann, wie?)

Da die Kurven in Relation zu einer idealen Optik, einer typischen obstruierten Newtonoptik ... und alle ATMler müssten "happy" sein.
Gruß


Antwort von: Kurt
Gesendet am: 08.12.2013 15:40:06 Uhr



Hallo Alois, liebe Mitleser,

hier meine Stellungnahme zu deinem Bericht aus der Sicht eines ATM, Gelegenheitsprüfers und Berichteschreibers.
Zitat:
...Als erstes nehme ich wahr das es in der Astroszene unterschiedliche Vorstellungen der Mikrorauheit gibt. Aus meiner Sicht muss ich diese Kontrollen in 5 Stufen einteilen. Wobei A und B noch nicht zu den Mikrorauheiten zählen...

Meines Wissens gibt es dazu keine international gültige Sprachregelung. Falls doch bitte korrigieren. Jedenfalls ist deine Einteilung sehr gut nachvollziehbar. Im Englischen werden deine Stufen A und B als Dog Bisquit, Ripple oder Medium Schale Roughness die Stufe C als Microripple oder Small- Scale Roughness bezeichnet. Ich bin mir nicht sicher ob Suiter in Kap 13.4. The Aberration Function of Small Scale Roughness die Mikrorauheit vom Typ D und E mit einbezogen hat.

Betrachtet man die kontrastmindernde Wirkung Mikrorauheit im Sinne der MTF dann gibt es zwischen den Stufen C, D und E keinen Unterschied. Dh. jeweils gleicher RMS- Wellenfrontfehler bedeutet auch nahezu deckungsgleichen Verlauf der MTF Kurven. Erst bei sehr niedrigen Ortsfrequenzen, dh. sehr großen Testgitterabständen (entsprechend Objektabständen) gibt es Unterschiede. Diese sind aber bei kleinen RMS- Werten praktisch bedeutungslos. Das gilt dann auch für die kontrastmindernde Wirkung der Rauheit insgesamt.

Jeder andere opt. Fehler wirkt ebenfalls kontrastmindernd auf die Abbildung. Dazu kommt noch wie Horias bereits erläutert hat das kontrastmindernde aber leider unvermeidbare Streulicht der Optik in Form der Beugungsringe. Dazu bitte zurück zu Horias gestrigen Beitrag.

(==>)Zu Bild “Feldmessungen ED-Apo…“
Hier ist ganz offensichtlich der Farbfehler dramatisch höher als irgendeine Form von Rauheit. Wer hier trotzdem nach Rauheit sucht dem sei der Spaß gegönnt.

Zitat:
...Also bring das noch nicht viel Hilfe zur Quantifizierung.
Danach begann ich zu untersuchen ob sich die Rauhigkeit eher im Kontrast dieser Strukturen zeigt. Da bin ich fündig geworden und da muss ich sagen das mein schönes Bild oben nicht brauchbar ist weil es kontrastverstärkt und zu hell ist.
Da ist das Bild von Kurt viel Aussagekräftiger und bewirkt durch seitliches Verstellen die gleichen Strukturveränderungen...


Vielen Dank für diesen Fund, lieber Alois. Ich hab dieses Bild in etwas modifizierter Form schon wiederholt gezeigt um die Sinnlosigkeit der Beurteilung von Rauheit allein an Hand solcher Bilder zu demonstrieren. Mir war schon bei der Erstellung klar was man zur Quantifizierung braucht:

1. Ein Lyotfilter mit genau definierter Dämpfung und Phasenverschiebung, idealerweise ¼ Lichtwellenlänge für das durchgehende Licht.

2. Eine genau definierte Breite des Filterstreifens

3. Eine fotografische Ausrüstung mit hoher Auflösung, Dynamik und Reproduzierbarkeit

4. Eine kalibrierbare Messeinrichtung zur punktuellen Vermessung des Bildkontrastes.

5. Eine spezielle Auswertesoftware bei der die bekannten Formeln zur Auswertung integriert sind.

6. Eine fotografische Ausrüstung mit hoher Auflösung, Dynamik und Reproduzierbarkeit

7. Optional: Eine Lichtquelle mit hoher Leuchtdichte um auch bei Verwendung von Lyotfiltern mit der Normdichte ND3 und mehr um insbesondere für die Prüfung von unbelegten Spiegeln genügend Licht zu haben. Eine Halogenlampe oder Power-LED reicht hier nicht wirklich.

Vermutlich gibt es noch einige Parameter mehr die zu beachten sind. Dann muss man noch berücksichtigen dass man mit der Wahl der Streifenbreite oder Form nur einen begrenzten lateralen Frequenzbereich der Rauheit erfassen kann. Das zeigen deine Aufnahmen mit dem Stufenfilter sowie mein Bilder "Anlage 2" ganz deutlich.
Ich bin neugierig auf die Meinung der mathematisch- physikalisch besser versierten Kollegen.

(==>)Zu dem Zygo Protokoll nur eine Frage:
Hast du noch in Erinnerung wo die Nachweisgrenze als PtV und/oder RMS liegt?

(==>)Zu der Aufnahmeserie 10“ Cassegrain mit verschiedenen Messmethoden

Da sieht man ganz klar was eine Strehlzahl wert ist die allein auf der Zernike- Auswertung basiert. Wenn man also nur mit einer Auswertesoftware von der Art „Atmosfringe“ oder "FringeXP" arbeitet dann hat man ein Problem. Das lässt sich am einfachste dadurch lösen indem man die Strehlzahl neu definiert, so in der Art sie sei ja nur ein Maß für Qualität der Parabel oder ähnlichen Blödsinn. Dem folgen Sprüche sinngemäß so: Was mir ein hoher Strehl wenn die Optik rau ist?

Bereits bei der hier vorgeführten Auswertung mit der allgemein verfügbaren FFT Auswertesoftware von Dale Eason, David Rove Michael Beck kommt ja statt stolze S= 0,86 nur recht schlappe S = 0,50 heraus eben will die hier bereits im Foucaulttest erkennbare Rauheit vom Typ A bis B mit erfassst worden ist. Wer in diesen Fall noch nach Mikrorauheit sucht der möge fündig werden.

Heute ist diese hochleistungsfähige Freeware unter dem Namen „openFringe" Vers. 12.3“ Standard bei allen Amateur- Interferometrikern. (Sorry, ich weiß nicht so genau wer der eigentliche Erfinder ist). Man kann sie auch nutzen um nicht selbst gefertigte Interferogramme auszuwerten. Dafür braucht man nämlich gar kein eigenes Interferometer.

Jetzt halte ich aber erst mal die Luft an und sage:
Der Nächste bitte!

Gruß Kurt


Antwort von: Gerd-2
Gesendet am: 08.12.2013 15:40:44 Uhr



Hallo Kalle,

Zitat:
Dein ein paar Postings vorher erwähntes irdisches Fremdlicht ist meines Erachtens eine Standort- und Tubusdesignfrage, weniger eine der Spiegelqualität

da will ich Dir nicht wiedersprechen weil Du die Spiegelqualität nicht ganz ausschließt.
Neben den genannten Faktoren sollte man aber auch in diesem Punkt die Qualität optischer Oberflächen nicht völlig vernachlässigen. Da geht es auch nicht nur um den einen Spiegel.
Schon ein Newton hat 2 Spiegel und es gibt Optiken mit noch mehr optischen Flächen.

Zitat:
Warum arbeitet man bei Fremdlicht und ihren Einfluss nicht einfach über die Kontrast-Übertragungsfunktion?


Zum einen weil diese nun mal kein Fremdlicht berücksichtigt. Die MTF wird aus der PSF also einer Punktabbildung gebildet und die berücksichtigt nur das Licht einer Punktlichtquelle, also exakt parallel einfallendes Licht. Licht von benachbarten Lichtquellen das unter Umständen um ein vielfaches heller ist wird nicht berücksichtigt. Zum anderen weil es na ja zumindest Uneinigkeiten unter den Experten darüber gibt wie man die Mikrorauheit in den Wellenfrontfehler aus den man die PSF respektive die MTF errechnet einbinden soll.
Wesentlich geeigneter erscheint mir der von Horia eingebrachte TIS zur Beurteilung von Streulicht wegen Mikrorauheit.

Grüße Gerd


Antwort von: tommy nawratil
Gesendet am: 08.12.2013 17:37:14 Uhr



hallo,

Alois ist bis jetzt der einzige der mit dem Lichtspalt dezidiert eine Dokumentation zum Streulicht gezeigt hat.
Sein Beispiel des Reibeisen-Cassis zeigt die Anteile die von der FS-Strebe, der Beugung vom Objektivrand und jene die von der rauen Fläche kommen. Da kann man einschätzen wie stark und weit sich der Anteil des Streulichts aus der Rauigkeit auswirkt. In diesem einen sehr krassen Beispiel, wo man die Rauheit schon in den Fringes sieht.

Was mir jetzt wirklich fehlt, sind sondern weitere Dokumentationen. Wieso bringt niemand etwas, damit man weiss über welchen Effekt man spricht?
Das Beispiel das Vernet gezeigt hat, mit den beiden Marsmonden neben Mars, hat mich nicht recht überzeugt weil der eine Marsmond ja sogar hinter dem Streulicht der FS-Strebe sichtbar gemacht werden konnte. Wahrscheinlich nicht visuell - aber es kann sichtbar gemacht werden.
Also nichtmal dieses offensichtlich starke Streulicht vernichtet den Mond komplett. Es war auch die Rede von den zarten Strukturen auf Jupiter, wie ist es zB denn damit? Gibt es denn kein Vergleichsbild? Warum?

Wenn das Streulicht ein so grosses Problem ist, wieso gibt es keine weiteren Bilder von seiner schädlichen Auswirkung? Das muss doch irgendwo dokumentiert und dargestellt sein, wenn es ein so wichtiger Punkt ist. Für das Streulicht einer abfallenden Kante finde ich Bilder zuhauf im Netz, und habe auch selber schon welche gemacht.

Es gibt diverse Verweise, zB von Eberhard auf Arbeiten des MPI, aber darunter kann ich mir leider nichts vorstellen. Niemand bestreitet dass Glätte gut ist und das sich Fehler addieren, aber ich würde den Fehler gerne in seiner Auswirkung sehen, und zwar in praktischen Beispielen.

So wie hier der Effekt einer abfallenden Kante, und deren Maskierung mit einer nur 2mm verdeckenden Maske:
http://www.teleskop-shop.at/testphotos/Telescope_Raw_Photos/250-1000_turned_down_edge.jpg
http://www.teleskop-shop.at/testphotos/Telescope_Raw_Photos/250-1000_turned_down_edge_masked.jpg

Jeder sieht sofort wie das Problem sich auswirkt und wie es aussieht, wenn es beseitigt ist. Mit der Rauheit geht es nicht so einfach, schon klar, aber es muss doch irgendwo Beispiele geben.

Bitte nicht falsch verstehen, ich bin an einer sachlichen und ergebnisoffenen Diskussion interessiert. Aber nicht an Glaubensfragen sondern an handfesten überzeugenden Darstellungen. Ich vermesse auch Optiken und wenn das ein wichtiger Punkt ist, dann möchte ich darüber Bescheid wissen.

Ich lade daher alle Beitragenden ein, solche Dokumentationen des Rauheitsproblems - möglichst anschaulich so wie die Sterntestbilder - zugänglich zu machen.

viele Grüsse
Tommy


Antwort von: Kurt
Gesendet am: 08.12.2013 20:20:02 Uhr


Hallo Tommy,

ich verstehe dein Problem sehr gut. Leider hab ich bisher auch noch keinen wissenschaftlich belastbaren Beweis gesehen dass nur wenige
Promille messtechnisch nachgewiesener Streulichtanteil zur merklichen Kontrastminderung am Himmel führt. Ich frag mal so: Welche Versuchsanordnung würde dich oder auch andere davon überzeugen das das von einer normalen Spiegeloberfläche ausgehende Streulicht als Störung sicher erkannt wird? Was dann unter normaler Spiegeloberfläche zu verstehen ist darauf können wir uns vielleicht danach verständigen. Du kannst dich vielleicht noch daran erinnern dass schon mal einen Vorschlag zur Durchführung veröffentlich habe der aber schlicht ignoriert worden ist.

Vielleicht noch etwas was mir Probleme bereitet. Jeder Nutzer eines Teleskopen wird anerkennen das so ein Gerät nach theoretischen Überlegungen und Rechnungen von Physikern und Ingenieuren entstanden ist. Das wird auch von den Usern geglaubt welche derartige Überlegungen und Rechnungen nicht nachvollziehen können weil die entsprechende (langwierige) Ausbildung nicht vorhanden ist. Wenn dann z. B. ein Physiker wie Suiter in seinem Buchs sinngemäß sagt: Das Streulicht eines normalen Spiegelteleskops liegt weit unter dem was durch andere unvermeidbare Fehler verursacht wird, dann wird das von einigen schlicht nicht akzeptiert. Merkwürdigerweise glauben aber die meisten Physiker und Ingenieuren dem Kollegen Suiter, weil sie sich einfach die Zeit sparen um seine Rechnungen im Detail nachzuvollziehen.

Wie soll man dann noch relativ komplizierte Sachverhalte an Nichtphysiker glaubhaft vermitteln?

Gruß Kurt


Antwort von: tommy nawratil
Gesendet am: 08.12.2013 21:05:21 Uhr



hallo,

es gibt haufenweise Astrofotografen, und sie lichten wirklich mit dem technisch bestmöglichen Equpiment Planeten in hoher Auflösung, und Deepsky Objekte ebenfalls in bestmöglicher Auflösung ab. Da wird auch probiert und verglichen und untersucht bis ins kleinste Detail was die besten Rohbilder ergibt. In der Deepsky Fotografie verstärken wir die schwachen Signale soweit, dass selbst Apos mit über 90% Strehl nicht gut genug sind, wenn sie nur ein kleines bisserl Streulicht verursachen, welches unsymmetrisch verteilt ist und die Sternabbildung dadurch beeinträchtigt. Hier dazu Beispiele in meinem Blog:
http://interferometrie.blogspot.com/2013/05/sternformprobleme-bei-apos-ii-triplett.html

Planetenfotografen wissen sehr wohl wie ein gutes Rohbild aussieht, genauso wie visuelle Beobachter welche einen guten Kontrast sofort erkennen.
Hier sollte sich doch Material aus der Praxis finden lassen. Allein: (Mikro)Rauheit ist bei Fotografen kein Thema, und es gibt meines begrenzten Wissens nach niemanden dem da jemals etwas aufgefallen wäre. Im Gegenteil, viele Planetenfotografen verwenden SCTs mit ihren unpolierten gerieften Schmidtplatten und erzielen beste Resultate damit! Da sieht die Rauheit manchmal so aus:

http://www.teleskop-shop.at/testphotos/Telescope_Raw_Photos/C11EHD_startest_Beta_Tau.jpg
http://www.teleskop-shop.at/testphotos/Telescope_Raw_Photos/C11EHD_Ronchitest_Beta_Tau.jpg

Es geht mir nicht darum irgendwelche Erfahrungen anzuzweifeln, ich bin auch ein visueller Beobachter und habe Freude an einem kontrastreichen Bild. Aber es sollte sich doch im Bild verifizieren lassen, und da scheint es gar nichts zu geben. Vielleicht kommt ja noch was. Zum Beispiel hier, ein Jupiter Rohvideo von einem Skywatcher 10" mit 0,95 interferometrischen Strehl bei gutem Seeing:
http://www.vibes.co.at/images/jup2010_5_sampleDivX.avi

hat jemand ein kontrastreicheres mit einem glatteren Spiegel?

viele Grüsse
Tommy


Antwort von: Gerd-2
Gesendet am: 08.12.2013 22:49:00 Uhr


Hallo Tommy,
Zitat:
Allein: (Mikro)Rauheit ist bei Fotografen kein Thema, und es gibt meines begrenzten Wissens nach niemanden dem da jemals etwas aufgefallen wäre. Im Gegenteil, viele Planetenfotografen verwenden SCTs mit ihren unpolierten gerieften Schmidtplatten und erzielen beste Resultate damit! Da sieht die Rauheit manchmal so aus:
http://www.teleskop-shop.at/testphotos/Telescope_Raw_Photos/C11EHD_startest_Beta_Tau.jpg
http://www.teleskop-shop.at/testphotos/Telescope_Raw_Photos/C11EHD_Ronchitest_Beta_Tau.jpg


Wenn es um Kontrast geht, dann können wir Foto und digitale Bildbearbeitung mit deren Möglichkeiten der Kontrastverstärkung nicht so einfach mit der visuellen Beobachtung vergleichen. Du wirst daher vergebens nach fotografischen Beweisen für visuell wahrgenommene Kontrastvorteile glatter Polituren suchen.

Die visuelle Erfahrung etlicher Leute das glatte Spiegel Vorteile haben lässt sich nur visuell verifizieren und da muss halt Jeder selbst durchs Teleskop schauen wenn Er sich persönlich davon überzeugen will. Ansonsten bleibt da erst mal nur das man‘s den Leuten halt glaubt oder eben nicht oder schlicht sagt ich weiß es nicht was ich da jetzt glauben soll, die Sache ist unklar. Im Zweifel bevorzuge ich immer die letztere Option.
Der Mensch ist schon ein eigenartiges Geschöpf, er will unter allen Umständen eine Antwort auf all seine Fragen und mag es so ganz und gar nicht sich mit einem „kann man nicht sagen“ abzufinden. Es gibt sie aber die Fragen auf die es keine verlässliche Antwort gibt. Dann gerät die Geschichte zur Glaubensfrage und Jeder glaubt Seine Sicht wäre dann die Richtige und man streitet bis aufs Messer. Ich weiß nicht was das soll.
Es wäre doch so einfach mal die Realität anzuerkennen und zu sagen man weiß es schlicht nicht genau und gut ist.

Grüße Gerd


Antwort von: Guntram
Gesendet am: 08.12.2013 23:20:43 Uhr



Hallo miteinander.

Im Mai 2000 erschien ein Artikel in Sky & Telescope, der die Politur von Astrooptiken mit Schwerpunkt Amateurspiegel zum Thema hatte.
Verfasst wurde der Artikel von Jose Sasian, der Amateur-Spiegelschleifer, professioneller Optikdesigner und Professor am Optical Sciences Center in Tucson ist. Somit Kollege von Wyant, Shack, und anderen Größen der theoretischen und praktischen Optik.

Es folgt eine kurze Zusammenfassung dieses lesenswerten Artikels.

Sasian definiert die Micro surface roughness als Defekte mit einem Abstand von 0,25mm und weniger. Oberflächen mit einer micro surface roughness von 1/5500 wave oder weniger (ja) werden als superpolished bezeichnet. Die Methoden, die zur Herstellung solcher Flächen verwendet werden, werden von Amateuren normalerweise nicht angewendet ( "...achieved through special techniques generally not used by amateurs".)
Mit Standardmethoden beim Polieren können Amateure etwa 1/500 wave Oberflächenrauigkeit erreichen. Diese Rauigkeit streut 0,06% des Lichtes, und führt zu einer Reduktion des Kontrastes in der Größenordnung von 1/10 des Kontrastverlustes durch typische Zonenfehler.

Schlimmer als Mikrorauigkeit seien Zonen und primary ripple (Hundekuchenoberfläche) - sanfte Änderungen in der Spiegelkurve, die 1/2 bis 1/20 des Spiegeldurchmessers ausmachen.
Durch gute Polierpraxis können diese Oberflächenfehler auf 1/100 wave reduziert werden; Streulichtanteil 1,6%. Offensichtlich gilt die erste Sorge beim Polieren der Vermeidung dieser relativ groben Fehler.

Er beschreibt, wie Spiegel, die in einem Kurs unter seiner Leitung geschliffen wurden, mit einem Interferenzprofilometer auf Mikrorauigkeit geprüft wurden.
Gemessene Mikro Oberflächen Rauigkeiten zwischen etwa 0,0027 und 0,0044 wave. Ein Spiegel war bei der Messung nicht besonders sauber, und schnellte gleich auf 0,007 wave hoch. Sasian merkt dazu an, dass eine staubige oder nicht ganz saubere Spiegeloberfläche ganz klar bereits mehr Licht streut als typische Mikrorauigkeit.

Sasian merkt an, dass exzellente Spiegel ptv Werte (Oberfläche) von 1/40 wave erreichen, und Rauigkeiten von 1/200 wave.

Er führt weiter aus, dass für Obeflächenfehler, die Licht in alle Richtungen streuen, der Strehlwert ein nützliches Maß ("...a useful indicator of the loss in contrast on extended objects...")für den Kontrastverlust in Objekten wie Planeten und Nebeln ist.

Soweit zu diesem Artikel.

Amateuroptiker können demnach mit guten Poliermitteln und Verfahren, die in klassischen Werken (Texereau, auch "A Manual for Amateur Telescope Makers", von Karine und Jean-Marc Lecleire, erschienen bei Willmann-Bell, soll sehr gut sein, ich kenne das Buch aber nicht genau) beschrieben sind sowie dem Studium von Beiträgen von Experten wie Alois, Stathis und anderen in Foren wie diesem alles erfahren, was für die Herstellung exzellenter Oberflächen notwendig ist.

Ich persönlich sehe das "Problem" Rauigkeit als komplett gelöst an.
Es war einmal ein Problem, verursacht durch schlechte Poliermittel und antiquierte Arbeitsverfahren (Papierpolitur, Tuchpolitur, HCF Politur etc.).

Viele Grüße,
Guntram


Antwort von: fraxinus
Gesendet am: 09.12.2013 11:12:11 Uhr



Guten Morgen,

zuerst Danke an Guntram für den Überblick über den interessanten S&T Artikel!

Da ich meinen Beitrag schon angefangen hatte stelle ich ihn jetzt auch hier rein. Das macht erheblich mehr Mühe, als chips-kauend und rülpsend den Saal vollzukotzen. Die Lösung meiner Rechenaufgabe möchte ich ebenfalls noch kurz vorstellen, das bin ich denen schuldig, die es versucht haben.

Zunächst etwas Grundsätzliches zum Messen und Vergleichen.

Messen heißt Vergleichen!

Mit diesem Satz begann damals bei uns der Physikunterricht und der Pauker - einer von denen die noch Rückgrat hatten und zu ihrer exzellenten Trefferquote mit dem Schlüsselbund standen, denn es traf selten die Falschen -
warf seine Mappe auf den Tisch und erklärte:

"Das ist ein Mapp! - Ich definiere hiermit einen Längenstandard!"
"Wir können Vielfache davon bilden, lasst uns das Zimmer damit vermessen...."

Soweit, so gut.
Leider ist das Messen von Längen eines der wenigen Beispiele für eine direkte Messung.
Die meisten Messungen sind indirekter Natur! (http://de.wikipedia.org/wiki/Messung)

Das bedeutet, man misst eine (oder mehrere) andere physikalische Größen und schließt daraus mittels mathematisch/physikalischer Modelle auf die gesuchte Messgröße. (http://de.wikipedia.org/wiki/Modell#Wissenschaftstheorie)

Ein einfaches Beispiel für eine indirekte Messung ist die Temperaturmessung:
Hier wird die Höhe einer Quecksilbersäule gemessen, die an zwei Punkten kalibriert wird.
Das physikalische Modell heißt "Wärmeausdehnung", was letztlich auf eine Längenmessung an der Kapillare hinausläuft. (http://de.wikipedia.org/wiki/W%C3%A4rmeausdehnung)

Zum Beispiel muss man sicherstellen, dass sich die benutzte Flüssigkeit auch linear ausdehnt. Das ist keinesfalls Selbstverständlich. (http://de.wikipedia.org/wiki/Dichteanomalie)

Übertragen auf die Abbildungsqualität von Teleskopen bedeutet das:

Direkt vergleichen kann man nur zwei Teleskope, die nebeneinanderstehen und von denen eines als Standard gekennzeichnet wird. Das ist noch keine Messung, erlaubt aber die Attribute "besser/schlechter" zu vergeben.

Für eine direkte Messung bräuchte es pro Öffnungsklasse und Objektklasse mehrere Referenzen! Dazu geschulte Beobachter und einen Blindtest, wobei das in diesem Fall nicht exakt wörtlich genommen werden darf. (http://de.wikipedia.org/wiki/Blindstudie)

Der einzige mir bekannte Test dieser Art ist der von Peter Ceravolo, der vier gleiche Spiegel herstellte, die sich lediglich im Grad der sphärischen Korrektur unterschieden.
(Die Franzosen behaupten zwar, dass sie Teleskope nebeneinander stehen hatten, aber keiner weiß welche Eigenschaften die Spiegel hatten. Außer dass der Durchmesser gleich war...)

Früher, vor über 200 Jahren, war der direkte Vergleich mangels Prüfmethoden noch verbreitet.

In "Fernrohre und Ihre Meister" von Rolf Riekher ist auf Seite 132 zu lesen:

"Herschel hatte eine eigenartige Arbeitsweise. Er fertigte Spiegel in recht großen Stückzahlen an.
Hatte er mehrere fertig bearbeitet, so verglich er sie durch Prüfung. Die besten behielt er zurück, alle anderen wurden wieder eingeschmolzen.
Von der nächsten Serie wählte er wieder die besten aus, um sie mit den früher angefertigten zu vergleichen.
Auf diese Weise hat er schrittweise die Qualität verbessert. ..... Herschel gibt selber an, auf diese Weise in sechs bis sieben Jahren über 400 Spiegel angefertigt zu haben...
."

Zu den Gründen dieser Arbeitsweise schreibt Riekher:
"Ein weiterer Grund war der, dass es keine sichere Prüfmethode für die Gestalt des Spiegels gab, um den Poliervorgang entsprechend überwachen zu können.
Man war auf reine Funktionsprüfungen angewiesen...."


Ja, das waren noch Männer mit Charakter, "Einschmelzen" wäre für mancherlei Optik die richtige Behandlung und nicht "zurücklegen ins Versand-Lager"! Herschels Schaffenskraft ist sicher bewundernswert, aber das will heute wohl keiner mehr. Die meisten bekommen in ihrem Leben nicht einen einzigen Spiegel selbst gebacken.
Und ich schaffe es aus logistischen Gründen nicht, meinen 28" und 33" gleichzeitig unter guten Himmel zu stellen. That's live

Heutzutage ist es üblich, die Produkteigenschaften schon lange vor der Bestelllung der ersten Schraube exakt und im Detail zu studieren. Das ist meistens die kostengünstigste Lösung. Für einen Teleskopspiegel heißt das speziell:

Brücke schlagen zwischen Spiegel-Oberfläche und der zu erwartenden Abbildungsqualität!

Es handelt sich dabei um eine indirekte Messung. Die gesuchte Größe ist zB die Übertragungsfunktion für Kontraste (MTF). Diese ergibt sich durch Modellbildung einer Längenmessung - speziell einer Höhenmessung der Oberflächentopografie über einer Referenzfläche.

Da man Höhen im Nanometer-Bereich wiederum nicht per Messschieber messen kann, ist das eine indirekte Messung. Dafür braucht es ein weiteres Modell. (Interferometer-Modell, Foucault-Modell etc)

Alles ziemlich komplex.
Der entscheidende Punkt ist aber, dass es ohne theoretischen Hintergrund bzw Modellbildung nicht gelingt, von einer gegebenen Oberfläche auf Abbildungseigenschaften zu schließen.

Eine Temperaturmessung mit unkalibriertem Thermometer mit unbekannter Flüssigkeit in der Säule würde sich jeder verbitten.
Bei Lyot Bildchen behaupten dagegen manche stur und steif, dass man das am Himmel sehen muss, weil es rau aussieht und weil das "eben so ist" - und drücken sich ebenso geschickt davor, exakt gleiche Versuchsbedingungen herzustellen.

Ich kenne weder eine Modellbildung zu diesem Test noch einen erfolgreichen Kalibrierungsversuch. Zum Foucault Test gibt es übrigens beides - allerdings auch für echte Profis keine einfache Aufgabe.

Ich fasse zusammen:

Eine indirekte Messung ohne Modell ist sinnlos.

Damit komme ich zu meiner "Hausaufgabe":

Der Hintergrund war, ein einfaches Modell vorzustellen, was die Brücke zwischen einer einfachen Oberflächenform (Sinuswelle) und der Abbildung im Fokus schlägt. Das ist unter anderem wesentlich für das Einschätzen der Zygo-Messung von Alois.

Aufgabe 1)
Gegeben sei ein an sonsten perfekter Spiegel, dessen einziger Fehler Ripple einer einzigen Periode ist.
Form sei Sinus (1 Periode = 1 Berg + 1 Tal)
(Alternativ darf mit einer Dreiecks- oder Sägezahnform gerechnet werden)



Fall A -Periodenlänge 1mm, Höhe 2nm (Höhe = Differenz zwischen Berg und Tal)
Fall B -Periodenlänge 1mm, Höhe 4nm
Fall C -Periodenlänge 2mm, Höhe 2nm
Fall D - Periodenlänge 2mm, Höhe 4nm

Gesucht ist jeweils der Streuwinkel bei senkrechtem Einfall.

Lösung von Michael, der ich 100% zustimme:

Streuwinkel nach wellenoptischer Betrachtung (für lambda = 550nm):

Fall A +-113"
Fall B +-113"
Fall C +-57"
Fall D +-57"


Zusatzaufgabe: Berechne jeweils die Intensität des gestreuten Lichts in Prozent der einfallenden Intensität.

Fall A 0.03%
Fall B 0.11%
Fall C 0.03%
Fall D 0.11%
(für lambda = 550nm)


Zusätzlich hat Michael noch die Ablenkung für die geometrische Bertachtung geliefert (Modell Lichstrahl, Sinusform)

Fall A +-2.6"
Fall B +-5.2"
Fall C +-1.3"
Fall D +-2.6"


Ich komme mit der Dreiecksform auf die gleiche Größenordnung,
Konsens: niedriger, einstelliger Bogensekunden-Bereich!

Dass in diesem Fall das wellenoptische Modell das Richtige ist, dürft ihr mir getrost glauben oder ein paar Zeilen runter blättern.

Der Streuwinkel wird mit der Gitterformel berechnet:
http://de.wikipedia.org/wiki/Optisches_Gitter

Wobei es bei einem Sinusgitter nur eine einzige Ordnung rechts und links gibt. Bei einem Dreicksgitter gibt es mehrere Ordnungen, mit fallender Intensität.

Die Streu-Intensität wird entsprechend Horia's hervorragendem Beitrag mit der TIS Formel berechnet.
Kleines Problem: Es sind nur die Höhenunterschiede gegeben (PV), die Formel verlangt aber den RMS!
Lösung: Für eine feste, definierte Oberflächenform gibt es einen festen Umrechnungsfaktor.
In diesem Fall ist es Faktor 2.82 oder 2*Wurzel(2)
Das sieht man, indem man den RMS des Sinus berechnet oder schlicht nachschaut. RMS ist auch als Effektivwert bekannt:
http://de.wikipedia.org/wiki/Effektivwert

Halten wir fest - für kleine Streuwinkel und kleine Höhendifferenzen gilt:


  • Der Streuwinkel ist umgekehrt proportional der Strukurbreite

  • Die Streu-Intensität ist proportional dem Quadrat des RMS Wertes



Dieses Ergebnis steht im fundamentalen Widerspruch zum Modell Lichtstrahl (= geometrische Betrachtung bzw Reflexionsgesetz)!
Hier würde es auf die Anstiege ankommen. Doch das Ergebnis ist offensichtlich nicht von der Form der Rauheit abhängig. (Exklusive einer kleine Korrektur beim Auftreten mehrerer Ordnungen.)

Und da jedem Modell eine zweite Überprüfung gut bekommt, anbei eine kleine Simulation mit OpenFringe!

Mein 3D Surface Bildchen von oben ist nämlich das Resultat einer echten Messung an einer realen Oberfläche.

Es handelt sich um Polierspuren von Zwirnsfäden auf einem Areal von 3mm Durchmesser, welche ich eigenhändig ins Glas gefrickelt habe - ja es gab schon systematische Versuche hier! Entstanden im Rahmen des ASAI Projektes auf Anregung von Kurt, da gibt's evtl auch einen echten Sterntest von ihm zu sehen.

(Nebenbei: das war der Grund der Frage an David Vernet - Wie kann man gezielt rau Polieren?
Die Antwort (gammelige Pechhaut) zeigte, dass er offenbar keine systematischen Versuche gemacht hat. Sowas bringt ausser 1000 Kratzer nicht das gewünschte Ergebnis....)

Man sieht im fokusiertem Stern-Abbild die beiden Peaks rechts und Links des zentralen Spots.




Der Winkel-Abstand (circa 12.Beugungsring) passt sehr gut mit der Gitterkonstanten (g=0.215mm) zusammen.



PV und RMS lässt sich aus dem Schnittbild grob schätzen: PV 10nm (RMS = 3.5nm)
Das wären 0.7% Streulicht - passt inclusive kleiner Restfehler gut zu den angegebenen Strehl 0.990

(Die TIS-Formel ist nämlich nichts anderes als eine Taylor Approximation der Strehlformel im Fall kleiner Höhendifferenzen - als Differenz zu 1.000)

So würde das Foucault Bild dazu aussehen, wieder mit OF simuliert....



.... und weil es so schön ist, das ganze um 90° gedreht.



MTF, als die zentrale Übertragungseigenschaft für Kontraste, darf natürlich nicht fehlen - ja ich weiß, mit dem Mund voller Chipse kann man sowas schlecht interpretieren



Weitergehende Folgerungen erspare ich mir, ich wollte nur zeigen, was der Stand der Technik in Sachen Modellbildung/Messtechnik ist.

Und dass es mit zielgerichtetem Messaufwand und den passenden Modellen möglich ist, sich ein komplettes und realistisches Bild über die Auswirkungen von Rauheit zu machen.

Da ich die Daten von Alois und Guntram (S&T Artikel) sowie Kurt jetzt skizzenhaft in meine Modelle eingebaut habe, ist für mich klar, dass ein weiteres Vertiefen unweigerlich auf das Festlegen von Toleranzen , direkt auf der Spiegeloberfläche, hinausläuft.

Toleranzen festlegen ist aber ein extrem heikler Punkt, den ich schon vor zwei Jahren für meinen 33" Dünnspiegel intensivst betrieben habe. Sogar expilzit unter dem Einfluss von Seeing.
(So ein Projekt anzugehen ohne theoretische Chance auf eine akzeptables Bild wäre heller Wahnsinn, Überraschungen gibt es dann immer noch genug!)

Die Details dieser Berechnungen werden aus verschiedenen Gründen nicht das Licht der Öffentlichkeit erblicken. Jedenfalls solange nicht, bis verlässliche Messungen von ein paar anderen Spiegeln vorliegen. Ich fürchte das kann dauern und interessieren tut es mich bis dahin nicht mehr wirklich.

Das gleiche gilt für die Feinheiten der Poliertechnik. Denn das hängt eng mit den Toleranzgrenzen zusammen.

Alois war so großzügig und hat seine Erfahrungen öffentlich gemacht. Es gibt also mehr als ausreichend Anregungen für jeden Spiegelschleif Einsteiger. Inzwischen gelingen Anfängerwerke so gut, dass sich jeder Hersteller besser um einen Vergleich herum drückt:
http://www.astrotreff.de/topic.asp?TOPIC_ID=156108&whichpage=4

Wünsche weiterhin fröhliches Chips-Knabbern!
Ich bin dann mal draußen...

Viele Grüße
Kai

Bearbeitet von: am:
Zum Anfang der Seite

Kalle66
Forenmeister im Astrotreff

Deutschland
8876 Beiträge

Erstellt  am: 13.12.2013 :  01:35:49 Uhr  Profil anzeigen  Antwort mit Zitat
Antwort von: Gert
Gesendet am: 10.12.2013 04:56:11 Uhr



Hallo Beisammen,

Wie würde der Vergleich zwischen Rauheit 'in' der Spiegeloberfläche und Staubkrümels 'auf' der Oberfläche aussehen? Sieht man ein Staubkorn als 'schwarze' Abschattende Maske oder als weißes / (graues) Lichtpünktchen an? Beides würde zu Kontrastverlust beitragen. Von den Experten würde ich gerne mal wissen, ob es mehr Sinn macht sich über die Staubfreiheit der Optik Gedanken zu machen, oder über die Rauheit.

Clear Skies,
Gert


Antwort von: Alois
Gesendet am: 10.12.2013 11:06:00 Uhr



Hallo Gert.

Staubkrümel sind unterm Normaskimikroskop hell leuchtende Punkte. Solchen Staub musste ich bei sehr guten Flächen bewusst als Fokusierhilfe erzeugen damit ich die Lage der Fläche finden konnte. Deshalb sind meine Bilder am Linsenrand gemacht worden. Damit habe ich gleichzeitig den Beweis der Fokuslage dabei. Bei stellen innerhalb der Fläche habe ich das nicht mehr. Da hilft nur Noch die Aperturblende oder der Staub als Starthilfe bis man endlich auch die Struktur der Fläche sieht.

Beim Weisslichtinterferomter escheinen Staubteilchen als dunkle Ausfallstelle, weil dort keine Interferenz zustande kommt.

Beim Lyottest erscheint der Staub selber auch als dunkle Stelle aber an seinem Rand entsteht Beugung und die leuchtet genau so hell wie jene die vom Aperturrand oder der Fangspigelstrebe. Das kann sehr breit werden. Siehe das Bild oben, wo ich die Breite des Streulichts der Aperturkante gemessen habe.

Zitat:
ob es mehr Sinn macht sich über die Staubfreiheit der Optik Gedanken zu machen, oder über die Rauheit.
Hier würde ich sagen. Wenn es um ein gutes Dunkelfeld zu bekommen geht, ist mehr auf den Staub zu achten.
Wenn es um eine gute scharfe Abbildung geht ist eher auf die Mikrorauheit zu achten.

Beim Lyottest kann ich zum Glück mit der Streulichtmessung gut dienen. Aber bei der Darstellung der Flächengestalt habe ich bemerkt dass nicht nur die Spaltbreite eine Rolle spielt sondern auch die Breite Des Lichtspalts.
Dazu werde ich in einer Woche eine Dokumentation bringen können.

Viele Grüße
Alois


Antwort von: Amateurastronom
Gesendet am: 10.12.2013 14:35:27 Uhr



Hallo Kurt!

Zitat:
Original erstellt von: Kurt
… Ein Lyotfilter mit genau definierter Dämpfung und Phasenverschiebung, idealerweise ¼ Lichtwellenlänge für das durchgehende Licht.


Nur eine kleine Anmerkung, wo ich mich gerade durch diesen Mammut-Thread arbeite: Ich würde in diesem Zusammenhang von einem Lyot-Testplättchen etc. sprechen.

Unter einem Lyot-Filter versteht man eigentlich einen Polarisationsinterferenzfilter verstehen wie er zur Sonnenbeobachtung (Day-Star-Filter) verwendet wird und z.B. im Buch von Ingalls "Amateur Telescope Making" Band 3 oder im Bergmann-Schäfer Optikband beschrieben ist. Ich habe mal selbst angefangen, einen solchen Filter zu bauen.



Antwort von: Kurt
Gesendet am: 10.12.2013 15:37:17 Uhr



Hallo Amateurastronom,

vielen Dank für die Korrektur. Klar, das muss Lyotplättchen oder Lyot-Testplättchen heißen.

Gruß Kurt



Antwort von: astrohans
Gesendet am: 10.12.2013 12:51:18 Uhr



Da der Foucault Test (wenn der Testaufbau entsprechend ausgefeilt ist) Strukturen im Bereich weniger Nanometer zeigen kann gab es eigentlich für Spiegelschleifer bisher keine Probleme hinsichtlich Bewertung der Rauheit. Probleme werden fast ausschließlich durch die Verwendung schlechter Materialien und falscher Poliertechnik verursacht. Auch Wellenoptik, Gitterkonstanten und Beugungserscheinungen sind hinlänglich bekannt (Physik Oberstufe).
Welches Problem wurde jetzt eigentlich gelöst ? Aus meiner Sicht ist einzig und allein die Quantifizierung der Oberflächengüte (Rauheit) offen - wenn sich da ein Standard durchsetzen würde hätten die Amateure sicher kein Problem.
Ich akzeptiere jedenfalls keinen Spiegel mehr der mit meinem Foucault-Tester Abweichungen in der Feinstruktur zeigt. (Kratzer nicht mit eingeschlossen)
Beste Grüße, Joachim



Antwort von: Kurt
Gesendet am: 10.12.2013 18:02:04 Uhr



Hallo Joachim,

Zitat:
Da der Foucault Test (wenn der Testaufbau entsprechend ausgefeilt ist) Strukturen im Bereich weniger Nanometer zeigen kann gab es eigentlich für Spiegelschleifer bisher keine Probleme hinsichtlich Bewertung der Rauheit...
...Probleme werden fast ausschließlich durch die Verwendung schlechter Materialien und falscher Poliertechnik verursacht…
…Ich akzeptiere jedenfalls keinen Spiegel mehr der mit meinem Foucault- Tester Abweichungen in der Feinstruktur zeigt. (Kratzer nicht mit eingeschlossen)…

Bis dahin wird dir zumindest niemand aus der Spiegelschleiferzunft widersprechen. Wäre nur zu ergänzen dass man mit Foucault nur extrem großen Asti sehen kann. In der „Urzeit“ der Spiegelschleiferei (so ca.10 Jahre zurückliegend) waren noch Substrate mit D/d =6 üblich.
D = Spiegeldurchmesser
d = Dicke
Da war das Risiko für Asti relativ gering. Gewerbliche Anbieter arbeiten immer noch gerne mit ähnlichem Dickenverhältnis und schaffen es trotzdem des Öftern Asti einzubauen. Deshalb würde mich beim Kauf eher auf ein ordentliches Protokoll auf Interferometerbasis verlassen. Für die Spiegelschleifer mit ihren zunehmend dünneren Spiegel ist das Interferometer als zusätzliches Prüfgerät mittlerweile unentbehrlich geworden.
Zitat:
Auch Wellenoptik, Gitterkonstanten und Beugungserscheinungen sind hinlänglich bekannt (Physik Oberstufe)

Der ist gut! Was schätzt du denn wie viele Leser und Poster hier Physik Oberstufe absolviert und/oder jemals in ihrem Leben ein physikalisches Grundpraktikum absolviert haben? Da erhoffe ich mir von Kais Posting für diese „Benachteiligten“ etwas an Nutzen.
Zitat:
…Welches Problem wurde jetzt eigentlich gelöst ? Aus meiner Sicht ist einzig und allein die Quantifizierung der Oberflächengüte (Rauheit) offen - wenn sich da ein Standard durchsetzen würde hätten die Amateure sicher kein Problem.

Quantifizierung von Rauheit bis in den Sub-mm Bereich ist selbst mit Amateurmitteln kein Problem, die Quantifizierung der Wirkung auf die Kontrastübertragung ebenfalls nicht. Dazu gibt es einschlägige Fachliteratur.

Gruß Kurt



Antwort von: fraxinus
Gesendet am: 10.12.2013 23:49:53 Uhr



Hallo Gert,

wegen dem Staub: Horia hat ein PDF ausgegraben, wo die ganzen Einflüsse, speziell für Koronografen, sauber aufgelistet sind:
http://www.cosmo.ucar.edu/publications/nelson_tech4_10-06.pdf

Bin gespannt was Du dazu sagst. Nebenbei beantwortet es die Frage von Emil, ob die Aluschicht eventuell einen Teil der Rauheit zudeckt.
Ja, tut sie. Bis zu Defekt-Breiten von1µm bei nicht zu großer Höhe.
***

Hallo an alle,
hier ist ein interessanter Link zur Energieverteilung der Airy Disc bis zum 100. Ring
http://home.strw.leidenuniv.nl/~kenworthy/nelse/2006/07/11/airy_rings/

Ich hatte ein einfaches Modell vorgeschlagen, wie man das Streulicht aus einer gegebenen Oberflächenform berechnen kann:

Für kleine Streuwinkel und kleine Höhendifferenzen gilt:

  • Der Streuwinkel ist umgekehrt proportional der Strukurbreite

  • Die Streu-Intensität ist proportional dem Quadrat des RMS Wertes


Ich hatte weiterhin erwähnt, dass dies eine ungeheuerliche Sache ist, wenn man sich das mit dem gesunden Menschenverstand (=Modell Lichtstrahl) vorstellt. Ist das nicht komisch?

Und weiter:
Die Streuintensität vervierfacht sich, wen sich die Defekt-Höhen verdoppeln?

Wollen wir das jetzt als Modell nehmen, ja oder nein?
Bedenkt es wohl, es gibt kein zurück

Nach dieser Warnung und zur weiteren Verunsicherung Festigung gibt es eine kleine Advents Aufgabe:

Es ist bekannt, dass die Wichtel um die Weihnachtszeit gern an Spiegeln herumschaben.
Deshalb lässt man die guten Optiken in dieser Zeit nie ohne Deckel irgendwo herumliegen.

Denn allzu schnell kann so etwas passieren:


_____  4mm  _____       _____       _____       _____
     |     |     |     |     |     |     |     |     |
     |     |     |     |     |     |     |     |     |       h=4nm (PV)
      -----  4mm  -----       -----       -----       -----


Regelmäßige Gräben, 4mm breit, wurden gezogen. Saubere Arbeit, oben und unten alles glatt gegangen!

Die Wichtel hoffen natürlich darauf, dass niemand den Schabernack im Foucault-Test sehen kann. Um sich später beim Firstlight spöttisch die Hände zu reiben.

Aber sicher sind sie sich nicht. Wird überhaupt Streulicht entstehen? Wieviel wird es sein und welche Richtung ist zu erwarten? Oder sieht man es im Foucault Test doch?

Helft den Wichteln und ihr werdet reich belohnt!

Viele Grüße
Kai


Antwort von: Gerd-2
Gesendet am: 11.12.2013 03:17:07 Uhr


Hallo,
die theoretischen Grundlagen sind schon weitestgehend die Richtigen. Allein die Größenordnung der angenommenen Fehler ist das Problem.
Natürlich, wenn ich winzige Fehler annehme dann verwundert es auch nicht wenn dann beim Rechenergebnis rauskommt das diese zu vernachlässigen sind da deren Auswirkung nahezu bedeutungslos ist.

Sicher das hat uns Kai schön vorgerechnet, dass aber die angenommenen Werte für eine mögliche hochfrequente Welligkeit viel zu klein sind interessiert Ihn nicht und offenbar auch sonst niemanden hier.

Hochfrequente Welligkeit ist das was im Allgemeinen irrtümlicherweise als Rauheit angesehen wird da es zb. im Lyot Test diesen Eindruck erweckt. Kais Sinuswelle ist hochfrequente Welligkeit. Mit der Echten Mikrorauheit hat das allerdings noch nichts zu tun.

Nun hat uns Alois aber schon in Seinem Eingangbeitrag gezeigt das es hochfrequente Welligkeit sehr wohl im beträchtlichem Ausmaß geben kann und sich diese dann geradezu dramatisch auf die Abbildung auswirkt. Und das obwohl Fehler niederfrequenter Welligkeit bzw. der globalen Form viel geringer ausgeprägt sind.



Rechnet man den Strehl in RMS um so ergibt die klassische Auswertung welche nur die globale Form und niederfrequente Welligkeit berücksichtigt.

Strehl 0,86 = RMS 0,062 lambda bzw. RMS 34,1 Nanometer
Inklusive der hochfrequenten Welligkeit wie sie nur durch FFT zu erfassen ist ergibt sich.

Strehl 0,5 = RMS 0,132 lambda bzw. RMS 72,6nm

Zieht man vom Gesamtfehler RMS 72,6nm den Fehler für die niederfrequente Welligkeit mit RMS 34,1nm ab dann erhält man allein für die hochfrequente Welligkeit einen Fehler von
Wurzel aus (72,6^2 – 34,1^2) = 64,1nm

Fehler allein der hochfrequenten Welligkeit = RMS 64,1nm!
Fehler der niederfrequenten Welligkeit = RMS 34,1nm

Das führt Kais Theorie, dass hochfrequente Fehler zwangsläufig wesentlich kleiner sein müssen als niederfrequente Fehler ad absurdum. Leider kann er sich nicht von Seiner Sichtweise trennen und rechnet daher trotz des von Alois schon im Eingangsbeitrag gebrachten Beispiels stur mit ganz winzigen Fehlern.

Seine Sinuswelle mit 2 bzw. 4nm PV also RMS 1nm bzw. RMS 2nm ist geradezu lächerlich gegen die von Alois gemessene hochfrequente Welligkeit mit RMS 64,1nm.

Die Berechnung des RMS der Sinuswelle von Kai mit dem Umrechnungsfaktor 2 * Wurzel 2 also 2,8 ist übrigens falsch.
Es ist zwar richtig das sich der Effektivwert also der RMS einer Halbwelle aus Amplitude der Halbwelle /Wurzel 2 berechnet aber das bedeutet nicht das der RMS der gesamten Welle dann einfach mit Gesamthöhe / (2* Wurzel 2) zu berechnen wäre so wie es Kai annimmt.

Der RMS lässt sich nicht einfach nach dem Schema Wert A + Wert B = Gesamtwert addieren.
Der RMS addiert sich wie folgt

RMS gesamt = Wurzel (Wert A^2 + Wert B^2)

Es ergeben sich für eine Sinuswelle mit der Gesamthöhe ( 2* Amplitude) von 2nm also für jede Halbwelle Effektivwerte von (die Amplitude ist ja 1nm) 1nm / 1,41 = RMS 0,71nm.
RMS Gesamt ist demzufolge Wurzel aus (0,71nm^2 *2) = 1nm

Man kann es natürlich auch einfacher haben wenn man simpelste Logik an den Tag legt.
Teilt man die Sinuswelle exakt in der Mitte in 2 identische Halbwellen steht jedem Wellenberg exakt das gleiche Wellental gegenüber. Logischerweise ist der RMS daher also Gesamthöhe der Welle / 2 und nicht 2,83 wie es Kai behauptet.

Aber zurück zum eigentlichen Thema.

Halten wir fest.
Es kann sehr wohl hochfrequente Welligkeit im beträchtlichen Ausmaß geben. Diese wird von der klassischen Streifenauswertung nicht erfasst!

Es kann daher wegen dieser hochfrequenten Welligkeit auch bei Optiken die in der klassischen Streufenaswertung gut abschneiden zu einer erheblichen Kontrastminderrung kommen. Also auch dann wenn die niederfrequente Welligkeit noch ganz harmlose Werte aufweist.

Hochfrequente Welligkeit ist das was irrtümlicherweise oft als Rauheit bezeichnet wird. Hochfrequente Welligkeit ist das, was im Lyot Test sichtbar wird.

Wer den Begriff der Rauheit für hochfrequente Welligkeit verwendet hat damit absolut recht wenn Er auf deren Wichtigkeit hinweist und versucht diese im Rahmen seiner Möglichkeiten zu untersuchen.

Wer nur Streifenauswertung betreibt, tut gut daran mit dem Lyot Test die Optik auf eine relevante hochfrequente Welligkeit hin zu überprüfen. Es sei ihm aber trotzdem unbedingt der Umstieg zur FFT Auswertung empfohlen, da nur diese eine vernünftige Quantifizierbarkeit ermöglicht.
Die Unzulänglichkeiten des Lyot Testes wurden hier beschrieben, ändern aber nichts daran das dort sichtbare „ Rauheit“ durchaus ein Problem sein kann (nicht zwangsläufig sein muss).

Grüße Gerd



Antwort von: Horia
Gesendet am: 11.12.2013 07:18:30 Uhr



Hallo Gerd,

Zitat:
Sicher das hat uns der Kai schön vorgerechnet, dass aber die angenommenen Werte für eine mögliche hochfrequente Welligkeit viel zu klein sind interessiert Ihn nicht und offenbar auch sonst niemanden hier.
Ein Rechenbeispiel hat als Aufgabe eine abstrakte Formel mit Leben zu füllen. Man kann, so wie du und Kai es gemacht haben, entweder mit Zahlen der schlechten oder der guten Politur es tun.

Zitat:
Die Berechnung des RMS der Sinuswelle von Kai mit dem Umrechnungsfaktor 2 * Wurzel 2 also 2,8 ist übrigens falsch. ...
Hier hast du leider das RMS-Prinzip falsch verstanden. Eine gute Erklärung z. B. hier: http://de.wikipedia.org/wiki/Effektivwert

Viele Grüße,
Horia



Hallo Gerd,

Ich kann deine Berechnung leider nicht nachvollziehen. Bitte beschreibe genauer was du hier gemacht hast. Wo kommen die Daten her, was versuchst du daraus zu berechnen, was wird in den Bildern dargestellt, und in welcher Beziehung stehen die Bilder zu deiner Berechnung?
Zitat:
Original erstellt von: Gerd-2
Die Berechnung des RMS der Sinuswelle von Kai mit dem Umrechnungsfaktor 2 * Wurzel 2 also 2,8 ist übrigens falsch.

Kais Umrechnungsfaktor ist richtig.



Antwort von: Gerd-2
Gesendet am: 11.12.2013 11:53:55 Uhr



Hallo Horia,

Zitat:
Man kann, so wie du und Kai es gemacht haben, entweder mit Zahlen der schlechten oder der guten Politur es tun.



na ja es geht hier ja darum ob Rauheit bzw. eine hochfrequente Welligkeit wie sie im Lyot Test sichtbar ist ein Problem darstellt oder nicht.
Das es bei einer super Politur keines ist darüber sind sich doch alle Seiten einig.
Das muss hier also auch niemand beweisen.

Es geht darum ob sie bei einer schlechten Politur Probleme machen kann und daher muss man natürlich dann auch mit den Zahlen einer schlechten Politur arbeiten wenn man das rausfinden will.

Zitat:
Hier hast du leider das RMS-Prinzip falsch verstanden. Eine gute Erklärung z. B. hier: http://de.wikipedia.org/wiki/Effektivwert



Wenn Du und Michael den Faktor zustimmt macht mich das schon nachdenklich. Allerding überzeugen könnt ihr mich nur mit einer entsprechenden Herleitung. Ich habe die Meine bereits dargelegt.

Betrachten wir das mal konkret am Beispiel Wechselspannung, so wie es auch in Wiki gehandhabt wird. Der auf Wiki beschriebene Effektivwert U eff =1/wurzel 2*U gilt wenn die Richtung des Stroms keine Rolle spielt für beide Halbwellen.
Möchten wir zb. die Leistung errechnen nach der Formel P = U * I benötigen wir den Effektivwert. Für die Leistung P ist es unerheblich in welche Richtung der Strom fließt. Der eigentliche Lastverlauf ist hier keine Sinuswelle sondern die Aneinanderreihung beider Halbwellen so wie das bei einer Gleichrichtung mit Brückengleichrichter der Fall ist.

http://de.wikipedia.org/wiki/Gleichrichter

Uns interessiert nun aber nicht der RMS so einer Aneinanderreihung von Halbwellen sondern der der gesamten Sinuswelle mit PV von Wellental zu Wellen Berg. Hier wäre jetzt eine Herleiten gefragt.
Man kann für den RMS jetzt nicht einfach mit Faktor 2 arbeiten.

Ich verstehe unter RMS den nach Fläche bzw. im Falle einer 2 dimensionalen Welle nach Länge gewichteten Durchschnitt. Es erschein mir bei der Sinuswelle logisch das dieser exakt auf halber Höhe also halben PV liegt. Es steht auf halber Höhe ( um im Beispiel Wechselstrom zu bleiben bei Spannung 0 ) einem Wellenberg immer das passende Wellental gegenüber.

(==>) Michael
Zitat:
Ich kann deine Berechnung leider nicht nachvollziehen. Bitte beschreibe genauer was du hier gemacht hast. Wo kommen die Daten her, was versuchst du daraus zu berechnen, was wird in den Bildern dargestellt, und in welcher Beziehung stehen die Bilder zu deiner Berechnung?

Ich habe doch eigentlich alles beschrieben. Die Bilder und damit die Strehlwerte kommen von Alois, siehe Eingangsbeitrag. Da Alois leider keinen RMS angegeben hatte habe ich diesen aus dem Strehl den Alois angegeben hat errechnet.

Der Grund für diese Rechnung liegt darin, den Anteil der reinen hochfrequenten Welligkeit am Gesamtfehler zu ermitteln. Dieser muss logischerweise die Differenz von Gesamtfehler ( Strehl 0,5 bzw. RMS 72,6nm) und dem Fehler der nur die niederfrequente Welligkeit berücksichtigt ( Strehl 0,86 bzw. RMS 34,1nm) sein.

Hier komme ich wie ich ausführlich vorgerechnet hatte auf einen Wert von RMS 64,1nm.

Grüße Gerd



Antwort von: mkoch
Gesendet am: 11.12.2013 13:08:16 Uhr


Hallo Gerd,

Zitat:
Original erstellt von: Gerd-2
Uns interessiert nun aber nicht der RMS so einer Aneinanderreihung von Halbwellen sondern der der gesamten Sinuswelle mit PV von Wellental zu Wellen Berg.



RMS ist der quadratische Mittelwert. Da beim Quadrieren das negative Vorzeichen der einen Halbwelle verloren geht, ist es völlig egal ob du eine Sinuswelle oder eine gleichgerichtete Sinuswelle betrachtest. Beide haben den gleichen RMS Wert.

Zitat:
Original erstellt von: Gerd-2
Ich verstehe unter RMS den nach Fläche bzw. im Falle einer 2 dimensionalen Welle nach Länge gewichteten Durchschnitt. Es erschein mir bei der Sinuswelle logisch das dieser exakt auf halber Höhe also halben PV liegt.


Das was du hier beschreibst bezeichnet man üblicherweise als Mittelwert. Der Mittelwert ist nicht identisch mit dem quadratischen Mittelwert (RMS).

Gruß
Michael



Antwort von: Horia
Gesendet am: 11.12.2013 13:47:07 Uhr


Hallo Gerd,

Michael hat die Herleitung schon erklärt. In deiner ursprünglichen Herleitung ist noch einen subtilen Fehler enthalten:

Die Quadratische Summierung von zwei RMS-Werten geht nur wenn die jeweiligen grundlegenden Größen voneinander unabhängig sind (keine Korrelation zueinander haben). Z.B. beim summieren von zwei Sinuskurven gleichen Amplitude und Frequenz aber in Antiphase bekommt man einen RMS-Wert = 0 und nicht 1,4 der einzelne RMS-Werte.

Aus dem gleichen Grund funktioniert der Achromat: die RMS-Werte der optischen Fehlern einzelnen Linsen werden nicht quadratisch addiert weil gleiche Fehlerarten korrelieren und u. U. sich gegenseitig aufheben.

Viele Grüße,
Horia



Antwort von: astrohans
Gesendet am: 11.12.2013 12:17:44 Uhr



Beugung am Gitter würde ich nicht als Streulicht bezeichnen - als Modell sicher verwendbar da mathematisch erfassbar aber kaum Bezug zur Praxis. Als Streulicht bezeichne ich alle Photonen die vom Spiegel auf dem Chip ankommen aber nicht zur Bilddefinition beitragen sondern nur das Grundrauschen anheben.
Beim Foucault Test würde ich z.B. alles was ausserhalb der Spaltebene zurückkommt wenn der Spiegel bereits dunkel ist als Streulich bezeichnen. (natürlich sollte der Spiegel auspoliert und die Kante abgedeckt sein)
Ich gehe davon aus das Amateur bzw. Handpolituren mit dem richtigen Pech, feinem Ceri und nicht zu kleinen Tools weiterhin bessere Oberflächen bringen können als maschinelle Massenware.
Beste Grüße, Joachim


Antwort von: Horia
Gesendet am: 11.12.2013 12:41:53 Uhr



Hallo Joachim,

Zitat:
Beugung am Gitter würde ich nicht als Streulicht bezeichnen - als Modell sicher verwendbar da mathematisch erfassbar aber kaum Bezug zur Praxis.

Oh, da sind einige Feinheiten drin.

Eine Raue Oberfläche ist nichts anderes als eine Überlagerung von vielen (sehr viele) sinusförmigen Beugungsgittern, mit unterschiedlichen Gitterkonstanten, und unterschiedlichen Orientierungen auf der Oberfläche. Wenn man verstanden hat, wie Beugung am Gitter (als einfache, mathematisch erfassbare Situation) funktioniert, hat man die Grundlage erschaffen um das Streulicht zu verstehen. Das kommt aber als zweiter Schritt dazu.

Viele Grüße,
Horia



Antwort von: Cleo
Gesendet am: 11.12.2013 12:45:10 Uhr


Zitat:
Original erstellt von: astrohans
Ich gehe davon aus das Amateur bzw. Handpolituren mit dem richtigen Pech, feinem Ceri und nicht zu kleinen Tools weiterhin bessere Oberflächen bringen können als maschinelle Massenware.


Die Frage ist noch, was heißt besser?
Trägt man die mittels Interferometer / Mikrointerferometer / AFM etc. gemessene Oberflächenform (nach Fouriertransformation) gegen die Ortswellenlängen auf, erhält man die sogenannte Power Spectral Density. Mit der kann man den ganzen Bereich von den niedrigsten Zernikes bis zur Mikrorauhigkeit abdecken und sieht direkt, wieviel Streulicht man bei welchen Streuwinkeln zu erwarten hat. Umgekehrt kann man die PSD auch aus einer Streulichtmessung bestimmen.

Zum Nachlesen (harte Kost auf Englisch, vielleicht mal nur die Einleitung): http://meripet.com/Papers/SPIE09_7390_0L.pdf

Zum Beispiel der Vergleich einer Spiegelfläche vor und nach Aluminiumbeschichtung: hier

Welche PSD-Verläufe bei der Beobachtung tatsächlich stören / relevant sind, ist eine andere Frage... zumal es sicher auch andere Streulichtquellen gibt.

viele Grüße

Holger



Antwort von: FrankH
Gesendet am: 11.12.2013 13:29:23 Uhr



Hallo

Wenn man es mal mit Foucault probiert,da stellt sich das Problem das die Zone um mit Maske messbar zu sein eine Mindestbreite haben muß. Das Messergebniss gilt eigentlich für eine als Gerade abweichende Zone,die Programme versuchen aber es als Kurve um zurechnen da man annimmt das es von der Polierweise
Die Form ist welche theoretisch Warscheinlich ist.
Nimmt man nun einen Randabfall von 1/10 lambda auf einer Breite von 5mm,dann steht diese genau so schräg wie 1 lambda auf 50mm,wo das Licht dann hingeht braucht man wohl nicht weiter erklären.
Setzt sich diese Welligkeit des Randes über die ganze Fläche mit dieser Breit und Amplitude fort ist der Spiegel trotz lambda/10 völliger Versager,es spielt nicht mal eine Rolle ob ich Surface oder Wavefront meine.
Ich nehme an Layot zeigt nur an das die Flächen unterschiedliche Höhen aufweisen,der Winkel in dem die Flächen stehen ist nicht messbar.
Alois sein Beispiel mit dem Interferogramm ist aber noch auf viel groberer Ordnung,eigentlich nicht Mikrorauhigkeit sondern Zentirauigkeit, die sichtbaren Interferenz Störungen der Optik der Prüfaperatur dann wohl im Millimeterbereich.
Wenn diese Ripple vom Spiegel wären dann ist das die Grenze was ein Interferometer zeigen könnte,
Bis zu der Strukturgröße welche Layot zeigt klafft eine riesige Ungewissheit.
Eigentlich könnte man wenn man die Regeln def Spiegel Herstellung in Handarbeit befolgt einen f/15 Spiegel blind herstellen, es baut alles darauf auf das die Bewegungmachanik automatisch die richtige Form hervorbringt, darauf baut auch der angenommene Umrechnungsfaktor von PTV in RMS.
Nun weis jeder das man auch mit Foucault schon eine schöne Orangenhaut sehen kann und oft liegt die Annahme wo dieser Fehler herkommt und wie man ihn abstellt richtig,die Regel ist alsowed die bewährte Methode anwendet wird ein schönes Ergebniss erreichen.
Das ist im Fall der Minitoolpolierei nur noch der Fall wenn man im Inferferogramm wie Alois die Zentimeferrauigkeit noch messen kann.
Interessant wäre ein 1cm Ausschnitt eines mit Volltool brav polierten Spiegels mit einem Ausschnitt zu vergleichen welcher mit Minnitool poliert wurde, ob dort verstärkt Fehler höherer Ordnung auftreten.
Ist eigentlich anzunehmen,doch ist anzunehmen das eine Zone welche 1/4 lambda Höhe hat beim Wegpolierenin Der Rauigkeit nur einen geringeren Fehler aufweist,sonst könnte man es auch lassen.

Gruß Frank



Antwort von: Kalle66
Gesendet am: 11.12.2013 16:58:30 Uhr


Hallo Frank,
zur Erklärung des Foucaulttests reicht simple geometrische Strahlenoptik aus. Damit kannst Du aber kein Streulicht aufgrund von Mikrorauheit erklären. Dazu musst Du mit Konzepten der Wellenfrontanalyse arbeiten oder die Orangenhaut nach Bauchgefühl beurteilen.

Ich geb Dir aber recht, dass - soweit ich hier das noch nachvollziehen kann - Alois offensichtlich andere Größenordnungen der Rauheit untersucht, als Kai in seiner "Übungsaufgabe". Insoweit werden hier zwei unterschiedliche Fälle parallel diskutiert.

Kai hat allerdings die Bestimmungsfaktoren auf den Nenner gebracht.
Zitat:
Halten wir fest - für kleine Streuwinkel und kleine Höhendifferenzen gilt:
Der Streuwinkel ist umgekehrt proportional der Strukurbreite
Die Streu-Intensität ist proportional dem Quadrat des RMS Wertes
Der Umkehrschluss bestätigt, was alle wissen: Die kleinste Ortsfrequenz der zu untersuchenden Spiegelfläche (das wäre der Spiegeldurchmesser selbst) liefert den geringsten Streuwinkel (Größe des Airydisk bzw. Auflösungsvermögen). Und dass dieser Zusammenhang linear ist, zeigt auch die klassische Rayleigh-Formel: sin(delta) = 1,22*Lambda/Durchmesser.

Damit eröffnet sich - zumindest gedanklich - auch folgende Sichtweise auf das Problem. Man zerlege mittels Fouriertransformation die Oberflächenform des Spiegels (Ortsfrequenzen der Oberfläche) in einzelne Wellenlängen. Heraus kommt eine Reihe von additiven Termen mit jeweiligen Gewichtungsfaktoren. Anschließend wendet man auf die jeweiligen Wellenlängen der Ortsfrequenzen das Rayleigh-Kriterium an und erhält ein Maß wie sich das Licht im Abbild verteilt. Oder?

Bearbeitet von: Kalle66 am: 13.12.2013 01:38:54 Uhr
Zum Anfang der Seite

Kalle66
Forenmeister im Astrotreff

Deutschland
8876 Beiträge

Erstellt  am: 13.12.2013 :  14:19:29 Uhr  Profil anzeigen  Antwort mit Zitat
Kommentare zu meiner Überarbeitung bitte

entweder per PN an mich Klicken um Email zu senden

oder HIER

Ansonsten darf hier fachlich weiter diskutiert werden.

Gruß
Kalle

Kalle - Alles wird gut !
Meine Okulardatenbank im Astrotreff: hier
Termine Teleskoptreffen gibt es hier

Bearbeitet von: am:
Zum Anfang der Seite

ebi_ebi
Mitglied im Astrotreff

Deutschland
40 Beiträge

Erstellt  am: 13.12.2013 :  21:22:29 Uhr  Profil anzeigen  Besuche ebi_ebi's Homepage  Antwort mit Zitat
Hallo Interessierte der MiKrorauigkeit (oder der glatten Fläche)!

Leider bin ich zwar schon länger aus dem Thema raus, möchte aber noch etwas beitragen.

Bekannt ist doch zunächst, das jede noch so gut polierte Oberfläche Mikrorauigkeit zeigt. Dabei besteht die Abweichung von einer ideal glatten Oberfläche aus unregelmäßigen Strukturen, die je nach ihrer vertikalen und lateralen Ausdehnung und Verteilung das Ausmaß und die Art der Oberflächenrauigkeit festlegen.

Grundsätzlich kann man sagen, das es nicht trivial erscheint, ein geeignetes Maß zur Charakterisierung von Mikrorauheit (und das Problem der Quantifizierung) zu finden.

Legt man eine Nullebene fest und definiert man die mittlere quadratische Abweichung der realen Oberfläche von dieser Idealfläche als Maß für die Rauigkeit, so geht die Strukturinformation über die Oberfläche verloren.

Sinnvoll erscheint es daher, eine spektrale Darstellung zur Charakterisierung vorzunehmen. Bei optischen Oberflächen nun hängen die optischen Eigenschaften u.a. von der Rauigkeit und der Art der Oberflächenstrukturierung ab.

Wesentlich ist dabei, wie groß die laterale und die vertikale Ausdehnung der Rauigkeitsstrukturen im Vergleich zur verwendeten Lichtwellenlänge ist!

Das Licht wird an den Rauigkeitsstrukturen gestreut und die Lichtintensität, der Bildkontrast und das Auflösungsvermögen der Abbildungsoptik nehmen bei wachsender Oberflächenrauigkeit ab.

Ich hatte es bereits für die Lichtstreuung in Verbindung mit der Mikrorauigkeit optischer Oberflächen angesprochen.

Zitat Eberhard:
Zitat:
Dazu noch grundlegende Betrachtungen:

Horia hat es vortrefflich beschrieben, Skalartheorien sind sehr nützlich, wenn man TIS-Betrachtungen anstellt (Total Integrated Scattering). Mit TIS-RMS wird genau der Anteil des insgesamt an einer optischen Oberfläche reflektierten Lichts bezeichnet, der diffus an den Mikrorauigkeiten in beliebige Raumrichtungen gestreut wird und damit in Richtung des geometrischen Reflexionswinkels verloren geht. Man setzt im Rahmen der skalaren Lichtbeugungstheorie als Wellenfunktion des gestreuten Lichts das altbekannte Fresnel-Kirchhoff´sche Beugungsintegral an. Integriert man nun über die Intensitäten des in die verschiedenen Raumrichtungen gestreuten Lichts, kann man die TIS-Intensität gut abschätzen.

Die Beziehung zwischen TIS und Rauhigkeit bzw. Lichtwellenlänge liefert für reale optische Oberflächen (wobei auch polierte Metalloberflächen eingeschlossen sind!) im nahen Ultraviolett, im Sichtbaren und im nahen Infrarot gute Vorhersagen. Aus TIS-Messungen konnten außerdem für poliertes Glas Mikrorauigkeitswerte in guter Übereinstimmung mit entsprechenden interferometrischen Rauigkeitsanalysen bestimmt werden.

Will man jedoch eine präzise Aussagen über die Winkelverteilung von gestreutem Licht machen, liefern Skalartheorien naturgemäß weniger erfolgreiche Vorhersagen. Denn die Winkelverteilung des Streulichts hängt nicht allein von der Höhenfluktuation der Mikrorauigkeiten ab, sondern ebenso von der lateralen Ausdehnung der Strukturen und ihrer Steilheit.

Das erfolgt mit Vektorstreutheorien. Sie haben im Vergleich zu den skalaren Streutheorien vor allem den Vorteil, daß korrektere Aussagen über die Winkelverteilung des Streulichts möglich sind. Der Grund dafür ist, daß im Rahmen dieser Theorien Polarisationseigenschaften des einfallenden und des gestreuten Lichts ebenso berücksichtigt werden können wie die statistischen Eigenschaften von rauen Streuoberflächen.

In zwei prinzipiell verschiedene Ansätzen wird dazu die Rauigkeit bezogen auf eine ideal glatte Oberfläche störungstheoretisch wie z.B. für die Small Perturbation Method beschrieben.

Diese Vektorstreutheorien zur Lichtstreuung an rauhen Oberflächen beschreibt die optischen Eigenschaften einer Oberfläche stets als Funktionen eines 2-dimensionalen Leistungsdichtespektrums (PSD Spektrums). Eine glatte, optische Oberfläche beschreibt daher die fraktalen Parameter und die Mikrorauigkeit der Oberfläche. Denn wie aus der Praxis bekannt, kann eine Fläche mit gleichem Rauigkeitswert bei gleicher Grundfläche unterschiedliche Struktur haben.



Das Stratton-Chu-Silver-Integral ist beispielsweise das vektorielle Gegenstück zu dem von Horia sehr gut beschriebenen skalaren Fresnel-Kirchhoffschen Integral.

Im Prinzip kann man mit diesem Integral exakte Antworten zur Lichtstreuung in alle Richtungen geben. Praktisch läßt es sich aber für die Wellenfunktion des gestreuten Lichts nur unter nähernden Annahmen lösen denn die verschiedenen Streutheorien unterscheiden sich nur in ihren verschiedenen Näherungsmethoden.

Bei der Small Perturbation Methode wird z.B. eine Störungsrechnung betrieben und die Oberflächenrauigkeit als Störung einer perfekt glatten Oberfläche betrachtet.

Da man bei Störungsrechnungen sinnvollerweise von kleinen Störungen ausgeht, wird mit dieser Streutheorie zunächst nur der Extremfall einer „sehr glatten“ Oberfläche erfaßt, also für das Verhältnis zwischen der mittleren Rauigkeit und der Wellenlänge.

Man berechnet so die Streuwellenfunktion für eine perfekt glatte Oberfläche.

Das auf die Streuoberfläche einfallende Licht teilt sich in einen transmittierten und einen reflektierten Intensitätsanteil (in Richtung des geometrischen Reflexionswinkels ohne diffuse Streuung).

In einem zweiten Schritt wird dann die Oberflächenrauhigkeit als Störung berücksichtigt. Störungstheoretisch heißt das, daß die perfekt glatte Oberfläche 0 ist.

Und als Ergebnis erhält man bei dieser Störungsrechnung die pro Raumwinkel gestreute Lichtleistung, die proportional zur dimensionalen Leistungsdichtespektrum (2D PSD Spektrum) der Streuoberfläche ist.

LG
Eberhard

Bearbeitet von: ebi_ebi am: 14.12.2013 08:36:10 Uhr
Zum Anfang der Seite

Kalle66
Forenmeister im Astrotreff

Deutschland
8876 Beiträge

Erstellt  am: 13.12.2013 :  22:40:40 Uhr  Profil anzeigen  Antwort mit Zitat
Hallo Eberhard,
mit dem Stichwort "Stratton-Chu-Silver-Integral" fand ich im Netz eine Dissertation, die auch ein einführendes Kapital zur Lichtstreuung und Mikrorauigkeit enthält. (lt. Duden ohne "h")

Clustersputtern an optischen Oberflächen, Dissertation von Eva Oettinger, 2001
Quelle: http://kops.ub.uni-konstanz.de/bitstream/handle/urn:nbn:de:bsz:352-opus-6836/Clustersputtern.pdf?sequence=1

Gruß
Kalle

Kalle - Alles wird gut !
Meine Okulardatenbank im Astrotreff: hier
Termine Teleskoptreffen gibt es hier

Bearbeitet von: am:
Zum Anfang der Seite

ebi_ebi
Mitglied im Astrotreff

Deutschland
40 Beiträge

Erstellt  am: 13.12.2013 :  23:18:01 Uhr  Profil anzeigen  Besuche ebi_ebi's Homepage  Antwort mit Zitat
Hallo Kalle,

Das ist ja echt klasse. Meine Infos sind aus einem Projekt zu EUVL- bzw. SXPL-Technologien. Ich habe noch Vortragsunterlagen zur Oberflächenbehandlung optischer Flächen, den sogenannten "Sputter"-Technologien. Es beschreibt das Herstellen sehr glatter Oberflächen für Waferstepper. In meinen Unterlagen wird sie auch bezüglich der Clustersputter namentlich zitiert.

Aber gleich ihre Dissertation im Netz zu finden ist ja wohl der Hammer. Das nenne ich ja mal Transparenz...

Und zur "Sputter"-Technologie, die im übrigen Stand der Technik in der prof. Politur von optischen Steppern geworden ist, gibts noch einiges im Netz zu finden.

Vielen Dank für den Link!

LG
Eberhard

Bearbeitet von: ebi_ebi am: 14.12.2013 08:46:40 Uhr
Zum Anfang der Seite

Dietmar
Altmeister im Astrotreff


1186 Beiträge

Erstellt  am: 13.12.2013 :  23:21:01 Uhr  Profil anzeigen  Antwort mit Zitat
Hallo zusammen,

ist Staub ("genormter") auf einem Spiegel der Mikrorauigkeit gleich zu setzen?

Eine gewisse Reinigungsphobie scheint geringem Staub ein Dasein ohne schlechten Ruf zu gewährleisten.

Clear Skies

Gruß Dietmar

Bearbeitet von: am:
Zum Anfang der Seite

Kalle66
Forenmeister im Astrotreff

Deutschland
8876 Beiträge

Erstellt  am: 13.12.2013 :  23:48:37 Uhr  Profil anzeigen  Antwort mit Zitat
Hallo Dietmar,
Staub ist in der Regel um ein Vielfaches größer als die Wellenlänge des Lichts. Es sei denn, Du meinst Feinstaub. Außerdem ist das Reflexionsverhalten von Staub deutlich kleiner als beim Spiegel. Es absorbiert, teilweise bricht es auch Lichtanteile (Farbe, Transparenz der Staubpartikel).

Der Unterschied liegt aber hauptsächlich in den Höhenunterschieden. Damit man überhaupt von einem polierten Spiegel sprechen kann, ist man schon im zweistelligen Nanometerbereich bei den Oberflächen. Also den Faktor 1000 und mehr kleiner als die Staubabmessungen.

Staub wäre somit ein Kapitel für sich, auch Mineralrückstände nach Verdunstung etc.

Aber Gegenfrage: Meinst Du, es spielt eine Rolle, ob der Staub schon auf dem Spiegel liegt oder noch in der Luft durch den Strahlengang weht. Überleg mal ... Bei Wassertropfen in der Luft im Strahlengang pack ich zumindest ein.

Gruß

PS: Es kommt beim Staub m.E. auch auf die Menge an. Simpel gefragt, wieviel Prozent der Spiegelfläche sind vom Staub tatsächlich bedeckt. Das wäre eine erste Annäherung zum Streulichtanteil. Bis zu einem gewissen Grad entsprechen Staub eher lokalen Defekten.

Kalle - Alles wird gut !
Meine Okulardatenbank im Astrotreff: hier
Termine Teleskoptreffen gibt es hier

Bearbeitet von: Kalle66 am: 13.12.2013 23:55:21 Uhr
Zum Anfang der Seite

Gerd-2
Meister im Astrotreff

Deutschland
748 Beiträge

Erstellt  am: 14.12.2013 :  01:18:23 Uhr  Profil anzeigen  Antwort mit Zitat
Hallo Michael und Horia,

ja ihr habt recht mit dem Faktor 2,8.
Ich will aber trotzdem noch mal erleutern wie ich auf Faktor 2 kam.

Zitat:
Das was du hier beschreibst bezeichnet man üblicherweise als Mittelwert. Der Mittelwert ist nicht identisch mit dem quadratischen Mittelwert (RMS).


Das ist mir schon klar, allerdings ist bei einer Sinuswelle die Fläche der über dem Mittelwert liegenden Halbwelle exakt die gleiche wie die Fläche der unter dem Mittelwert liegenden Halbwelle.
Meine Annahme war daher das in diesem Spezialfall der Mittelwert das relevante Ergebnis liefert.

Es ist durchaus nicht immer so eindeutig welche Art von Mittelwert denn nun überhaupt gefragt ist.
Es gibt da ja ne ganze Reihe von Möglichkeiten.

Ich war der Meinung das im für uns fraglichen Fall der Welligkeit die gesamte Sinuswelle im positiven Bereich liegt, also nicht von einem mittlerem Niveau mit + und – Aberration zu betrachten ist.

Betrachten wir unseren Lichtstrom so haben wir 230V Effektivwert und 230 * Wurzel 2 also 325,3V Maximalwert.
Es tritt zu keinem Zeitpunkt eine höhere Spannung als 325,3V auf, auch wenn der PV bei 2* 325,3 also 650,6V liegt

Bei der Leistung liegt aber die gesamte Welle im positiven Bereich da es hier egal ist in welche Richtung der Strom fließt.

Am einfachsten errechnet man sie natürlich aus den Effektivwerten von Spannung und Stromstärke.
Also zb. 230V * 1A = 230W

Wir könnten aber auch mit dem Maximalwert rechnen und diesen durch 2 teilen.

Da die Stromstärke linear mit der Spannung ansteigt beträgt I max also auch I eff * Wurzel 2
Also ist hier I max = 1,414A


P max ist also 325,3V * 1,414A = 460W
Die Welle der Leistung schwankt also zwischen 0 und 460W
Der Effektivwert bzw. die Wirkleistung ist hier also tatsächlich 460/2 = 230W.

http://elektroniktutor.de/grundlagen/p_blind.html

Also in dem Fall Faktor 2.

Grüße Gerd


Bearbeitet von: Gerd-2 am: 14.12.2013 01:21:50 Uhr
Zum Anfang der Seite

ulli_v
Anbieter


731 Beiträge

Erstellt  am: 14.12.2013 :  04:06:33 Uhr  Profil anzeigen  Antwort mit Zitat
EDIT: Kalle
Beitrag verschoben nach Mikrorauigkeit und ihre Messung - Kommentare

Bearbeitet von: Kalle66 am: 14.12.2013 14:05:36 Uhr
Zum Anfang der Seite

Guntram
Meister im Astrotreff

Österreich
558 Beiträge

Erstellt  am: 14.12.2013 :  10:46:03 Uhr  Profil anzeigen  Antwort mit Zitat
Hallo Kalle.

Zitat:
PS: Es kommt beim Staub m.E. auch auf die Menge an. Simpel gefragt, wieviel Prozent der Spiegelfläche sind vom Staub tatsächlich bedeckt. Das wäre eine erste Annäherung zum Streulichtanteil. Bis zu einem gewissen Grad entsprechen Staub eher lokalen Defekten.



William Zmek gibt folgende Formel für den Kontrastverlust durch Lichtstreuung durch Partikel (Staub, Pits) an (S&T, September 1993 p. 84):

Kontraständerungsfaktor = 1- 2*((Fläche Staub) / (Fläche Objektiv))

Die Fläche, die von Staubteilchen oder Pits eingenommen wird, müsse durch mikroskopische Prüfung erfasst werden.

Er rechnet ein Beispiel für eine Oberfläche, die 130 Pits von 10µm Größe pro mm^2 enthält, und bewertet diese Oberfläche als "sichtbar grau sogar bei normaler Raumbeleuchtung" und "unter dem Mikroskop fürchterlich anzusehen".

Die Berechnung ergibt, dass nur 1% der Objektivfläche von diesen Pits bedeckt sind, und der Kontrastverlust nur 2% beträgt.

Viele Grüße,

Guntram

Bearbeitet von: am:
Zum Anfang der Seite

Alois
Altmeister im Astrotreff

Austria
1182 Beiträge

Erstellt  am: 14.12.2013 :  11:33:43 Uhr  Profil anzeigen  Antwort mit Zitat
Liebe Elektronikberechner.

Zitat:
ja ihr habt recht mit dem Faktor 2,8.
Ich will aber trotzdem noch mal erläutern wie ich auf Faktor 2 kam.


Es ist ja gut dass wir wenigstens ein paar erklärbare Rechenmodelle haben die ich nicht vermissen möchte.

Aber es kommt immer wieder vor, dass wenn ich mit den Physikern spreche, sie darauf hinweisen
dass könne man alles wie in der Elektronik berechnen da die Welle sich ja überall gleich verhält.

Dem kann ich leider nicht zu stimmen weil die Zygo-Auswertungen eine ganz andere Verhältniszahl von PV zum RMS ergeben.
Meine Erfahrungen sind so.
Um so genauer eine Oberfläche ist um so größer wird diese Verhältniszahl.
Bei Polituren die nicht besonders genau sein müssen, zum Beispiel Linsen für Okulare haben wir eine Verhältniszahl von 4 bis 5.
Bei Polituren die genau sein müssen, zum Beispiel für Objektive haben wir Verhältniszahlen von 5 bis 7.
Und bei Polituren mit sehr hoher Genauigkeit kommen wir auf Verhältniszahlen bis 10.
Schaut euch das Protokoll vom Weisslichtinterferometer an. da haben wir eine Verhältniszahl von 8,35 .
Da ich ja kein Mathematiker bin, kann ich nur vernuten das eine Störung bestimmter Größe bei kleinen Einheiten
stärker Stört als bei großen Einheiten.
Wir benutzen diese Verhältniszahl auch zur Messkontrolle. Ist sie überdurchschnittlich groß, dann muss noch
einmal gereinigt und gemessen werden und auch nach anderen Fehlern so oft gesucht und gemessen werden bis die wahre Ursache gefunden ist.

Vielleicht sind da noch einige Parameter zusätzlich zu berücksichtigen.

Viele Grüße
Alois


Zitat:


Bearbeitet von: am:
Zum Anfang der Seite

mkoch
Altmeister im Astrotreff

Deutschland
2355 Beiträge

Erstellt  am: 14.12.2013 :  11:52:46 Uhr  Profil anzeigen  Besuche mkoch's Homepage  Antwort mit Zitat
Hallo Alois,

Zitat:
Original erstellt von: Alois
Dem kann ich leider nicht zu stimmen weil die Zygo-Auswertungen eine ganz andere Verhältniszahl von PV zum RMS ergeben.
Meine Erfahrungen sind so.



Das ist völlig richtig was du schreibst. Der Faktor PV/RMS = 2.8 gilt natürlich nur für eine Sinuskurve. Andere Kurvenformen haben andere Umrechnungsfaktoren.

Gruß
Michael

Bearbeitet von: am:
Zum Anfang der Seite

Alois
Altmeister im Astrotreff

Austria
1182 Beiträge

Erstellt  am: 14.12.2013 :  12:25:11 Uhr  Profil anzeigen  Antwort mit Zitat

Hallo Michael.

Danke für deine Zustimmung dass es auch mehrere Kurvenformen mit anderen Umrechnungsfaktoren gibt.
Mir geht es darum dass die Teilnehmer, wenn sie das mit den Interferometrischen Ergebnissen vergleichen,
den großen Unterschied sehen und dann alles als unglaubhaft empfinden und dadurch die Beiträge für sie wieder wertlos werden.
Aber wenn das Alles Schritt für Schritt aufgeklärt wird, dann bekommt die Sache wieder Boden unter den Füßen.

Viele Grüße
Alois

Bearbeitet von: am:
Zum Anfang der Seite
Seite: von 34 Vorheriges Thema Thema Nächstes Thema  
Nächste Seite
 Neues Thema  Zum Thema antworten
 Druckversion
Springe nach:
Astrotreff - Astronomie Treffpunkt © Astrotreff 2001 - 2015 Zum Anfang der Seite
Diese Seite wurde in 4.13 sec erzeugt. Snitz Forums 2000

Der Astrotreff bedankt sich für die Unterstützung von:



?