Auflösungsvermögen

  • Hallo,


    ausgegangen davon dass ein perfektes seeing herrscht, gibt das auflösungsvermögen an wie nahe zwei punkte sein können bis die optik sie nicht mehr von einander trennen kann


    ich meine gelesen zu haben dass das aber nur für punkte gilt, nicht aber für flächige objekte, liest man im internet kurz nach steht bei einigen quellen explizit "punkte" aber nirgends ist aufgeführt wie es bei flächen ist, wenn es überhaupt anders ist


    wie sieht das ganze denn wirklich aus? und welchen einfluss hat das ganze dann am ende fürs fotografieren in verschiedenen bereichen?(sternhaufen, galaxien, nebel, planeten)


    lg lukas

  • Hi Lukas,


    ob Punkte oder Linien ist egal, das zeigt z.B. der Siemensstern. Flächige Objekte zeigen Strukturen oder Muster und diese haben Abstände zueinander. Wobei das Problem daran ist, bei zwei Sternen oder Mondkratern hast du starke Kontraste, bei Galaxien oder Nebeln sind die Kontrastunterschiede kleiner und damit schwieriger zu erkennen.


    Nimm als Beispiel einen Wald- betrachte den einmal bei heller Sonne und einmal bei wolkenverhangenem Himmel mit einem Fernglas oder einem Teleskop. Bei hellem Licht erkennst du einzelne Äste oder Zweige, bei schwachem Licht verschwimmen die Konturen.


    Gruß
    Stefan

  • Hallo Lukas,
    ich kann da Stefan natürlich nur zustimmen. Gerne wird aber der Fehler gemacht das "theor. Auflösungsvermögen" wie eine Betonwand zu sehen und als eine physikalische Grenze, die nicht unterschritten werden kann. Das ist aber nicht so. Deswegen sollte man mal nach Rayleigh-Kriterium suchen.
    https://de.wikipedia.org/wiki/Rayleigh-Kriterium
    Es handelt sich sicher um eine sinnvolle Grenze, besonders, wenn man visuell unterwegs ist, aber sie ist frei definiert. Als Fotograf kann man diese Grenze bis zu einem gewissen Grad unterschreiten. Im Deep-Sky-Bereich sicher nicht, aber bei Planeten und wenn man unglaublich viel SNR hat. Nimm das Bild bei Wikipedia, definiere nur die allerhellsten Pixel und du hast eine klare Auflösung von 2 Punktquellen mit "Luft" dazwischen. Bei flächigen Objekten, also vielen Punkten nebeneinander, ist der Kontrastunterschied viel, viel geringer und jeder Punkt verschmiert den Nachbarpunkt zusätzlich. Die Auflösungsgrenze ist also auch eine Frage des Kontrastes und ganz nebenbei kann man so die Eigenschaften von Refraktoren zu Reflektoren (wenn diese einen Fangspiegel haben, der den Kontrast verringert)ins Verhältnis setzten.
    Viele Grüße,
    ralf

  • Hallo Lukas,


    Wenn Du das Auflösungsvermögen vollständig beschreiben willst, geht das nicht wirklich mit nur einer einzigen Zahl. Und ja, die Sache ist kompliziert genug zu rechnen, daher nimmt man punktförmige Lichtquellen an.


    Wenn deine Optik eine rotationssymmetrische Abbildung hat, kannst Du sie mit der MTF (Modulationstransferfunktion) beschreiben, ansonsten mit der zweidimensionalen PSF (Point Spread Function). Die Funktionen beschreiben die Signalstärke des Abbilds einer Punktquelle in Abhängigkeit vom Abstand zum Bildmittelpunkt (MTF) bzw. in Abhängigkeit von der Position in x und y zum Bildmittelpunkt. Statt im Bildraum kann man die Eigenschaften der Optik auch im Frequenzraum definieren, die entsprechenden Daten lassen sich grundsätzlich mit Hilfe einer Fouriertransformation ineinander umrechnen.


    Beide Funktionen sind natürlich abhängig von der Wellenlänge, d.h. für Optiken, die nicht 100% "farbrein" sind, musst Du die Funktionen für jede Wellenlänge extra bestimmen. Alles Andere ist eine Vereinfachung, die je nach Teleskop einigermaßen passt oder auch nicht.


    Die Punktabbildung definiert auch zu 100% die Abbildung flächiger Objekte. Daher kann man am Computer recht einfach simulieren, wie eine Abbildung z.B.eines Planeten in einem Teleskop mit bekannter Abbildungsfunktion aussehen würde. Man muss nur auf jeden Punkt des "perfekten" Planetenbildes die PSF anwenden und das Ergebnis zur Abbildung addieren. Es gibt einige real existierende Programme,die das können.


    Mit Hilfe der bekannten PSF des Teleskops kann man das Bild im Prinzip in den Objektraum zurück rechnen und die Positionen der punktförmigen Lichtquellen mit einer Genauigkeit bestimmen, die besser ist als der Durchmesser des Beugungsscheibchens. Ich kenne ähnliche Verfahren aus der Mikroskopie, bin aber kein Astrofotograf und weiß nicht genau, was im Amateurbereich in dieser Richtung derzeit möglich ist. Am Mikroskop hat man durch vollständige Kontrolle der Beleuchtung allerdings noch viel mehr Möglichkeiten als bei der Astrofotografie.
    Wenn man nicht nur "vereinzete Punktquellen" hat, gelingt die Rückrechnung vom Abbild über die Abbildungsfunktion der Optik zum "wirklichen" Aussehen des Objekts aber nur mit größter Mühe und nicht vollständig.


    Gruß,
    Martin

  • Jede Kennziffer (z.B. Auflösung nach Rayleigh) oder Kennlinie (MTF) ist eine Vereinfachung und basiert auf Annahmen bzw. muss erst interpretiert werden.


    Dem Rayleigh'schen Kriterium liegt physikalisch folgendes zugrunde: Punktlichtquellen werde durch eine sog. perfekte Optik mit begrenzter Öffnung auf ein ringförmiges Beugungsmuster abgebildet, das sich recht einfach berechnen lässt. Er hat nun festgelegt, dass das erste Minimum der des einen Beugungsbildes auf das Maximum des anderen Beugungsbilds zweier Punkte fallen darf um diese Punktabbilder noch zu trennen.
    Diese Annahme ist einerseits willkürlich, andererseits physikalisch recht eindeutig und einfach herzuleiten, sofern man rotationssymmetrische Teleskope hat (sprich kreisrunde Objektive).


    Die MTF geht ein Schritt weiter und betrachtet die Abbildungsleistung unter Berücksichtung von Kontrast (verschiedenen Helligkeitsabstufungen). Das könnte man dadurch theoretisch errechnen, indem man zu jedem Bildpunkt das Beugungsmuster ermittelt, dieses mit der Helligkeit (Energie) gewichtet und diese Muster, die sich ja überlappen, einfach aufsummiert. Heutzutage im Computerzeitalter gar nicht so schwer. Im Grunde eine Vorstufe zum Raytracing und zur Wellenoptik.


    Kennziffern/Kennlinien machen nur Sinn, wenn sie die Wirklichkeit vereinfachen und idealisieren, um Dinge hinsichtlich einer bestimmten Fragestellung zu vergleichen. Ein gelungenes Beispiel ist meiner Meinung nach z.B. die hooksche Federkonstante oder noch allg. das Elastizitätsmodul als Materialeigenschaft.

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: MartinB</i>
    <br />Man muss nur auf jeden Punkt des "perfekten" Planetenbildes die PSF anwenden und das Ergebnis zur Abbildung addieren. Es gibt einige real existierende Programme,die das können.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Z.B. das Programm "Aberrator" (Freeware).
    http://aberrator.astronomy.net


    Man kann Bilder von Objekten hochladen. Das Programm überlagert dann Punkt für Punkt die einzelnen Beugungsscheibchen.


    Gruß
    Wolfgang

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!