Auflösung eines Teleskopes

  • Hi,


    Lord Rayleigh sagt meinem 6 Zoll Newton eine Auflösung des kleinsten Details von 1 Bogensekunden nach. Trotzdem kann ich die Cassini-Teilung sehen, die ja weniger als 0.5 Bogensekunden hat.


    Hab mal einen Artikel drüber geschrieben, warum Rayleigh nicht das Mass der Dinge sein kann:


    http://www.licha.de/AstroWeb/a…s_fullsize.php3?iHowTo=16


    Wenn Böcke drin sind bitte beschweren.


    Bald folgt noch ein Artikel über MTF als Grundlage zur Teleskop-Beurteilung (vorallem verschiedener Bauformen wie Refraktoren und Spiegel. Ich hoffe, dass bedeutet wieder Krieg [:p] )

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Lord Rayleigh sagt meinem 6 Zoll Newton eine Auflösung des kleinsten Details von 1 Bogensekunden nach. Trotzdem kann ich die Cassini-Teilung sehen, die ja weniger als 0.5 Bogensekunden hat.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Hallo Tom,
    Das sind auch 2 Paar Stiefel. Rayleigh , Sparrow ect. gilt nun mal ganz speziell für gleich helle Punktquellen wie z. B. Doppelsterne. Man sieht mit 8" bei guten Bedingungen sogar die Encke- Teilung. Die ist viel kleiner als 1". Die Sichtbarkeit einer einzelnen Linie oder Punkt auf hellem Grund oder umgekehrt ist kein Maß für die Auflösung gleich großer Details mit gleichem Kontrast in gegebenen Abstand. Helle Punkte auf dunklem Grund viel viel kleiner als 1" sieht man sogar mit unbewaffnetem Auge z. B. Sterne. Helle Linien im Sonnenlicht, z. B. Spinnweben erkennt man noch in zig- Meter Abstand, obwohl sie dann nur weniger als 0,1" breit erscheinen.
    Hochaufgelöste Grüße
    Kurt

  • Hallo Wolfgang,


    sorry, daß ich nicht erwähnt hatte, daß es englisch ist.


    Hallo Kurt,


    yo, yo. Dieses Thema bleibt spannend. Für die von dir angesprochenen Phänomene schreibe ich gerade was zu Kontrast, MTF und so...


    Du würdest also nicht akzeptieren, daß - auch für Linien - Sparrow das Ende der Auflösungsfahnenstange ist? Denn dann ist das Detail ja praktisch nur noch so groß wie ein Beugungsscheibchen.


    Die Encke-Teilung zu sehen oder zu fotografieren halte ich im wesentlichen für ein Artefakt von Teleskop/Auge bzw. Kamera. Die ist ca. 0.01 Bogensekunden im Maximum. Das gibt kein uns bekannter Ort der Erde vom Seeing her. (Adaptive Optik mal aussen vor.) Im Auge laufen komplexe Kantenerkenner und so, noch *bevor* das Bild zum Gehirn kommt. Gab mal ne Zeit, da haben 99% aller Beobachter "Kanäle" auf dem Mars entdeckt.


    Aber dazu schreibe ich auch was. Was passiert, wenn man mit 1 Bogensekunden dicken Pixeln die 0.5 Bogensekunden Cassini-Teilung abbildet?

  • Hallo Tom,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Du würdest also nicht akzeptieren, daß - auch für Linien - Sparrow das Ende der Auflösungsfahnenstange ist? Denn dann ist das Detail ja praktisch nur noch so groß wie ein Beugungsscheibchen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das genau zu klären wäre eine Aufgabe für Leute, die sich mit der Mathematik und Beugungstheorie besser auskennen. Die Frage lautet hier: Wie ist das Verhältnis des theoretischen Auflösungsvermögens von 2 BENACHBARTEN Punktquelle/2 BENACHBARTEN Linienquelle bei gleichem Ursprungskontrast. Vielleicht opfert sich Mario II noch mal[:p]

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die Encke-Teilung zu sehen oder zu fotografieren halte ich im wesentlichen für ein Artefakt von Teleskop/Auge bzw. Kamera. Die ist ca. 0.01 Bogensekunden im Maximum. Das gibt kein uns bekannter Ort der Erde vom Seeing her.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Eine EINZELNE dunkle Linie auf hellem wie hier z. B. die Encke Trennung Grund erzeugt in Teleskop ein Beugungsbild. Wenn dessen Kontrast zur Umgebung über den Schwellenkontrast des Auges bzw. des Fotosensors liegt, wird das als Linie wahrgenommen.
    Das funktioniert eindeutig auch bei Linien, deren scheinbare Breite weit unter dem Wert lambda/Objektivdurchmesser liegt. Je schmale die Linie, desto weniger Kontrast. Deshalb sieht man die Cassini Trennung noch mit einem 2 Zöller, die Encke dagegen erst mit 5“ oder 6“. Aber keines dieser Teleskope kann abbilden, ob vielleicht diese dunklen Linien vielleicht aus mehreren Einzellinien bestehen.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Was passiert, wenn man mit 1 Bogensekunden dicken Pixeln die 0.5 Bogensekunden Cassini-Teilung abbildet? <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> Dann bekommen die Pixel im Bereich der Cassini- Trennung weniger Licht und das sieht man entsprechend. Im Endergebnis wird die Cassini Trennung dann überproportional breit wiedergegeben. Dazu brauch ich mir nur meine eigenen Saturn- Fotos anzuschauen.


    Gruß Kurt

  • Hallo,


    die Zahl derer, die Wolfgang heißen, nimmt ständig zu. Für Franz-Josef
    gibt es in Bayern einen Fan-Club, obwohl nicht alle Strauß hießen und
    Bayerischer Ministerpräsident geworden sind. In Erinnerung daran wäre
    ein lockerer Zusammenschluß aller Leute diesen Vornamens vielleicht
    sinnvoll, allein zwecks Unterscheidung desselben. Der von Kurt
    Schreckling erwähnte Dr. Mario Ries hat das so gelöst:


    """"""""""""""""
    " Mario_II "
    """"""""""""""""


    ein nicht ganz ernst gemeinter Beitrag!


    Euer Wolfgang

  • Hi Kurt,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die Frage lautet hier: Wie ist das Verhältnis des theoretischen Auflösungsvermögens von 2 BENACHBARTEN Punktquelle/2 BENACHBARTEN Linienquelle bei gleichem Ursprungskontrast. Vielleicht opfert sich Mario II noch mal[:p]<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Bei einer CCD gibt es IMHO keinen Unterschied, weil eine Linie ja nur eine Aneinanderreihung von Punkten ist. Ein Schnitt durch eine Linie führt das Problem auf das Punktproblem zurück. Wobei wir wieder bei der Grösse des Airy-Scheibchens sind. Und kleiner als das ist (IMHO) halt einfach nicht. Alles andere wäre ein Bruch mit der Fraunhoferschen Diffraktionstheorie und den Folgen für die Bildgebung (Abbe). Dafür sehe ich bislang keinen Anlass. Mario II!?! Kommentare?


    Beim Auge ist das ganz anders, da es wie erwähnt bereits in den verarbeitenden Nervenschichten des Auges Linienverrechnung gibt. Diese dann vom Gehirn wahrgenommenen Linien sind ins Bild hineingerechnet!


    Da könnte man jetzt schön über die Super-Resolution Theorien streiten, die darauf aufbauen Grundannahmen über das gesehene anzustellen und daraus dann bessere Auflösung als der Detektor hergibt zu erzeugen. Sowas macht ein gutes Astro-Programm, wenn es verschiedene Frames übereinanderlegt und vorher die von einem Stern zu erwartende Beugungsfigur (Bessel) zurückrechnet, um das genaue Zentrum zu ermitteln. Ähnliches gilt für gute Nachführ-Algorithmen. Dort wird ja in Bruchteilen von Pixeln gerechnet.


    Die Krux liegt exakt in der Annahme was man beobachtet. Da kann man ganz schön daneben liegen und merkt es prinzip-bedingt nicht.

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Eine ENZELNE dunkle Linie auf hellem wie hier z. B. die Encke Trennung Grund erzeugt in Teleskop ein Beugungsbild. Wenn dessen Kontrast zur Umgebung über den Schwellenkontrast des Auges bzw. des Fotosensors liegt, wird das als Linie wahrgenommen.
    Das funktioniert eindeutig auch bei Linien, deren scheinbare Breite weit unter dem Wert lambda/Objektivdurchmesser liegt. Je schmale die Linie, desto weniger Kontrast. Deshalb sieht man die Cassini Trennung noch mit einem 2 Zöller, die Encke dagegen erst mit 5“ oder 6“. Aber keines dieser Teleskope kann abbilden, ob vielleicht diese dunklen Linien vielleicht aus mehreren Einzellinien bestehen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Da fällt mir nur ein, daß ich nicht wirklich verstanden habe, wieso Auflösung in Bogensekunden nur von lambda und D abhängt, jedoch die lineare Auflösung in Linien zusätzlich noch von der Brennweite. Kurze Brennweiten lösen demnach besser auf. Meinst du das?


    Ich interessiere mich deshalb dafür, weil ich ja einen MTF-Vergleich für verschiedene Teleskope anstellen will. Der Kontrast für jede beliebige Auflösung hat ja was reizvolles. Das Problem: Die MTF kommt ja zunächst normalisiert, also in der Auflösung bis 1 (100%) der maximalen Auflösung. Was muss ich bei gegebenem Durchmesser jetzt als 1 (in Bogensekunden) ansetzen, um verschieden grosse D fair vergleichen zu können? Hilfe! (Ich neige zum opt. Sparrow's Limit, oder gleich den Radius des Airy-Scheibchens... Dann wäre aber definitiv nix mit Encke-Teilung. Das macht mich stutzig.)


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Was passiert, wenn man mit 1 Bogensekunden dicken Pixeln die 0.5 Bogensekunden Cassini-Teilung abbildet? <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> Dann bekommen die Pixel im Bereich der Cassini- Trennung weniger Licht und das sieht man entsprechend. Im Endergebnis wird die Cassini Trennung dann überproportional breit wiedergegeben. Dazu brauch ich mir nur meine eigenen Saturn- Fotos anzuschauen.
    [/quote]


    Exaktement. Und gleichzeitig wird der Kontrast noch schwächer, weil das dicke Pixel an den Rändern ja noch Teile vom hellen Ring einfängt.

    Als wissenschaftliches Ergebnis (Photometrie, Astrometrie) könnte man das getrost in den Papierkorb werfen. Auf "pretty pictures" ist es natürlich OK. Ich bin (zumindest wenn ich daheim als Amateur-Astronom arbeite) ausschliesslich an pretty pictures interessiert...



    [/quote]

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Rohr</i>
    <br />Hallo,


    die Zahl derer, die Wolfgang heißen, nimmt ständig zu.
    Euer Wolfgang
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Möchte erneut betonen, daß Wolfgang zwar ganz interessant klingt, mich dein Nachname aber mehr fasziniert! Wie immer meine ich den Zusammenhang zu Teleskopen.


    (Nebenbei: Ich kann deine email wegen deinem Lieblings-Board nicht beantworten. Die neuesten Regeln des Spamfilters glauben, du bist ein Spammer! Alles blockiert. Ich konnte den HelpDesk hier noch nicht davon überzeugen, daß du ein Kollege bist. Grrr....)

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: tomlicha</i>
    <br />Die Encke-Teilung ....ist ca. 0.01 Bogensekunden im Maximum. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Stimmt das wirklich[?] ich hätte sie etwa auf knappe 0,1 Bogensekunden geschätzt. Weiss jemand, wo das genau steht?


    Fest steht jedenfalls, wie dünn sie auch immer sein mag, ich habe sie wiederholt mit 10" Dobson bei sehr gutem Seeing gesehen[^]. Also müsste eine Theorie her, die das erklären kann. Ich vermute auch, dass es der gleiche Effekt ist, der Spinnweben sichtbar macht, wie Kurt schon erwähnt hat.


    Das Auge löst feine Linien mit hohem Kontrast jedenfalls besser auf als separate Punkte. Es erkennt wahrscheinlich Regelmäßigkeiten im Verlauf einer Fläche, da ja verschiedene Stellen des Auges eine ähnliche Information erhalten- nämlich, dass da was helldunkles sein muss. Ich hoffe, es wird klar, was ich meine.


    Hierzu ein Versuch: Man male eine Linie mit schwarzem Kuli auf ein weisses Blatt Papier und daneben einen Punkt, der ganau so dick ist wie der Strich. Was sieht das Auge leichter aus 20 Metern Entfernung?


    @die Wolfgangs dieser Republik:
    Wenn ihr euch alle zusammentut, braucht es 'ne ganze Lebensmittelfabrik, um euch satt zu kriegen.

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Stathis Kafalis</i>
    <br /><blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: tomlicha</i>
    <br />Die Encke-Teilung ....ist ca. 0.01 Bogensekunden im Maximum. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Stimmt das wirklich[?] ich hätte sie etwa auf knappe 0,1 Bogensekunden geschätzt. Weiss jemand, wo das genau steht?


    Fest steht jedenfalls, wie dünn sie auch immer sein mag, ich habe sie wiederholt mit 10" Dobson bei sehr gutem Seeing gesehen[^]. Also müsste eine Theorie her, die das erklären kann. Ich vermute auch, dass es der gleiche Effekt ist, der Spinnweben sichtbar macht, wie Kurt schon erwähnt hat.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    An der Theorie arbeite ich ja gerade [;)]


    Encke ist 325 km, Cassini ist 4.800 km. Faktor: 325/4800=0.068.


    Jetzt liegen die ja unter einem gewissen sich ändernden Winkel zu uns. Aber als Abschätzung: Cassini hat 0.4 arc sec also hat Encke 0.068*0.4=0.03 arc sec.


    http://www.g-o.de/geo-bin/fram…frame3=kap4a/40jc0009.htm


    Allerdings siehst du sie erheblich dicker! Und mit schwächerem Kontrast als tatsächlich. Weil sie dein Auge "undersampled".


    Nach allem was ich von dir hier (hochqualitativem) gelesen habe nehme ich das mit der Sichtbarkeit der Encke-Teilung im 10-Zöller mal als Faktum hin. Auch wenn es dann wirklich schwierig wird, das noch zu erklären... Immerhin habe ich Cassini im 60mm Tak gesehen!


    Ich hoffe bald mehr dazu sagen zu können.

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Da fällt mir nur ein, daß ich nicht wirklich verstanden habe, wieso Auflösung in Bogensekunden nur von lambda und D abhängt, jedoch die lineare Auflösung in Linien zusätzlich noch von der Brennweite. Kurze Brennweiten lösen demnach besser auf. Meinst du das?


    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Nein, meine ich nicht, tun sie nicht, die kurzen Brennweiten. Bei gegebener Öffnung aber kurzer Brennweite ist auch das Beugungsbild entsprechend kleiner. Die Auflösung VON ZWEI GLEICH HELLEN DOPPELSTERNEN ODER ZWEI GLEICHARTIGEN OBJEKTEN bleibt davon unberührt. Auflösung heißt doch, ich sehe tatsächlich zwei Objekte. Das ist aber etwas anderes als die Sichtbarkeit der Beugungsfigur einer einzelnen schmalen, dunkle Linien auf hellem Grund, wie z. B. die Encke- Teilung. Wo ist jetzt das Problem?
    Gute Nacht!
    Kurt

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Die Auflösung VON ZWEI GLEICH HELLEN DOPPELSTERNEN ODER ZWEI GLEICHARTIGEN OBJEKTEN bleibt davon unberührt. Auflösung heißt doch, ich sehe tatsächlich zwei Objekte. Das ist aber etwas anderes als die Sichtbarkeit der Beugungsfigur einer einzelnen schmalen, dunkle Linien auf hellem Grund, wie z. B. die Encke- Teilung. Wo ist jetzt das Problem?
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Hi Kurt,


    Interpretiere ich dich jetzt richtig (?): Wenn eine einzelne dünne Linie wie Encke vorliegt, in deren näheren Umgebung keine weitere ist, sondern kontrastreicher Hintergrund, dann wird diese Linie abgebildet. Viel zu dick und mit zu schwachem Kontrast, aber sie ist sichtbar. Wenn es zwei Linien wären, deren Abstand kleiner als die Auflösung ist, dann kann man trotzdem nur eine Linie sehen. Aber man sieht was.


    Ich weiß, daß Sidgwick auch schreibt, daß man Drähte oder Spinnweben (mit dem Auge) tatsächlich wesentlich besser erkennen kann als Punkte. Er bestätigt dich damit ja voll und ganz.


    In diesem Sinne kann man also Details abbilden, deren Ausdehnung kleiner ist als die Auflösung. Man kann solch kleine Details nur nicht mehr trennen. Der Testfall eines parallelen Linienmusters mit Linienabstand kleiner Auflösung würde nichts als eine gleichmässig graue Fläche zeigen. Eine einzelne dieser Linien wäre abbildbar, wenn auch völlig danaben, also unbrauchbar für Astrometrie und Photometrie.


    Isses das? (Puhhh...!)

  • Hallo Tom,
    so isses! <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Eine einzelne dieser Linien wäre abbildbar, wenn auch völlig danaben, also unbrauchbar für Astrometrie und Photometrie.


    Isses das? (Puhhh...!)<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Weiss, nicht ob völlig daneben. Es wäre sicher interessant zu erfahren, wie denn der Kontrast einer einzelnen dünnen, dunklen Linie auf hellem Grund mit dem Auflösungsvermögen für Doppel- Linien oder auch "Doppelpunkten" korreliert.
    Gruß Kurt

  • Hier liegt der Hund begraben:


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">In diesem Sinne kann man also Details abbilden, deren Ausdehnung kleiner ist als die Auflösung. Man kann solch kleine Details nur nicht mehr trennen. Der Testfall eines parallelen Linienmusters mit Linienabstand kleiner Auflösung würde nichts als eine gleichmässig graue Fläche zeigen. Eine einzelne dieser Linien wäre abbildbar<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Man kann eben keine <i><b>Details</b></i> abbilden. Um das zu verstehen, leite man die Beugung am Doppelspalt her. Daraus sind nämlich die ganzen Formeln für das Auflösungsvermögen entstanden.
    Wenn das Wetter mal wieder schlecht ist oder Vollmond [:o)] setze ich mich mal dran und poste das hier.


    (un)gebeugte Grüße


    ullrich

  • Hi!


    Ich fange erst an Astrofotografien zu machen
    und würde gerne wissen was mit meinen teleskop gut zu fotografieren ist und wie stark ich vergrößern kann
    Ich habe ein Astro Spiegelteleskop
    ASTRO 150N EQ
    D=150mm (Öffnung)
    F=750mm (Brennweite)


    Ich habe 3 Okulare
    ----------------------------------
    Super 20
    Wide Angle
    Long Eye Relief
    ----------------------------------
    Super 10
    Long Eye Relief
    ----------------------------------
    Plössl 6mm
    Fully coated
    ----------------------------------
    Kann ich Saturn größer als auf den folgendem Foto sehen?
    http://www.sims4you.0catch.com/Bild%20010.jpg
    Wie fügt man bilder ein?
    Gibt es eine möglichkeit dass man ein großes okular hat und eine hohe vergrößerung
    bei 6mm sieht man nämlich sehr wenig
    ----------------------------------
    was ist ein schneckenfehler
    bei der nachführung
    will mir eine 2-achsen steuerung für mein teleskop mit eq3 stativ kaufen


    So das war jetzt ein bisschen viel text
    hoffe ihr verzeiht es mir


    Mit Freundlichen Grüßen
    Michael

  • Hallo Ulrich,


    bleibt ja echt spannend:


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Man kann eben keine Details abbilden.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Also: Man bildet es schon ab. Nur hat diese Abbildung halt wenig mit dem Original-Detail zu tun.


    In der Interferometrie (ist ja ähnlich dem Doppelspalt, schaltet Schmerz ab, schnell.)kriegst du auch ein Signal, also eine Abbildung. Nur nennst du es dann einfach "unresolved".


    Freu mich schon auf euer Scheißwetter! Ich werde dann knackscharfe Astroaufnahmen machen und mich gleichzeitig auf dein Posting freuen.

  • *grins*
    Beachte das Wort Details :)
    Sonst könnte man ja (s.o.) keine Sterne fografieren, weil die ja deutlich kleiner sind als jedes Teleskop abbilden kann.



    Soso - Du bist also von Schadenfreude ergriffen...


    Dann mach ich das eben schneller ;)

  • Hallo Tom !


    In Punkto, Beugung, Auflösung und Schärfe bin auch schon längere Zeit dran.
    Auch mich interessierte, was geschieht wenn der Punkt oder die Linie schmäler, gleich breit oder breiter als der Durchmesser des Beugungscheibchens ist.
    Dazu habe ich mir eine Testtafel mit dünnen und dicken Punkten und Linien mit gleichen Abstand gemacht, die ich dann im 0,7er Schritt verkleinert habe.
    Die konnte ich mir in passender Entfernung aufstellen und betrachten.
    Kann jeder einmal probieren.



    Ein Link für die Vollauflösung zum herunterladen kommt später.


    Dabei konnte ich feststellen das zuerst die Punkte und dann gleich die Linien verschmieren.
    Aber die weise Linie im Dunkelfeld und die schwarze Linie im Hellfeld noch lange erhalten bleiben, ob wohl sie nur ein viertel Intervall dick sind.
    Auslöser dafür war ein Beitrag von Kurt Schreckling schon vor 2 Jahren in dem er schrieb " um eine Linie zu erkennen genügt ein viertel der Auflösung." Was ich ihm schon fast bestätigen kann. Bin mit meinen Untersuchungen noch nicht ganz fertig.
    Bei einem Punkt oder einer Linie kommt es auch auf seine Intensität an mit der sie sich bemerkbar macht und dem entsprechend spricht sie auch an. Was die folgenden Bilder Zeigen.
    Bei jeder Abbildung ist in der Mitte der Lichtspalt selber und oberhalb ein überbelichtetes Beugungsbild für die Intervalle und unterhalb ein schwach belichtetes Beugungsbild das mehr Aufschluß im Bereich des Maximums gibt.



    Leider sind diese Bilder noch nicht optimal weil sie noch nicht alles zeigen was ich gesehen habe und können derzeit nur zum Vorgeschmack dienen
    Habe jetzt die Nikon Koolpix 500 gekauft und die hat einen besseren Helligkeitsumfang.
    Was ich feststellen konnte ist.
    Ist der Spalt kleiner als ein viertel des Beugungscheibchen bleibt das Beugungsscheibchen gleich groß. Wird der Spalt breiter als ein viertel vom Beugungsscheibchendurchmesser dann wird auch das Scheibchen bzw. der Beugungspalt breiter und die Minima wandern mit.
    Also ein Punkt oder eine Linie kann kleiner sein als das Auflösungsvermögen und sie werden so groß wie der Beugungscheibchendurchmesser gezeigt und sie werden sichtbar sobald ihre Intensität ausreicht.
    Vielleicht konnte ich damit zur Klärung etwas beitragen.


    Habe auch deinen Artikel auf der Homepage angeschaut.
    Leider kann ich noch nicht genug englisch und muß mir alles im Google Sprachtool übersetzen. Das sieht dann so aus.
    "Die Airy Scheibe für ein vollkommenes und reibungsloses Teleskop umkreist 84% der Energie von der Lichtquelle des Punktes. 16% werden zu den Ringen mit dem ersten Ring verbritten, der das größte Teil enthält."
    Wer eine Ahnung hat kann sich noch zurecht finden, was andere damit machen weiß ich nicht
    Vielleicht kannst du das auch einmal in deutsch schreiben.
    Intensiv auflösende Grüße
    Alois

  • Hallo Alois,


    klasse Sache. Als Ingenieur ist für mich die Theorie nicht als ein Werkzeug und gut ist zu prüfen, was in der Praxis genau passiert. Leider ist mein Observatorium so gebaut, das die Testtafel auf Nachbars Garagendach müsste. Wenn ich ihn Frage, dann denkt er vermutlich ich bin gefährlich für seine Kinde ;)


    Ich freue mich schon auf dein Endergebnis!


    Ich ja schreibe parallel an einer Software, die das ganze dann rechnet. Da könntest du dann dein Testbild einspeisen, die Spinnenarme und den Fangspiegel simulieren und raus kommt eine deiner Aufnahmen. :) Hoffentlich...

  • Hallo Tom !
    Freut mich das es dir gefallen hat.
    ------------------------------------------------------
    Ich ja schreibe parallel an einer Software, die das ganze dann rechnet. Da könntest du dann dein Testbild einspeisen, die Spinnenarme und den Fangspiegel simulieren und raus kommt eine deiner Aufnahmen. :) Hoffentlich...
    --------------------------------------------------------
    Ja da tust du dir ganz schön was an. Fourier - Transformtionen sind sehr rechenintensiv, habe ich mir sagen lassen. Weil da kann ich nicht mehr mit.
    Der Mario II hat da schon ein sehr gutes Programm aber das ist für mich schon zu groß.
    Bin auch gespannt was bei dir zustande kommt. Bin gerne bereit mit meinen Experimenten bei zu stehen. Vor kurzem ist es mir gelungen auch die Negative Beugung vom Sekundärspiegel sichtbar zu machen und jetzt weiß ich warum das vierte Minimum stärker als das dritte ist. Mit dem vierten überlagert sich schon das erste Minimum von der Negativbeugung.
    Den Unterschied zwischen Theorie und Praxis gibt es nur so lange, bis alle Faktoren gefunden und gelöst sind.
    Munter weiter, weiter und weiter
    Gruß
    Alois

  • Hallo Leute,
    erst mal schoenen Gruss aus Suedfrankreich ....
    'War die Woche nicht online und bin erst heute ueber euren Thread
    gestolpert.


    Also mein Senf dazu (ohne Gewaehr):
    In der Sache mit der Aufloesung ist nach kurzer Ueberlegung der Ullrich/Kurt
    wohl auf der richtigen Spur:


    Es sind wohl zwei Dinge zu unterscheiden:
    1) Detailaufloesung, d.h. das Erkennen einer Struktur.
    2) Detektierbarkeit, d.h. man sieht das ist was, aber es ist "gestaltlos"


    Will man zwei Punkte unterscheiden (Doppelsternproblem), dann braucht man
    sozusagen die minimale Detailaufloesung. Dazu braucht mehr Oeffnung als bei der
    Detektierbarkeit. Aber selbst wenn man beide Sterne nicht trennen kann, sind
    beide selbstverstaendlich nicht sofort spurlos verschwunden. Insgesamt sieht man
    sie schon noch: Nur nicht mehr trennbar, aber als Einzelstern noch immer
    detektierbar.


    Mit der Enke liegt der Fall wohl aehnlich: Man kann durchaus sehen, dass da was
    schwarzes auf weissem Grund ist. Die Enke ist dann auch besonders interessant,
    denn in radialer Richtung ist sie nicht Detailaufloesbar, in azimutaler
    Richtung aber schon. Da liegt ihre Groesse naemlich in der Groessenordnung des
    Ringdurchmessers.


    Was da also passiert ist das selbe, als wenn man eine Zeitung auf laengere
    Distanz lesen will, die zwar ueber ihre ganze Breite beschrieben ist, deren
    Buchstaben aber ganz klein sind und deren Zeilenabstand recht gross ist:
    Auf eine ganz grosse Entfernung erscheint die Zeitung einfach grau. Etwas
    naeher sieht man, da ist was schwarzes auf der Seite und es ist ungefaehr so
    lang wie die Zeitung breit ist, was es aber genau ist, erkennt man nicht mehr.
    Das ist der Fall wo man in Zeilenrichtung bereits Detailaufloesung hat, in
    Spaltenrichtung noch nicht. In Spaltenrichtung hat man nur Detektierbarkeit.
    Kommt man ganz nahe heran, dann hat man in beide Richtungen Detailaufloesung
    und somit in beiden Richtungen das Rayleighkriterium erfuellt.


    Die entscheidende Frage fuer die Enke ist also nicht: Was ist die Grenze der
    Detailaufloesung (das waere ueber die Optik zu berechnen), sondern was ist
    die Schwelle der Detektierbarkeit. Und das hat nichts mit der Optik zu tun,
    sondern duerfte ein sehr knackiges Problem der Sinnesphysiologie sein, naemlich
    der neuronalen Bildverarbeitung im Oberstuebchen. Dazu ein Beispiel, dann wird's
    klar:


    Feiner Staub liegt unter der Detailaufloesungsschwelle des Menschlichen Auges.
    Ohne Mikroskop ist das Zeug immer "formlos" (wenn's nicht gerade Riesenfusseln
    sind). Und daher nicht ueberraschend: dunkler Staub gegen blauen Himmel zu sehen
    ist so gut wie unmoeglich. Wer jetzt allerdings in seine eingeschaltete
    Schreibtischlampe starrt, der sieht den Staub in der Luft tanzen.
    Aha, ohne was an der Optik zu aendern - Tagadaption=Apertur und Staubgroesse
    bleibt ja gleich - ist er im zweiten Fall detektierbar, im ersten nicht. Und -
    dann wird's noch kniffeliger, wenn er sich bewegt sieht man es witzigerweise
    noch besser, als wenn er ruhig in der Luft schwebt.


    Tom:
    Um eine duenne dunkle Linie auf weissem Grund wahrzunehmen, muss man sie nicht
    unbedingt in beide Richtungen a la Rayleigh&Co aufloesen koennen.
    Eine genuegt dazu mit unter. Deine Ueberlegungen fangen an zu greifen, wenn
    man zwei Saturnringe im Abstend der Enke mit der Breite der Enke trennen
    wollte und wissen will ob's zwei Ringe oder nur ein breiter ist.


    Ich lass' mir jetzt auf eur Wohl noch 'nen Wein reinlaufen und sag erst mal
    tschuess ...
    Mario

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Alois</i>
    <br />Also ein Punkt oder eine Linie kann kleiner sein als das Auflösungsvermögen und sie werden so groß wie der Beugungscheibchendurchmesser gezeigt und sie werden sichtbar sobald ihre Intensität ausreicht.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Mario II</i>
    <br />
    Es sind wohl zwei Dinge zu unterscheiden:
    1) Detailaufloesung, d.h. das Erkennen einer Struktur.
    2) Detektierbarkeit, d.h. man sieht das ist was, aber es ist "gestaltlos"
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Mit diesen beiden Kernaussagen habe ich es jetzt auch begriffen. Deshalb kann man auch Sterne überhaupt sehen (Mario's Fall 2) richtig?. Sie sind zwar unmessbar klein, ihre Intensität reicht aber aus, um sie in Beugungscheibengröße wahrzunehmen. Das gleiche gilt auch für meinen 0,1 mm breiten Lichtpalt am Foucault oder Spinnweben in größerer Entfernung. Die glänzen im Licht so hell, dass die Beugungsscheiben aus denen ihr Bild zusammengesetzt sind, etwas heller erscheinen als der Hintergrund und deshalb werden sie gesehen.


    Aha!

  • Hallo Gemeinde,


    als kleinen Nachtrag nun Alois Messtafel zum downloaden in 2 Varianten:


    Testtafel-Download (107kB, 3500x2500 pixel, TIFF, LZW-komprimiert)


    Testtafel-Download (750kB, 3500x2500 pixel, JPEG

  • Hallo,
    der ganzen spannenden Diskussion möchte ich noch den Aspekt der neurophysiologischen Verarbeitung der Signale im Auge und im Gehirn ergänzen. Allein die Rezeptorverschaltung im Auge tut schon (wahrscheinlich) viel intelligentere Dinge als die Webcam und Giotto: Kein Einzelsignal wird ohne Abgleich mit Umgebungssignalen sowie den wahrgenommenen Sognalen vorher und nachher weiterverarbeitet - hier finden also -abgesehen von all den physikalischen Dimensionen dieser Diskussion (in die auch die Optik unseres Auges hineingehört)- bereits raffinierte Verrechnungsprozesse statt, um z.B. den Kontrast zu steigern.
    Die Frage, warum eine Linie besser als ein Punkt wahrgenommen wird, würde ich ebenfalls damit erklären, allerdings eher so, dass zwar der Punkt wahrgenommen wird, aber, weil so einzeln und allein, noch nicht für wahrnehmenswert erachtet wird (und deswegen so kein Signal ans Gehirn geschickt wird), während für die Existenz der Linie die Signale meherer Nervenzellen sprechen...
    Also, das ganze Problem wird innerhalb der Schnittstelle Mensch-maschine noch viel komplizierter...
    Gruß,
    Martin

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!