Frage zur förderlichen Vergrößerung

  • Liebe Sternfreunde,


    bei mir hat sich eine Verständnisfrage zur förderlichen Vergrößerung ergeben.


    Unter Sternfreunden herrscht allgemeiner Konsens darüber, dass ab einer Teleskopvergrößerung von ca. V = 2*D in Millimeter keine weiteren Objektdetails aufgelöst werden. Das entspricht auch meiner inzwischen langjährigen Erfahrung, und Vergrößerungen über diesem Level nutze ich daher zu Gunsten der Bildschärfe und -brillanz nicht mehr.


    Diese förderliche Vergrößerung lässt sich folgendermaßen herleiten:


    Das dunkeladaptierte menschliche Auge hat laut zahlreichen Quellen ein durchschnittliches Auflösungsvermögen von zwei Bogenminuten, also 120 Bogensekunden.


    Nehmen wir nun als Beispiel ein Teleskop mit acht Zoll, also 203 Millimeter Öffnung. Es hat nach Dawes (mit diesem Kriterium arbeite ich in der Regel) ein Auflösungsvermögen von 0,56 Bogensekunden. Damit alle mit diesem Teleskop theoretisch erkennbaren Details bei der Beobachtung aufgelöst werden, müssen diese 0,56 Bogensekunden auf das Auflösungsvermögen des Auges, also 120 Bogensekunden, vergrößert werden.


    Dividiert man nun 120 Bogensekunden durch 0,56 Bogensekunden, kommt man auf einen Faktor 214, also annähernd V = 2*D. (Anmerkung: Beim Auflösungsvermögen nach Rayleigh würde sogar bei 176-fach die theoretische Auflösung erreicht.)


    Verallgemeinert lautet die Formel für die förderliche Vergrößerung demnach: V = Auflösung Auge / Auflösung Teleskop


    Soweit erscheint mir alles logisch.


    Das Auflösungsvermögen des menschlichen Auges nimmt aber mit der Helligkeit des betrachteten Objekts zu. Bei Tageslicht ist die durchschnittliche Auflösung des Auges laut vielen, auch augenmedizinischen, Quellen, eine Bogenminute, also 60 Bogensekunden. Setzt man in obige Rechnung statt 120 diese 60 Bogensekunden ein, ergibt sich für den Achtzöller als förderliche Vergrößerung 107-fach, also annähernd V = D/2.


    Nun ist der Mond ja sehr hell, so dass die Mondbeobachtung von der ins Auge fallenden Lichtmenge her mit terrestrischen Tagesbeobachtungen gleichzusetzen ist. Es werden also die höher auflösenden Farbsehzellen der Netzhaut aktiviert.


    Es müsste hier also, rein rechnerisch, bei der Mondbeobachtung bereits bei V = D/2 die volle Auflösung des Teleskops erreicht werden. Bei der Mondbeobachtung erkenne ich bei V = 2*D aber deutlich mehr Details als bei V = D/2.


    Meine Frage ist nun: Liegt in meiner oben gezeigten Herleitung der förderlichen Vergrößerung ein Denkfehler vor, oder wird mir am Mond bei V = D/2 die geringe Auflösung nur vorgegaukelt, da feinere Details durch die größere Bildhelligkeit überstrahlt werden?


    Bei der Planeten- und Doppelsternbeobachtung erscheint es nachvollziehbar, dass die kleinen Objekte trotz ihrer Helligkeit nicht genug Sehzellen aktivieren, damit die Netzhaut auf Tageslichtbeobachtung "umschaltet".


    Ich beobachte am Teleskop mit einer Brille, die einem Sehtest zufolge sehr gut auf meinen Sehfehler eingestellt ist. Mit Brille dürfte ich also das durchschnittliche Auflösungsvermögen des menschlichen Auges erreichen.


    Vielen Dank und viele Grüße,
    Christian

  • Ich denke, so einfach ist das nicht.


    Es kommen mehrere Dinge zusammen. Weder die beobachtete Realität noch unser Auge sind so digital, wie es die zitierten Werte für die Auflösung sind. Auf Seiten des Auges sind die Werte beispielsweise für einen gewissen Idealfall angegeben. Das heißt die genannte Auflösung entsteht bei einer idealen Szene (Target) mit hohem Kontrast aber ohne Überstrahlungen, unter Zuhilfenahme von Mikrobewegungen (Scannen) und einer Signalverarbeitung, die an die Anforderung angepasst (trainiert) werden kann. Das bedeutet z.B., dass diese Werte überhaupt nicht aussagekräftig sind, wenn es um andere Kontrastverhältnisse oder unbekannte Strukturen geht.


    Auf Seiten der Szene ist das Signal ebenfalls nicht digital, sondern der beobachtete Stern ist z.B. eine flächige Helligkeitsverteilung. Beim Mond kommt noch dazu, dass die Kontraste oft nicht von "sehr dunkel" bis "sehr hell" reichen, sondern ggf. nahe beieinander liegende Graustufen unterschieden werden sollen. Die Kriterien von Rayleigh oder Dawes sind empirisch ermittelte Hilfswerte, bei denen durchschnittliche Beobachter zwei Maxima voneinander trennen können. Weichen die Helligkeitsverteilungen aber durch den Szenenkontrast, Abbildungsfehler, obstruktionsbedingte Nebenmaxima oder andere Einflüsse vom Ideal ab, ist es sehr schwer, vorherzusagen, wie sich das auf die Auflösungsfähigkeit des Beobachters auswirkt.


    Im Gegensatz zu Kameras an optischen Systemen haben wir es beim Sehen mit einer Wahrnehmungsfrage zu tun und da spielt deutlich mehr hinein als der Abstand von Stäbchen oder Zapfen auf der Netzhaut. Ich habe jedenfalls noch keine überzeugende Herleitung bestimmter Auflösungsgrenzen gefunden. Ich halte das auch nicht für notwendig, weil meiner Meinung nach empirische Werte dafür völlig ausreichen. Schaue ich beispielsweise durch mein kleines Apo-Doppelteleskop, sehe ich bei 0,6mm Austrittspupille noch Reserven. Bei 0,44mm Austrittspupille sinken hingegen tagsüber und am Planeten die Kontraste dann schon deutlich ab. Am Mond stört mich das aber weniger, weil die verbleibenden Kontraste meistens immer noch sehr hoch sind. Bei Jupiter bleibe ich lieber bei den 0,6mm. Für die Trennung von Doppelsternen könnte ich sicher noch höher gehen. Das sind alles jeweils helle Ziele, meine Augen also nicht dunkeladaptiert.


    Soweit mein Verständnis von der Thematik, ohne Anspruch auf Allgemeingültigkeit.


    Viele Grüße,
    Sebastian

  • Hallo Christian,<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Christian-Berlin</i>
    <br />Dividiert man nun 120 Bogensekunden durch 0,56 Bogensekunden, kommt man auf einen Faktor 214, also annähernd V = 2*D. (Anmerkung: Beim Auflösungsvermögen nach Rayleigh würde sogar bei 176-fach die theoretische Auflösung erreicht.)<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">da ist ein Fehler, es müsste <b>also annähernd V = D</b> heissen.
    V = 2*D ist ja schon eine leichte Übervergrösserung, die bei ausreichender Helligkeit die Erfassbarkeit von Details verbessert, aber gegenüber einer etwas geringeren Vergrösserung keine neuen Details mehr zeigt.


    Gruss Heinz

  • Hallo Christian,


    förderliche Vergrößerung ist z.B. hier ganz gut erklärt- etwa die halbe Seite nach unten scrollen bis zum Punkt Fernrohrleistung.


    Zum Winkelauflösungsvermögen des Auges kann man hier einiges nachlesen, ebenso hier in dieser Vorlage zu einer vorlesung zu Winkelauflösung und Sehschärfe oder zur Vergrößerung auch hier


    Übereinstimmend, egal wo man nacliest, ist die Angabe zu finden <b>Für ein normalsichtiges Auge liegt das maximale Auflösungsvermögen bei einem Sehwinkel von ca. 1#8242;. Dies entspricht definitionsgemäß einer Sehschärfe von 1,0</b> Das entspricht der förderlichen Vergrößerung mit der Daumenregel V=D. Bei abweichendem Visus passt das natürlich nicht mehr ganz. Aber das man bei einer AP von 1mm bis runter zu 0,8mm normalerweise gut 95% aller Details erkennt dürfte gut hinkommen. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Im Gegensatz zu Kameras an optischen Systemen haben wir es beim Sehen mit einer Wahrnehmungsfrage zu tun und da spielt deutlich mehr hinein als der Abstand von Stäbchen oder Zapfen auf der Netzhaut <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Nun ja, was entsprechend dem Abstand der Rezeptoren nicht mehr getrennt werden kann wird eben nicht mehr aufgelöst. Und was ncht aufgelöst ist, kann auch keine Wahrnehmung wieder hinzufügen. Ob das nun die Rezeptoren im Auge sind oder die Pixel einer Kamera ist dabei egal.


    Gruß
    Stefan


    PS: links repariert

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>[...]
    Nun ja, was entsprechend dem Abstand der Rezeptoren nicht mehr getrennt werden kann wird eben nicht mehr aufgelöst. Und was ncht aufgelöst ist, kann auch keine Wahrnehmung wieder hinzufügen. Ob das nun die Rezeptoren im Auge sind oder die Pixel einer Kamera ist dabei egal.
    [...]
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Vielen Dank für den Link zur ausführlichen Präsentation!


    Ich meine mich an Ausführungen zu erinnern, in welchen die Bewegungen des Augapfels als Methode zur Erhöhung der Auflösung beschrieben wurden. EDIT: Hier eine Veröffentlichung dazu.
    https://www.researchgate.net/p…nce_at_the_sampling_limit
    In jedem Falle verarbeitet unser Sehapparat pro Sekunde ca. 100 niedrig aufgelöste und 3 bis 4 hochaufgelöste Bilder und setzt erst daraus nach Abgleich mit Erfahrungswerten ein Bild zusammen.


    Bei kleinen Pupillendurchmessern (&lt;1 mm) sind wir beugungsbegrenzt schon bei weniger als 1', bei weiter als 3 mm geöffneten Pupillen begrenzen dann die Abbildungsfehler unserer Augenlinsen die Auflösung. Die nominelle (beugungsbegrenzte und anatomisch maximal mögliche) Auflösung schaffen wir also schon mal nur unter Idealbedingungen. Dennoch werden in der Astronomie auch höhere Vergrößerungen noch gewinnbringend verwendet.


    Ein anderes Beispiel für die Diskrepanz zwischen theoretischer Auflösung und Praxis ist die Trennbarkeit von Doppelsternen mit dem unbewaffneten Auge. Sie wird mit gerade mal 3-10' angegeben, also weit vom theoretischen Wert selbst für das skotopische Sehen entfernt.


    Die Herleitung der maximalen Auflösung vom Abstand der Zapfen oder Stäbchen ist daher meiner Ansicht nach zumindest in der astronomischen Praxis nicht überzeugend.


    Viele Grüße,
    Sebastian


    PS: Die internen Links funktionieren bei mir nicht.

  • Hi Sebastian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die Herleitung der maximalen Auflösung vom Abstand der Zapfen oder Stäbchen ist daher meiner Ansicht nach zumindest in der astronomischen Praxis nicht überzeugend.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Ob dein Auge direkt, per Mikroskop oder durch ein Teleskop Licht empfängt ist dem Auge relativ egal. Bestimmend für die mögliche Auflösung ist einzig der Abstand der Sensoren und der Winkel zwischen zwei Objekten- nur das bestimmt die mögliche Winkelauflösung.


    Und das Ergebnis wurde über sehr viele Jahre von allen möglichen Institutionen, Forschern und Optikern immer wieder verifiziert. [:)] <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ein anderes Beispiel für die Diskrepanz zwischen theoretischer Auflösung und Praxis ist die Trennbarkeit von Doppelsternen mit dem unbewaffneten Auge. Sie wird mit gerade mal 3-10' angegeben, also weit vom theoretischen Wert selbst für das skotopische Sehen entfernt.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Dazu findet sich was in der Wiki und ausführlicher ist das hier beschrieben- weiterführender Link auf der Seite


    die dfefekten Links im vorherigen Beitrag hab ich repariert. [:I]


    Gruß
    Stefan

  • Hallo!


    Ich habe viele Doppelsternbeobachtungen mit meinem f/4.8 12,5" bzw. f/5 10" gemacht, deshalb wollte ich zu diesem theoretischen Thema noch ein paar praktische Erfahrungen mit Hochvergrößerungen hinzufügen:


    Bei gutem Seeing sehe ich bei einer AP von 1.0mm eine sinnvolle Hochvergrößerung. Sie ist in den meisten Nächten auch sinnvoll nutzbar. Die dazu benötigte Okularbrennweite entspricht z.B. bei f/5 dann 5mm.


    Bei sehr gutem Seeing kann ich bei sehr engen DS bzw. sehr kleinen PNs die Vergrößerung noch <i>gewinnbringend</i> steigern. Bei meinem 12,5"er ist das bei einer Okularbrennweite von 3,5mm dann etwa V=440x. Dies entspricht etwa dem manchmal zu lesendem Kriterium V=D/0.7.


    Ich habe bei perfektem Seeing auch schon V=610x versucht (Okularbrennweite 2,5mm), dies entspricht dann etwa V=2*D. Bei <i>sehr</i> engen Doppelsternen waren die Komponenten dann <i>etwas</i> deutlicher zu trennen, das Bild zeigt aber schon gefühlt a bisserl "leere Vergrößerung".


    Ob man das jetzt Maximalvergrößerung oder förderliche Vergrößerung nennt, oder wie man es theoretisch begründet: Diese (D/0.7)-Vergrößerung halte ich für eine sinnvolle maximale Vergrößerung.


    viele grüße, volker.

    Deep Sky visuell, Mond und Sonne im Weißlicht mit 10" f/5 Dobson auf Selbstbau Birke-Multiplex  :dizzy:

  • Nein, es ist nicht egal, was das Auge sieht. Das steht auch in allen von Dir verlinkten Dokumenten. Der Objektkontrast z.B. beeinflusst die erzielbare Sehschärfe. Das ist ja auch logisch, weil Schärfe Kontrastübertragung ist.


    Bleiben wir noch mal beim Ausgangsbeispiel: Bei Teleskopen entspricht die theoretische Auflösung bei 1 mm AP in etwa der theoretischen Auflösung des menschlichen Auges. Das bedeutet doch, dass nur bei idealem Kontrast und optimal geöffneter Pupille ein normalsichtiger Mensch diese Auflösung nutzen könnte. Und das auch nur, wenn es sich um leicht erkennbare Strukturen wie z.B. Gitter handelt. Dennoch nutzen viele Beobachter auch Austrittspupillen kleiner als 1 mm und erfassen dabei Strukturen, die vorher nicht erkennbar waren. Und das obwohl sie einen verminderten Kontrast aufweisen und irregulär sind. Ich sehe z.B. im Orionnebel bei 0,6 mm AP mehr Strukturen als bei 1 mm AP und mein Visus ist nicht 20/20.


    In der oben von mir verlinkten Veröffentlichung wird gezeigt, dass Augenbewegungen die Sehschärfe über die Nyquist-Frequenz der Retina hinaus steigern. Und das alles funktioniert offenbar auch nur so gut, weil die virtuelle Bildebene bei der Betrachtung durch ein Okular/Teleskop in der idealen Entfernung vom Auge liegt. Bei weit entfernten Objekten sind die Muskelbewegungen des Auges zu groß bzw. ungenau für eine effektive Auflösungsverbesserung, so dass wir da Objekte deutlich schlechter voneinander trennen können als durch ein Teleskop.


    Viele Grüße,
    Sebastian

  • Hallo Sebastian,


    das man optimale Auflösung nur bei optimalen Bedingungen erreicht ist doch selbstverständlich. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das bedeutet doch, dass nur bei idealem Kontrast und optimal geöffneter Pupille ein normalsichtiger Mensch diese Auflösung nutzen könnte.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Die optimal geöffnete Pupille wäre dafür schlecht, damit treten ja augenseitig Abbdilungsfehler auf. Aber wenn die AP nur noch 1mm ist tritt das Licht auch nicht mehr über die volle Augenpupille verteilt ein.


    Und bei der förderlichen Vergrößerung mit 1mm AP oder etwas kleiner sind nun mal annähernd 95% Details erkennbar. Höher vergrößern zeigt diese Details dann aber auch etwas größer und das ist für das Hirn wiederum besser verarbeitbar. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">In der oben von mir verlinkten Veröffentlichung wird gezeigt, dass Augenbewegungen die Sehschärfe über die Nyquist-Frequenz der Retina hinaus steigern<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Da wurde ein Muster in die Augen eingeblendet, mal statisch und mal über einen aufwändigen Scanner in einer bestimmten Größenordnung bewegt.


    Würde sich das bei "normalen" Sehen auswirken würde dies bei jeder Augenüberprüfung bezüglich des Visus wirken. Nur ist das Ergebnis aus allen solchen Untersuchungen- Visus=1 ist das normalsichtige Augen und dieser Visus lässt sich in einen Winkel umrechnen und damit sind wir wieder bei den gängigen Aussagen der vorherigen Beiträge. [:)] <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bei weit entfernten Objekten sind die Muskelbewegungen des Auges zu groß bzw. ungenau für eine effektive Auflösungsverbesserung, so dass wir da Objekte deutlich schlechter voneinander trennen können als durch ein Teleskop. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Auch das führt wieder zum Winkel, das Teleskop bringt bei passender Vergrößerung den Winkel, der dem max. Winkelauflösungsvermögen des Auges entspricht.


    Gruß
    Stefan

  • Hallo Stefan,


    vielleicht (wahrscheinlich) stehe ich auf dem Schlauch. Ich versuche es noch mal.


    (Alle Werte sind aus Deinen Links) Die Winkelauflösung unseres Sehapparates ist mit 0,5-1‘ angegeben.


    Eine Bogenminute entspricht einem Abstand von 5,7 Mikrometern auf der Netzhaut. Was wiederum die beugungsbegrenzte Auflösung bei 4 mm geöffneter Pupille ist (je kleiner die Pupille, je stärker begrenzt die Beugung die mögliche Auflösung). Allerdings sinkt die Auflösung des Auges schon oberhalb von 3 mm Pupillenöffnung. In der Fovea liegen die Zapfen im dichtesten Falle 4 Mikrometer voneinander entfernt. Unsere Anatomie dürfte also selbst unter Annahme idealer Bedingungen gar keine Auflösung von einer halben Bogenminute erlauben. Der Sehapparat tut es aber, zumindest im Nahbereich. Im Fernbereich geht es jedoch nicht mehr, da sind es nur noch 3 - 10 Bogenminuten.


    Ganz so einheitlich und rein physikalisch definiert scheint mir das also nicht.


    Viele Grüße,
    Sebastian

  • Liebe Sternfreunde,


    vielen Dank für die interessanten Beiträge.


    Insgesamt tendiere ich zur Auffassung von Stefan:


    Gehe ich beim Mond oder den Planeten von V=D auf V=1,5D, erscheinen die Planetendetails an der Auflösungsgrenze subjektiv deutlicher (da größer), bei Erhöhung auf V=2D nimmt der Kontrast und damit die Deutlichkeit kontrastarmer Strukturen weiter ab. Reduziere ich die Vergrößerung wieder auf V=D, so erkenne ich nicht weniger Detail als bei höheren Vergrößerungen. Das habe ich bereits bei mehreren Teleskopen erlebt, so dass ich bei meiner Sehschärfe mit Sicherheit sagen kann, dass mir Vergrößerungen über V=D hinaus keinen Informationsgewinn bringen.


    Die Strukturen an der Auflösungsgrenze erscheinen dann lediglich kleiner, aber dafür schärfer und kontrastreicher, also insgesamt "knackiger". Für mich persönlich das angenehmere Abbild, auch wenn man an der Auflösungsgrenze genauer hinschauen muss.


    Mein Eindruck ist, dass man (auch ich selbst, als ich noch nicht oft beobachtet habe), solange das Auge noch nicht gut auf teleskopisches Sehen trainiert ist, bei Vergrößerungen über ca. V=D hinaus einer optischen Täuschung aufsitzt, da die kleinsten erkennbaren Strukturen größer erscheinen und damit für das ungeübte Auge besser oder überhaupt erst erkennbar sind.


    Ein ungeübter Beobachter wird somit zweifelsohne bei V=1,5D oder gar V=2D feinere Strukturen als bei V=D erkennen. Mit zunehmendem Training des Auges wird der Beobachter dann vom schärferen und kontrastreicheren Abbild bei V=D profitieren.


    Bei Doppelsternen kann ich nicht mitreden, da ich mir nur vereinzelt weite, attraktive Paare wie Albirero oder Castor anschaue.


    Dass die Formeln eine Faustregel sind und in erheblichem Maße von der Sehschärfe des Beobachters abhängen, ergibt sich ja schon aus meinem Eingangspost.


    Vor einiger Zeit las ich in einem Forum folgendes hierzu passendes Zitat: "Der Einsteiger sucht Vergrößerung, der Fortgeschrittene Öffnung und der Profi Kontrast." Das mit dem Einsteiger ist hierbei keineswegs abwertend gemeint, wie ich oben dargelegt habe.


    VG Christian

  • Hallo Christian,


    ich argumentiere ja nicht gegen eine spezifische förderliche Vergrößerung, sondern gegen die reine Herleitung von der Anatomie des Auges. Wie beschrieben liegt das „durchschnittliche Maximum“ von 1‘, also ca. V=D schon an der Grenze des physiologisch Möglichen. Und das wird mit hochkontrastigen Zielen unter Idealbedingungen erreicht.


    In der Astronomie nutzen wir aber zumindest 1‘ auch bei niedrigen Kontrasten wie Planetendetails oder Nebelstrukturen. Zudem kommt immer wieder die Erfahrung, dass man sich in eine Szene „einsehen“ muss. Meine Vermutung und mein Verständnis der Situation sagt mir, dass eine informationserhöhende Akkumulation von einzelnen Seheindrücken eine Erklärung dafür bieten könnte. In der Bildverarbeitung nennt man das ‚super resolution‘. Und da unser Sehapparat schon eine Menge „Bildverarbeitung“ durchführt, warum sollte er das bezüglich Auflösung nicht tun?


    Viele Grüße,
    Sebastian

  • Hallo Sebastian,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: b_schaefer</i>
    ...Und da unser Sehapparat schon eine Menge „Bildverarbeitung“ durchführt, warum sollte er das bezüglich Auflösung nicht tun?
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    weil auch die menschliche Physiologie nicht gegen die Physik arbeiten kann:


    Der Entstehungsprozess des Bildes von der Projektion auf die Netzhaut bis zur Sinneswahrnehmung (ich fasse ihn mal mit "Physiologischer Bildbearbeitung" zusammen) kann, analog zur digitalen Bildbearbeitung am Rechner, nur Details ausarbeiten, die im Rohbild (hier das durch die Augenlinse auf die Netzhaut projizierte Bild) vorhanden sind.


    Sofern deine Argumentation mit der Akkumulation von Seheindrücken stimmt, müsste man unter Idealbedingungen, so deute ich es sprachlich, eine Auflösung ezielen können, die über dem physikalischen Auflösungsvermögen der Primäroptik (Teleskop) liegt. Und das ist De Facto unmöglich: Auch die akkumulierten Seheindrücke können in der Summe nicht das Auflösungsvermögen des Teleskops nicht überbieten. Oder habe ich deinen Post dahingehend falsch interpretiert?


    Schlussendlich ist der begrenzende Faktor bei gegebener Teleskopöffnung die optische Qualität der Augenlinse, da sie das vom Teleskop erzeugte hypothetische Idealbild (das es in der praktischen Beobachtung ja nicht gibt) auf die Netzhaut projiziert. Wenn also die Augenlinse eine optisch einwandfreie Qualität hat, kann also durch die physiologische Bildbearbeitung nicht mehr Detail wiedergegeben werden, als durch das Okular an die Augenlinse gelangt.


    Lange Rede, kurzer Sinn: Die physilogische Bildbeabeitung kann also nicht mehr reale Details wiedergeben, als vom Teleskop aufgelöst und auf die Netzhaut projiziert werden.


    VG Christian

  • Hallo Christian,


    eine Analogie zum Verständnis könnte der sogenannte High-Res-Modus von diversen Digitalkameras sein. Dabei macht die Kamera mehrere Aufnahme hintereinander, mit jeweils leicht verschobenem Sensor. Aus den Einzelaufnahmen wird dann ein neues Bild gerechnet, welches tatsächlich eine höhere Auflösung hat als die Einzelbilder. Ich hatte eine solche Kamera auch mal für einige Zeit und die Ergebnisse waren eindrucksvoll. Interessant war dabei auch die Beobachtung, dass selbst Bilder aus Objektiven, die schon in der nativen Sensorauflösung an die Grenzen zu kommen schienen (z.B. in Randbereichen) immer noch von der gesteigerten Abtastung profitierten.


    Ähnliches ist meiner Ansicht nach auch bei unserem Sehapparat zu erwarten. Mit den unwillkürlichen Augenbewegungen tasten wir ein gegebenes Signal mehrfach ab und errechnen daraus eine höhere Auflösung, als es die Anatomie unserer Netzhaut/Linse alleine zulassen würde.


    Auch das Signal aus dem Teleskop ist ja nicht (quasi digital) bei einem bestimmten Wert einfach weg, sondern es sinkt zunehmend der Kontrast. Wie viel von dem Kontrast unser Sehapparat noch zur Informationsgewinnung nutzen kann, hängt von verschiedenen Faktoren ab. Ich nutze z.B. ein Doppelteleskop und kann daher wahrscheinlich geringere Kontrastunterschiede nutzen, als das bei einäugiger Verwendung des gleichen Teleskops der Fall wäre.


    Ein Grund für meine Annahme liegt auch darin, dass wir normalerweise einen gewissen „Überschuss“ an Auflösung für die Informationsextraktion benötigen. Die „technischen Daten“ unseres Auges (z.B. Abstand der Zapfen, Beugung durch die Pupille) geben aber keinen solchen Überschuss in Relation zur allgemein gemessenen Sehschärfe her, eher im Gegenteil.


    Viele Grüße,
    Sebastian

  • Ein spannendes Gebiet. Die ganze Kette vom Objektiv über das Okular und das Auge ist wohl insgesamt individuell. Auch die Beobachtungserfahrung spielt eine wichtige Rolle, so haben wir mindestens 4 Komponenten, die das Seherlebnis determinieren.


    Ich denke, das, was man sieht, ist immer auch eine Mischung von realem Bild und dem kognitiven Vergleich mit 2 Dingen: mit dem erwarteten Bild und mit gespeicherten Bildern von früher. So wie moderne Kameras nun eine Bayer-Matrix mit Pixelshift-Technologie bei der Aufnahme verschieben, so macht das Auge mit seinen Mikrobewegungen Kunststücke, die wir so gar nicht mitbekommen, die aber dafür sorgen, dass der Lichtweg immer ein wenig variiert und das Bild auf der Retina immer ein wenig verschoben wird.


    Das Gehirn setzt dann aus all diesen Messgrößen zusammen mit den Identifikationsalgorithmen, Vergleichsbildern und Erwartungen eine Beobachtungserfahrung zusammen, die es dem Bewusstsein (das ja nur eine geringe Bandbreite hat) präsentiert. Hier kämpft dann der Versuch, sich auf das beobachtete Objekt zu konzentrieren mit der Idee des entspannten Betrachtens ohne etwas Bestimmtes "sehen zu wollen".


    Es wird also auch zwischen Konzentration samt Analyse und eine gewissen "Nirvana-Betrachten" umgeschaltet, in dessen Rahmen man einfach das Bild auf sich wirken lässt, ohne Vorannahmen zu treffen, was man gerade sehen wird. Neben dem indirekten Sehen gibt es also meines Erachtens auch andere "Indirekte" Methoden, Dinge wahrzunehmen, indem man immer andere Komponenten des Vorgangs versucht auszuschalten.


    Mein Gehirn reicht leider nicht aus, diese Komplexität, mit der über eine Zeitachse hinweg die verschiedensten Mechanismen zusammenwirken als gesamtes Gebäude vorzustellen. Die Zerlegung in betrachtbare Abschnitte und Momente scheint notwendig, aber nicht ausreichend, um das alles zu verstehen. Hier gilt offenbar besonders: das Ganze ist mehr als die Summe seiner Teile.


    lg
    Niki

  • Hallo Sebastian,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: b_schaefer</i>
    ...Ähnliches ist meiner Ansicht nach auch bei unserem Sehapparat zu erwarten. Mit den unwillkürlichen Augenbewegungen tasten wir ein gegebenes Signal mehrfach ab und errechnen daraus eine höhere Auflösung, als es die Anatomie unserer Netzhaut/Linse alleine zulassen würde...


    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das mag ja alles stimmen (auch wenn ich aus physikalischen Gründen und eigener Beobachtungserfahrung hiervon nicht wirklich überzeugt bin, siehe oben). Aber nichts desto trotz, und darauf wollte ich eigentlich hinaus, gibt die Teleskopöffnung eine Maximalauflösung und damit Detailfülle der Rohdaten vor, in die die physiologische Bildverarbeitung keine weiteren Details hineinbearbeiten kann.


    Die Auflösung des "virtuellen Summenbildes", das wir am Okular sehen, ist dann die Summe der Details, die aus den Einzelbildern im Gehirn zusammen gerechnet wurde. Und bei jedem Einzelbild gibt die Teleskopöffnung die Maximalauflösung, und damit wohl auch im Zusammenspiel mit der Sehschärfe, die Maximalauflösung des gesehenen Bildes vor.


    VG Christian

  • Hallo Christian,


    nicht ganz, weil eben das Teleskop keine feste Auflösungsgrenze vorgibt. Wie schon der Vergleich Rayleigh/Dawes zeigt, gibt es da nur empirische Richtwerte. Und in die ist teilweise schon unser Sehapparat „eingerechnet“. Daher finde ich es ja so problematisch und unnötig, von solchen empirischen Werten und subjektiven Beobachtungserfahrungen auf irgendwelche physikalischen und physiologischen Grenzen zurückrechnen zu wollen.


    In der Optik wird beispielsweise gerne die MTF zur Charakterisierung einer Optik verwendet. Dieses Maß gibt - vereinfacht gesagt - an, wie viel Prozent des ursprünglichen Kontrasts bei einer gegebenen Frequenz (Auflösung) noch übertragen wird. Einen hohen Ausgangskontrast wie an einem Schlagschatten auf dem Mond wird ein dahinter liegendes optisches System daher besser auflösen können als eine Struktur in einem Jupiter-Wolkenband.


    Die „Maximalauflösung“ ist also mindestens von Szene, Teleskop und bildgebendem System abhängig.


    Viele Grüße,
    Sebastian

  • Hi Sebastian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ähnliches ist meiner Ansicht nach auch bei unserem Sehapparat zu erwarten. Mit den unwillkürlichen Augenbewegungen tasten wir ein gegebenes Signal mehrfach ab und errechnen daraus eine höhere Auflösung, als es die Anatomie unserer Netzhaut/Linse alleine zulassen würde.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Hatte ich schon was dazu geschrieben, aber gern nochmals. Wenn das Auge bzw. das Hirn dies so macht dann macht es das immer. Damit ist das Ergebnis genau das, was dir dein Optiker als Resultat des Augentest sagt Visus mit Wert x.


    Und alle in unzähligen Studien ermittelten Werte für die Auflösungsfähigkeit des Auges würden diese "Superauflösung durch Augenbewegungen" beinhalten. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">eine Analogie zum Verständnis könnte der sogenannte High-Res-Modus von diversen Digitalkameras sein. Dabei macht die Kamera mehrere Aufnahme hintereinander, mit jeweils leicht verschobenem Sensor. Aus den Einzelaufnahmen wird dann ein neues Bild gerechnet, welches tatsächlich eine höhere Auflösung hat als die Einzelbilder. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Ein Detail, das in keiner der einzelnen Aufnahmen enthalten ist, wird auch nicht in einem errechneten Bild sichtbar werden. [:)]<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die „Maximalauflösung“ ist also mindestens von Szene, Teleskop und bildgebendem System abhängig.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Die Maximalauflösung des Auges wird sozusagen unter "Laborbedingung" beim Optiker ermittelt. Mit einem kontrastreichen Auflösungstest oder anderen dazu nötigen Vorlagen.


    Am Himmel haben wir diese Laborbedingungen nie. Aber trotzdem gelten die für maximale Erkennbarkeit nötigen Voraussezungen und das ist eben der dazu für das Winkelauflösungsvermögen passende Winkel. Und den erreicht man mit einer AP von 1mm oder knapp kleiner.


    Hast du dabei ein kontraststarkes Objekt oder ein kontrastschwaches- egal, in beiden Fällen erzielst du damit das jeweils bestmögliche Ergebnis.


    Gruß
    Stefan

  • Hallo Sebastian,


    es gibt überhaupt keine Diskussion darüber, dass die Dawes- und Rayleigh-Kriterien willkürliche Definitionen der Auflösung darstellen. Überhaupt sind Doppelsterne hierfür ein anschauliches Beispiel:


    Bei beiden genannten Kriterien "kleben" die Beugungsscheibchen der Doppelstern-Komponenten noch mehr oder weniger stark aneinander, ähnlich wie die Molekülmodelle ohne Verbindungsdrähte im Chemie-Unterricht. Bei keinem dieser beiden Kiterien erkennt man also einen Zwischenraum zwischen den beiden Beugungsscheibchen.


    Mir sind auch Sternfreunde bekannt, die einen Doppelstern erst dann als getrennt definieren, wenn zwischen den Einzelkomponenten eindeutig etwas schwarzer Raum zu erkennen ist. Definiert man dies als Auflösungsgrenze, würde die Auflösung des in meinem Startpost genannten Achhtzöllers schätzungsweise auf 0,7'', vielleicht sogar 1'' sinken. Die Definition der Auflösung ist also in Grenzen subjektiv.


    Warum in Grenzen? Bleiben wir beim idealen Doppelstern mit gleich hellen Komponenten gleicher Spektralklasse und idealer optischer Qualität und Seeing:


    Schiebt man die Doppelsternkomponenten gedanklich immer weiter zusammen, wird ein Punkt erreicht, an dem sie zunächst zu einem elongierten Stern ohne "Taille" und schließlich zu einem einzelnen Beugungssheibchen, das sich nicht mehr von einem physikalischen Einzelstern unterscheiden lässt, verschmelzen. Dies ist ja allgemein bekannt.


    Eigentlich kann man dann, je nach Auffassung und persönlicher Auslegung des Begriffs "Auflösung", das Auflösungsvermögen einer gegebenen Teleskopöffnung in einer Spanne zwischen der ersten eindeutigen Elongation des Beugungsscheibchens des Doppelsterns bis hin zum ersten eindeutigen Auftreten des schwarzen Zwischenaums angeben. Und selbst diese Grenzen hängen vom Sehvermögen des Beobachters ab...


    Zumindest die Seeing-Effekte lassen sich im Labor auf der optischen Bank eliminieren, der Einfluss des individuellen Auges bleibt subjektiv.


    Aber letztendlich muss man sich persönlich auf eine Definition der Auflösung festlegen. Ich persönlich bevorzuge hier, wie bereits erwähnt, das Kriterium nach Dawes.


    VG Christian

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    [...]
    Wenn das Auge bzw. das Hirn dies so macht dann macht es das immer. Damit ist das Ergebnis genau das, was dir dein Optiker als Resultat des Augentest sagt Visus mit Wert x.


    Und alle in unzähligen Studien ermittelten Werte für die Auflösungsfähigkeit des Auges würden diese "Superauflösung durch Augenbewegungen" beinhalten.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Selbstverständlich ist das enthalten. Nur die gerne beschriebene Rückführung der Sehschärfe auf geometrische Eigenschaften des Auges (Linse, Retina) halte ich allein für unzureichend. Aus den beschrieben Gründen.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ein Detail, das in keiner der einzelnen Aufnahmen enthalten ist, wird auch nicht in einem errechneten Bild sichtbar werden. [:)]<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Doch. Auch wenn die Abtastbreite gleich bleibt, steigt die Abtastfrequenz. Damit lässt sich eine höhere Auflösung rekonstruieren. Es gibt unzählige Veröffentlichungen dazu, aber man kann sich das auch ganz anschaulich hier vor Augen führen
    https://www.dpreview.com/revie…&x=0&y=0.2811306340718105


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">[...]Hast du dabei ein kontraststarkes Objekt oder ein kontrastschwaches- egal, in beiden Fällen erzielst du damit das jeweils bestmögliche Ergebnis.
    [...]<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Das wage ich selbst aus meiner bescheidenen Praxis heraus zu bezweifeln. Am Mond kann ich höher vergrößern als an Deep Sky-Objekten oder auch Planeten.


    Viele Grüße,
    Sebastian

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Christian-Berlin</i>
    [...]
    Aber letztendlich muss man sich persönlich auf eine Definition der Auflösung festlegen. Ich persönlich bevorzuge hier, wie bereits erwähnt, das Kriterium nach Dawes.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Da spricht nichts dagegen! Aber wie Du schon schreibst braucht man zur Definition der Auflösung Informationen/Definitionen, die nicht allein Teleskop begründet liegen. Daher mein Einwand, dass die Maximalauflösung eines Teleskops einer Definition bedarf, die Szene und optisches System dahinter mit einbezieht.


    Meine Vermutung ist sogar, dass abhängig von der Öffnung und Teleskoptyp (bei gleichem Beobachter und gleichen Szenen) unterschiedliche Maximalvergrößerungen sinnvoll sind.


    Viele Grüße,
    Sebastian

  • Hi Sebastian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Doch. Auch wenn die Abtastbreite gleich bleibt, steigt die Abtastfrequenz. Damit lässt sich eine höhere Auflösung rekonstruieren. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Nein, das ist nicht korrekt. Nur weil du ein Bild mehrfach erstellst änderst du nicht die Abtastfrequenz. Du erstellst lediglich das gleiche Bild mehrfach mit gleichem Bildinhalt und gleichen Details.


    Was du hier unter Abtastfrequenz verstehst, wäre bei der Digitalisierung von z.B. einer Sinuskurve die Anzahl der Messwerte zu erhöhen, eben die Abtastrate vergrößern. Wenn du mit gleicher Abtastrate den Verlauf der Kurve zu einem anderen Zeitpunkt erneut abtastest erhältst du andere Messwerte. Diese zusammen mit der ersten Abtastung würden gesamt mehr Werte ergeben, soweit korrekt. Der Sinusverlauf wäre zur Messung nicht statisch sondern zeitlich verändert.


    Was du bei dem mehrfachen Erstellen eines statischen Bildes tust- du nimmst exakt die gleiche Anzahl Abtastpunkte mehrfach auf. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Es gibt unzählige Veröffentlichungen dazu, aber man kann sich das auch ganz anschaulich hier vor Augen führen<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Was soll der Link denn zeigen? Dort kann man verschiedene Kameras mit verschiedenen Einstellungen vergleichen, mehr nicht.<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das wage ich selbst aus meiner bescheidenen Praxis heraus zu bezweifeln. Am Mond kann ich höher vergrößern als an Deep Sky-Objekten oder auch Planeten.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Deine Antwort zeigt deutlich, du hast nicht verstanden, was ich mit dem von dir dazu zitierten Satz aussage. [:)]


    Gruß
    Stefan

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    [...]
    Was du hier unter Abtastfrequenz verstehst, wäre bei der Digitalisierung von z.B. einer Sinuskurve die Anzahl der Messwerte zu erhöhen, eben die Abtastrate vergrößern. Wenn du mit gleicher Abtastrate den Verlauf der Kurve zu einem anderen Zeitpunkt erneut abtastest erhältst du andere Messwerte. Diese zusammen mit der ersten Abtastung würden gesamt mehr Werte ergeben, soweit korrekt. Der Sinusverlauf wäre zur Messung nicht statisch sondern zeitlich verändert.


    Was du bei dem mehrfachen Erstellen eines statischen Bildes tust- du nimmst exakt die gleiche Anzahl Abtastpunkte mehrfach auf.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Nein, die Abtastung (Bildaufnahme) erfolgt ja räumlich versetzt, wie ich schrieb. Beim Vergleich mit der Sinuswelle hätte man genau zwischen den ursprünglichen Abtastpunkten die gleiche Anzahl neuer Abtastpunkte.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Was soll der Link denn zeigen? Dort kann man verschiedene Kameras mit verschiedenen Einstellungen vergleichen, mehr nicht.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ja, da wäre eine konkrete Erläuterung angebracht gewesen...


    Also beide voreingestellte Kameras erlauben den oben genannten "High-Res-Mode" (Pixelshift). Man kann also gut eine einfache Aufnahme mit einer Aufnahme vergleichen, die aus mehreren, versetzten Einzelbildern zusammengerechnet wurde.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Deine Antwort zeigt deutlich, du hast nicht verstanden, was ich mit dem von dir dazu zitierten Satz aussage. [:)]<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das mag sein. Gibst Du mir einen Tipp?


    Viele Grüße,
    Sebastian

  • Hi Sebastian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Nein, die Abtastung (Bildaufnahme) erfolgt ja räumlich versetzt, wie ich schrieb<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Mal schwarze Striche auf ein Blatt weißes Papier mit definierter Breite/Abstand und nimm das mehrfach mit leichtem Versatz der Kamera auf- ändert sich da was? Wenn die Striche=Auflösungstest von der Kamera nicht mehr aufgelöst werden gilt dasfür jedes der einzelnen Bilder. Du kannst danach Bildverarbeitung oder Verrechnung betreiben wie du willst- du erhältst keine höhere Auflösung. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das mag sein. Gibst Du mir einen Tipp?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Ich hatte geschrieben- <i>Hast du dabei ein kontraststarkes Objekt oder ein kontrastschwaches- egal, in beiden Fällen erzielst du damit das jeweils bestmögliche Ergebnis. </i>


    Wenn du ein kontraststarkes Objekt unter optimalen Bedingung und optimal angepasst betrachtest kannst du das Ergebnis als 100% des für dich möglichen setzen.


    Verringerst du Kontrast und Bedingungen, behältst aber die optimale Anpassung bei wirst du nicht mehr die 100% erreichen, du kommst vielleicht auf nur noch 80% und das ist dann das für diese verschlechterten Bedingungen das bestmögliche Ergebnis.


    Führst du den gleichen Test mit einer schlechteren Anpassung durch, kommst du im ersten Fall schon nicht mehr auf 100% und im zweiten entsprechend auch nicht auf die 80%. du hast also durch die schlechtere Anpassung dein bestmögliches Ergebnis verschlechtert.


    Gruß
    Stefan

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!