Beiträge von b_schaefer im Thema „Frage zur förderlichen Vergrößerung“

    Fruchtlos war die Diskussion letzten Endes zumindest für mich selbst nicht. Ich habe viel gelesen und gelernt. Ob Christian jetzt weitergekommen ist, kann ich nicht beurteilen, es wäre aber zu vermuten.


    Ich halte Stefans Aussage vom Anfang
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    [...]Nun ja, was entsprechend dem Abstand der Rezeptoren nicht mehr getrennt werden kann wird eben nicht mehr aufgelöst. Und was ncht aufgelöst ist, kann auch keine Wahrnehmung wieder hinzufügen. Ob das nun die Rezeptoren im Auge sind oder die Pixel einer Kamera ist dabei egal. [...]
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    weiterhin für fragwürdig. Aber da können wir gerne geteilter Meinung bleiben.


    Erst spät bin ich auf die Idee gekommen, mal in meinem Lieblings-Optikbuch nachzusehen. Im Bergmann/Schäfer (Experimentalphysik, Band 3: Optik) finden sich zumindest Sätze wie:
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bei der Diskussion des Auges wird sehr schnell erkennbar, daß mancherlei Eigenschaften des Sehvorgangs nicht durch physikalische Gesetzmäßigkeiten alleine erklärbar sind [...]<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    oder
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Die Sehschärfe ist von zahlreichen Parametern abhängig; die wichtigsten dieser Parameter sind:
    - die Objektstruktur: Das Ergebnis der Sehschärfe-Bestimmung ist in starkem Maß von dem jeweiligen Testobjekt abhängig [...]
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Für Christian kann ich nur die Empfehlung geben, das zu nutzen, was besser funktioniert, unabhängig davon, ob sich dafür eine einfache physikalische Erklärung finden lässt:
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Christian-Berlin</i>
    Bei der Mondbeobachtung erkenne ich bei V = D aber deutlich mehr Details als bei V = D/2.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Viele Grüße,
    Sebastian



    Änderung: Zitierten Tippfehler korrigiert.

    Hallo Stefan, hallo Christian


    bevor ich mich aus der zunehmend fruchtlosen Diskussion verabschiede noch ein paar Punkte. Stefan, Du schaffst es, in dem von Dir selbst ausgewählten Zitat um die entscheidenden Stellen herum zu lesen, bzw. zu argumentieren, das ist beeindruckend. Zur Verdeutlichung hier mal eine veränderte Hervorhebung:


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">SR mit mehreren Bildern verwendet die Subpixelverschiebungen zwischen mehreren Bildern mit niedriger Auflösung derselben Szene. Es erzeugt ein <b>Bild mit verbesserter Auflösung</b>, das Informationen aus allen Bildern mit niedriger Auflösung <b>zusammenführt</b>, und die erzeugten Bilder mit <b>höherer Auflösung</b> sind bessere Beschreibungen der Szene<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    In diesem Wikipedia-Artikel ist die Methodik der geometrischen Auflösungsverbesserung im Abschnitt "Sub-pixel image localization" beschrieben. Dort könnte man bei entsprechender Bereitschaft entnehmen, dass durch den Vergleich der mit Versatz aufgenommenen Bilder tatsächlich Informationen hinzugewonnen werden, die in jedem einzelnen Bild nicht enthalten sind.


    Noch kurz zum Beugungsscheibchen als Basis für eine Auflösungsdefinition: Das Beugungsscheibchen ist nicht scharf begrenzt. Und da geht es schon wieder los: Wo zieht man die Grenze? Ist ein Stern schwächer, sehen wir das Beugungsscheibchen tendenziell kleiner, weil der Kontrastumfang der Szene geringer ist und wir daher den unscharfen Rand früher nicht mehr vom Hintergrund trennen können. Wie ich jetzt oft genug schrieb: Auch die Szene beeinflusst die Auflösung. Ohne eine Beschreibung der Eigenschaften der Szene und der bildgebenden Optik kann der Durchmesser des Beugungsscheibchens also gar nicht fest definiert werden.


    Dass wir diesen Wert aber als Richtwert nutzen und damit auch sinnvolle Einschätzungen treffen können, liegt daran, dass wir automatisch von unserem Sehapparat als Empfänger mit all seinen Limitierungen ausgehen. Und wir nehmen eben keinen nahen roten Riesen zur Beurteilung des Beugungsscheibchens. Aber wie gesagt: ein physikalisch/mathematisch fest definierter Wert ist der Durchmesser des Beugungsscheibchens ohne weiteres nicht.


    Viele Grüße,
    Sebastian

    Hallo Stefan,


    versuchen wir es mit Wikipedia? So ein ganz klein wenig Eigeninitiative wäre sonst auch ganz nett, die Schlagworte sind bekannt, das Thema keinesfalls neu. Aber wenn Du meinst, ‚super resolution‘ ist ein Schwindel, dann kann ich natürlich wenig tun.
    https://en.m.wikipedia.org/wiki/Super-resolution_imaging


    Zum anderen Punkt: Du willst mich offensichtlich nicht verstehen. Das sei Dir gegönnt. Der ein oder andere Mitleser konnte unserem Austausch sicher etwas entnehmen.


    Viele Grüße,
    Sebastian

    Hallo Stefan,


    neben der Grafik mit dem 4-shot-modus, der tatsächlich nur die Defizite des Bayer-Sensors ausgleicht, findet sich eine zweite Grafik. Aber das ist auch nur als Anschauungsbild gedacht gewesen. Soll ich jetzt noch Veröffentlichungen zur „super resolution“ raussuchen? Das Verfahren findet auch bei Thermalkameras Anwendung, also bei monochromen Sensoren.
    https://www.vision.fraunhofer.…schau-2018/microscan.html


    Und ich weiß nicht, ob Du mich absichtlich missverstehen willst. Wenn ich mit einem Teleskop unter idealen Bedingungen am idealen Target eine maximale Vergrößerung ermittle, heißt das doch nicht, dass ich die immer verwenden muss oder kann, wenn es um maximale Detailerkennung geht. Was nützt mir die theoretisch beste Auflösung, wenn der übertragene Kontrast bei dieser Auflösung nicht mehr wahrnehmbar ist? Dann ist eine geringere Vergrößerung nicht nur ausreichend, sondern sogar sinnvoll, weil z.B. möglicherweise mehr Sehfeld zur Verfügung steht.


    Vielleicht liegt das Missverständnis darin, dass Du annimmst, ich suche nach Wegen, die maximal mögliche Vergrößerung zu erhöhen. Das ist aber nicht der Fall. Alles was sich sage ist, dass die optimale Auflösung nicht rein physikalisch aus der Geometrie des Auges und des Teleskops ableitbar ist.


    Wo das sinnvolle Maximum liegt, kann ich bestenfalls für mich selbst entscheiden. Für Einsteiger oder andere Interessierte kann ich auf die Faustformel V=D verweisen und dazu sagen, dass das tatsächliche Optimum auch etwas daneben liegen kann.


    Viele Grüße,
    Sebastian

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    Mal schwarze Striche auf ein Blatt weißes Papier mit definierter Breite/Abstand und nimm das mehrfach mit leichtem Versatz der Kamera auf- ändert sich da was? Wenn die Striche=Auflösungstest von der Kamera nicht mehr aufgelöst werden gilt dasfür jedes der einzelnen Bilder. Du kannst danach Bildverarbeitung oder Verrechnung betreiben wie du willst- du erhältst keine höhere Auflösung.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Stefan, Du willst jetzt nicht ernsthaft die Funktionsfähigkeit der etablierten Pixel-Shift-Technologie in Frage stellen, oder? Hast Du Dir die Bilder angesehen? Hier noch ein Link zur Erklärung von Hasselblad. Es geht um den "6-shot-mode"
    https://www.hasselblad.com/de-de/h6d-multishot/


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn du ein kontraststarkes Objekt unter optimalen Bedingung und optimal angepasst betrachtest kannst du das Ergebnis als 100% des für dich möglichen setzen.


    Verringerst du Kontrast und Bedingungen, behältst aber die optimale Anpassung bei wirst du nicht mehr die 100% erreichen, du kommst vielleicht auf nur noch 80% und das ist dann das für diese verschlechterten Bedingungen das bestmögliche Ergebnis.


    Führst du den gleichen Test mit einer schlechteren Anpassung durch, kommst du im ersten Fall schon nicht mehr auf 100% und im zweiten entsprechend auch nicht auf die 80%. du hast also durch die schlechtere Anpassung dein bestmögliches Ergebnis verschlechtert.
    [...]
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das verstehe ich tatsächlich nicht ganz. Die "Anpassung" bezieht sich jetzt auf die optimale Vergrößerung? Wie ich schrieb, die ist meiner Meinung nach nicht szenenunabhängig gleich.


    In Deinem Beispiel hieße das, wenn der Szenenkontrast geringer ist, würde ich lieber eine geringere Vergrößerung wählen, um im Ergebnis ausreichend Kontrast zu haben. Mein "Optimum" verschiebt sich also nach unten. Es macht ja keinen Sinn, mit der <i>bei einer anderen Szene </i> maximal möglichen Vergrößerung zu arbeiten, wenn ich dann wegen zu geringen Kontrasten nichts mehr erkenne.


    Viele Grüße,
    Sebastian

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    [...]
    Was du hier unter Abtastfrequenz verstehst, wäre bei der Digitalisierung von z.B. einer Sinuskurve die Anzahl der Messwerte zu erhöhen, eben die Abtastrate vergrößern. Wenn du mit gleicher Abtastrate den Verlauf der Kurve zu einem anderen Zeitpunkt erneut abtastest erhältst du andere Messwerte. Diese zusammen mit der ersten Abtastung würden gesamt mehr Werte ergeben, soweit korrekt. Der Sinusverlauf wäre zur Messung nicht statisch sondern zeitlich verändert.


    Was du bei dem mehrfachen Erstellen eines statischen Bildes tust- du nimmst exakt die gleiche Anzahl Abtastpunkte mehrfach auf.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Nein, die Abtastung (Bildaufnahme) erfolgt ja räumlich versetzt, wie ich schrieb. Beim Vergleich mit der Sinuswelle hätte man genau zwischen den ursprünglichen Abtastpunkten die gleiche Anzahl neuer Abtastpunkte.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Was soll der Link denn zeigen? Dort kann man verschiedene Kameras mit verschiedenen Einstellungen vergleichen, mehr nicht.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ja, da wäre eine konkrete Erläuterung angebracht gewesen...


    Also beide voreingestellte Kameras erlauben den oben genannten "High-Res-Mode" (Pixelshift). Man kann also gut eine einfache Aufnahme mit einer Aufnahme vergleichen, die aus mehreren, versetzten Einzelbildern zusammengerechnet wurde.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Deine Antwort zeigt deutlich, du hast nicht verstanden, was ich mit dem von dir dazu zitierten Satz aussage. [:)]<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das mag sein. Gibst Du mir einen Tipp?


    Viele Grüße,
    Sebastian

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Christian-Berlin</i>
    [...]
    Aber letztendlich muss man sich persönlich auf eine Definition der Auflösung festlegen. Ich persönlich bevorzuge hier, wie bereits erwähnt, das Kriterium nach Dawes.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Da spricht nichts dagegen! Aber wie Du schon schreibst braucht man zur Definition der Auflösung Informationen/Definitionen, die nicht allein Teleskop begründet liegen. Daher mein Einwand, dass die Maximalauflösung eines Teleskops einer Definition bedarf, die Szene und optisches System dahinter mit einbezieht.


    Meine Vermutung ist sogar, dass abhängig von der Öffnung und Teleskoptyp (bei gleichem Beobachter und gleichen Szenen) unterschiedliche Maximalvergrößerungen sinnvoll sind.


    Viele Grüße,
    Sebastian

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    [...]
    Wenn das Auge bzw. das Hirn dies so macht dann macht es das immer. Damit ist das Ergebnis genau das, was dir dein Optiker als Resultat des Augentest sagt Visus mit Wert x.


    Und alle in unzähligen Studien ermittelten Werte für die Auflösungsfähigkeit des Auges würden diese "Superauflösung durch Augenbewegungen" beinhalten.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Selbstverständlich ist das enthalten. Nur die gerne beschriebene Rückführung der Sehschärfe auf geometrische Eigenschaften des Auges (Linse, Retina) halte ich allein für unzureichend. Aus den beschrieben Gründen.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ein Detail, das in keiner der einzelnen Aufnahmen enthalten ist, wird auch nicht in einem errechneten Bild sichtbar werden. [:)]<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Doch. Auch wenn die Abtastbreite gleich bleibt, steigt die Abtastfrequenz. Damit lässt sich eine höhere Auflösung rekonstruieren. Es gibt unzählige Veröffentlichungen dazu, aber man kann sich das auch ganz anschaulich hier vor Augen führen
    https://www.dpreview.com/revie…&x=0&y=0.2811306340718105


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">[...]Hast du dabei ein kontraststarkes Objekt oder ein kontrastschwaches- egal, in beiden Fällen erzielst du damit das jeweils bestmögliche Ergebnis.
    [...]<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Das wage ich selbst aus meiner bescheidenen Praxis heraus zu bezweifeln. Am Mond kann ich höher vergrößern als an Deep Sky-Objekten oder auch Planeten.


    Viele Grüße,
    Sebastian

    Hallo Christian,


    nicht ganz, weil eben das Teleskop keine feste Auflösungsgrenze vorgibt. Wie schon der Vergleich Rayleigh/Dawes zeigt, gibt es da nur empirische Richtwerte. Und in die ist teilweise schon unser Sehapparat „eingerechnet“. Daher finde ich es ja so problematisch und unnötig, von solchen empirischen Werten und subjektiven Beobachtungserfahrungen auf irgendwelche physikalischen und physiologischen Grenzen zurückrechnen zu wollen.


    In der Optik wird beispielsweise gerne die MTF zur Charakterisierung einer Optik verwendet. Dieses Maß gibt - vereinfacht gesagt - an, wie viel Prozent des ursprünglichen Kontrasts bei einer gegebenen Frequenz (Auflösung) noch übertragen wird. Einen hohen Ausgangskontrast wie an einem Schlagschatten auf dem Mond wird ein dahinter liegendes optisches System daher besser auflösen können als eine Struktur in einem Jupiter-Wolkenband.


    Die „Maximalauflösung“ ist also mindestens von Szene, Teleskop und bildgebendem System abhängig.


    Viele Grüße,
    Sebastian

    Hallo Christian,


    eine Analogie zum Verständnis könnte der sogenannte High-Res-Modus von diversen Digitalkameras sein. Dabei macht die Kamera mehrere Aufnahme hintereinander, mit jeweils leicht verschobenem Sensor. Aus den Einzelaufnahmen wird dann ein neues Bild gerechnet, welches tatsächlich eine höhere Auflösung hat als die Einzelbilder. Ich hatte eine solche Kamera auch mal für einige Zeit und die Ergebnisse waren eindrucksvoll. Interessant war dabei auch die Beobachtung, dass selbst Bilder aus Objektiven, die schon in der nativen Sensorauflösung an die Grenzen zu kommen schienen (z.B. in Randbereichen) immer noch von der gesteigerten Abtastung profitierten.


    Ähnliches ist meiner Ansicht nach auch bei unserem Sehapparat zu erwarten. Mit den unwillkürlichen Augenbewegungen tasten wir ein gegebenes Signal mehrfach ab und errechnen daraus eine höhere Auflösung, als es die Anatomie unserer Netzhaut/Linse alleine zulassen würde.


    Auch das Signal aus dem Teleskop ist ja nicht (quasi digital) bei einem bestimmten Wert einfach weg, sondern es sinkt zunehmend der Kontrast. Wie viel von dem Kontrast unser Sehapparat noch zur Informationsgewinnung nutzen kann, hängt von verschiedenen Faktoren ab. Ich nutze z.B. ein Doppelteleskop und kann daher wahrscheinlich geringere Kontrastunterschiede nutzen, als das bei einäugiger Verwendung des gleichen Teleskops der Fall wäre.


    Ein Grund für meine Annahme liegt auch darin, dass wir normalerweise einen gewissen „Überschuss“ an Auflösung für die Informationsextraktion benötigen. Die „technischen Daten“ unseres Auges (z.B. Abstand der Zapfen, Beugung durch die Pupille) geben aber keinen solchen Überschuss in Relation zur allgemein gemessenen Sehschärfe her, eher im Gegenteil.


    Viele Grüße,
    Sebastian

    Hallo Christian,


    ich argumentiere ja nicht gegen eine spezifische förderliche Vergrößerung, sondern gegen die reine Herleitung von der Anatomie des Auges. Wie beschrieben liegt das „durchschnittliche Maximum“ von 1‘, also ca. V=D schon an der Grenze des physiologisch Möglichen. Und das wird mit hochkontrastigen Zielen unter Idealbedingungen erreicht.


    In der Astronomie nutzen wir aber zumindest 1‘ auch bei niedrigen Kontrasten wie Planetendetails oder Nebelstrukturen. Zudem kommt immer wieder die Erfahrung, dass man sich in eine Szene „einsehen“ muss. Meine Vermutung und mein Verständnis der Situation sagt mir, dass eine informationserhöhende Akkumulation von einzelnen Seheindrücken eine Erklärung dafür bieten könnte. In der Bildverarbeitung nennt man das ‚super resolution‘. Und da unser Sehapparat schon eine Menge „Bildverarbeitung“ durchführt, warum sollte er das bezüglich Auflösung nicht tun?


    Viele Grüße,
    Sebastian

    Hallo Stefan,


    vielleicht (wahrscheinlich) stehe ich auf dem Schlauch. Ich versuche es noch mal.


    (Alle Werte sind aus Deinen Links) Die Winkelauflösung unseres Sehapparates ist mit 0,5-1‘ angegeben.


    Eine Bogenminute entspricht einem Abstand von 5,7 Mikrometern auf der Netzhaut. Was wiederum die beugungsbegrenzte Auflösung bei 4 mm geöffneter Pupille ist (je kleiner die Pupille, je stärker begrenzt die Beugung die mögliche Auflösung). Allerdings sinkt die Auflösung des Auges schon oberhalb von 3 mm Pupillenöffnung. In der Fovea liegen die Zapfen im dichtesten Falle 4 Mikrometer voneinander entfernt. Unsere Anatomie dürfte also selbst unter Annahme idealer Bedingungen gar keine Auflösung von einer halben Bogenminute erlauben. Der Sehapparat tut es aber, zumindest im Nahbereich. Im Fernbereich geht es jedoch nicht mehr, da sind es nur noch 3 - 10 Bogenminuten.


    Ganz so einheitlich und rein physikalisch definiert scheint mir das also nicht.


    Viele Grüße,
    Sebastian

    Nein, es ist nicht egal, was das Auge sieht. Das steht auch in allen von Dir verlinkten Dokumenten. Der Objektkontrast z.B. beeinflusst die erzielbare Sehschärfe. Das ist ja auch logisch, weil Schärfe Kontrastübertragung ist.


    Bleiben wir noch mal beim Ausgangsbeispiel: Bei Teleskopen entspricht die theoretische Auflösung bei 1 mm AP in etwa der theoretischen Auflösung des menschlichen Auges. Das bedeutet doch, dass nur bei idealem Kontrast und optimal geöffneter Pupille ein normalsichtiger Mensch diese Auflösung nutzen könnte. Und das auch nur, wenn es sich um leicht erkennbare Strukturen wie z.B. Gitter handelt. Dennoch nutzen viele Beobachter auch Austrittspupillen kleiner als 1 mm und erfassen dabei Strukturen, die vorher nicht erkennbar waren. Und das obwohl sie einen verminderten Kontrast aufweisen und irregulär sind. Ich sehe z.B. im Orionnebel bei 0,6 mm AP mehr Strukturen als bei 1 mm AP und mein Visus ist nicht 20/20.


    In der oben von mir verlinkten Veröffentlichung wird gezeigt, dass Augenbewegungen die Sehschärfe über die Nyquist-Frequenz der Retina hinaus steigern. Und das alles funktioniert offenbar auch nur so gut, weil die virtuelle Bildebene bei der Betrachtung durch ein Okular/Teleskop in der idealen Entfernung vom Auge liegt. Bei weit entfernten Objekten sind die Muskelbewegungen des Auges zu groß bzw. ungenau für eine effektive Auflösungsverbesserung, so dass wir da Objekte deutlich schlechter voneinander trennen können als durch ein Teleskop.


    Viele Grüße,
    Sebastian

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>[...]
    Nun ja, was entsprechend dem Abstand der Rezeptoren nicht mehr getrennt werden kann wird eben nicht mehr aufgelöst. Und was ncht aufgelöst ist, kann auch keine Wahrnehmung wieder hinzufügen. Ob das nun die Rezeptoren im Auge sind oder die Pixel einer Kamera ist dabei egal.
    [...]
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Vielen Dank für den Link zur ausführlichen Präsentation!


    Ich meine mich an Ausführungen zu erinnern, in welchen die Bewegungen des Augapfels als Methode zur Erhöhung der Auflösung beschrieben wurden. EDIT: Hier eine Veröffentlichung dazu.
    https://www.researchgate.net/p…nce_at_the_sampling_limit
    In jedem Falle verarbeitet unser Sehapparat pro Sekunde ca. 100 niedrig aufgelöste und 3 bis 4 hochaufgelöste Bilder und setzt erst daraus nach Abgleich mit Erfahrungswerten ein Bild zusammen.


    Bei kleinen Pupillendurchmessern (&lt;1 mm) sind wir beugungsbegrenzt schon bei weniger als 1', bei weiter als 3 mm geöffneten Pupillen begrenzen dann die Abbildungsfehler unserer Augenlinsen die Auflösung. Die nominelle (beugungsbegrenzte und anatomisch maximal mögliche) Auflösung schaffen wir also schon mal nur unter Idealbedingungen. Dennoch werden in der Astronomie auch höhere Vergrößerungen noch gewinnbringend verwendet.


    Ein anderes Beispiel für die Diskrepanz zwischen theoretischer Auflösung und Praxis ist die Trennbarkeit von Doppelsternen mit dem unbewaffneten Auge. Sie wird mit gerade mal 3-10' angegeben, also weit vom theoretischen Wert selbst für das skotopische Sehen entfernt.


    Die Herleitung der maximalen Auflösung vom Abstand der Zapfen oder Stäbchen ist daher meiner Ansicht nach zumindest in der astronomischen Praxis nicht überzeugend.


    Viele Grüße,
    Sebastian


    PS: Die internen Links funktionieren bei mir nicht.

    Ich denke, so einfach ist das nicht.


    Es kommen mehrere Dinge zusammen. Weder die beobachtete Realität noch unser Auge sind so digital, wie es die zitierten Werte für die Auflösung sind. Auf Seiten des Auges sind die Werte beispielsweise für einen gewissen Idealfall angegeben. Das heißt die genannte Auflösung entsteht bei einer idealen Szene (Target) mit hohem Kontrast aber ohne Überstrahlungen, unter Zuhilfenahme von Mikrobewegungen (Scannen) und einer Signalverarbeitung, die an die Anforderung angepasst (trainiert) werden kann. Das bedeutet z.B., dass diese Werte überhaupt nicht aussagekräftig sind, wenn es um andere Kontrastverhältnisse oder unbekannte Strukturen geht.


    Auf Seiten der Szene ist das Signal ebenfalls nicht digital, sondern der beobachtete Stern ist z.B. eine flächige Helligkeitsverteilung. Beim Mond kommt noch dazu, dass die Kontraste oft nicht von "sehr dunkel" bis "sehr hell" reichen, sondern ggf. nahe beieinander liegende Graustufen unterschieden werden sollen. Die Kriterien von Rayleigh oder Dawes sind empirisch ermittelte Hilfswerte, bei denen durchschnittliche Beobachter zwei Maxima voneinander trennen können. Weichen die Helligkeitsverteilungen aber durch den Szenenkontrast, Abbildungsfehler, obstruktionsbedingte Nebenmaxima oder andere Einflüsse vom Ideal ab, ist es sehr schwer, vorherzusagen, wie sich das auf die Auflösungsfähigkeit des Beobachters auswirkt.


    Im Gegensatz zu Kameras an optischen Systemen haben wir es beim Sehen mit einer Wahrnehmungsfrage zu tun und da spielt deutlich mehr hinein als der Abstand von Stäbchen oder Zapfen auf der Netzhaut. Ich habe jedenfalls noch keine überzeugende Herleitung bestimmter Auflösungsgrenzen gefunden. Ich halte das auch nicht für notwendig, weil meiner Meinung nach empirische Werte dafür völlig ausreichen. Schaue ich beispielsweise durch mein kleines Apo-Doppelteleskop, sehe ich bei 0,6mm Austrittspupille noch Reserven. Bei 0,44mm Austrittspupille sinken hingegen tagsüber und am Planeten die Kontraste dann schon deutlich ab. Am Mond stört mich das aber weniger, weil die verbleibenden Kontraste meistens immer noch sehr hoch sind. Bei Jupiter bleibe ich lieber bei den 0,6mm. Für die Trennung von Doppelsternen könnte ich sicher noch höher gehen. Das sind alles jeweils helle Ziele, meine Augen also nicht dunkeladaptiert.


    Soweit mein Verständnis von der Thematik, ohne Anspruch auf Allgemeingültigkeit.


    Viele Grüße,
    Sebastian