Beiträge von stefan-h im Thema „Frage zur förderlichen Vergrößerung“

    Hi Sebastian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">In diesem Wikipedia-Artikel ist die Methodik der geometrischen Auflösungsverbesserung im Abschnitt "Sub-pixel image localization" beschrieben. Dort könnte man bei entsprechender Bereitschaft entnehmen, dass durch den Vergleich der mit Versatz aufgenommenen Bilder tatsächlich Informationen hinzugewonnen werden, die in jedem einzelnen Bild nicht enthalten sind.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Der Link hat nichts mit dem Thema zu tun, aber trotzdem noch was dazu. In dem von dir genannten Abschnitt zu lesen- <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bayes'sche Induktion jenseits der traditionellen Beugungsgrenze
    Einige Objekteigenschaften, obwohl jenseits der Beugungsgrenze, <font color="orange">können bekanntermaßen mit anderen Objekteigenschaften verbunden sein</font id="orange">, die sich innerhalb der Grenzen befinden und daher im Bild enthalten sind. Aus den verfügbaren Bilddaten über das Vorhandensein des Vollobjekts können dann mit<font color="orange"> statistischen Methoden Rückschlüsse</font id="orange"> gezogen werden<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Können verbunden sein bedeutet nicht, das dies auch tatsächlich so ist. Per Statitik dann einen Rückschluss ziehen muss nicht das tatächliche Objekt zeigen.


    Und weil du immer wieder den Begriff Szene benutzt- <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Auch die Szene beeinflusst die Auflösung<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Da geht dieser Artikel auch drauf ein- <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Geometrische SR-Rekonstruktionsalgorithmen sind möglich, wenn <font color="orange">und nur dann</font id="orange">, wenn die eingegebenen Bilder mit niedriger Auflösung unterabgetastet wurden und somit Aliasing enthalten. Durch dieses Aliasing wird der Hochfrequenzgehalt des gewünschten Rekonstruktionsbildes in den Niederfrequenzgehalt jedes der beobachteten Bilder eingebettet. Bei einer ausreichenden Anzahl von Beobachtungsbildern und wenn die Menge der Beobachtungen in ihrer Phase variiert (d.h. wenn die Bilder der Szene um einen Subpixelbetrag verschoben sind), dann können die Phaseninformationen verwendet werden, um den aliasierten hochfrequenten Inhalt vom wahren niederfrequenten Inhalt zu trennen, und das hochauflösende Bild kann genau rekonstruiert werden<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> Da ist der Bezug zu Szene bzw. der Mehrfachaufnahme, aber auch das hat mit dem Auge nichts zu tun und gilt auch nur für den hervorgehobenen Sonderfall. Denn da steckt die Information bereits drin, wird aber zu grob abgetastet/aufgelöst. Das entspricht dem, was ich bereits so beschrieben hatte- <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Was du hier unter Abtastfrequenz verstehst, wäre bei der Digitalisierung von z.B. einer Sinuskurve die Anzahl der Messwerte zu erhöhen, eben die Abtastrate vergrößern. Wenn du mit gleicher Abtastrate den Verlauf der Kurve zu einem anderen Zeitpunkt erneut abtastest erhältst du andere Messwerte.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Und das enstpricht auch dem Gewinn an "Auflösung", den du in deinem Zitat mit veränderter Hervorhebung hinweist.


    Und nochmal, auch wenn du es als zunehmend fruchtlosen Diskussion empfindest, deine Argumentation hat nichts mit dem visuellen Sehen in Bezug auf förderliche Vergrößerung zu tun und per Statisik berechnete mögliche Details sind mit den normalen Mitteln fotografisch auch nicht erreichbar bzw. kann man damit nicht die Auflösung erhöhen.


    Beenden wir dann halt diese zunehmend fruchtlosen Diskussion [:D]


    Gruß
    Stefan

    Hi Sebastian,


    in deinem Link steht doch nix anderes, als das, was ich auch geschrieben hatte. Übersetztes Zitat <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">SR mit mehreren Bildern verwendet die Subpixelverschiebungen zwischen mehreren Bildern mit niedriger Auflösung derselben Szene. Es erzeugt ein Bild mit verbesserter Auflösung, das <b>Informationen aus allen Bildern</b> mit niedriger Auflösung zusammenführt, und die erzeugten Bilder mit höherer Auflösung sind bessere Beschreibungen der Szene<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> Es geht um die bereits in den Bildern enthaltene Information, diese besser darzustellen. Und um die Vermeidung von Moiréeffekten und ähnlichen Störungen, die eben im Bild vorhandene Details verwischen oder unkenntlich machen. [:)]



    Hallo Christian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ich kam zu dem Schluss, dass es im Prinzip nur einen mir bekannten Weg gibt, das Auflösungsvermögen und damit die förderliche Vergrößerung mathematisch/physikalisch wasserdicht zu definieren: Nämlich über den Durchmesser des Beugungsscheibchens.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Richtig- und um nun zwei "Objekte" (Doppelsterne oder feine Rillen am Mond) voneinander trennen zu können muss genug Platz zwischen den Beugungsscheibchen bleiben. Der Abstand zweier Beugungsscheibchen wird über den Winkel bestimmt, der sich entsprechend der gewählten Vergrößerung ergibt. Womit wir wieder beim Winkelauflösungsvermögen des Auges und der förderlichen Vergrößerung angekommen sind. [:)]


    Gruß
    Stefan

    Hi Sebastian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn ich mit einem Teleskop unter idealen Bedingungen am idealen Target eine maximale Vergrößerung ermittle, heißt das doch nicht, dass ich die immer verwenden muss oder kann, wenn es um maximale Detailerkennung geht<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Um was ging es denn in diesem Beitrag? Um die förderliche Vergrößerung und damit um die optimale Auflösung. Nicht darum, das du auch gern mit weniger zufrieden bist. [:)] <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn ich mit einem Teleskop unter idealen Bedingungen am idealen Target eine maximale Vergrößerung ermittle, heißt das doch nicht, dass ich die immer verwenden muss oder kann, wenn es um maximale Detailerkennung geht. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Es geht ncht um die maximale Vergrößerung, es geht um die Vergrößerung, bei der du die maximale Detailerkennung erreichst. Und die liegt nun mal im Bereich der förderlichen Vergrößerung. Bei weniger Vergrößerung verlierst du an Details, bei mehr gewinnst du keine hinzu.<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Dann ist eine geringere Vergrößerung nicht nur ausreichend, sondern sogar sinnvoll, weil z.B. möglicherweise mehr Sehfeld zur Verfügung steht. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Das hat doch mit der Ausgangsfrage rein gar nichts zu tun.


    Dein letzter Link belegt auch nur, das es darum geht, im Bild bereits vorhandene Informationen besser erkennbar zu machen <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das zeigt beispielsweise ein Blick auf die Kantenübergänge der Objekte. Auch schräge Objektkanten oder Rundungen werden selbst beim starken Vergrößern eines Bildausschnitts per Digitalzoom genau wiedergegeben. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> Siehe meine vorherige Antwort dazu- <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Dadurch werden also Nachteile wie z.B. Moirébildung oder sichtbares Pixelraster verringert, aber es wird keine zusätzliche Bildinformation gewonnen. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">. Natürlich für das dazu, das auf den Aufnahmen deutlich mehr Details zu erkennen sind, aber die sind bereits im Bild enthalten und werden durch Vermeiden der Störungen (Moirébildung, Treppchen an schrägen Kanten) besser erkennbar.


    Die tatsächliche Auflösung wird dadurch aber nicht größer, was du aber so behauptet hast- <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Doch. Auch wenn die Abtastbreite gleich bleibt, steigt die Abtastfrequenz. Damit lässt sich <b>eine höhere Auflösung rekonstruieren</b>.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Gruß
    Stefan

    Hi Sebastian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Du willst jetzt nicht ernsthaft die Funktionsfähigkeit der etablierten Pixel-Shift-Technologie in Frage stellen, oder?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Da werden nur die Nachteile des RGB-Sensors beseitigt. Zitat von der Seite: <i>In diesem Modus werden echte RGB-Daten für jedes Pixel erfasst</i> Also nichts anderes, als das, mit einer SW-Kamera und RGB-Filter erreichen würdest. [:)] https://www.stemmer-imaging.com/de-de/grundlagen/pixel-shift-technologie/ auch hier erklärt. Ein weißer pixelgroßer Bildpunkt kann auf zwei Pixel treffen, ideal wäre es, wenn er nur direkt auf ein Pixel fällt. Durch die Mehrfachaufnahme und das Verschieben mit anschließendem Verrechnen erhält man das optimale Ergebnis- pixelgroßer Bildpunkt auf einem Pixel. Dadurch werden also Nachteile wie z.B. Mmoirébildung oder sichtbares Pixelraster verringert, aber es wird keine zusätzliche Bildinformation gewonnen. Verkleiner den Bildpunkt, mach 2 daraus mit einem dunklen Abstand dazwischen- weder ohne noch mit dieser Technik wären diese zwei Punkte als solche erkennbar.<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">In Deinem Beispiel hieße das, wenn der Szenenkontrast geringer ist, würde ich lieber eine geringere Vergrößerung wählen, um im Ergebnis ausreichend Kontrast zu haben. Mein "Optimum" verschiebt sich also nach unten. Es macht ja keinen Sinn, mit der bei einer anderen Szene maximal möglichen Vergrößerung zu arbeiten, wenn ich dann wegen zu geringen Kontrasten nichts mehr erkenne.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Weniger Vergrößerung bedeutet Verlust an Auflösung. Du hast dann zwar ein helleres Bild, kannst aber die Details nicht mehr erkennen- also keine Abhilfe und schon gar kein Gewinn an Details.


    Gruß
    Stefan

    Hi Sebastian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Nein, die Abtastung (Bildaufnahme) erfolgt ja räumlich versetzt, wie ich schrieb<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Mal schwarze Striche auf ein Blatt weißes Papier mit definierter Breite/Abstand und nimm das mehrfach mit leichtem Versatz der Kamera auf- ändert sich da was? Wenn die Striche=Auflösungstest von der Kamera nicht mehr aufgelöst werden gilt dasfür jedes der einzelnen Bilder. Du kannst danach Bildverarbeitung oder Verrechnung betreiben wie du willst- du erhältst keine höhere Auflösung. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das mag sein. Gibst Du mir einen Tipp?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Ich hatte geschrieben- <i>Hast du dabei ein kontraststarkes Objekt oder ein kontrastschwaches- egal, in beiden Fällen erzielst du damit das jeweils bestmögliche Ergebnis. </i>


    Wenn du ein kontraststarkes Objekt unter optimalen Bedingung und optimal angepasst betrachtest kannst du das Ergebnis als 100% des für dich möglichen setzen.


    Verringerst du Kontrast und Bedingungen, behältst aber die optimale Anpassung bei wirst du nicht mehr die 100% erreichen, du kommst vielleicht auf nur noch 80% und das ist dann das für diese verschlechterten Bedingungen das bestmögliche Ergebnis.


    Führst du den gleichen Test mit einer schlechteren Anpassung durch, kommst du im ersten Fall schon nicht mehr auf 100% und im zweiten entsprechend auch nicht auf die 80%. du hast also durch die schlechtere Anpassung dein bestmögliches Ergebnis verschlechtert.


    Gruß
    Stefan

    Hi Sebastian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Doch. Auch wenn die Abtastbreite gleich bleibt, steigt die Abtastfrequenz. Damit lässt sich eine höhere Auflösung rekonstruieren. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Nein, das ist nicht korrekt. Nur weil du ein Bild mehrfach erstellst änderst du nicht die Abtastfrequenz. Du erstellst lediglich das gleiche Bild mehrfach mit gleichem Bildinhalt und gleichen Details.


    Was du hier unter Abtastfrequenz verstehst, wäre bei der Digitalisierung von z.B. einer Sinuskurve die Anzahl der Messwerte zu erhöhen, eben die Abtastrate vergrößern. Wenn du mit gleicher Abtastrate den Verlauf der Kurve zu einem anderen Zeitpunkt erneut abtastest erhältst du andere Messwerte. Diese zusammen mit der ersten Abtastung würden gesamt mehr Werte ergeben, soweit korrekt. Der Sinusverlauf wäre zur Messung nicht statisch sondern zeitlich verändert.


    Was du bei dem mehrfachen Erstellen eines statischen Bildes tust- du nimmst exakt die gleiche Anzahl Abtastpunkte mehrfach auf. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Es gibt unzählige Veröffentlichungen dazu, aber man kann sich das auch ganz anschaulich hier vor Augen führen<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Was soll der Link denn zeigen? Dort kann man verschiedene Kameras mit verschiedenen Einstellungen vergleichen, mehr nicht.<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das wage ich selbst aus meiner bescheidenen Praxis heraus zu bezweifeln. Am Mond kann ich höher vergrößern als an Deep Sky-Objekten oder auch Planeten.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Deine Antwort zeigt deutlich, du hast nicht verstanden, was ich mit dem von dir dazu zitierten Satz aussage. [:)]


    Gruß
    Stefan

    Hi Sebastian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ähnliches ist meiner Ansicht nach auch bei unserem Sehapparat zu erwarten. Mit den unwillkürlichen Augenbewegungen tasten wir ein gegebenes Signal mehrfach ab und errechnen daraus eine höhere Auflösung, als es die Anatomie unserer Netzhaut/Linse alleine zulassen würde.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Hatte ich schon was dazu geschrieben, aber gern nochmals. Wenn das Auge bzw. das Hirn dies so macht dann macht es das immer. Damit ist das Ergebnis genau das, was dir dein Optiker als Resultat des Augentest sagt Visus mit Wert x.


    Und alle in unzähligen Studien ermittelten Werte für die Auflösungsfähigkeit des Auges würden diese "Superauflösung durch Augenbewegungen" beinhalten. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">eine Analogie zum Verständnis könnte der sogenannte High-Res-Modus von diversen Digitalkameras sein. Dabei macht die Kamera mehrere Aufnahme hintereinander, mit jeweils leicht verschobenem Sensor. Aus den Einzelaufnahmen wird dann ein neues Bild gerechnet, welches tatsächlich eine höhere Auflösung hat als die Einzelbilder. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Ein Detail, das in keiner der einzelnen Aufnahmen enthalten ist, wird auch nicht in einem errechneten Bild sichtbar werden. [:)]<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die „Maximalauflösung“ ist also mindestens von Szene, Teleskop und bildgebendem System abhängig.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Die Maximalauflösung des Auges wird sozusagen unter "Laborbedingung" beim Optiker ermittelt. Mit einem kontrastreichen Auflösungstest oder anderen dazu nötigen Vorlagen.


    Am Himmel haben wir diese Laborbedingungen nie. Aber trotzdem gelten die für maximale Erkennbarkeit nötigen Voraussezungen und das ist eben der dazu für das Winkelauflösungsvermögen passende Winkel. Und den erreicht man mit einer AP von 1mm oder knapp kleiner.


    Hast du dabei ein kontraststarkes Objekt oder ein kontrastschwaches- egal, in beiden Fällen erzielst du damit das jeweils bestmögliche Ergebnis.


    Gruß
    Stefan

    Hallo Sebastian,


    das man optimale Auflösung nur bei optimalen Bedingungen erreicht ist doch selbstverständlich. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das bedeutet doch, dass nur bei idealem Kontrast und optimal geöffneter Pupille ein normalsichtiger Mensch diese Auflösung nutzen könnte.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Die optimal geöffnete Pupille wäre dafür schlecht, damit treten ja augenseitig Abbdilungsfehler auf. Aber wenn die AP nur noch 1mm ist tritt das Licht auch nicht mehr über die volle Augenpupille verteilt ein.


    Und bei der förderlichen Vergrößerung mit 1mm AP oder etwas kleiner sind nun mal annähernd 95% Details erkennbar. Höher vergrößern zeigt diese Details dann aber auch etwas größer und das ist für das Hirn wiederum besser verarbeitbar. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">In der oben von mir verlinkten Veröffentlichung wird gezeigt, dass Augenbewegungen die Sehschärfe über die Nyquist-Frequenz der Retina hinaus steigern<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Da wurde ein Muster in die Augen eingeblendet, mal statisch und mal über einen aufwändigen Scanner in einer bestimmten Größenordnung bewegt.


    Würde sich das bei "normalen" Sehen auswirken würde dies bei jeder Augenüberprüfung bezüglich des Visus wirken. Nur ist das Ergebnis aus allen solchen Untersuchungen- Visus=1 ist das normalsichtige Augen und dieser Visus lässt sich in einen Winkel umrechnen und damit sind wir wieder bei den gängigen Aussagen der vorherigen Beiträge. [:)] <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bei weit entfernten Objekten sind die Muskelbewegungen des Auges zu groß bzw. ungenau für eine effektive Auflösungsverbesserung, so dass wir da Objekte deutlich schlechter voneinander trennen können als durch ein Teleskop. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Auch das führt wieder zum Winkel, das Teleskop bringt bei passender Vergrößerung den Winkel, der dem max. Winkelauflösungsvermögen des Auges entspricht.


    Gruß
    Stefan

    Hi Sebastian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die Herleitung der maximalen Auflösung vom Abstand der Zapfen oder Stäbchen ist daher meiner Ansicht nach zumindest in der astronomischen Praxis nicht überzeugend.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Ob dein Auge direkt, per Mikroskop oder durch ein Teleskop Licht empfängt ist dem Auge relativ egal. Bestimmend für die mögliche Auflösung ist einzig der Abstand der Sensoren und der Winkel zwischen zwei Objekten- nur das bestimmt die mögliche Winkelauflösung.


    Und das Ergebnis wurde über sehr viele Jahre von allen möglichen Institutionen, Forschern und Optikern immer wieder verifiziert. [:)] <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ein anderes Beispiel für die Diskrepanz zwischen theoretischer Auflösung und Praxis ist die Trennbarkeit von Doppelsternen mit dem unbewaffneten Auge. Sie wird mit gerade mal 3-10' angegeben, also weit vom theoretischen Wert selbst für das skotopische Sehen entfernt.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Dazu findet sich was in der Wiki und ausführlicher ist das hier beschrieben- weiterführender Link auf der Seite


    die dfefekten Links im vorherigen Beitrag hab ich repariert. [:I]


    Gruß
    Stefan

    Hallo Christian,


    förderliche Vergrößerung ist z.B. hier ganz gut erklärt- etwa die halbe Seite nach unten scrollen bis zum Punkt Fernrohrleistung.


    Zum Winkelauflösungsvermögen des Auges kann man hier einiges nachlesen, ebenso hier in dieser Vorlage zu einer vorlesung zu Winkelauflösung und Sehschärfe oder zur Vergrößerung auch hier


    Übereinstimmend, egal wo man nacliest, ist die Angabe zu finden <b>Für ein normalsichtiges Auge liegt das maximale Auflösungsvermögen bei einem Sehwinkel von ca. 1#8242;. Dies entspricht definitionsgemäß einer Sehschärfe von 1,0</b> Das entspricht der förderlichen Vergrößerung mit der Daumenregel V=D. Bei abweichendem Visus passt das natürlich nicht mehr ganz. Aber das man bei einer AP von 1mm bis runter zu 0,8mm normalerweise gut 95% aller Details erkennt dürfte gut hinkommen. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Im Gegensatz zu Kameras an optischen Systemen haben wir es beim Sehen mit einer Wahrnehmungsfrage zu tun und da spielt deutlich mehr hinein als der Abstand von Stäbchen oder Zapfen auf der Netzhaut <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Nun ja, was entsprechend dem Abstand der Rezeptoren nicht mehr getrennt werden kann wird eben nicht mehr aufgelöst. Und was ncht aufgelöst ist, kann auch keine Wahrnehmung wieder hinzufügen. Ob das nun die Rezeptoren im Auge sind oder die Pixel einer Kamera ist dabei egal.


    Gruß
    Stefan


    PS: links repariert