Frage zur förderlichen Vergrößerung

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    Mal schwarze Striche auf ein Blatt weißes Papier mit definierter Breite/Abstand und nimm das mehrfach mit leichtem Versatz der Kamera auf- ändert sich da was? Wenn die Striche=Auflösungstest von der Kamera nicht mehr aufgelöst werden gilt dasfür jedes der einzelnen Bilder. Du kannst danach Bildverarbeitung oder Verrechnung betreiben wie du willst- du erhältst keine höhere Auflösung.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Stefan, Du willst jetzt nicht ernsthaft die Funktionsfähigkeit der etablierten Pixel-Shift-Technologie in Frage stellen, oder? Hast Du Dir die Bilder angesehen? Hier noch ein Link zur Erklärung von Hasselblad. Es geht um den "6-shot-mode"
    https://www.hasselblad.com/de-de/h6d-multishot/


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn du ein kontraststarkes Objekt unter optimalen Bedingung und optimal angepasst betrachtest kannst du das Ergebnis als 100% des für dich möglichen setzen.


    Verringerst du Kontrast und Bedingungen, behältst aber die optimale Anpassung bei wirst du nicht mehr die 100% erreichen, du kommst vielleicht auf nur noch 80% und das ist dann das für diese verschlechterten Bedingungen das bestmögliche Ergebnis.


    Führst du den gleichen Test mit einer schlechteren Anpassung durch, kommst du im ersten Fall schon nicht mehr auf 100% und im zweiten entsprechend auch nicht auf die 80%. du hast also durch die schlechtere Anpassung dein bestmögliches Ergebnis verschlechtert.
    [...]
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Das verstehe ich tatsächlich nicht ganz. Die "Anpassung" bezieht sich jetzt auf die optimale Vergrößerung? Wie ich schrieb, die ist meiner Meinung nach nicht szenenunabhängig gleich.


    In Deinem Beispiel hieße das, wenn der Szenenkontrast geringer ist, würde ich lieber eine geringere Vergrößerung wählen, um im Ergebnis ausreichend Kontrast zu haben. Mein "Optimum" verschiebt sich also nach unten. Es macht ja keinen Sinn, mit der <i>bei einer anderen Szene </i> maximal möglichen Vergrößerung zu arbeiten, wenn ich dann wegen zu geringen Kontrasten nichts mehr erkenne.


    Viele Grüße,
    Sebastian

  • Hi Sebastian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Du willst jetzt nicht ernsthaft die Funktionsfähigkeit der etablierten Pixel-Shift-Technologie in Frage stellen, oder?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Da werden nur die Nachteile des RGB-Sensors beseitigt. Zitat von der Seite: <i>In diesem Modus werden echte RGB-Daten für jedes Pixel erfasst</i> Also nichts anderes, als das, mit einer SW-Kamera und RGB-Filter erreichen würdest. [:)] https://www.stemmer-imaging.com/de-de/grundlagen/pixel-shift-technologie/ auch hier erklärt. Ein weißer pixelgroßer Bildpunkt kann auf zwei Pixel treffen, ideal wäre es, wenn er nur direkt auf ein Pixel fällt. Durch die Mehrfachaufnahme und das Verschieben mit anschließendem Verrechnen erhält man das optimale Ergebnis- pixelgroßer Bildpunkt auf einem Pixel. Dadurch werden also Nachteile wie z.B. Mmoirébildung oder sichtbares Pixelraster verringert, aber es wird keine zusätzliche Bildinformation gewonnen. Verkleiner den Bildpunkt, mach 2 daraus mit einem dunklen Abstand dazwischen- weder ohne noch mit dieser Technik wären diese zwei Punkte als solche erkennbar.<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">In Deinem Beispiel hieße das, wenn der Szenenkontrast geringer ist, würde ich lieber eine geringere Vergrößerung wählen, um im Ergebnis ausreichend Kontrast zu haben. Mein "Optimum" verschiebt sich also nach unten. Es macht ja keinen Sinn, mit der bei einer anderen Szene maximal möglichen Vergrößerung zu arbeiten, wenn ich dann wegen zu geringen Kontrasten nichts mehr erkenne.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Weniger Vergrößerung bedeutet Verlust an Auflösung. Du hast dann zwar ein helleres Bild, kannst aber die Details nicht mehr erkennen- also keine Abhilfe und schon gar kein Gewinn an Details.


    Gruß
    Stefan

  • Hallo Stefan,


    neben der Grafik mit dem 4-shot-modus, der tatsächlich nur die Defizite des Bayer-Sensors ausgleicht, findet sich eine zweite Grafik. Aber das ist auch nur als Anschauungsbild gedacht gewesen. Soll ich jetzt noch Veröffentlichungen zur „super resolution“ raussuchen? Das Verfahren findet auch bei Thermalkameras Anwendung, also bei monochromen Sensoren.
    https://www.vision.fraunhofer.…schau-2018/microscan.html


    Und ich weiß nicht, ob Du mich absichtlich missverstehen willst. Wenn ich mit einem Teleskop unter idealen Bedingungen am idealen Target eine maximale Vergrößerung ermittle, heißt das doch nicht, dass ich die immer verwenden muss oder kann, wenn es um maximale Detailerkennung geht. Was nützt mir die theoretisch beste Auflösung, wenn der übertragene Kontrast bei dieser Auflösung nicht mehr wahrnehmbar ist? Dann ist eine geringere Vergrößerung nicht nur ausreichend, sondern sogar sinnvoll, weil z.B. möglicherweise mehr Sehfeld zur Verfügung steht.


    Vielleicht liegt das Missverständnis darin, dass Du annimmst, ich suche nach Wegen, die maximal mögliche Vergrößerung zu erhöhen. Das ist aber nicht der Fall. Alles was sich sage ist, dass die optimale Auflösung nicht rein physikalisch aus der Geometrie des Auges und des Teleskops ableitbar ist.


    Wo das sinnvolle Maximum liegt, kann ich bestenfalls für mich selbst entscheiden. Für Einsteiger oder andere Interessierte kann ich auf die Faustformel V=D verweisen und dazu sagen, dass das tatsächliche Optimum auch etwas daneben liegen kann.


    Viele Grüße,
    Sebastian

  • Hi Sebastian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn ich mit einem Teleskop unter idealen Bedingungen am idealen Target eine maximale Vergrößerung ermittle, heißt das doch nicht, dass ich die immer verwenden muss oder kann, wenn es um maximale Detailerkennung geht<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Um was ging es denn in diesem Beitrag? Um die förderliche Vergrößerung und damit um die optimale Auflösung. Nicht darum, das du auch gern mit weniger zufrieden bist. [:)] <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn ich mit einem Teleskop unter idealen Bedingungen am idealen Target eine maximale Vergrößerung ermittle, heißt das doch nicht, dass ich die immer verwenden muss oder kann, wenn es um maximale Detailerkennung geht. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Es geht ncht um die maximale Vergrößerung, es geht um die Vergrößerung, bei der du die maximale Detailerkennung erreichst. Und die liegt nun mal im Bereich der förderlichen Vergrößerung. Bei weniger Vergrößerung verlierst du an Details, bei mehr gewinnst du keine hinzu.<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Dann ist eine geringere Vergrößerung nicht nur ausreichend, sondern sogar sinnvoll, weil z.B. möglicherweise mehr Sehfeld zur Verfügung steht. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Das hat doch mit der Ausgangsfrage rein gar nichts zu tun.


    Dein letzter Link belegt auch nur, das es darum geht, im Bild bereits vorhandene Informationen besser erkennbar zu machen <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das zeigt beispielsweise ein Blick auf die Kantenübergänge der Objekte. Auch schräge Objektkanten oder Rundungen werden selbst beim starken Vergrößern eines Bildausschnitts per Digitalzoom genau wiedergegeben. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> Siehe meine vorherige Antwort dazu- <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Dadurch werden also Nachteile wie z.B. Moirébildung oder sichtbares Pixelraster verringert, aber es wird keine zusätzliche Bildinformation gewonnen. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">. Natürlich für das dazu, das auf den Aufnahmen deutlich mehr Details zu erkennen sind, aber die sind bereits im Bild enthalten und werden durch Vermeiden der Störungen (Moirébildung, Treppchen an schrägen Kanten) besser erkennbar.


    Die tatsächliche Auflösung wird dadurch aber nicht größer, was du aber so behauptet hast- <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Doch. Auch wenn die Abtastbreite gleich bleibt, steigt die Abtastfrequenz. Damit lässt sich <b>eine höhere Auflösung rekonstruieren</b>.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Gruß
    Stefan

  • Hallo Stefan,


    versuchen wir es mit Wikipedia? So ein ganz klein wenig Eigeninitiative wäre sonst auch ganz nett, die Schlagworte sind bekannt, das Thema keinesfalls neu. Aber wenn Du meinst, ‚super resolution‘ ist ein Schwindel, dann kann ich natürlich wenig tun.
    https://en.m.wikipedia.org/wiki/Super-resolution_imaging


    Zum anderen Punkt: Du willst mich offensichtlich nicht verstehen. Das sei Dir gegönnt. Der ein oder andere Mitleser konnte unserem Austausch sicher etwas entnehmen.


    Viele Grüße,
    Sebastian

  • Hallo nochmal,


    bevor es hier weiter fetzt, möchte ich noch einmal etwas sachdienliches beitragen. Auf dem Heimweg ließ ich mir alles bisherige noch einmal durch den Kopf gehen.


    Ich kam zu dem Schluss, dass es im Prinzip nur einen mir bekannten Weg gibt, das Auflösungsvermögen und damit die förderliche Vergrößerung mathematisch/physikalisch wasserdicht zu definieren: Nämlich über den Durchmesser des Beugungsscheibchens.


    Bei Idealbedingungen nimmt es mit zunehmender Öffnung des Teleskops ab.


    Ein hinreichend heller Stern, bspw. der Polarstern, wird in einem gegebenen Teleskop mit zunehmender Vergrößerung im Okular scheinbar kleiner, da die Auflösung mit der Vergrößerung zunächst steigt. Und bei Erreichen der förderlichen Vergrößerung hat er seine minimale Größe, das Beugungsscheibchen ist dann gerade eben erkennbar. Darüber hinaus (V &gt; förderliche Vergrößerung) wird das Beugungsscheibchen vergrößert und erscheint flächig, da die Beugungserscheinungen, die ab der förderlichen Vergrößerung deutlich zu Tage treten, nun mitvergrößert werden. Der Winkeldurchmesser des Beugungsscheibchens bleibt jedoch bestehen.


    Kurz gesagt: Das Auflösungsvermögen eines Teleskops entspricht mathematisch dem Durchmesser des Beugungsscheibchens.


    Ich muss jedoch zugeben, dass diese Betrachtung nichts darüber aussagt, ab wann z.B. ein enger Doppelstern als getrennt angesehen werden kann. Siehe hierzu mein Beitrag weiter oben.


    VG Christian

  • Hi Sebastian,


    in deinem Link steht doch nix anderes, als das, was ich auch geschrieben hatte. Übersetztes Zitat <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">SR mit mehreren Bildern verwendet die Subpixelverschiebungen zwischen mehreren Bildern mit niedriger Auflösung derselben Szene. Es erzeugt ein Bild mit verbesserter Auflösung, das <b>Informationen aus allen Bildern</b> mit niedriger Auflösung zusammenführt, und die erzeugten Bilder mit höherer Auflösung sind bessere Beschreibungen der Szene<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> Es geht um die bereits in den Bildern enthaltene Information, diese besser darzustellen. Und um die Vermeidung von Moiréeffekten und ähnlichen Störungen, die eben im Bild vorhandene Details verwischen oder unkenntlich machen. [:)]



    Hallo Christian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ich kam zu dem Schluss, dass es im Prinzip nur einen mir bekannten Weg gibt, das Auflösungsvermögen und damit die förderliche Vergrößerung mathematisch/physikalisch wasserdicht zu definieren: Nämlich über den Durchmesser des Beugungsscheibchens.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Richtig- und um nun zwei "Objekte" (Doppelsterne oder feine Rillen am Mond) voneinander trennen zu können muss genug Platz zwischen den Beugungsscheibchen bleiben. Der Abstand zweier Beugungsscheibchen wird über den Winkel bestimmt, der sich entsprechend der gewählten Vergrößerung ergibt. Womit wir wieder beim Winkelauflösungsvermögen des Auges und der förderlichen Vergrößerung angekommen sind. [:)]


    Gruß
    Stefan

  • Hallo Stefan, hallo Christian


    bevor ich mich aus der zunehmend fruchtlosen Diskussion verabschiede noch ein paar Punkte. Stefan, Du schaffst es, in dem von Dir selbst ausgewählten Zitat um die entscheidenden Stellen herum zu lesen, bzw. zu argumentieren, das ist beeindruckend. Zur Verdeutlichung hier mal eine veränderte Hervorhebung:


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">SR mit mehreren Bildern verwendet die Subpixelverschiebungen zwischen mehreren Bildern mit niedriger Auflösung derselben Szene. Es erzeugt ein <b>Bild mit verbesserter Auflösung</b>, das Informationen aus allen Bildern mit niedriger Auflösung <b>zusammenführt</b>, und die erzeugten Bilder mit <b>höherer Auflösung</b> sind bessere Beschreibungen der Szene<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    In diesem Wikipedia-Artikel ist die Methodik der geometrischen Auflösungsverbesserung im Abschnitt "Sub-pixel image localization" beschrieben. Dort könnte man bei entsprechender Bereitschaft entnehmen, dass durch den Vergleich der mit Versatz aufgenommenen Bilder tatsächlich Informationen hinzugewonnen werden, die in jedem einzelnen Bild nicht enthalten sind.


    Noch kurz zum Beugungsscheibchen als Basis für eine Auflösungsdefinition: Das Beugungsscheibchen ist nicht scharf begrenzt. Und da geht es schon wieder los: Wo zieht man die Grenze? Ist ein Stern schwächer, sehen wir das Beugungsscheibchen tendenziell kleiner, weil der Kontrastumfang der Szene geringer ist und wir daher den unscharfen Rand früher nicht mehr vom Hintergrund trennen können. Wie ich jetzt oft genug schrieb: Auch die Szene beeinflusst die Auflösung. Ohne eine Beschreibung der Eigenschaften der Szene und der bildgebenden Optik kann der Durchmesser des Beugungsscheibchens also gar nicht fest definiert werden.


    Dass wir diesen Wert aber als Richtwert nutzen und damit auch sinnvolle Einschätzungen treffen können, liegt daran, dass wir automatisch von unserem Sehapparat als Empfänger mit all seinen Limitierungen ausgehen. Und wir nehmen eben keinen nahen roten Riesen zur Beurteilung des Beugungsscheibchens. Aber wie gesagt: ein physikalisch/mathematisch fest definierter Wert ist der Durchmesser des Beugungsscheibchens ohne weiteres nicht.


    Viele Grüße,
    Sebastian

  • Hi Sebastian, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">In diesem Wikipedia-Artikel ist die Methodik der geometrischen Auflösungsverbesserung im Abschnitt "Sub-pixel image localization" beschrieben. Dort könnte man bei entsprechender Bereitschaft entnehmen, dass durch den Vergleich der mit Versatz aufgenommenen Bilder tatsächlich Informationen hinzugewonnen werden, die in jedem einzelnen Bild nicht enthalten sind.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Der Link hat nichts mit dem Thema zu tun, aber trotzdem noch was dazu. In dem von dir genannten Abschnitt zu lesen- <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bayes'sche Induktion jenseits der traditionellen Beugungsgrenze
    Einige Objekteigenschaften, obwohl jenseits der Beugungsgrenze, <font color="orange">können bekanntermaßen mit anderen Objekteigenschaften verbunden sein</font id="orange">, die sich innerhalb der Grenzen befinden und daher im Bild enthalten sind. Aus den verfügbaren Bilddaten über das Vorhandensein des Vollobjekts können dann mit<font color="orange"> statistischen Methoden Rückschlüsse</font id="orange"> gezogen werden<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Können verbunden sein bedeutet nicht, das dies auch tatsächlich so ist. Per Statitik dann einen Rückschluss ziehen muss nicht das tatächliche Objekt zeigen.


    Und weil du immer wieder den Begriff Szene benutzt- <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Auch die Szene beeinflusst die Auflösung<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Da geht dieser Artikel auch drauf ein- <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Geometrische SR-Rekonstruktionsalgorithmen sind möglich, wenn <font color="orange">und nur dann</font id="orange">, wenn die eingegebenen Bilder mit niedriger Auflösung unterabgetastet wurden und somit Aliasing enthalten. Durch dieses Aliasing wird der Hochfrequenzgehalt des gewünschten Rekonstruktionsbildes in den Niederfrequenzgehalt jedes der beobachteten Bilder eingebettet. Bei einer ausreichenden Anzahl von Beobachtungsbildern und wenn die Menge der Beobachtungen in ihrer Phase variiert (d.h. wenn die Bilder der Szene um einen Subpixelbetrag verschoben sind), dann können die Phaseninformationen verwendet werden, um den aliasierten hochfrequenten Inhalt vom wahren niederfrequenten Inhalt zu trennen, und das hochauflösende Bild kann genau rekonstruiert werden<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> Da ist der Bezug zu Szene bzw. der Mehrfachaufnahme, aber auch das hat mit dem Auge nichts zu tun und gilt auch nur für den hervorgehobenen Sonderfall. Denn da steckt die Information bereits drin, wird aber zu grob abgetastet/aufgelöst. Das entspricht dem, was ich bereits so beschrieben hatte- <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Was du hier unter Abtastfrequenz verstehst, wäre bei der Digitalisierung von z.B. einer Sinuskurve die Anzahl der Messwerte zu erhöhen, eben die Abtastrate vergrößern. Wenn du mit gleicher Abtastrate den Verlauf der Kurve zu einem anderen Zeitpunkt erneut abtastest erhältst du andere Messwerte.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Und das enstpricht auch dem Gewinn an "Auflösung", den du in deinem Zitat mit veränderter Hervorhebung hinweist.


    Und nochmal, auch wenn du es als zunehmend fruchtlosen Diskussion empfindest, deine Argumentation hat nichts mit dem visuellen Sehen in Bezug auf förderliche Vergrößerung zu tun und per Statisik berechnete mögliche Details sind mit den normalen Mitteln fotografisch auch nicht erreichbar bzw. kann man damit nicht die Auflösung erhöhen.


    Beenden wir dann halt diese zunehmend fruchtlosen Diskussion [:D]


    Gruß
    Stefan

  • Fruchtlos war die Diskussion letzten Endes zumindest für mich selbst nicht. Ich habe viel gelesen und gelernt. Ob Christian jetzt weitergekommen ist, kann ich nicht beurteilen, es wäre aber zu vermuten.


    Ich halte Stefans Aussage vom Anfang
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    [...]Nun ja, was entsprechend dem Abstand der Rezeptoren nicht mehr getrennt werden kann wird eben nicht mehr aufgelöst. Und was ncht aufgelöst ist, kann auch keine Wahrnehmung wieder hinzufügen. Ob das nun die Rezeptoren im Auge sind oder die Pixel einer Kamera ist dabei egal. [...]
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    weiterhin für fragwürdig. Aber da können wir gerne geteilter Meinung bleiben.


    Erst spät bin ich auf die Idee gekommen, mal in meinem Lieblings-Optikbuch nachzusehen. Im Bergmann/Schäfer (Experimentalphysik, Band 3: Optik) finden sich zumindest Sätze wie:
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bei der Diskussion des Auges wird sehr schnell erkennbar, daß mancherlei Eigenschaften des Sehvorgangs nicht durch physikalische Gesetzmäßigkeiten alleine erklärbar sind [...]<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    oder
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Die Sehschärfe ist von zahlreichen Parametern abhängig; die wichtigsten dieser Parameter sind:
    - die Objektstruktur: Das Ergebnis der Sehschärfe-Bestimmung ist in starkem Maß von dem jeweiligen Testobjekt abhängig [...]
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Für Christian kann ich nur die Empfehlung geben, das zu nutzen, was besser funktioniert, unabhängig davon, ob sich dafür eine einfache physikalische Erklärung finden lässt:
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Christian-Berlin</i>
    Bei der Mondbeobachtung erkenne ich bei V = D aber deutlich mehr Details als bei V = D/2.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Viele Grüße,
    Sebastian



    Änderung: Zitierten Tippfehler korrigiert.

  • Hallo Sebastian,


    meine Eingangsfrage wurde, speziell durch die Beiträge von Stefan, sehr gut beantwortet. Hiermit möchte ich nicht behaupten, dass dein Standpunkt, Sebastian, falsch ist. Stefans Argumentation erscheint mir einfach schlüssiger und logischer.


    In deinem letzten Zitat hast du einen Tippfehler meinerseits mitzitiert: Es muss natürlich heißen: "Bei der Mondbeobachtung erkenne ich bei V = D aber deutlich mehr Details als bei V = D/2."


    Ich selbst bleibe dabei, dass ich bei Beobachtungen mt Brille (!) bei Vergrößerungen über V=D hinaus keinen Gewinn an Details verbuche, unabhängig vom Objekt und seinem Kontrast. Daher werde ich auch zukünftig Einsteigern V=D als sinnvolle Maximalvergrößerung empfehlen, da ich letztendlich nur Dinge reinen Gewissens empfehlen kann, mit denen ich die besten Erfahrungen gemacht habe.


    Hier nun mein letzter fachlicher Beitrag zu meinem Eingangspost:


    Ich erinnere mich wieder an eine etliche Jahre zurückliegende Diskussion in meinem ehemaligen, "Schwarzen" Heimatforum. Ein User fragte, da er Vmax = 2D in der Produktbeschreibung las, ob sein Teleskop einwandfrei war, da er bei Beobachtungen über V=D hinaus keine weiteren Details wahrnahm.


    Alle Teilnehmer, ich weiss nicht mehr wie viele, stimmten darin überein, dass V=D die förderliche Vergrößerung sei, ab der alle mit dem Teleskop erfassbaren Details aufgelöst werden.


    Damals beobachtete ich noch ohne Brille am Teleskop und sah einen deutlichen Detailgewinn von V=D zu V=1,5D. Als Einziger vertrat ich diese Meinung.


    Ein User bemerkte die Brille in meinem Profilbild und fragte mich, ob ich Zylindergläser (= Astigmatismus im Auge) habe. Als ich bejate, meinte er, es liege daran. Damit müsse man stärker vergrößern, um alle Details auflösen zu können. Ich probierte es aus und mit Brille war auch bei mir bei V=D die maximale Auflösung verbunden mi einem subjektiv besseren, sprich schärferen, Bild gegenüber V=1,5D erreicht. Seitdem beobachte ich nur noch mit Brille.


    Dies als Beispiel dafür, wie physiologische Aspekte die Bildgebung verändern können.


    BTW:


    Mit meinem neuen 8'' f/6 Dobson kann ich mit meinen vorhandenen Okularen maximal 240-fach vergrößern. Aus meinen bisherigen Erfahrungen heraus werde ich mir keine kürzerbrennweitigen Okulare oder Barlow kaufen, sondern das Geld lieber in ein besseres Übersichtsokular investieren. :)


    Nochmals vielen Dank für die interessante Diskussion.


    VG Christian

  • Hallo!


    Lest doch noch mal meinen rein erfahrungsmäßig geschriebenen Beitrag oben über die maximal sinnvolle Vergrößerung. Das gilt ja nicht nur für Doppelsterne, aber an den schwierigen Kandidaten kann man da an der Abbildung recht viel sehen, über was hier theoretisch geschrieben wurde. Eine Vergrößerung V=D/0.7, (also etwa V=D*1.4), bringt auch bei sehr kleinen PNs durchaus noch Einzelheiten an den Tag, die man mit V=D noch nicht sieht. Martin Birkmaier hat in seinem Katalog einmal formuliert: <i>"0.8mm Austrittspupille bringt bei perfektem Seeing die maximale Wahrnehmbarkeit kleiner, kontrastarmer Details, und ist die sinnvolle Maximalvergrößerung für Planeten"</i> Dem stimme ich voll zu...


    Wir hatten hier mal ein schönes Thema über Merrill 1-1. Uwe Glahn beschreibt darin interessante Einzelheiten mit sehr hohen Vergrößerungen: http://www.astrotreff.de/topic…HIVE=true&TOPIC_ID=186350 Auch die Humason-PNs sind sehr gute praktische Lehrstücke zu diesem Thema. Sie bieten gemeinsam mit Merrill 1-1 den Beweis, was jenseits V=D mit einer guten Optik noch geht... [8D]


    EDIT: Humor entfernt. [:)]


    salü, volker.

    Deep Sky visuell, Mond und Sonne im Weißlicht mit 10" f/5 Dobson auf Selbstbau Birke-Multiplex  :dizzy:

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!