Gibt es Detailverlust bei ASI_120 und f/10 ?

  • Hallo Planeten, Mond, Doppelstern und Sonnenfotografen,


    mich interessiert es, ob ich, wenn ich mit meinem C11 (2800mm f/10) ohne Brennweitenverlängerung arbeite, Details verlieren könnte. Die ASI-Kameras haben ja sehr kleine Pixel (3,75µm) und theor. könnte das ganz knapp ohne Verlust klappen.
    Im Praxistest konnte ich ein Sternscheibchen sauber abbilden und nach der Schärfung alle Beugungsringe auch sauber trennen. Reicht das als Argument schon aus?
    Die gängigen Formeln kenne ich und habe meine Werte eingesetzt, es gibt aber ein paar "Variablen", und ich weiß nicht, wie ich diese bewerten soll.
    Wenn man die Auflösung nach Nyquist beurteilt, dann wird die diagonale Auflösung ja gar nicht mit berücksichtigt, ist diese überhaupt wichtig?
    Des weiteren ist die Wellenlänge ja für das theor. Auflösungsvermögen wichtig. Reicht im Roten möglicherweise f/10 und im Grünen nicht?
    Wenn man so "knapp dran" ist, dann ist das Drizzeln vielleicht eine echte Option um wirklich mehr Auflösung zu erreichen.
    Wie muss ich ´Auflösung´ überhaupt in der Planetenfotografie definieren? Wenn ich 2 Punkte habe, die teilweise miteinander "verschmolzen" sind, dann kann ich diese durch Schärfung wieder trennen, gilt das dann als aufgelöst?
    Ich hätte natürlich gerne eine Antwort, "ja, du kannst", oder "nein, das geht nicht", vermutlich ist es aber schwieriger, auch im Hinblick auf die Softwaren, die ja bestenfalls auch subpixelgenau arbeiten müssten. Ich bin auf eure Meinungen, und Rechenkünste gespannt.
    Viele Grüße,
    ralf

  • Hallo Ralf


    diese Frage interessiert mich auch. Ich nehme aktuell ja auch vornehmlich mit f/10 an einem C8 auf, konnte allerdings erst einmal einen echten Test fahren. Vorher habe ich eine Farbkamera mit 3.75µm Pixeln bei f/16 betrieben und eine Schwarz-Weiß-Kamera mit 5.2µm Pixel bei f/16 bis ca. f/30. Der erste Versuch mit der neuen 3.75µm-Kamera ist sehr vielversprechend. Das beste Ergebnis hatte ich bislang aber mit f/30 und der Schwarz-Weiß-Kamera mit 5.2µm Pixeln, die habe ich aber auch am meisten eingesetzt. Dann folgt sofort ganz knapp die Farbkamera mit 3.75µm Pixeln bei f/16, die da fast ran kommt. Weitere Versuche mit der neuen QHY5L-IIm stehen noch aus.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Reicht im Roten möglicherweise f/10 und im Grünen nicht?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Das kann ich im Prinzip ausschließen, da mein letzter Grünkanal mit der QHY5L-IIm feinere Details zeigte als der Rot- und IR-Kanal. Für den Blaukanal war das Seeing zu schlecht. Also wenn f/10 zu wenig Brennweite sein sollte, dann reduziert sich die Auflösung gleichermaßen in allen Kanälen.


    Ich denke, dass man zwischen dem roten und blauen Kästchen nach dieser Übersicht -&gt; Anpassung der CCD-Kamera bei Mond/Planetenbildern ganz gut liegt. Das wären also N ~ 2.9*D_pixel, wobei man mit f/10 etwas drunter liegt. Ich kann nicht sagen, ob man Details verliert, was ich allerdings annehme ist, dass die Details weniger sauber "gezeichnet" werden, weil eben weniger Pixel zur Bilderzeugung dienen. Im Grunde hat man ja schon weniger Information im Bild, wenn man "nur" bei f/10 aufnimmt.




    Viele Grüße,
    Christian

  • Hallo Ralf und Christian,


    nach der Einladung kann ich ja garnicht anders als meinen Senf dazu zu geben. Ich denke, dass die Auflösung stellenweise leidet und dies aus folgendem Grund. Normalerweise wird ein Beugungsscheibchen ja auf 5x5 Pixel verteilt, wobei die Randpixel ziemlich schwarz sein sollten, da sie das erste Minimum darstellen. Wenn das bei f/13.5 passiert (für 550nm), dann bildet f/10 das gesamte Scheibchen auf 3.75x3.75 Pixel ab, da f/10 etwa 75% von f/13.5 ist.
    Genau im ersten Minimum liegt aber das dichtestmögliche Detail (also das Zentrum des Nachbarscheibchens). Bei 5x5 passt das auf beliebig viel Folgen nacheinander. Bei 3.75x3.75 liegt das Nachbardetail zu 75% auf dem dritten Pixel und zu 25% auf dem zweiten Pixel (also genau neben dem "Referenzdetail"). Die Trennung klappt also noch, aber mit leichter Aufhellung des Trennbereichs.
    Das nächste Beugungsscheibchen liegt dann aber schon nur zu 50% auf dem dritten Pixel (ich beginne immer wieder bei Eins zu zählen) und gibt die Hälfte seiner Helligkeit in die Trennzone (zweites Pixel). Das erste Pixel ist hier der vorige Nachbar mit 75% Helligkeit. Wenn ich das vierte Beugungsscheibchen nehme, dann ist das spiegelbildlich zum zweiten zu sehen, tritt also wieder etwas hervor - und das Fünfte passt dann wieder und stellt den Beginn eines neuen Zyklus dar. Wir haben also von Vier Beugungsscheibchen Ein sehr gutes, zwei halbwegs brauchbare und ein vermatschtes.
    Diese Betrachtung gilt für genau eine Dimension und zwar genau in Richtung der Pixelanordnung. In die zweite Dimension passiert das Gleiche und dazwischen wird's schlechter nach meiner Mutmaßung.


    Zum Vergleich, bei 5x5 Pixeln sehen alle vier Beugungsscheibchen perfekt aus - in beide Richtungen. Dazwischen wird es schlechter, da die Pixel eine größere Diagonale besitzen.


    Sternklare Grüße
    Alko

  • Die grobe Faustregel ist wohl am Beispiel:
    Im Grünen bei 500nm und f/10 mißt das innere Beugungsscheibchen 12,2µm und die Trennung zweier Lichtquellen gilt für den Abstand des halben Durchmessers nach dem Rayleigh-Kriterium (Max. der einen Quelle überlagert Min. des Nachbars) als sicher. Mit 3,75µm Pixelabstand ist nach dem Abtasttheorem für kurzwelligeres Licht als Orange die Trennung dann nicht mehr sicher.


    Allerdings ist der halbe Abstand des Beugungsscheibchens noch nicht die untere Grenze für die Auflösbarkeit. Die ist erst bei er Sparrow-Grenze erreicht, also kurz bevor die Halbwertsbreiten zusammenfallen.
    http://www.photoscala.de/Artik…egapixeln-Viel-hilft-viel


    Weiterhin kann der tatsächliche Pixelabstand auf dem Sensor rechnerisch verkleinert werden, indem der "Feind" Luftunruhe dazu ausgenutzt wird virtuelle Superpixel zu erzeugen. Infolge der Luftunruhe erfährt die Abbildung immer von Bild zu Bild auf der Pixelmatix einen Versatz, den ein geeigneter Agorithmus der über Fourieranalye Muster erkennt, zu einer verfeinerten Pixelmatrix interpretieren kann. Die Bildsoftware Giotto macht das angeblich über den Punkt "Superresolution". Diese Funktion ist nicht mit Drizzling zu verwechseln.


    Gruß,
    Jo

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Christian_P</i>
    <br />
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Reicht im Roten möglicherweise f/10 und im Grünen nicht?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Das kann ich im Prinzip ausschließen, da mein letzter Grünkanal mit der QHY5L-IIm feinere Details zeigte als der Rot- und IR-Kanal.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    [;)] Ralf bezug sich auf eine ganz bestimmte Optik, bei der die Brennweite evtl. nur eine ausreichende Abtastung über die Pixelgröße für Rot zulässt.


    Prinzipiell kann im roten langwelligeren Licht optisch nur schlechter aufgelöst werden als im kurzwelligen. Bei Dir könnte es (sehr warscheinlich) so gewesen sein, dass die Pixelauflösung bei <u>Deiner Optik/Brennweite</u> gut zur optischen Auflösung im Grün passte, aber für das Rot schon im Bereich der Überabtastung war. Und Überabtastung kann auch keine Details herbeizaubern die aufgrund der Wellenlängeabhängigkeit der Beugung (größere rote Beugungsscheibchen als grüne) nicht da sind.


    Gruß,
    Jo

  • Hallo Leute



    nun mal Butter bei die Fische!


    Hier habe ich schnell mal ein Bild meines aktuellen Jupiters bearbeitet, <u>ohne</u> Drizzle zu benutzen



    Stacking in Autostakkert 2 mit vielen überlagerten Multipoints.




    Viele Grüße
    Christian

  • Hallo Ralf,


    ja, bei f=10 verlierst Du was. Du solltest auf f=15 oder f=16 kommen, damit kein Matsch aufgrund der Beugungsscheibchen entsteht. Dazu kannst Du z.B. das Barlow-Element einer 2-fach Barlow ohne das Barlow-Gehäuse direkt vor die Kamera schrauben.


    Doppelsterntrennung und Planetendetails sind 2 Paar Stiefel. Doppelsterne sind 2 Punkte in der unendlichkeit. Planeten haben verschiedene Strukturen zu bieten. Große Wirbel, farbige Bänder, hauchzahrte 2 oder 3 Pixel breite Girlanden, kleine und große Spots. Bei f=10 arbeitest Du suboptimal und verschenkst so um die 30% der feinen Informationen, die seeingbedingt auflösbar wären...


    CS
    Silvia

  • Guten Morgen Leute


    ich möchte noch mal einige Anmerkungen machen.


    Hallo Jo
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ralf bezug sich auf eine ganz bestimmte Optik, bei der die Brennweite evtl. nur eine ausreichende Abtastung über die Pixelgröße für Rot zulässt.
    Prinzipiell kann im roten langwelligeren Licht optisch nur schlechter aufgelöst werden als im kurzwelligen. Bei Dir könnte es (sehr warscheinlich) so gewesen sein, dass die Pixelauflösung bei Deiner Optik/Brennweite gut zur optischen Auflösung im Grün passte, aber für das Rot schon im Bereich der Überabtastung war. Und Überabtastung kann auch keine Details herbeizaubern die aufgrund der Wellenlängeabhängigkeit der Beugung (größere rote Beugungsscheibchen als grüne) nicht da sind.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Ralf arbeitet bei f/10 und mit 3.75µm und ich ebenfalls, zumindest das letzte Mal. Er hat sogar auch die Baader RGB-Filter. Ralfs C11 ist nun etwas mehr vom Seeing abhängig, da es eine größere Öffnung hat als mein C8. Das wäre aus meiner Sicht erst mal der einzige Unterschied beider Systeme. Die Kameras sind bei 2.7*Pixeldurchmesser angebunden, also sind die Systeme gut miteinander vergleichbar.


    Herzaubern möchte niemand etwas. Als einen grundsätzlichen Vorteil höherer Brennweite (z.B. f/20 bezüglich 3.75µm) betrachte ich die bessere Definition der Details, die dargestellt werden können. Es werden mehr Pixel zur Bilderzeugung genutzt und somit hat man im Prinzip mehr Information im Bild, aber es müssen nicht zwangsläufig auch mehr Details sichtbar sein. Das ist für mich der entscheidende Punkt. So arbeitet Jan F. (http://www.astro-vr.de) mit Anbindungsfaktoren zwischen N = 2.2 bis 3 (*D_pixel), und er erreicht damit nach seinen Aussagen bereits maximale Detailwiedergabe.



    Liebe Silvia
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bei f=10 arbeitest Du suboptimal und verschenkst so um die 30% der feinen Informationen, die seeingbedingt auflösbar wären...<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Das kann ich so nicht unterschreiben. Gehen wir mal davon aus, dass die Detailwiedergabe auf Jupiter linear von der Öffnung abhängt. Das wäre ja erst mal ein naheliegender Ansatz. Dann bedeutet Deine Aussage ja, dass ein mit f/10 (immer bezüglich 3.75µm Pixeln und SW-Kamera) angebundenes Teleskop nur Details zeigen würde wie eine (100% - 30%)^(-1) = 0.7^(-1) mal kleinere Teleskopöffnung. Beispiel: Ein 200mm-Teleskop würde dann grob nur die Auflösung eines 200*0.7mm aufgerundet 150mm-Teleskops erreichen. Das steht im krassen Widerspruch zu meiner Erfahrungen, wobei ich auch bei "knapper" Kameraanbindung fast immer sichtbar feinere Details nachweisen kann, als das mit 150mm Öffnung möglich ist. Wie erklärst Du dir das? Ich denke so einfach ist diese Frage eben nicht zu beantworten. [;)]




    Ein anderes Ergebnis würde freilich herauskommen, wenn man annimmt, dass der Detailreichtum auf Jupiter ähnlich wie auf der Mondoberfläche mit dem Quadrat der Öffnung zunimmt. Es hängt also alles immer von den Voraussetzungen ab.




    Viele Grüße,
    Christian

  • Hallo Zusammen,


    dazu hab ich mal eine kleine Simulation gemacht:



    oben links ein Bild eines 40" Jupiter in einem 100mm APO. Mit deutlich mehr Pixeln aufgelöst als der Chip es kann.


    Dann habe ich das Bild 8 mal ausgeschnitten, immer etwas versetzt und dann so verkleinert, dass es einer Auflösung von 3.75 mü entspricht. Dann habe ich die 8 "verpixelten" Bilder wieder auf Ausgangsgröße zurückvergrößert und dann gestackt.


    Das ist das Bild oben rechts.


    In der zweiten Zeile sind die jeweils darüberliegenden Bilder etwas geschärft dargestellt, mit den gleichen Schärfungsparametern.


    Wie man sieht, hat man tatsächlich bei f10 (unter Verwendung von 8 Bildern) einen leichten Schärfeverlust.


    Ob dieser unter ein wahrnehmbares Niveau sinkt, wenn man (erheblich) mehr Bilder stackt, darüber kann man sicher spekulieren, ich
    würde aber mal annehmen, dass man sich leichter tut, wenn man &gt;= f15 einsetzt.


    besten Gruß
    Johannes

  • Hallo in die Runde,
    ich danke euch sehr herzlich für die vielen Informationen. Es hat mir großen Spaß gemacht eure Beiträge zu lesen. Die für mich nutzbare "Informationsdichte" war sehr hoch.
    ich versuche meine Gedanken einmal zusammen zu fassen:
    Die Mathematik ist eindeutig und liefert i.d.R. ein exaktes Ergebnis. Hier, beim Auflösungsvermögen, werden aber zuvor Annahmen und Kriterien definiert. Diese sind aber nicht zu 100% eindeutig. Deshalb wollte ich mir hier ein "Gefühl" verschaffen. Ein "Brennweitenrechner" hilft mir da wenig, wenn ich nicht weiß, welche Kriterien zugrunde liegen. Zudem ist es nur natürlich, dass, wenn es eine prominente Website gibt, deren Informationen hinaus getragen werden und unreflektiert übernommen werden. Ein Abgleich, oder gar eine kontroverse Diskussion bringt da viel mehr. Deshalb habe ich überhaupt diesen Beitrag gestartet.
    Dass f/10 knapp sein würde wusste ich. Da ich aber saubere Beugungsringe (auch im Grünen) um das Airyscheibchen hatte (bei 3x drizzle) glaubte ich, dass ich evtl. die max. Leistung des Systems erreicht hatte. Das war sehr verlockend,- keine Brennweitenverlängerung, keine Glasflächen und viel mehr Licht, das zur Verfügung steht. Die Frage, welche Bedeutung hier das Drizzeln hat, ist allerdings noch offen geblieben.
    Nicht bedacht hatte ich, dass Schärfe und Kontrast ja in einem Zusammenhang zu sehen sind. Ich hatte zwar Beugungsringe, sauber (also kontrastreich) waren diese aber erst nach der Schärfung. Das Verwaschen der Ringe hat natürlich etwas mit der Optik und dem Seeing zu tun, aber eben auch mit dem Auflösungsvermögen.
    Jetzt erst fiel mir auf, dass ich bei meinen Tests zu f/10 (trotz geringeren Gains und viel mehr Bildern) im Verhältnis stärker Schärfen musste. Der Kreis schloss sich hier für mich.
    Ich denke also, dass man bei f/10 nicht wirklich Details verliert, dass diese aber bei f/15 o.ä. leichter dh. schneller zu erreichen sind. Ich persönlich werde nun für Jupiter und Mond doch wieder meinen Kenko 1,4x Telekonverter einsetzen. Für Saturn allerdings, oder bei schlechterem Seeing, oder bei lichtschwachen Objekten (Uranus z.B.) da bleibe ich bei f/10, es sei denn, ich kann relativ lange Einzelbelichtungen machen wenn das Seeing mal zufällig perfekt sein sollte.
    Das ist sicherlich keine wissenschaftliche Argumentation, aber ich bin ja auch keiner;-).
    Vielen Dank und viele Grüße,
    ralf

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!