Mondpartie mit 2,4 µm bei f/5

  • An anderer Stelle wurde seit Jahren mehr oder weniger heftig über die Frage gestritten, welche minimale Brennweite man bei gegebener Teleskopöffnung und Kameraauflösung braucht, um die beugungsbegrenzte Auflösung des Teleskops zu erreichen. Die Frage ist natürlich eng verknüpft mit dem beeindruckenden Fortschritt der Kameraentwicklung in den letzten Jahren. Während die Diskussion 2008 noch mit der Frage “8,3 µm Pixelweite bei f/20 ?“ im Zusammenhang mit dem Einsatz an einem langbrennweitigen Refraktor begann, sind wir also heute mit 2,4 µm bei f/5 angelangt. Damit kann nun das Auflösungsvermögen eines lichtstarken Spiegels mit dem Einsatz der Kamera unmittelbar im Primärfokus, d.h. ohne die Zwischenschaltung von optischen Nachvergrößerungselementen (Spiegel und/oder Linsen), erreicht werden.


    Die Entwicklung zu höheren Beleuchtungsstärken am Kamerachip begünstigt insbesondere die Möglichkeit, durch kürzere Belichtungszeiten den Einfluss der Luftunruhe (Seeing) auf die fotografische Bildauflösung von Astroaufnahmen zu verringern. Mit kürzerer Brennweite wird gleichzeitig der Abbildungsmaßstab verkleinert, so dass bei gegebenem Kameraformat ein erweitertes Gesichtsfeld erreicht wird, wie es der folgende Bildervergleich deutlich macht.


    (1) Theophilusgruppe mit Umgebung (Link), Aufnahme vom 8. März 2014 mit Rotfilter und 1,5 ms Belichtungszeit, ASI120MM Kamera mit 3,75 µm Pixelraster am 10“ f/5 Spiegel bei f/11 mittels optischer Nachvergrößerung über 2,2x Barlowlinse, Summenbild aus AutoStakkert!3 mit 821 Videoframes im Format 1280x960 Pixel.


    (2) Dieselbe Mondgegend, Aufnahme vom 11. April 2019 mit Rotfilter und 2,5 ms Belichtungszeit, ASI178MM Kamera mit 2,4 µm Pixelraster am 10“ f/5 Spiegel ohne optische Nachvergrößerung, Summenbild aus AutoStakkert!3 mit 363 Videoframes im Format 2000x2000 Pixel. Der Wiedergabemaßstab wurde hier zur Unterbringung des stark erweiterten Gesichtsfelds vierfach linear verkleinert.



    (3) Bildausschnitt von (2) im Originalmaßstab zum Vergleich mit (1):



    Fragen und Anregungen sind stets willkommen!


    Gruß, Jan

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Feldstecher</i>
    <br />Das hat mir viel Kopfzerbrechen erspart.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Hallo Matthias, diese Bemerkung macht natürlich neugierig. Willst Du uns verraten, was dahinter steckt?


    Gruß, Jan

  • Hallo Jan,
    die Bilder sind sehr gut geworden. Nach meiner Faustformel wäre f/8 das Optimum, aber so genau gehts nicht. Wenn die Bilder gut sind, sind sie gut ;)
    Servus,
    Roland

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Niklo</i>
    <br />Nach meiner Faustformel wäre f/8 das Optimum<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Hallo Roland,


    das passt recht gut, denn, wie soeben in der parallel laufenden Diskussion erläutert, habe ich hier im Rahmen der Bildbearbeitung, d.h. tatsächlich bereits beim Stacken mit der in AutoStakkert! angebotenen 1,5x Drizzlefunktion nachvergrößert, um das Bildschirmraster zu überwinden. So komme ich mit der f/5-Aufnahme am Ende auch auf f/7,5.


    Gruß, Jan

  • Hallo Jan,
    bisher hatte ich mit der Farbkamera nie Rasterprobleme. Dafür hatte ich Probleme mit Artefakten, wenn ich das autostackert Drizzle verwendet habe. Wenn es mal nötg war zu vergrößern, dann war das Registax6 Resize besser. Naja, die Auflösung ist dadurch nicht besser geworden, aber es kamen zumindest keine Artefakte ins Bild. Mag sein, dass das Seeing eine Rolle spielt...
    Egal ob Barlow, Drizzle oder ..., solang das Bild im Rahmen des mit dem Teleskop möglichen schön wird, passt es. Dein Bild ist jedenfalls schön geworden. Interessant wäre wie das Video aussieht und wie es im Okular ausgeschaut hat. [:)]
    Servus,
    Roland

  • Hallo Jan, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">So komme ich mit der f/5-Aufnahme am Ende auch auf f/7,5.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Nein, das ist eine Milchmädchenrechnung. Du erhältst ein vergrößert dargestelltes Bild, aber durch das nachträgliche Bearbeiten wirst du nie die Auflösung erhöhen, die bei korrekter Anpassung zur Pixelgröße möglich wäre. Was im originalen Bild nicht aufgelöst wurde, bleibt auch durch nachträgliche EVB verborgen.


    Was deine BB erreicht, bereits im Bild vorhandene Details werden besser erkennbar, aber nicht mehr.


    Gruß Stefan

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    <br />durch das nachträgliche Bearbeiten wirst du nie die Auflösung erhöhen<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Hallo Stefan,


    das war, wie Du Dir vielleicht denken kannst, von mir gewiss auch nicht so gemeint. Mein Hinweis auf "f/7,5" sollte nur die von Roland als angemessen eingeschätzte Aufnahmebrennweite bei f/8 kommentieren. Mit meiner oben gezeigten Aufnahme glaube ich also gezeigt zu haben, dass eine Aufnahme mit 2,4 µm Pixelraster bei f/5 mit 1,5-facher <i>datentechnischer</i> Nachvergrößerung in der Praxis zur gleichen Bildauflösung führt wie eine Aufnahme mit 1,5-facher <i>optischer</i> Nachvergrößerung mittels Barlow bei f/7,5.


    Gruß, Jan

  • Hallo Jan,


    durch das "Nachvergrößern" erreichst du keine höhere Auflösung. Bei f/5 liegt die theroretisch mögliche Auflösung bei 0.4"x0.4" per pixel, bei f/7,5 dagegen bei 0.26"x0.26" per pixel.


    Und was an kleinen Details bei 0,4" nicht im erstellten Bild enthalten ist, kannst du nicht per Nachverarbeitung herausarbeiten. Du kannst lediglich die bei 0,4" erhaltene Bildinformation schärfen bzw. durch das Vergrößern eben größer darstellen.


    Dein Bildvergleich taugt auch wenig, du müsstest schon direkt nacheinander an einem Abend die zu vergleichenden Aufnahmen erstellen und nicht Tage oder Wochen auseinander liegend.


    Gruß Stefan

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    <br />durch das "Nachvergrößern" erreichst du keine höhere Auflösung. Bei f/5 liegt die theroretisch mögliche Auflösung bei 0.4"x0.4" per pixel, bei f/7,5 dagegen bei 0.26"x0.26" per pixel.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Hallo Stefan,


    diese auch von einigen anderen Experten vertretene Auffassung ist nur dann zutreffend, wenn sich das von der Optik erzeugte Bild gegenüber dem Kameraraster nicht bewegt. Da dies aber aufgrund der Luftunruhe ständig geschieht, kann mit einem höher auflösenden Stackverfahren durch Drizzeln zwischen den Bildinhalten benachbarter Kamerapixel interpoliert und auf diese Weise tatsächlich ein höheres Auflösungsvermögen erreicht werden. Am Hubble-Weltraumteleskop hat man zu diesem Zweck in Ermangelung des atmosphärischen Seeings die Kamerachips mit einer seitlichen Zitterbewegung beaufschlagt, um eine gegenüber dem Kameraraster erhöhte Bildauflösung zu erzielen.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Dein Bildvergleich taugt auch wenig, du müsstest schon direkt nacheinander an einem Abend die zu vergleichenden Aufnahmen erstellen und nicht Tage oder Wochen auseinander liegend.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Die mit dem oben gezeigten Bild erreichte Auflösung entspricht bereits nahezu dem Beugungslimit des 10"-Spiegels, das ist hier die von jeder Tagesform unabhängige Referenz.


    Gruß, Jan

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Jan_Fremerey</i>
    <br />... kann mit einem höher auflösenden Stackverfahren durch Drizzeln zwischen den Bildinhalten benachbarter Kamerapixel interpoliert und auf diese Weise tatsächlich ein höheres Auflösungsvermögen erreicht werden.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    In Figure 3.2 auf Seite 25 einer Druckschrift des <i>Space Telescope Science Institute</i> in Baltimore ist diese Technik recht anschaulich dargestellt. Emil Kraaikamp hat dieselbe Technik schon vor Jahren in seine AutoStakkert! Software übernommen, und es gibt zahlreiche Bildbeispiele im Netz, die zeigen, dass diese Technik den zu erwartenden Gewinn an Bildauflösung auch in der Praxis gewährleistet. Umso weniger kann ich nachvollziehen, dass in unseren Amateurforen immer noch die Ankopplung der Kamera bei überlangen Brennweiten empfohlen und praktiziert wird, die ja insbesondere auch hinsichtlich der Belichtungszeiten und Videobildraten sowie des erfassten Gesichtsfelds unnötige Einschränkungen zur Folge hat.


    Gruß, Jan

  • Hallo,


    ja die Drizzletechnik funktioniert. Aber nur bei stark untersampelten Bildern. Man muß die Einzelframes vor dem Registrieren und Aufsummieren vergrößern. Das Summenbild zu vergrößern bringt nichts.
    "Richtige" Auflösung ist aber natürlich immer noch besser. Die digitale Verbesserung der Auflösung hat immer das Risiko Artefakte zu generieren.


    Gruß


    Heiko

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Doc HighCo</i>
    <br />ja die Drizzletechnik funktioniert. Aber nur bei stark untersampelten Bildern.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Hallo Heiko,


    was verstehst Du unter "stark undersampelt"? Gegenüber welcher Referenz?


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">"Richtige" Auflösung ist aber natürlich immer noch besser.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Was bedeuten denn hier konkret die Bezeichnungen "richtig", "immer" und "besser", oder sind das doch eher "gefühlte" Parameter?


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die digitale Verbesserung der Auflösung hat immer das Risiko Artefakte zu generieren.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Ja, das trifft insbesondere zu, wenn das Ausgangsmaterial mangelhaft ist. Dann gibt es aber auch keinen wirklichen Anlass zur "digitalen Verbesserung der Auflösung".


    Gruß, Jan

  • Hallo Jan,


    undersampled bedeutet, daß die Pixelauflösung deutlich geringer ist als die mögliche Teleskopauflösung. Das ist glaube ich allgemein so definiert. Das Dawes Limit wäre z.B. 0.5", Dein Pixelmaßstab aber nur 1,5" pro Pixel. Das wäre dann undersampled. Wenn Du in die Nähe des Auflösungslimits des Teleskops kommst, dann kannst Du drizzeln wie Du willst, dann wird das Bild nicht schärfer. Die Unschärfe wird nur über mehr Pixel verteilt.
    Du kannst auch durch Drizzeln nicht die Lichtstärke erhöhen bzw. beibehalten. Die Photonen vermehren sich dadurch ja nicht. Du teilst das Signal und Rauschen nämlich auf mehr Pixel auf. Und da gilt das gleiche, wie wenn Du mehrere Pixel zusammenfasst um das Signal/Rauschverhältnis zu verbessern - halt nur umgekehrt. Beim Drizzeln sinkt das S/R. Wenn Du bei F/5 drizzelst, um auf die Pixelauflöung einen F/7.5-Teleskops zu kommen, dann hast Du auch nur das S/R eines F/7.5-Teleskops.
    Aber bei lichtstarken Objekten kann das durchaus eine gute Methode sein die Auflösung zu verbessern. Da widerspreche ich nicht. Und Du sagts es ja selbst, wenn die Schärfe des Ausgangsmaterial schon schlecht ist (z.B. durch Seeing, Kollimierung etc.), dann bringt auch Drizzeln nichts.


    Viele Grüße


    Heiko

  • Hallo Jan,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Jan_Fremerey</i>
    <br /><blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    <br />durch das nachträgliche Bearbeiten wirst du nie die Auflösung erhöhen<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Hallo Stefan,


    das war, wie Du Dir vielleicht denken kannst, von mir gewiss auch nicht so gemeint. Mein Hinweis auf "f/7,5" sollte nur die von Roland als angemessen eingeschätzte Aufnahmebrennweite bei f/8 kommentieren. Mit meiner oben gezeigten Aufnahme glaube ich also gezeigt zu haben, dass eine Aufnahme mit 2,4 µm Pixelraster bei f/5 mit 1,5-facher <i>datentechnischer</i> Nachvergrößerung in der Praxis zur gleichen Bildauflösung führt wie eine Aufnahme mit 1,5-facher <i>optischer</i> Nachvergrößerung mittels Barlow bei f/7,5.
    Gruß, Jan
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Das ist für mich auch kein Beweis. Das sind verschiedene Kameras, und verschieden Nächte. f/11 ist auch etwas weniger wie f/13 aber natürlich näher dran wie f/5 an f/8, aber durch die Barlow hattest Du längere Belichtungszeiten und möglicherweise nicht alles ausreizen können, was mit der neuen Kamera und f/8 möglich wäre.


    Was man aber sieht, dass Du mit der neuen Kamera in etwa gleich gute Aufnahmen hin bekommst wie früher mit Barlow und älterer Kamera.
    Das ist schon mal gut.
    Was ich zusätzlich vermute, dass Du bei 10" auch trotz Stacken bei längerer Belichtungszeit f/11 statt f/5 nicht die theoretische Auflösung schaffst und Du daher nichts verschenkst. Wie es bei einer guten 1,5x Barlow wäre ist schwierig zu sagen, da Du keine gute 1,5x Barlow hast.
    Es gäbe so eine 1,5x Barlow:
    https://www.teleskop-express.d…a-Korrektor-1-5-fach.html
    Ob sich das lohnt und ob die Barlow echt gut ist... ich weiß es nicht.
    Servus,
    Roland

  • Hi Jan,


    in dem gelinkten Dokument geht es überwiegend um eine Verbesserung der Darstellung durch beseitigen von Bildstörung wie cosmics oder Pixelfehler (hot-/coldpixel, unterschiedliche Empfindlichkeit einzelner Pixel) des Chips selbst. An lediglich zwei Stellen fand ich erwähnt, das dadurch auch Verluste durch Undersamling etwas ausgeglichen werden können. Der komplette restliche Teil bezieht sich immer wieder auf Cosmics usw. (siehe vorherige Zeile) sowie auf das kontrollierte Dithering bei den Aufnahmen. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das Endprodukt von MultiDrizzle ist ein registriertes, kosmisch strahlengereinigtes, verzerrungsfreies, photometrisch flaches Bild <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Das wird erreicht, indem man das Teleskop kontrolliert (und damit den Detektor) von Bild zu Bild um eine gewisse Anzahl von Pixeln verschiebt nennt man Dithering. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Zwei der Hauptstrategien beinhalten Offsets um eine ganze Anzahl von Pixeln, um die Entfernung schlechter Pixel zu erleichtern, und Offsets um Sub-Integer-Pixel, um die räumliche Abtastung der Point Spread-Funktion (PSF) zu verbessern. Die Anwendung ist besonders wichtig im Falle von HST, wo das PSF so klein ist, dass es von der Mehrheit der primären wissenschaftlichen Instrumente deutlich unterabgetastet wird.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Letzteres wäre das, was du zu erreichen glaubst. Allerdings setzt das dafür nötige 1/2-Pixel-Sub-Sampling etwas mehr voraus-<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn eine verbesserte räumliche Abtastung bei Programmen mit zwei oder mehr Orbit-Störgrößen/Filter-Kombinationen erwünscht ist, wird ein "voller" 4-Punkt-Dither empfohlen (z.B. Bereitstellung von 1/2-Pixel-Sub-Sampling entlang beider Detektorachsen). Die meisten Subpixel-Informationen in einem Bild werden durch ein Vierpunkt-Dither wiederhergestellt. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Daher ist es unerlässlich, das Vorhandensein von Bild-zu-Bild-Verschiebungen, Rotationen und/oder Skalenvariationen vor der Kombination von Daten mit MultiDrizzle zu erfassen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Du machst aber kein kontrolliertes Dithering durch Versetzen des Detektors, du nimmst einzelne Frames auf und auf diesen kommt es zwar durch Seeingeinfluss durch einen Versatz der Abbildung, aber diese ist absolut unkontrolliert und von frame zu frame wird dieser Versatz nicht alle Pixel gleichzeitig in gleiche Richtung und gleichen Wert betragen.


    Bedeutet schlichtweg- auf welches Pixel durch Seeing ein Bildpunkt des Objekts abgelichtet wird ist rein zufällig und jeder einzelne Bildpunkt in in einem Frame kann dabei auf jedes beliebige Nachbarpixel fallen- eben nicht wie bei richtigem Dithern kontrolliert um einen bestimmten Pixelwert in eine bestimmte Richtung verschoben.


    Das Dokument bezieht sich auf Hubble- und da oben gibt es keinen Seeingeinfluss. Dazu beschreibt das Dokument auch sehr gut, das die nachträgliche Bearbeitung der gedithert aufgenommenen Frames nicht durch eine pauschale nachträgliche Verarbeitung verbessert wird, die Parameter zum Erreichen eines bestmöglichen Ergebnisses müssen jeweils angepasst werden.


    Du erreichst also mit deinem Vorgehen keine höhere Auflösung, du erreichst allenfalls eine bessere Schärfung der in den einzelnen Frames bereits vorhandenen Daten entsprechend der durch den Chip vorgegebenen möglichen ereichbarer Auflösung.


    Gruß Stefan

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Niklo</i>
    <br />Was man aber sieht, dass Du mit der neuen Kamera in etwa gleich gute Aufnahmen hin bekommst wie früher mit Barlow und älterer Kamera.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Hallo Roland,


    das genau ist es ja, was ich hier zeigen will.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Was ich zusätzlich vermute, dass Du bei 10" auch trotz Stacken bei längerer Belichtungszeit f/11 statt f/5 nicht die theoretische Auflösung schaffst<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Das Erreichen der Auflösungsgrenze konnte ich aber mit demselben Spiegel zumindest bei f/11 schon einmal ganz unabhängig anhand einer Doppelsternaufnahme messtechnisch nachweisen, siehe hier. Mit demselben Setup habe ich vor einigen Jahren auch die Theophilusgruppe aufgenommen, die offenbar ebenfalls beugungsbegrenzt aufgelöst ist, ebenso wie die aktuelle Aufnahme bei f/5.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">ob die Barlow echt gut ist... ich weiß es nicht.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Wenn ich jetzt mit der ASI178MM bei f/5 das Auflösungsvermögen des Spiegels erreiche, mache ich mir keine weiteren Gedanken über Barlows.


    Gruß, Jan

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    <br />auf welches Pixel durch Seeing ein Bildpunkt des Objekts abgelichtet wird ist rein zufällig<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Hallo Stefan,


    vielen Dank für Deine ausführlichen Erläuterungen zum Thema "Dithern".


    Mein Hinweis auf Seite 25 der Druckschrift bezieht sich aber eher auf die Drizzle-Technik, die sich genau das zunutze macht, was Du mit Deiner oben zitierten Aussage beschreibst: Die Bildpunkte des Objekts werden dabei eben nicht jeweils streng auf ein und demselben Kamerapixel abgebildet, sondern mit statistischer Verteilung auch auf benachbarte Kamerapixel. So ist es möglich, die Bildpunkte des Objekts auf ein feineres Raster als das der Kamera abzubilden. Auf diese Weise werden live interpolierte Pixel gewonnen und damit eine effektive Steigerung der Bildauflösung gegenüber der durch das vergleichsweise grobe Pixelraster der Kamera gegebenen Auflösung.


    Gruß, Jan

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Guntram</i>
    <br />Welche(s) Rotfilter hast du für deine Aufnahmen verwendet?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Hallo Guntram, ich verwende hier z.Z. das Rotfilter aus dem LRGB-Satz Typ II von Astronomik.


    Gruß, Jan

  • Hi Jan,<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Jan_Fremerey</i>
    <br /><blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    <br />auf welches Pixel durch Seeing ein Bildpunkt des Objekts abgelichtet wird ist rein zufällig<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">vielen Dank für Deine ausführlichen Erläuterungen zum Thema "Dithern".


    Mein Hinweis auf Seite 25 der Druckschrift bezieht sich aber eher auf die Drizzle-Technik, die sich genau das zunutze macht, was Du mit Deiner oben zitierten Aussage beschreibst: Die Bildpunkte des Objekts werden dabei eben nicht jeweils streng auf ein und demselben Kamerapixel abgebildet, sondern mit statistischer Verteilung auch auf benachbarte Kamerapixel. So ist es möglich, die Bildpunkte des Objekts auf ein feineres Raster als das der Kamera abzubilden. Auf diese Weise werden live interpolierte Pixel gewonnen und damit eine effektive Steigerung der Bildauflösung gegenüber der durch das vergleichsweise grobe Pixelraster der Kamera gegebenen Auflösung.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Du verstehst offenbar nicht- die die Drizzle-Technik setzt ein korrektes, pixel-/subpixelgenaues Dithern voraus. Und dabei kommt es keinesfalls zu einer statistischer Verteilung, wie das durch Seeingstörungen verursacht wird.


    Und im Zusammenhang mit dem Text s25 steht auf der folgenden- <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Verbesserte Abtastung: NIC3, NIC2 (kurzzeitig von 1,75 Mikron) und NIC1 (kurzzeitig von 1,0 Mikron) unterabtastet das Bild. Wie bei WFPC2 kann die Bildqualität durch Subpixel-Dithering verbessert werden. Die meisten Informationen können über ein Zweipunkt-Dither wiederhergestellt werden, und praktisch alle Informationen können mit Vierpunkt-Dithern wiederhergestellt werden. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Verbesserte Bildqualität und nicht verbeserte Auflösung. Ohne dithern und anschließend Nachverarbeitung mit Hilfe von Drizzlealgoritmen würden durch Undersampling Unschärfen entstehen.


    Du ditherst aber nicht, bei dir zappelt die Bildinformation auf Grund Seeing von frame zu frame unkontrolliert und rein zufällig auf irgendwelchen benachbarten Pixeln herum


    Gruß Stefan

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    <br />Verbesserte Bildqualität und nicht verbeserte Auflösung.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Hallo Stefan,


    ohne verbesserte Bildauflösung hätte das von mir eingangs gezeigte Bild nach Deiner Auffassung gar nicht zustandekommen dürfen, denn es erreicht mit einer Aufnahmeblende f/D = 2,1*p/µm (p = Pixelraster) die beugungsbegrenzte Auflösung des Teleskops, und die in Amateurkreisen zirkulierende Meinung ist, dass dafür mindestens f/D = 3,6*p/µm erforderlich sei.


    Gruß, Jan

  • Jan, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">ohne verbesserte Bildauflösung hätte das von mir eingangs gezeigte Bild nach Deiner Auffassung gar nicht zustandekommen dürfen, denn es erreicht mit einer Aufnahmeblende f/D = 2,1*p/µm (p = Pixelraster) die beugungsbegrenzte Auflösung des Teleskops<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Wie stellst du denn fest, das du die beugungsbegrenzte Auflösung des Teleskops tatsächlich erreicht hast? Das ist erst mal nur eine reine Behauptung ohne irgendeinen Nachweis. [:)]


    Mit dem 250/1250 und der ASI mit 2,4µm Pixelgröße liegt die Abtastrate auf das Beugungsscheibchen bezogen bei 1.4 × und damit ist das Nyquist-Kriterium nicht erfüllt.


    Um zwei Punkte als getrennt räumlich aufzulösen benötigt man 3 Pixel, fällt das Licht nur auf 2 nebeneinander liegende Pixel findet keine Trennung statt und du arbeitest nur mit Faktor 1,4


    gruß stefan

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    <br />Wie stellst du denn fest, das du die beugungsbegrenzte Auflösung des Teleskops tatsächlich erreicht hast? Das ist erst mal nur eine reine Behauptung ohne irgendeinen Nachweis.


    Um zwei Punkte als getrennt räumlich aufzulösen benötigt man 3 Pixel<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Hallo Stefan,


    am südlichen Rand des Kraters Polybius findest Du in meiner Aufnahme einen kleinen Doppelkrater mit einem Abstand von 3 Pixeln.


    Gruß, Jan

  • Jan, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">am südlichen Rand des Kraters Polybius findest Du in meiner Aufnahme einen kleinen Doppelkrater mit einem Abstand von 3 Pixeln.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Und was besagt das oder was schließt du daraus? Das sagt nichts-lediglich daraus zu entnehmen- mit dem Setup kannst du diese beiden Krater trennen. Nur- wie groß sind diese und welchen Abstand zueinander liegt vor? Kratzt dieser Doppelkrater an der max. möglichen Auflösung deines Teleskops? Oder könntest du optimal per Barlow an die Pixelgröße nicht auch noch knapp halb so große und auch nur halb soweit voneinander entfernte Krater auflösen?


    Aus dem Doppelkrater beugungsbegrenztes Arbeiten ableiten ist schon etwas gewagt. [:D]


    Aber egal, du glaubst daran, du ignorierst bei deiner Denke zum nachträglichen drizzln der Frames, das du dabei nicht vorher korrekt ditherst, sonder ein Zufallsprodukt durch Luftunruhe als "dithern" bezeichnest. Und aus deinen früheren Beiträgen zu entnehmen- du bleibst bei deiner Meinung, egal was an Argumenten kommt und damit bin ich aus der Nummer raus.


    gruß
    Stefan

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!