Taugt in der Videoastronomie das Nyquist-Kriterium zur Brennweitenanpassung des Kamerarasters?

  • Hallo Holger,


    Was ich da beschrieben habe ist in der (digitalen) Nachrichtentechnik überall im Einsatz. GPS Empfänger z.B. besitzen einen 1bit (!) Analog Digital Wandler, der das Empfangssignal, das aus (fast) weissem Rauschen und den Nutzsignalen aller sichtbaren Satelliten (GPS, GLONASS, Baidu und Galileo) besteht digitalisiert. Die Nutzsignale liegen dabei bis zu 20dB unter (!) dem Rauschen. Erst aus der Korrelation mit dem Pseudozufallscode der Nutzsignale (die untereinander orthogonal sind, so dass ihre Kreuzkorrelation 0 ist) werden die Nutzssignale extrahiert. Durch das überwiegend weisse Rauschsignal haben wir kein Aliasing des Nutzsignals. Wichtig ist nur, dass das Rauschen möglichst weiss (also unkorreliert) ist und seine Bandbreite >> Signalbandbreite (hier 50bps).


    Nun haben wir wir bei Astroaufnahmen keinerlei bekannte Korrelation in den Nutzdaten. Oder doch? Wir nehmen an, dass die Optik eine punktförmige Lichtquelle (Stern) als Beugungsbild abbildet. Zwei Punktlichtquellen, die zu nahe nebeneinander liegen, können nicht mehr getrennt werden. Die Begrenzung ist die Öffnung der Optik, da hilft auf keine Atmosphäre, die rumwabert. Der springende Punkt hat, selbst wenn man ihm nachspringen kann, immer noch die gleiche Grösse.


    Anders bei den Bildsensoren. Hier können wir uns dank der statistischen Verteilung durch Luftunruhe und der Korrelation mit der Normalverteilung die Auflösung verbessern. Die Pixelgrösse darf also scheinbar das Nyquistkriterium verletzen. Was wir hier machen, dass wir viele Bilder, die über eine zufällige Distanz verschoben sind, mit der Normalverteilung korrelieren und so den wahren Ort des Beugungsscheibchens finden.

    Ich gebe zu: grau ist alle Theorie. Ich habe das selber noch nie ausprobiert (mit Videobildern), aus der (drahtlosen) Nachrichtentechnik ist mir das aber bekannt. GPS ist der Beweis, dass Theorie und Praxis korrelieren :D .


    Unter der Annahme, dass das Nutzsignal über die Aufnahmezeit statisch ist ist die Bandbreite des Rauschens echt grösser. Was ich nicht beurteilen kann, ob das nur bei Punktquellen (Sternen) funktioniert oder ob das auch auf kontrastarme Objekte (z.B. wie Planeten, was Du ja schon erwähnt hast) anwendbar ist oder nicht. Kann gut sein, dass da eine waberfreie(-arme) Langzeitaufnahme eben doch besser ist.


    Herzliche Grüsse Robert

    Ich habe keine besondere Begabung, sondern bin nur leidenschaftlich neugierig. (Albert Einstein)

  • (1) Dithern ... damit verschiebt sich von Bild zu Bild die Abbildung des Objekts auf dem Chip um eine gewisse Anzahl von Pixel.

    (2) Beim Seeing zappellt das Objekt während einer Aufnahme auf dem Chip herum ...

    Hallo Stefan,

    wo siehst Du denn den Unterschied zwischen "verschiebt sich" und "zappelt herum" ?

    CS Jan

  • Hi Jan

    wo siehst Du denn den Unterschied zwischen "verschiebt sich" und "zappelt herum" ?

    Beim dithern erfolgt ein kontrollierter Versatz zwischen zwei Messungen, während den Messungen bewegt sich aber nichts. Beim Seeing hast cu eine unkontrollierte, zufällige Bewegung während der Messung.


    CS, Seraphin

  • Hallo zusammen,


    so, Butter bei die Fische- hier der Link zum originalen Drizzle-Paper: https://arxiv.org/abs/astro-ph/9808087


    Fazit: mit Drizzle, Interlacing und verwandten Methoden lässt sich die durchs Untersampling verlorene Information rekonstruieren. :thumbup:


    Einschränkung: wenn man weiß, an welche Stelle das jeweilige Bild gehört. Vermutung: Das sollte sich aber relativ gut schätzen lassen, wenn man markante Features im Bild hat.


    Also alles ok soweit :)


    Herzliche Grüße, Holger

  • (1) das Nyquist Kriterium ganz allgemein ... Es gilt, um übrigens eine der Ursprungsfragen zu beantworten, immer, ...

    (2) Wird das gewünschte Signal mit einem damit unkorrelierten Rauschen gemischt ...

    (3) wir können den Nachteil der wabernden Atmosphäre bei Langzeitufnahmen durch kurze Aufnahmen zum Vorteil ummünzen ...

    (4) wieso treiben denn die Profis einen solch riesigen Aufwand, ihre Riesenspiegel mit in die Ionosphäre gebrannten "Testpattern" in Echtzeit so zu verbiegen, dass sie den Effekt der Atmosphäre kompensieren können. Jetzt wo wir die Lösung mit Kurzzeitaufnahmen und Statistik ja haben?

    (5) Ich wage als Abschluss mal zu behaupten, dass beide Techniken für uns i.A. zu vergleichbaren Resultaten führen können.

    Hallo Robert:


    (1) ... aus diesem Grund habe ich unser Thema auch umbenannt von "Gilt ..." in "Taugt ... das Nyquist-Kriterium ... ?"

    (2) Wir reden hier nicht über Rauschbeaufschlagung von Signalen.

    (3) ... indem wir die räumlich verzerrten Einzelbilder unserer Videos in kleine Segmente zerlegen und diese dann auf ihre jeweils am häufigsten registrierte Position einer neuen Vorlage platzieren.

    (4) Bei Großteleskopen liegt jeweils eine größere Anzahl benachbarter Bildsegmente untrennbar übereinender, weil im Rahmen der Teleskopöffnung eine Vielzehl von gegeneinander verkippten Wellenfronten ankommt. Dieser Verkippung der Wellenfronten kann nur durch eine gegenläufige Verkippung der Spiegelsegmente des Teleskops entgegengewirkt werden.

    (5) Die beiden von Dir angesprochenen Techniken sind nicht Gegenstand unserer hiesigen Diskussion. Uns geht es um die Frage, mit welcher Brennweite man eine Kamera mit gegebener Pixelweite optimal an eine Teleskopoptik ankoppelt.


    CS Jan

  • Das Nyquist-Kriterium geht von einer punktförmigen Abtastung aus. Das ist hier eindeutig nicht der Fall, weil die Pixel zu einer Konvolution führen, die auch ohne Seeing den Kontrast unterhalb der Grenzfrequenz senkt, und das in diagonaler Richtung anders als in den Achsen. Durch Überabtastung verringert man den Einfluss der Konvolution und kann darum noch etwas Kontrast gewinnen.


    Aus dem Grund taugt das Nyquist-Kriterium alleine bei Kameras nicht. Vielmehr muss man die Sensor-MTF berücksichtigen. Die Diskussion hatten wir hier aber schon mehrmals.


    Michael

  • Hallo Jan,


    lass mich nochmal zusammenfassen, auch im Hinblick auf Deine Ausgangsfrage:


    1. Das Nyqvist- oder besser Abtasttheorem gilt natürlich immer und gibt insbesondere für ein Einzelbild die maximal erreichbare Auflösung an, die ans Pixelraster gekoppelt ist

    2. Bei Verwendung mehrerer Aufnahmen wie in der Planetenvideographie kann man bei gleicher Pixelgröße die Abtastung erhöhen (Überabtastung) und damit die Information bis zur optischen Auflösungsgrenze rekonstruieren (Drizzeln/Stacking)

    3. Die im Verhältnis zur optischen Auflösung bzw. Abtastung übergroßen Pixel führen zu einem Kontrastverlust, weshalb die Nyqvistfrequenz des Sensors nur einen Faktor <<2 unter der optischen Auflösung liegen darf (z.B. Faktor 1.5)

    4. Für die in jedem Fall notwendige Bestimmung der genauen Bildposition aus den Bilddaten sind größere Pixel a priori nicht im Vorteil, da diese zwar je Bildpunkt ein geringeres Rauschen aufweisen, dafür aber die Zahl der Datenpunkte geringer ist, was sich bestenfalls gerade ausgleicht (der Algorithmus könnte ja selbst binnen).

    5. Dies verschiebt sich (bei gleicher Belichtungszeit) nur dann unter Umständen zugunsten größerer Pixel, wenn der Algorithmus zur Bestimmung der Bildposition suboptimal ist, oder die Belichtungszeit so kurz ist, dass das Grundrauschen des Detektors relevant wird (Ausleserauschen etc.) und auch nur dann, wenn zusätzlich der Kontrastverlust durch die größeren Pixel wettgemacht wird.


    So lange Punkt 5 nicht genauer betrachtet ist, gibt es kein stichhaltiges Argument für Aufnahmen mit detektorseitigem Untersampling, auch wenn das in der Videographie prinzipiell möglich ist und in der Praxis auch ordentliche Resultate liefern mag.


    => Für mich ist das Thema damit erst mal erledigt, bis jemand was Substanzielles zu Punkt 5 beiträgt. <=


    Herzliche Grüße, Holger


    P.S.: statt "größere Pixel" könnte hier auch überall "kürzere Brennweite" stehen, das ist äquivalent zu sehen.

    :milky_way: 10" f/5 Newton-Bino :comet: 120mm f/5 Achromaten-Bino :hammer_and_wrench: 8" f/8 Jones-Schiefspiegler-Bino

    5 Mal editiert, zuletzt von Cleo ()

  • Hallo zusammen,


    nachdem dieses Thema ja immer wieder aufkommt, eine Beobachtung aus der Praxis dazu.


    Ich habe im Laufe der Jahre eine kleine Liste angelegt, die die verwendeten Öffnungsverhältnisse und Pixelgrößen von anerkannt guten Amateuren im Bereich der hoch auflösenden Fotografie zusammenstellt.
    Die Öffnungsverhältnisse liegen zwischen 2,5 bis 10,7 x p, wobei p der Pixeldurchmesser in Mikrometer ist.

    Es ergibt sich eine Häufung im Bereich von ca 4,5 bis 7 x p. Öffnungszahlen kleiner als 3,5 x p sind selten.


    Meine persönliche Schlussfolgerung:

    1) Es dürfte in der Praxis einen relativ weiten Bereich an tauglichen Öffnungsverhältnissen geben.

    2) Leichte Überabtastung bewährt sich.


    Viele Grüße,


    Guntram

  • Fazit: mit Drizzle, Interlacing und verwandten Methoden lässt sich die durchs Untersampling verlorene Information rekonstruieren. :thumbup:

    Einschränkung: wenn man weiß, an welche Stelle das jeweilige Bild gehört. Vermutung: Das sollte sich aber relativ gut schätzen lassen, wenn man markante Features im Bild hat.

    Hallo Holger,


    Einschränkung? - Die jeweils richtige Stelle für Bilddetails zu finden, ist ja genau die Aufgabe, die von den Stackprogrammen in hervorragender Weise erfüllt wird ...


    CS Jan

  • ... in hervorragender Weise ...

    ja, aber ceterum censeo: wir suchen hier nach Unterschieden auf einem Niveau, wo man mit qualitativen Aussagen dieser Art nicht weiterkommt. Wie hervorragend ist das in Abhängigkeit von Pixelgröße und Rauschlevel....??? Siehe Punkt 5 oben.


    Viele Grüße, Holger

  • ich will gerne in meinem Archiv nach einem geeigneten Video suchen, um dieses dann mit und ohne Drizzle zu Stacken und die Ergebnisse zu vergleichen ...

    Hallo miteinander,


    das habe ich jetzt mit einem bei recht ordentlichem Seeing mit dem 10" Spiegel bei f/5 und 2,4 µm Pixelraster aufgenommen Monddetail ausgeführt:


    Theophilus_230131.gif


    Für mich ist da kein Unterschied erkennbar. Das kann nach meiner Einschätzung verschiedene Ursachen haben:


    1. Der Drizzle-Algorithmus funktioniert nicht unter den gegebenen Voraussetzungen, oder

    2. das Drizzeln bringt hier keinen Vorteil, weil sich das Zielobjekt aufgrund des Seeings nicht schärfer abbilden lässt, oder

    3. das Bild ist durch das Kameraraster bereits so nachhaltig gestört, dass es sich durch Drizzeln nicht mehr rekonstruieren lässt,

    4. oder wir haben da noch etwas nicht richtig verstanden ...


    Immerhin ist es offenbar nicht einfach, detailliertere Aufnahmen von derselben Gegend mit 10" Öffnung und längerer Brennweitenankopplung zu finden ...


    CS Jan

  • Wie hervorragend ist das in Abhängigkeit von Pixelgröße und Rauschlevel....??? Siehe Punkt 5 oben.

    Hallo Holger,


    unsere letzten Eingaben haben sich überschnitten. Auf Deinen Punkt 5 hatte ich schon angefangen zu antworten bis mir klar wurde, dass ich ihn noch nicht hinreichend verstanden habe:


    "5. Dies verschiebt sich (bei gleicher Belichtungszeit) nur dann unter Umständen zugunsten größerer Pixel, wenn der Algorithmus zur Bestimmung der Bildposition suboptimal ist, ..."


    Könntest Du das bitte nochmal etwas ausführlicher erläutern ?


    Dank & CS Jan

  • Ich habe im Laufe der Jahre eine kleine Liste angelegt, die die verwendeten Öffnungsverhältnisse und Pixelgrößen von anerkannt guten Amateuren im Bereich der hoch auflösenden Fotografie zusammenstellt. - Öffnungszahlen kleiner als 3,5 x p sind selten.

    Hallo Guntram,


    darüber kann ich mich nicht wundern, wenn 3,5 von den Theorie-Experten nach wie vor unter Berufung auf Nyqvist (!) als das Minimum propagiert wird. Der oben gezeigte Theophilus wurde mit 2,1 aufgenommen. Da drängt sich doch - zumindest aus meiner Sicht - die Frage auf, die hier auch unser Thema ist, ob nämlich das Nyqvist-Kriterium auch in der Videoastronomie bei der Kameraankopplung sinngemäß angewendet wird.


    Meine derzeitige Erklärung der Sache ist die, dass das Kameraster in der Videoastronomie nicht die ihm von einigen Experten zugewiesene Bedeutung hat, weil es beim Stacken mit Fokus auf die Bildinhalte durch unkorrelierte Überlagerung weitgehend ausgelöscht wird.


    CS Jan

  • Das Nyquist-Kriterium geht von einer punktförmigen Abtastung aus. Das ist hier eindeutig nicht der Fall, weil die Pixel zu einer Konvolution führen, ...

    Aus dem Grund taugt das Nyquist-Kriterium alleine bei Kameras nicht. Vielmehr muss man die Sensor-MTF berücksichtigen. Die Diskussion hatten wir hier aber schon mehrmals.

    Hallo Michael,


    danke für den wertvollen Hinweis ! Wie sieht das denn mit der Sensor-MTF aus unter Berücksichtigung des Aspekts, den ich in meinem vorausgegangenen Post mit grüner Schrift hervorgehoben habe ? Hatten wir den Einfluss des Seeings und Stackens auf die MTF hier auch schon mehrmals diskutiert ? Hast Du ggf. einen Link ?


    CS Jan

  • Vladimir Sacek hat auf seinen Seiten einiges über CCD-MTF zusammengefasst. Vielleicht hilfreich:

    https://www.telescope-optics.net/mtf3.htm

    Hallo Guntram,


    Dank Dir für den Link ! Der Artikel ist mir bekannt. Dort wird das atmosphärische Seeing aber auch nur erwähnt, weil es bei größeren Teleskopen zu einer größeren FWHM der Punktquellenabbildung führt als das Beugugsscheibchen der Optik, und dementsprechend ein groberes Pixelraster eingesetzt werden kann:

    "... the ever present seeing error puts the actual pixel size limit significantly above the formal Nyquist criterion level, for all but very small apertures."

    Über die Auswirkung des "qualifizierten" Stackens von seeingbehafteten oder geditherten Videoframes habe ich da nichts gefunden.


    CS Jan

  • Hallo miteinander:


    Um zu erklären, warum ich mit dem Kameraraster von 2,4 µm der ASI178 bereits ohne Drizzle bei f/5 das Beugungslimit erreiche, siehe Bildvergleich oben, reicht vermutlich die Tatsache, dass der Informationsschwerpunkt des optischen Signals in der Videoastronomie typischerweise nicht im Bereich der grünen Lichtwellenlängen bei
    500 nm liegt, sondern eher im roten Bereich bei >600 nm. Am Rayleigh-Limit stehen die Beugungsmaxima eines Doppelsterns dann in der Fokalebene einer f/5 Optik weiter als 3,6 µm auseinander. Dadurch ergibt sich bei einer hinreichend hohen Anzahl von Videoframes bereits relativ häufig die Chance zur Registrierung der “Rayleigh-Delle“ mit dem lokalen Beleuchtungsschema “0o0“ auf dem 2,4 µm Kameraraster.


    CS Jan

  • Hallo Jan,


    Schön, wenn Du Doppelsterne getrennt bekommst, aber das hat mit dem Beugungslimit in der üblichen Definition "welche maximale Ortsfrequenz lässt sich auflösen" nix zu tun... Dafür gilt Nyqvist auch bezüglich des finalen Bildrasters, also keine Chance.


    Was prinzipiell geht und was nicht, sollte mittlerweile eigentlich klar sein, dachte ich?


    Sorry, aber ich verliere hier gerade auch etwas die Geduld...


    Herzliche Grüße, Holger

    :milky_way: 10" f/5 Newton-Bino :comet: 120mm f/5 Achromaten-Bino :hammer_and_wrench: 8" f/8 Jones-Schiefspiegler-Bino

    Einmal editiert, zuletzt von Cleo ()

  • Servus Jan,

    Um zu erklären, warum ich mit dem Kameraraster von 2,4 µm der ASI178 bereits ohne Drizzle bei f/5 das Beugungslimit erreiche, siehe Bildvergleich oben...

    Woraus schließt du, dass mit der Aufnahme das Beugungslimit erreicht ist? Der Bildvergleich zeigt einzig, Drizzeln ist kein Wunderwerkzeug, das dir nicht vorhandene Bildanteile einfach so herbeizaubert. Mach doch mal Bildvergleiche, bei denen du nach deiner Methode Aufnahmen erstellst und annähernd zeitnah Aufnahmen, bei denen du mit einer Barlow den gängigen Regeln mind. auf Faktor 3,6 oder mehr bis hin zu Faktor 5 gehst. Das würde dir zeigen, wo das Limit der erreichbaren Auflösung liegt.


    Gruß Stefan

  • Hallo Stefan,


    sorry, aber auch für Dich der gleiche Kommentar:

    Was prinzipiell geht und was nicht, sollte mittlerweile eigentlich klar sein, dachte ich?

    Wie oben geschrieben lassen sich mit Stacking und Drizzeln die Bildanteile prinzipiell rekonstruieren, Pauschalkritik daran ist daher nicht angebracht.


    In Jans konkreten Fall von f/5 und 2,4 um Pixelgröße ist der zusätzliche Kontrastverlust (Punkt 3. oben) beim Beugungslimit bei den gnädigeren 600 nm Wellenlänge schon über 75%, bei 500 nm über 95%. Ich bezweifle sehr, dass das eine gute Wahl ist unabhängig davon, wie gut das Stacking funktioniert.


    Herzliche Grüße, Holger

    :milky_way: 10" f/5 Newton-Bino :comet: 120mm f/5 Achromaten-Bino :hammer_and_wrench: 8" f/8 Jones-Schiefspiegler-Bino

  • In Jans konkreten Fall von f/5 und 2,4 um Pixelgröße ist der zusätzliche Kontrastverlust (Punkt 3. oben) beim Beugungslimit bei den gnädigeren 600 nm Wellenlänge schon über 75%, bei 500 nm über 95%.

    ... dann ist eigentlich erstaunlich, dass da Bilder herauskommen, die mit langbrennweitigen Aufnahmen vergleichbar sind. Ich versuche hierfür eine plausible Erklärung zu finden, auch wenn das bei Dir und anderen Lesern möglicherweise Ungeduld auslöst ... 8)


    CS Jan

  • Hallo jan,


    weil's mich selbst auch interessiert hat :), hier noch die MTF-Kurven bei f/5 für die 2.4 µm Pixel in horizontaler/vertikaler Richtung unter der Annahme perfekten Stackings, aber ohne Obstruktion - blau ist ideal, lila für 2.4 µm Pixel bei 500 nm, gelb entsprechend für 600 nm:



    Effektiv kosten die groben Pixel ca. 15-20% Öffnung, würde ich sagen. Kurven mit Obstruktion siehe telescope-optics.net, Abb. 102, für Deinen Fall gilt in etwa p=1. Kann man sich jetzt überlegen, ob man von vornherein so viel verschenken möchte oder nicht. Ab p=0.5 (Nyqvist) ist man einigermaßen auf der sicheren Seite.


    Herzliche Grüße, Holger


    P.S.: Kurven erzeugt auf wolframalpha.com mit Eingabe von "plot(2/pi(arccos(x)-x Sqrt(1- x^2)), 2/pi(arccos(x)-x Sqrt(1- x^2))*sinc(pi x * 480/500), 2/pi(arccos(x)-x Sqrt(1- x^2))*sinc(pi x * 480/600) ,{x,0,1})"


    P.P.S: Unter der vereinfachenden Annahme, dass sie in jedem Azimut gelten, entsprächen die gezeigten Kurven einem Strehl von 68.5% (500 nm) bzw. 76.9% (600 nm).

    :milky_way: 10" f/5 Newton-Bino :comet: 120mm f/5 Achromaten-Bino :hammer_and_wrench: 8" f/8 Jones-Schiefspiegler-Bino

    2 Mal editiert, zuletzt von Cleo ()

  • weil's mich selbst auch interessiert hat :), hier noch die MTF-Kurven bei f/5 für die 2.4 µm Pixel ...

    Hallo Holger,


    ... dann bleibt also auch für Dich noch eine kleine Zusatzerkenntnis. Darüber freue ich mich und danke Dir für die Mühe mit der Ermittlung der speziell auf f/5 und 2,4 µm zugeschnittenen MTF-Diagramme. Auch für mich bleibt nach dieser Diskussion eine neue Erkenntnis, dass nämlich die atmosphärische Luftunruhe und die daraus resultierenden dynamischen Verschiebungen von Bildinhalten auf dem Kamerachip in Verbindung mit den Alignment- und Stackprozessen der Videoastronomie ausweislich der vorliegenden Bildergebnisse offenbar zu einer gewissen "Entschärfung" des im Grunde für starre Übertragungsverhältnisse gültigen Nyqvist-Kriteriums führen. Diesen speziell aus der Videoastronomie resultierenden Aspekt hatten wir in den zurückliegenden Diskussionen über die Brennweitenankopplung von Rasterkameras offenbar noch nicht berücksichtigt.


    Dank & CS Jan

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!