Taugt in der Videoastronomie das Nyquist-Kriterium zur Brennweitenanpassung des Kamerarasters?

  • Hallo Bernd,


    sprechen wir jetzt nicht mehr über Auflösungsvermögen?

    Hallo Jan,


    doch, es geht nur um die Auflösung. Dazu muss man aber geeignete Objekte haben. Ich habe bei meinen ersten Anfängen auch immer danach gesucht.

    Je besser die Teleskope (Auflösung) wurden, je mehr war ich auf der Suche. Letztendlich wurde ich aber fündig:

    Die Kraterkette Catena Davy ist für Auflösungsversuche eine harte Nuss, das habe viele Versuche immer wieder bestätigt. Besonders gut sind Versuche im Frühjahr, dann ist der Terminator in der Nähe der Krater UND der Mond steht sehr hoch am Himmel. Gibt natürlich noch sehr viel mehr Objekte, da hat wohl jeder seine Vorlieben. Aber für mich ist das alles trotzdem nur Kindergeburtstag :). Optiken habe ich schon vor über 54 Jahren bei meiner Ausbildung in der Optik-Kontrolle prüfen müssen. Im Laufe der Jahre habe ich jetzt aber meine eigenes Equipment zusammen.

    Ich glaube, ich mache mal einen eigenen Thread über optische Tests auf.


    CS Bernd

  • Oh lecker Popcorn und ich dachte die Maus hätte längst den Faden (Thread) durchgebissen.


    Mal Spaß beiseite, dein Tests Jan taugen leider nicht viel, weil der direkte Vergleich fehlt. Wenn du jetzt ein nach unserer Meinung korrekt gesampletes (besser gesagt kritisch gesampletes), mit bspw 3*Pixelgröße-Sampling mit deinem postulierten 2*Pixelgröße-Sampling bei vergleichbaren Bedingungen gegenüberstellst, dann würde ich nochmal anfangen darüber nachzudenken. Fakt bleibt, dein 2*Pixelgröße-Sampling funktioniert leider nur waagerecht bzw. senkrecht, weil in der Diagonale die Pixel nämlich 2*Sqrt(2), also etwa 2,8 mal soweit auseinander liegen. Also sind wir wieder bei den althergebrachten etwa 3*Pixelgröße, wenn man auch die Diagonale bedenkt. Das ist auch das, was dir 18 Leute bereits versucht haben zu erklären, dass das Nyqvist-Kriterium eigentlich nur für eine 1d-Abtastung, bspw einer Spannung taugt.

    Aber die tausenden Hobbyastronomen, welche sich mit den Barlowverkäufern zusammengetan haben, nur um den Anfängern eine Brennweitenverlängerung aufzuschwatzen, sind sicherlich viel zu leicht zu durchschauen.


    Vg Tino

  • Mal Spaß beiseite, dein Tests Jan taugen leider nicht viel, weil der direkte Vergleich fehlt.

    Hallo Tino,


    Du kannst hier gewiss ganz viele Vergleichsbeispiele zeigen bzw. verlinken, müssen ja nicht "tausende" sein, die eine deutlich bessere Detailauflösung von derselben Mondregion zeigen. Bin gespannt ...


    CS Jan

  • Hallo Jan,


    nochmal, es interessiert ziemlich wenig, ob deine Aufnahme gut oder schlecht ist, oder ob ich eine bessere mit anderen Sampling habe. Das hängt, wie du ja weißt von recht vielen Randbedingungen ab. Außerdem sind die Unterschiede sehr wahrscheinlich nur im direkten Vergleich zu erkennen. Ich mache dir ein Angebot, ich simuliere im Lauf der Woche mal eine Bilderserie mit ImageJ, welche zwei hochaufgelöste ideale Airy-Scheibchen in Form eines Doppelsterns an der Auflösungsgrenze (kannst dir was wünschen Rayleigh, Sparrow), einmal waagerecht und einmal diagonal und dann testen wir mal was das Sampling macht. Ich könnte auch übrigens mit PHOSIM mal einen Simulationsrun starten, da könnten wir auch gerne das Seeing mit dazunehmen. Die Berechnung dauert dann aber 2min pro Bild, sodass ich mir die Lebenszeit gerne für wichtige Sachen aufsparen würde. Ich kann aber gerne mal das Einstein-Kreuz an der Auflösungs- und Helligkeitsgrenze durchrechnen lassen, hatte ich eh mal vor.

    Die Diskussion hatten wir übrigens schonmal so oder so ähnlich: RE: Erfahrungsbericht: Kamera- und Bildauflösung in der Videoastronomie


    Vg Tino

  • Ganz salopp,

    diese NK-Kriterium gilt für bestimmte Sachverhalte und stellt einen Ausschnitt aus einem viel allgemeineren Problem dar.


    Ich mach mal ein Gedankenspiel: Ein Teleskop mit genau einem Pixel (bzw. Pixelzeile), fest aufgestellt, das den Himmel per Erddrehung abfährt und die zeitliche Veränderung des Signals aufzeichnet. Aus diesen Daten wird anschließend ein Bild gerechnet. Die gibt es real als Radioteleskop oder Detektorzeilen.

    Zielfotokameras im Sport arbeiten ebenfalls nach so einem Verfahren, indem sie die zeitliche Veränderung (den Zieleinlauf) in eine räumliche transponieren.


    Wo ist hier das NK-Kriterium?


    Kurz, man kann durch geeigneten Aufbau und und entsprechender Vorgehensweise sehr wohl Auflösung in der Bildebene durch Auflösung in der Zeitebene ersetzen. Genau in dieses Feld spielen Stackingtechniken hinein.

  • Wo ist hier das NK-Kriterium?

    Im Rahmen unserer Diskussion hier geht es um die Anpassung des Kamerarasters an die gemäß Rayleigh-Kriterium höchste nutzbare Ortsfrequenz in der Bildebene einer Optik mit dem Öffnungsverhältnis f/D bei einer gegebenen Lichtwellenlänge λ. Für meinen 10" f/5 Spiegel und rotes Licht der Wellenlänge 630 nm ergibt sich eine Ortsfrequenz mit der Wellenlänge 3 µm. Die eindeutige Reproduktion dieser Wellenlänge erfordert nach Nyquist ein Kameraraster mit höchstens 1,5 µm Pixelabstand. Ich zeige hier anhand von praktischen Beispielen, dass es in der Videoastronomie auch noch mit einem 2,4 µm Raster geht, und erkläre das mit der Auslöschung des Kamerarasters bei dem auf reale Bildinhalte zentrierten Stackprozess. Maßgebend für die Reproduktion der Bildinhalte kann dann nach meiner Erkenntnis nicht mehr das auf das Kameraraster bezogene Nyquist-Kriterium sein.


    CS Jan

  • Ich zeige hier anhand von praktischen Beispielen, dass es in der Videoastronomie auch noch mit einem 2,4 µm Raster geht, und erkläre das mit der Auslöschung des Kamerarasters bei dem auf reale Bildinhalte zentrierten Stackprozess. Maßgebend für die Reproduktion der Bildinhalte kann dann nach meiner Erkenntnis nicht mehr das auf das Kameraraster bezogene Nyquist-Kriterium sein.

    Ich habe Dir vorgeschlagen, einen Test mit bekannten Objekten (Kratern) mit bekannter Größe zu machen.

    Ich brauche so etwas nicht- ich gehe in meinen Optik-Testraum und kann unter genau definierten Bedingungen Testen.


    Mein Testbild stammt von einem nahezu fehlerfreien LZOS Triplet, 152 / 1200mm (linkes Bild)

    Gleicher Aufbau mit einer Baader FCC, eingestellt auf einen Faktor von 3,34 (rechtes Bild)

    Kamera war eine ASI290MC mit 2,9µ Pixeln.

    Auflösungsgrenze bei dem LZOS Triplet 0,815" , was auf der Testplatte Gruppe 4 Element 2 entspricht.



    Wie man sieht, ist die Auflösung noch etwas besser, das liegt aber daran, dass die Auflösungsgrenze nicht abrupt eintritt.


    CS Bernd

  • (1) Ich habe Dir vorgeschlagen, einen Test mit bekannten Objekten (Kratern) mit bekannter Größe zu machen.

    (2) Mein Testbild stammt von einem nahezu fehlerfreien LZOS Triplet, 152 / 1200mm (linkes Bild)

    Hallo Bernd:


    (1) Du hast noch nicht gesagt, was an den von mir getesteten "Objekten (Kratern)" nicht in Ordnung ist. Größen und Abstände ergeben sich ja unmittelbar aus dem 0,1" Pixelraster, vgl. obiges Diagramm.

    (2) Wie war denn das Seeing bei diesem Test, und wieviele Einzelbilder hast Du gestackt ?


    CS Jan

  • Du hast noch nicht gesagt, was an den von mir getesteten "Objekten (Kratern)" nicht in Ordnung ist

    Doch, in Post #74 habe ich Dir eine 3D-Darstellung von Deinen "Kratern" gezeigt. Das sind keine Krater, das sind Schatten auf einer Hügelkette, die sich am Kraterrand von Cyrillus bilden.

    Wie war denn das Seeing bei diesem Test, und wieviele Einzelbilder hast Du gestackt ?

    In meinem Testraum gibt es kein "Seeing".

    Temperatur wird besser als 0,1°C in 24 Stunden gehalten.

    Bevor ich die Messungen starte ist das Testobjekt mindestens 3 Tage in dem Raum.

    Die Messungen selber werden komplett Remote von außerhalb gesteuert.

    Fokussiert wird mit einem Eigenbau- Fokussierer ohne Backlash und wenn auf drei aufeinanderfolgenden

    Messungen die Differenz größer als 3 Stepps (1Step = 0,0037mm) ist, wiederhole ich die Messung (kommt aber so gut wie nie vor).

    Normalerweise nehme ich meine ASI183MM für die Messungen, ab und zu muss aber auch mal die ASi290MC ran.


    Nachtrag zu den Aufnahmen:

    Histogram immer 60%

    Exposure=30,0000ms

    FrameCount=2000

    und das ist immer bei allen Aufnahmen gleich.

    Meine Testaufnahmen mache ich immer ohne AS (ungeeignet).

    Die hier gezeigten sind mit AS gestakt und in Fitswork geschärft.


    Wie sagte schon Wilhelm Busch: Mancher gibt sich sehr viel Müh mit dem lieben Federvieh :)


    CS Bernd

  • (1) Das sind keine Krater, das sind Schatten auf einer Hügelkette, ...

    (2) In meinem Testraum gibt es kein "Seeing".

    Hallo Bernd:


    (1) Für Auflösungstests eignen sich auch klar hervortretende Schatten als "Objekte".

    (2) In unserer Diskussion hier geht es ganz wesentlich um den Einfluss des Seeings.


    CS Jan

  • (1) Für Auflösungstests eignen sich auch klar hervortretende Schatten als "Objekte".

    Wir drehen uns im Kreis...

    Ich habe den Zeitpunkt Deiner Aufnahme in der 3D-Ansicht vom Mond simuliert und mir die Schatten angesehen.

    Du kannst das gerne mal ausmessen und dann auf die Entfernung umrechnen. Waaarum nimmst Du nicht die Kraterkette Catena Davy?

    In unserer Diskussion hier geht es ganz wesentlich um den Einfluss des Seeings.

    Ja klar... hatten wir schon... je schlechter das Seeing desto besser die Auflösung :S


    Sogar das kann ich simulieren (und habe ich gemacht). Ich muss nur einmal durch meinen Messraum gehen, dann habe ich 3 Stunden lang das schönste Seeing.


    Ich bin aber jetzt raus hier


    CS Bernd

  • Auslöschung des Kamerarasters bei dem auf reale Bildinhalte zentrierten Stackprozess. Maßgebend für die Reproduktion der Bildinhalte kann dann nach meiner Erkenntnis nicht mehr das auf das Kameraraster bezogene Nyquist-Kriterium sein.

    Habe gerade im Planetenforum auf eine einfache Möglichleit zur Demonstration der Auslöschung des Kamerarasters mit Hilfe eines Teesiebs hingewiesen:


    DSCF8521_Teesieb.jpg


    Beim Bewegen des Siebs wird die Schrift deutlich lesbar.


    CS Jan

  • Auslöschung des Kamerarasters

    Zu dieser Frage gab es auch im amerikanischen Forum Verständnishürden. Um die Sache besser zu erklären, habe ich dort eine Serie von 6 aufeinenderfolgenden Einzelbildern aus meinem letzten Marsvideo in animierter Darstellung gepostet:


    Mars_230208_331-336_mag6x.gif


    Man sieht hier das von der 10" f/5 Optik erzeugte Bild des Planeten, wie es auf dem 2,4 µm Raster des Kamerachips umher tanzt. Da nun die Stacking-Software die vom Objekt erzeugten Bilddetails vor dem Stacken ohne Rücksicht auf das Kameraraster so zurechtrückt, dass diese möglichst genau aufeinander passen, kann man sich leicht vorstellen, dass das Kameraraster als solches nicht passgenau mit sich selbst aufsummiert und auf diese Weise weitgehend "ausgewischt" wird.


    CS Jan

  • Hi Zusammen

    Zu dieser Frage gab es auch im amerikanischen Forum Verständnishürden. Um die Sache besser zu erklären, habe ich dort eine Serie von 6 aufeinenderfolgenden Einzelbildern aus meinem letzten Marsvideo in animierter Darstellung gepostet:

    Es wäre doch schön wenn alle die verlinkten Aufnahmen sehen könnten. Bei mir werden alle veralteten http Inhalte blockiert. Wenn ihr eure Seiten schon nicht auf ein protokoll der 2000er Jahre bringen wollt, nutzt doch wenigstens die Galerie hier.


    CS, Seraphin

  • Hallo Jan,


    ich denke das ist mehr oder weniger klar was du meinst. Das Problem ist hierbei aber schon, dass du die Bilder subpixelgenau überlagern musst, ansonst würde sich das Raster nicht wirklich auflösen. Bezüglich der subpixelgenauen Überlagerung gibt es aber in der Realität einige Hürden, welche bspw. das HST mit seinem achsotollen Drizzling gar nicht hat, da wird die Blickrichtung nämlich sehr exakt durch das Gerät selbst bestimmt (bei jedem Dithervorgang) und zu jedem Fits in den Header geschrieben. Dies wird bei dem Standarddrizzle-Software auch aus dem Header entnommen und nicht in jedem Bild einzeln bestimmt. Wenn ein Stern nämlich nur grob einen Pixel einnimmt, möchte ich gerne sehen, wie du einen sinnvollen subpixelgenauen Schwerpunkt bestimmst. Diese Subpixelgenauigkeit ist aber essentiell, um die verlorengegangene Auflösung durch das Undersampling zu rekonstruieren.

    Bei deinem Planetenvideo kann man eigentlich nur den Schwerpunkt des Planeten einigermaßen genau bestimmen, was dann auch eine Option bei Autostakkert ist. Mit dem Alignment der einzelnen Sub-Patches wird das dann beliebig schwierig, hier hat die Mustererkennung denke ich keine Chance, überhaupt subpixelgenau was hinzuschieben.

    Wenn man die Bilder natürlich irgendwie großrechnet und dann erst überlagert, wird wohl etwas rundgelutschtes rauskommen, aber die fehlende Information und Auflösung ist dahin, so oder so.

    Mein Statement ist nochmal:

    1. Oversamplen, wenn sehr viel Licht da ist, viel kürzer als 5ms müssen die Frames nicht sein, da das Seeing sich eh nicht schneller ändert. Bspw. Mond, Jupiter, Sonne. Außer man möchte möglichst viel Feld aufnehmen. Oversampling ist eigentlich für den Erhalt der Bildinformation immer die beste Wahl, da man bei kritischen Sampling, bzw Undersampling recht schnell Probleme mit Moiree-Effekten bekommen kann

    2. Kritisch Samplen, wenn das Licht bereits knapp ist. 3 x Pixelgröße um auch die Diagonalenrichtung mitzunehmen, 2 x Pixelgröße wenn man auf die optimale Auflösung verzichten kann.

    3. Undersamplen, wenn eh alles zu spät ist.


    Man kann ja auch beispielsweise mit Oversampling aufnehmen und dann die Pixel per Software binnen, wenns aufgrund des geringen SNR nötig erscheint. Dann verschenkt man zwar ein bisschen Empfindlichkeit, bezüglich des echten Binnings, aber der Unterschied ist bei weitem nicht so gravierend wie hier dargestellt.


    Vg Tino

  • Zu dieser Frage gab es auch im amerikanischen Forum Verständnishürden. Um die Sache besser zu erklären, habe ich dort eine Serie von 6 aufeinenderfolgenden Einzelbildern aus meinem letzten Marsvideo in animierter Darstellung gepostet:

    Hi Jan,


    Super Darstellung! man sieht wie Details des Planeten über die Pixelgrenzen wandern. Dabei kann man gut verstehen, dass man mit sub-pixel Zentrierung im Stacking Programm diese sub-pixel Auflösung in reale Pixel übertragen kann. Sowas sollten die üblichen Programme wie Autostacker3 ja doch eigentlich automatisch machen. Was passiert, wenn das Programm dann am Ende den Stack wieder in original-pixel Größe ausgibt? Z.B. wenn ich ein 600x600 AVI in Autostacker3 einlese, kommt hinterher ein 600x600 TIFF Stack heraus. Ist das dann OK?


    Clear Skies,

    Gert

  • (1) Sowas sollten die üblichen Programme wie Autostacker3 ja doch eigentlich automatisch machen.

    (2) Was passiert, wenn das Programm dann am Ende den Stack wieder in original-pixel Größe ausgibt? ... Ist das dann OK?

    Hallo Gert:


    (1) Vermutlich tun sie das auch.


    (2) Gute Frage ! Offenbar kann das gestackte Bild durch interpolierende Rückvergrößerung des ausgegebenen Bilds weitestgehend verlustfrei reproduziert werden. In diese Richtung weist jedenfalls meine Erfahrung in vielen Fällen, dass eine Nachvergrößerung des ungedrizzelten Summenbilds aus AS!3 um den Faktor 1,5 mittels des interpolierenden dSinc-Algorithmus in Fitswork am Ende der Kontrastbearbeitung nicht schlechter herauskommt als das 1,5x gedrizzelte Summenbild.


    CS Jan

  • Hi Jan,


    ... nicht schlechter herauskommt als das 1,5x gedrizzelte Summenbild.


    Also ist das Statement am Ende vom Thread: Es ist OK bei niedrigen F-Zahlen aufzunehmen, wenn man dann in AS!3 1.5 drizzle macht? Das würde ja z.B. bei Saturn, der ja mit der Belichtung grenzwertig ist, was helfen.


    Clear Skies,

    Gert

  • Es ist OK bei niedrigen F-Zahlen aufzunehmen, wenn man dann in AS!3 1.5 drizzle macht?

    Hallo Gert,


    dem würde ich aufgrund meiner bisherigen Praxis und Erkenntnis zustimmen, wobei das 1,5x Drizzeln in AS!3 offenbar vielfach keine besseren Endergebnisse bringt als eine interpolierende Vergrößerung.


    Dank & CS Jan


    P.S. - Bei ALPO kann man gerade einen Vergleich 10" f/5 mit 2,4 µm gegen 20" f/15 mit 2,9 µm sehen.

  • Hallo auch von mir,


    Tino. Das geht. Beispiel:

    Ein 1 pixel breites Airydisk fällt in die Mitte vom Pixel. 100% werden in dem Pixel detektiert. Der Schwerpunkt ist in der Mitte vom Pixel.

    Ein 1 pixel breites Airydisk fällt zu 75% in ein Pixel und zu 25% ins nächste. Der SP ist 25% zum Rand des Pixels geschoben.

    Ein 1 pixel breites Airydisk fällt zu 50% in ein Pixel und zu 50% ins nächste. DerSP ist genau auf der Grenze.

    Usw.


    Clear Skies,

    Gert

  • Ein 1 pixel breites Airydisk ...

    ... hätte bei einer f/5 Optik eine Breite von ca. 5 µm, bei f/10 wären es rund 10 µm, usw.


    Hallo Gert,


    das liegt weit außerhalb der hier diskutierten praktischen Anwendungen, wo es um Pixelbreiten des Kamerachips geht, die mindestens um den Faktor 2 (mein Vorschlag) oder vorzugsweise um den Faktor 5 (nach dem Cloudnights-Tutorium) kleiner sind als das Airydisk.


    CS Jan

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!