Beiträge von Gert im Thema „Taugt in der Videoastronomie das Nyquist-Kriterium zur Brennweitenanpassung des Kamerarasters?“

    Hallo auch von mir,


    Tino. Das geht. Beispiel:

    Ein 1 pixel breites Airydisk fällt in die Mitte vom Pixel. 100% werden in dem Pixel detektiert. Der Schwerpunkt ist in der Mitte vom Pixel.

    Ein 1 pixel breites Airydisk fällt zu 75% in ein Pixel und zu 25% ins nächste. Der SP ist 25% zum Rand des Pixels geschoben.

    Ein 1 pixel breites Airydisk fällt zu 50% in ein Pixel und zu 50% ins nächste. DerSP ist genau auf der Grenze.

    Usw.


    Clear Skies,

    Gert

    Zu dieser Frage gab es auch im amerikanischen Forum Verständnishürden. Um die Sache besser zu erklären, habe ich dort eine Serie von 6 aufeinenderfolgenden Einzelbildern aus meinem letzten Marsvideo in animierter Darstellung gepostet:

    Hi Jan,


    Super Darstellung! man sieht wie Details des Planeten über die Pixelgrenzen wandern. Dabei kann man gut verstehen, dass man mit sub-pixel Zentrierung im Stacking Programm diese sub-pixel Auflösung in reale Pixel übertragen kann. Sowas sollten die üblichen Programme wie Autostacker3 ja doch eigentlich automatisch machen. Was passiert, wenn das Programm dann am Ende den Stack wieder in original-pixel Größe ausgibt? Z.B. wenn ich ein 600x600 AVI in Autostacker3 einlese, kommt hinterher ein 600x600 TIFF Stack heraus. Ist das dann OK?


    Clear Skies,

    Gert

    Hallo Beisammen,


    Ich hab jetzt nicht alles gelesen, aber finde ganz wichtig, dass bei z.B 1000 Frames vom Jupiter, der Planet ja in sich wandert und auch herum springt. Wenn dabei der Rand des Planeten über eine Pixelgrenze streicht, dann kann man hinterher durch Vergleich der Pixelwerte vs Zeit die Lage der Planetekante mit über Pixel Genauigkeit berechnen. So ein Programm wie AS!3 macht das evtl. sogar intern automatisch, oder wenn man da das Drizzle anschaltet. In jedem z.b. 2x gedrizzelten Frame könnte man dann Jupiters Rand auf 2x Genauigkeit festlegen.

    Bei den Astrometrie Programmen wird ja ein Schwerpunkt der PSF auf 1/100 Pixel und besser gemessen. Z.B. Astrometrica.


    Mir fällt der Vergleich CMOS Hardware / Software Binning ein. Da macht es (in Grenzen) keinen Unterschied, ob man in der Camera oder Software Binning macht.


    Im Kontext des Themas hier ist es wahrscheinlich gleich, ob wir in der Camera kleinere Pixel nehmen oder in AS!3 drizzlen. (Alles in Grenzen)


    Clear Skies

    Gert