Hallo Jan,
ich frag mich gerade wirklich, wie viel Du von der Diskussion hier im Thread auf- und mitgenommen hast... es scheint wirklich aussichtslos.
Viel Spaß noch mit den großen Pixeln,
Holger
Hallo Jan,
ich frag mich gerade wirklich, wie viel Du von der Diskussion hier im Thread auf- und mitgenommen hast... es scheint wirklich aussichtslos.
Viel Spaß noch mit den großen Pixeln,
Holger
Hallo Jan,
Das steht ja auch nicht im Widerspruch zu meiner Aussage... trotzdem bleibt's in der Kategorie "kann man machen, wenn man Spaß dran hat, muss man aber nicht..."
Wenn Du ab und zu einen motivieren kannst, das auch mal auszuprobieren, kannst Du schon zufrieden sein.
Herzliche Grüße, Holger
Hallo Jan,
meine Meinung: für eine klare Empfehlung reicht's halt einfach nicht, deshalb gibt's keinen Blumentopf- "probiert's mal aus, es ist zwar ein Ansatz, der prinzipbedingt von vornherein etwas weniger Kontrast liefert, aber denn Unterschied sieht man eh nur bei perfekten Bedingungen, und wann hat man die schon mal" wäre so das Maximum aus meiner Sicht - dazu der Vorteil, auf die zusätzliche Barlow verzichten zu können, und der grundsätzliche Nachteil von allem, was irgendwie anders und ungewohnt ist. Schau halt, dass Du Dich da nicht verrennst.
Herzliche Grüße, Holger
Hallo Stefan und Jan,
ich fänd's gut, wenn ihr bei euren Beiträgen die bereits gewonnenen Erkenntnisse berücksichtigt, versucht zur verstehen, was der andere gemeint hat, und etwas weniger offensiv / missverständlich formuliert. Das würde der Diskussion guttun... ich hatte den Eindruck, dass jetzt einiges verstanden ist und man sich über manches nicht mehr kloppen muss. Irgendjemand schreibt hier immer was von "gallisches Dorf..."
Gebt mir doch dann Bescheid, wenn's in der Sache was Neues gibt.
Danke und viele Grüße, Holger
Hallo jan,
weil's mich selbst auch interessiert hat :), hier noch die MTF-Kurven bei f/5 für die 2.4 µm Pixel in horizontaler/vertikaler Richtung unter der Annahme perfekten Stackings, aber ohne Obstruktion - blau ist ideal, lila für 2.4 µm Pixel bei 500 nm, gelb entsprechend für 600 nm:
Effektiv kosten die groben Pixel ca. 15-20% Öffnung, würde ich sagen. Kurven mit Obstruktion siehe telescope-optics.net, Abb. 102, für Deinen Fall gilt in etwa p=1. Kann man sich jetzt überlegen, ob man von vornherein so viel verschenken möchte oder nicht. Ab p=0.5 (Nyqvist) ist man einigermaßen auf der sicheren Seite.
Herzliche Grüße, Holger
P.S.: Kurven erzeugt auf wolframalpha.com mit Eingabe von "plot(2/pi(arccos(x)-x Sqrt(1- x^2)), 2/pi(arccos(x)-x Sqrt(1- x^2))*sinc(pi x * 480/500), 2/pi(arccos(x)-x Sqrt(1- x^2))*sinc(pi x * 480/600) ,{x,0,1})"
P.P.S: Unter der vereinfachenden Annahme, dass sie in jedem Azimut gelten, entsprächen die gezeigten Kurven einem Strehl von 68.5% (500 nm) bzw. 76.9% (600 nm).
Hallo Stefan,
sorry, aber auch für Dich der gleiche Kommentar:
Was prinzipiell geht und was nicht, sollte mittlerweile eigentlich klar sein, dachte ich?
Wie oben geschrieben lassen sich mit Stacking und Drizzeln die Bildanteile prinzipiell rekonstruieren, Pauschalkritik daran ist daher nicht angebracht.
In Jans konkreten Fall von f/5 und 2,4 um Pixelgröße ist der zusätzliche Kontrastverlust (Punkt 3. oben) beim Beugungslimit bei den gnädigeren 600 nm Wellenlänge schon über 75%, bei 500 nm über 95%. Ich bezweifle sehr, dass das eine gute Wahl ist unabhängig davon, wie gut das Stacking funktioniert.
Herzliche Grüße, Holger
Hallo Jan,
Schön, wenn Du Doppelsterne getrennt bekommst, aber das hat mit dem Beugungslimit in der üblichen Definition "welche maximale Ortsfrequenz lässt sich auflösen" nix zu tun... Dafür gilt Nyqvist auch bezüglich des finalen Bildrasters, also keine Chance.
Was prinzipiell geht und was nicht, sollte mittlerweile eigentlich klar sein, dachte ich?
Sorry, aber ich verliere hier gerade auch etwas die Geduld...
Herzliche Grüße, Holger
... in hervorragender Weise ...
ja, aber ceterum censeo: wir suchen hier nach Unterschieden auf einem Niveau, wo man mit qualitativen Aussagen dieser Art nicht weiterkommt. Wie hervorragend ist das in Abhängigkeit von Pixelgröße und Rauschlevel....??? Siehe Punkt 5 oben.
Viele Grüße, Holger
Hallo Jan,
lass mich nochmal zusammenfassen, auch im Hinblick auf Deine Ausgangsfrage:
1. Das Nyqvist- oder besser Abtasttheorem gilt natürlich immer und gibt insbesondere für ein Einzelbild die maximal erreichbare Auflösung an, die ans Pixelraster gekoppelt ist
2. Bei Verwendung mehrerer Aufnahmen wie in der Planetenvideographie kann man bei gleicher Pixelgröße die Abtastung erhöhen (Überabtastung) und damit die Information bis zur optischen Auflösungsgrenze rekonstruieren (Drizzeln/Stacking)
3. Die im Verhältnis zur optischen Auflösung bzw. Abtastung übergroßen Pixel führen zu einem Kontrastverlust, weshalb die Nyqvistfrequenz des Sensors nur einen Faktor <<2 unter der optischen Auflösung liegen darf (z.B. Faktor 1.5)
4. Für die in jedem Fall notwendige Bestimmung der genauen Bildposition aus den Bilddaten sind größere Pixel a priori nicht im Vorteil, da diese zwar je Bildpunkt ein geringeres Rauschen aufweisen, dafür aber die Zahl der Datenpunkte geringer ist, was sich bestenfalls gerade ausgleicht (der Algorithmus könnte ja selbst binnen).
5. Dies verschiebt sich (bei gleicher Belichtungszeit) nur dann unter Umständen zugunsten größerer Pixel, wenn der Algorithmus zur Bestimmung der Bildposition suboptimal ist, oder die Belichtungszeit so kurz ist, dass das Grundrauschen des Detektors relevant wird (Ausleserauschen etc.) und auch nur dann, wenn zusätzlich der Kontrastverlust durch die größeren Pixel wettgemacht wird.
So lange Punkt 5 nicht genauer betrachtet ist, gibt es kein stichhaltiges Argument für Aufnahmen mit detektorseitigem Untersampling, auch wenn das in der Videographie prinzipiell möglich ist und in der Praxis auch ordentliche Resultate liefern mag.
=> Für mich ist das Thema damit erst mal erledigt, bis jemand was Substanzielles zu Punkt 5 beiträgt. <=
Herzliche Grüße, Holger
P.S.: statt "größere Pixel" könnte hier auch überall "kürzere Brennweite" stehen, das ist äquivalent zu sehen.
Hallo zusammen,
so, Butter bei die Fische- hier der Link zum originalen Drizzle-Paper: https://arxiv.org/abs/astro-ph/9808087
Fazit: mit Drizzle, Interlacing und verwandten Methoden lässt sich die durchs Untersampling verlorene Information rekonstruieren.
Einschränkung: wenn man weiß, an welche Stelle das jeweilige Bild gehört. Vermutung: Das sollte sich aber relativ gut schätzen lassen, wenn man markante Features im Bild hat.
Also alles ok soweit
Herzliche Grüße, Holger
Hallo Robert,
bin nicht ganz einverstanden, die reine Statistik bringt noch nix, da kann man auch die Auflösung einfach höher rechnen. Das hat Jan mit seinen Hoch- und Runterskalierversuchen ja auch gezeigt. Allerdings muss man mit der Statistik umgehen im Sinne von "ich schiebe das umherspringende Signal vor dem Aufaddieren zurecht", sonst mittelt es sich dabei weg.
Entscheidend ist schon der Punkt, dass man das Aliasing rückgängig machen kann (!), wenn man Subpixelversätze verwendet und diese kennt oder zuverlässig schätzen kann. Hier dürfte auch der Unterschied zwischen Hubble und dem einfachen Drizzeln/Stacken liegen.
Natürlich nur innerhalb der Grenzen, in denen man noch vernünftig Signal bekommt - bei der halben Nyqvist-Frequenz ist das Signal null, weil es sich über ein Pixel exakt wegmittelt unabhängig von dessen Lage, da würde ich rechtzeitig vorher eine harte Grenze ziehen wollen.
Herzliche Grüße
Holger
Hallo Jan, Ralf,
Ralf, danke nochmal für das Stichwort Nyqvist - das war der entscheidende Punkt!
Jan, wenn Du untersampelst bezüglich Nyqvist, dann gibt es zu den höchsten im Bild auftretenden Ortsfrequenzen (den kleinsten Strukturdetails) keine entsprechende Pixelfrequenz und die Information taucht bei niedrigeren Frequenzen wieder auf (Aliasing).
Es ist prinzipiell möglich, durch Mehrfachaufnahmen und Versatz des Pixelrasters diese Information wieder den richtigen Frequenzen zuzuordnen (grob gesprochen gibt es dann Bildanteile, die sich bei Versatz unterschiedlich verhalten und die man somit wieder auseinandersortieren kann), ich bezweifle aber sehr, dass das beim Drizzeln/Stacken implementiert ist!**
Wenn nicht (wovon ich ausgehe!), dann bist Du bezüglich Auflösung auf die Nyqvistfrequenz des Sensors festgelegt und hast dazu noch Aliasingeffekte. Zugute kommt Dir dann nur, dass bei den hohen Frequenzen ohnehin wenig Information vorhanden ist (üblicher Abfall der optischen MTF) und das Seeing das nicht besser macht.
Den mit ** markierten Punkt solltest Du dringend klären. Die im Sensorbild vorhandenen Frequenzen auf ein feineres Raster umzurechnen und dann gemeinsam hinzuschieben, reicht nicht aus, um das Untersampling zu reparieren.
Herzliche Grüße, Holger
Hallo Jan,
Um das vorhin Geschriebene noch abzuschließen - um sauber zu begründen, weshalb die großen Pixel unterhalb Nyqvist auch funktionieren, muss man ganz schön weit ausholen, glaube ich. Im Vergleich zu kleineren Pixeln bei identischer, auf das Seeing abgestimmter Belichtungszeit müsste das Argument sein, dass trotz des zwangsläufigen Kontrastverlusts durch die großen Pixel das Rauschen so viel niedriger ist und das Stacking damit so viel besser funktioniert, dass in Summe kein schlechteres Bild rauskommt. Das mit Zahlen zu versehen dürfte insbesondere fürs Stacking schwierig werden...
Die Argumentation "bei größeren Pixeln muss man nicht so lange belichten und damit kann man das Seeing besser einfrieren, den Rest erledigt das Stacking mir seiner Subpixelauflösung" war mir zu kurz gegriffen, jetzt ist vielleicht auch klar geworden, warum. Mir zumindest
Herzliche Grüße, Holger
Hallo Jan,
Ich denke mich gerade nochmal rein...
Es läuft wesentlich darauf raus, wie groß die Rauschanteile sind, die nicht mit der Wurzel aus der Photonenzahl bzw. Belichtungszeit skalieren.
Wären diese nämlich null (d h. kein Ausleserauschen etc.) so ist es völlig egal, ob man mehr kurzbelichtete oder weniger langbelichtete Aufnahmen zusammennimmt und man könnte die beste Belichtungszeit rein nach dem Seeing ausrichten - vorausgesetzt, das Stacking kommt mit verrauschteren Aufnahmen genauso klar. Dann wären auch die kleineren Pixel im Vorteil, denn größere Pixel führen nun mal zu einem quantifizierbaren Signalverlust (Sensor-MTF).
Wie Rauschen und Kontrast von Belichtungszeit, Struktur- und Pixelgröße abhängen, kann man auch inklusive Ausleserauschen, Seeing etc. alles mal quantitativ hinschreiben und so weit hatte ich auch gedacht. Aber (großes Aber):
Die kritische Frage ist, wie gut das Stacking mit verschiedenen Pixelauflösungen und Rauschleveln klarkommt, denn daran entscheidet sich ganz wesentlich, wieviel Kontrast im Bild ankommt bzw. unterwegs zusätzlich verlorengeht. Ob man in diesen Punkt zu einer allgemeingültigen Antwort kommen kann, ist für mich sehr offen... die Punkte aus dem vorhergehenden Absatz gäben zumindest mal den Rahmen dafür, sich das näher anzuschauen und zu verstehen, was das Stacking leisten muss, um vergleichbare Ergebnisse zu liefern.
Aber da gibt die Praxis Dir vermutlich einfach recht... das ist der Komplexität des Themas angemessen, würde ich sagen
So weit für jetzt, herzliche Grüße, Holger
Hallo Bernd,
Nein, so einfach ist es nicht. Wir waren in der Diskussion schon viel weiter, siehe auch hier:
Jan zeigt mindestens, dass es auch funktionieren kann - wir streiten nur noch, wie gut und mit welcher Begründung.
Herzliche Grüße, Holger
Hallo Jan,
Ist verstanden. Aber vergleich mal die klare Argumentation hier:
Wenn ich mit einer gegebenen Videokamera ohne Barlow mit halber Brennweite aufnehme, kann ich bei gleichem Rauschabstand 4x kürzer belichten und bekomme in einer vorgegebenen Zeit 4x so viele Bilder in den Stack. Damit lässt sich die Rauschamplitude durch Aufsummieren um den Faktor 2 reduzieren.
mit der hier:
Das wesentliche Merkmal der Videoastronomie besteht nun aber darin, dass man durch Kurzzeitbelichtung und Stacken auf die Detailstrukturen des abgelichteten Himmelsobjekts zentriert, und das Kameraraster dabei weitestgehend „ausgewischt“ wird.
Da wären quantitativere Aussagen doch hilfreich, zumal es sich hier um den eigentlich kritischen Punkt handelt. Bei ersterem wird Dir jeder sofort zustimmen.
Herzliche Grüße, Holger
Hallo Jan,
ich muss hier gar nix demonstrieren. Aber da Du das gleiche Thema schon zigmal aufgebracht hast, ohne dass inhaltlich was Neues dazukommt, würde ich mich über Fortschritte freuen. Oder wenigstens mal etwas Literaturrecherche dazu.
Herzliche Grüße, Holger
Damit lässt sich die Rauschamplitude durch Aufsummieren um den Faktor 2 reduzieren.
... dafür hast Du aufgrund der großen Pixel auch Kontrast verloren, was sich vielleicht gerade wieder ausgleicht, oder auch nicht... drum ist das so nur die halbe Wahrheit. Wie geschrieben, das mal MTF-basiert aufzuarbeiten, wäre absolut sinnvoll. Ich hätte dann gern auch den Fall "kurze Belichtungszeit bei kleinen Pixeln" mit drin.
Herzliche Grüße, Holger
Hallo Jan,
dass man fehlende Detektorauflösung durch Versatz des Pixelrasters bei Vielfachaufnahmen auf Kosten erhöhten Rauschens durch die Rekonstruktion ausgleichen kann, ist hinlänglich bekannt.
Ob das für die Aufnahme von Planeten eine gute Idee ist oder nicht, sollte sich MTF-basiert theoretisch gut herausarbeiten lassen. Über eine fundierte Betrachtung dazu würde ich mich freuen.
So lange das Ausleserauschen keine wesentliche Rolle spielt, erscheint es mir sinnvoll, bei gegebener Lichtmenge (Öffnung, Belichtungszeit) Information nicht durch zu groß gewählte Pixel vorab zu vernichten.
Herzliche Grüße, Holger