Taugt in der Videoastronomie das Nyquist-Kriterium zur Brennweitenanpassung des Kamerarasters?

  • Diese Frage ergibt sich aus einer parallel laufenden Diskussion über die Brennweitenanpassung von digitalen Videokameras am Beugungslimit einer Teleskopoptik.


    Der Durchmesser des Beugungsscheibchens einer Punktlichtquelle (Stern) wird bei grünem Licht der Wellenlänge 500 nm näherungsweise mit 1,22 µm x f/D angesetzt, wobei f/D die Blendenzahl der abbildenden Optik ist. Bei einem für Newtonteleskope typischen Öffnungsverhältnis von f/5 liegt der Durchmesser bei 6,1 µm. Nach dem Rayleigh-Kriterium gilt die Abbildung eines Doppelsternpaars als optisch aufgelöst, wenn das Maximum des einen mit dem 1. Minimum des zweiten Beugungsbilds zusammenfällt, d.h. in dem betrachteten Fall von f/5 bei einem Abstand der Beugungsmaxima von rund 3 µm.


    Zur optischen Abbildung von periodischen Strukturen mit der Ortsfrequenz f bedarf es nach dem Nyquist-Kriterium einer minimalen Rasterfrequenz von 2f, im obigen Beispiel also der Rasterauflösung 1,5 µm eines entsprechenden Kamerachips. Auf dieser Erkenntnis basiert offenbar die Empfehlung mancher Experten zur Verwendung von Barlowlinsen bei der Anpassung von Videokameras mit gößeren Pixelweiten. Bei einer Kamera mit 2,4 µm Pixelweite wäre demnach eine der Kamera vorgelagerte optische Brennweitenverlängerung um den Faktor 2,4 µm / 1,5 µm = 1,6 erforderlich.


    Nun ist aber zu beachten, dass die obige Berechnungsmethode zunächst einmal nur für die starre Abbildung von Objekten gilt. Bei der videografischen Erfassung von Himmelsobjekten bewegt sich aber deren Abbildung infolge der Luftunruhe (Seeing) während der Aufnahme auf dem Kamerachip in erheblichem Umfang umher. Die Seeingamplitude ist insbesondere bei größeren Teleskopen um ein Vielfaches höher als der Durchmesser des Beugungsscheibchens der Optik, Beispiel: Bei einem Seeing von 2“ FWHM und einer Teleskopbrennweite von nur 1,27 m springt die Abbildung bereits innerhalb eines Radius von 6,2 µm auf dem Kamerachip umher.


    Das wesentliche Merkmal der Videoastronomie besteht nun aber darin, dass man durch Kurzzeitbelichtung und Stacken auf die Detailstrukturen des abgelichteten Himmelsobjekts zentriert, und das Kameraraster dabei weitestgehend „ausgewischt“ wird. Für die Abbildung einer Objektstruktur an der Beugungsgrenze reicht es in dem hier beschriebenen Fall, dass diese Struktur nur „blickweise“ auf dem 1,6-fach gedrizzelten Raster des Summenbilds erscheint. Eine entsprechende Brennweitenverlängerung zur Anpassung des Kamerarasters gemäß Nyquist ist dann offenbar entbehrlich.


    CS Jan

  • Jan_Fremerey

    Hat den Titel des Themas von „Gilt in der Videoastronomie das Nyquist-Kriterium zur Brennweitenanpassung des Kamerarasters?“ zu „Taugt in der Videoastronomie das Nyquist-Kriterium zur Brennweitenanpassung des Kamerarasters?“ geändert.
  • Hallo Jan,


    dass man fehlende Detektorauflösung durch Versatz des Pixelrasters bei Vielfachaufnahmen auf Kosten erhöhten Rauschens durch die Rekonstruktion ausgleichen kann, ist hinlänglich bekannt.


    Ob das für die Aufnahme von Planeten eine gute Idee ist oder nicht, sollte sich MTF-basiert theoretisch gut herausarbeiten lassen. Über eine fundierte Betrachtung dazu würde ich mich freuen.


    So lange das Ausleserauschen keine wesentliche Rolle spielt, erscheint es mir sinnvoll, bei gegebener Lichtmenge (Öffnung, Belichtungszeit) Information nicht durch zu groß gewählte Pixel vorab zu vernichten.


    Herzliche Grüße, Holger

    :milky_way: 10" f/5 Newton-Bino :comet: 120mm f/5 Achromaten-Bino :hammer_and_wrench: 8" f/8 Jones-Schiefspiegler-Bino

    3 Mal editiert, zuletzt von Cleo ()

  • Über eine fundierte Betrachtung dazu würde ich mich freuen.

    Hallo Holger,


    vielen Dank für Deinen Kommentar ! Wenn ich mit einer gegebenen Videokamera ohne Barlow mit halber Brennweite aufnehme, kann ich bei gleichem Rauschabstand 4x kürzer belichten und bekomme in einer vorgegebenen Zeit 4x so viele Bilder in den Stack. Damit lässt sich die Rauschamplitude durch Aufsummieren um den Faktor 2 reduzieren. Aufgrund der verkürzten Belichtungszeiten ist darüber hinaus auch mit einer geringeren Auswirkung der Luftunruhe und entsprechend schärferer Detailabildung zu rechnen.


    CS Jan

  • Damit lässt sich die Rauschamplitude durch Aufsummieren um den Faktor 2 reduzieren.

    ... dafür hast Du aufgrund der großen Pixel auch Kontrast verloren, was sich vielleicht gerade wieder ausgleicht, oder auch nicht... drum ist das so nur die halbe Wahrheit. Wie geschrieben, das mal MTF-basiert aufzuarbeiten, wäre absolut sinnvoll. Ich hätte dann gern auch den Fall "kurze Belichtungszeit bei kleinen Pixeln" mit drin.


    Herzliche Grüße, Holger

    :milky_way: 10" f/5 Newton-Bino :comet: 120mm f/5 Achromaten-Bino :hammer_and_wrench: 8" f/8 Jones-Schiefspiegler-Bino

  • Wie geschrieben, das mal MTF-basiert aufzuarbeiten, wäre absolut sinnvoll.

    Hallo Holger,


    das wirst Du uns hier mit Deinem fundierten Fachwissen gewiss gerne demonstrieren, aber dann bitte auch unter angemessener Berücksichtigung des Seeings.


    Dank & CS Jan


    P.S. - Mit kurzer Brennweite und Drizzletechnik gewonnene Mond- und Planetenaufnahmen findest Du übrigens hier.

  • Hallo Jan,


    ich muss hier gar nix demonstrieren. Aber da Du das gleiche Thema schon zigmal aufgebracht hast, ohne dass inhaltlich was Neues dazukommt, würde ich mich über Fortschritte freuen. Oder wenigstens mal etwas Literaturrecherche dazu.


    Herzliche Grüße, Holger

    :milky_way: 10" f/5 Newton-Bino :comet: 120mm f/5 Achromaten-Bino :hammer_and_wrench: 8" f/8 Jones-Schiefspiegler-Bino

  • Hallo Jan,


    Ist verstanden. Aber vergleich mal die klare Argumentation hier:

    Wenn ich mit einer gegebenen Videokamera ohne Barlow mit halber Brennweite aufnehme, kann ich bei gleichem Rauschabstand 4x kürzer belichten und bekomme in einer vorgegebenen Zeit 4x so viele Bilder in den Stack. Damit lässt sich die Rauschamplitude durch Aufsummieren um den Faktor 2 reduzieren.

    mit der hier:

    Das wesentliche Merkmal der Videoastronomie besteht nun aber darin, dass man durch Kurzzeitbelichtung und Stacken auf die Detailstrukturen des abgelichteten Himmelsobjekts zentriert, und das Kameraraster dabei weitestgehend „ausgewischt“ wird.

    Da wären quantitativere Aussagen doch hilfreich, zumal es sich hier um den eigentlich kritischen Punkt handelt. Bei ersterem wird Dir jeder sofort zustimmen.


    Herzliche Grüße, Holger

    :milky_way: 10" f/5 Newton-Bino :comet: 120mm f/5 Achromaten-Bino :hammer_and_wrench: 8" f/8 Jones-Schiefspiegler-Bino

  • Die Auflösung einer Optik wird in erster Linie durch den Durchmesser bestimmt und die Größe der Beugungsscheibe durch die Brennweite.

    Damit stehen die optischen Parameter fest. Sind die Pixel einer Kamera zu groß, kann eine Optik nicht ihre volle Auflösung darstellen. So einfach ist das.


    Um an die Grenzen der Auflösung zu gelangen, wenn man alle Parameter berücksichtigt hat, benötigt man nur ein sehr gutes Seeing. Obwohl mein Refraktor eine (gemessene) Auflösung von 0,73" hat, habe ich noch nie besser als 1,2" auflösen können. Das liegt in der Hauptsache daran, dass ich in einem Wohngebiet wohne und noch nie außerorts aufgenommen habe (jedenfalls nicht die letzten 50 Jahre :) ).


    CS Bernd

  • Hallo Bernd,


    Nein, so einfach ist es nicht. Wir waren in der Diskussion schon viel weiter, siehe auch hier:



    Jan zeigt mindestens, dass es auch funktionieren kann - wir streiten nur noch, wie gut und mit welcher Begründung.


    Herzliche Grüße, Holger

  • Da wären quantitativere Aussagen doch hilfreich, zumal es sich hier um den eigentlich kritischen Punkt handelt.

    Hallo Holger,


    mir ist nicht ganz klar, was Du hier nicht verstanden hast, bzw. was Du unter "quantitativeren Aussagen" verstehst und erwartest. Ich sage doch nur, dass beim Zentrieren auf die Objektdetails das relativ gobe Kameraraster "ausgewaschen" wird, so dass die feineren Details nach dem Drizzeln auf ein feineres Raster besser abgebildet werden können.


    CS Jan

  • Hallo Jan,


    Ich denke mich gerade nochmal rein...


    Es läuft wesentlich darauf raus, wie groß die Rauschanteile sind, die nicht mit der Wurzel aus der Photonenzahl bzw. Belichtungszeit skalieren.


    Wären diese nämlich null (d h. kein Ausleserauschen etc.) so ist es völlig egal, ob man mehr kurzbelichtete oder weniger langbelichtete Aufnahmen zusammennimmt und man könnte die beste Belichtungszeit rein nach dem Seeing ausrichten - vorausgesetzt, das Stacking kommt mit verrauschteren Aufnahmen genauso klar. Dann wären auch die kleineren Pixel im Vorteil, denn größere Pixel führen nun mal zu einem quantifizierbaren Signalverlust (Sensor-MTF).


    Wie Rauschen und Kontrast von Belichtungszeit, Struktur- und Pixelgröße abhängen, kann man auch inklusive Ausleserauschen, Seeing etc. alles mal quantitativ hinschreiben und so weit hatte ich auch gedacht. Aber (großes Aber):


    Die kritische Frage ist, wie gut das Stacking mit verschiedenen Pixelauflösungen und Rauschleveln klarkommt, denn daran entscheidet sich ganz wesentlich, wieviel Kontrast im Bild ankommt bzw. unterwegs zusätzlich verlorengeht. Ob man in diesen Punkt zu einer allgemeingültigen Antwort kommen kann, ist für mich sehr offen... die Punkte aus dem vorhergehenden Absatz gäben zumindest mal den Rahmen dafür, sich das näher anzuschauen und zu verstehen, was das Stacking leisten muss, um vergleichbare Ergebnisse zu liefern.


    Aber da gibt die Praxis Dir vermutlich einfach recht... das ist der Komplexität des Themas angemessen, würde ich sagen :)


    So weit für jetzt, herzliche Grüße, Holger

  • Nein, so einfach ist es nicht. Wir waren in der Diskussion schon viel weiter, siehe auch hier:

    Ich habe mir das auch mal durchgelesen und weiß jetzt nicht, wo man da schon „weiter“ sein kann.


    Es ist ja maximal die Definition, über die man sprechen kann. Und per Definition ist die Frage: Wann kann man 2 Objekte noch trennen?
    Die amerikanische Luftwaffe hat sich bei der Auswertung von Luftbildern genau diese Gedanken gemacht und ein Testverfahren entwickelt. Genau danach gehe ich in meinem optischen „Testlabor“ vor. Natürlich sind die Tests sehr aufwendig und das macht man nicht mal so nebenbei.


    Zufällig habe ich vor ein paar Tagen diese optischen Tests durchgeführt. Ich war seit langem auf der Suche nach einer 1,25“ Barlow-Linse, meine 2“ kann ich nicht immer einsetzen. Bevor ich eine unbekannte Optik bei mir dauerhaft einsetze, möchte ich doch gerne die Qualität wissen.


    Wenn ich mit der hier genannten Optik 254mm / f5 mit einer Brennweite 1270mm rechne. ergibt eine ASI179MM mit 2,4µ Pixel eine Auflösung von 0,78“. Nominell hätte die Optik 0,48“. Besser geht nicht, weil die Pixelgröße die Auflösung nicht zulässt.


    Natürlich ist die Auflösung nicht scharf begrenzt… mein 6“ LZOS-Triplet-Apo hat nominell ein Auflösung von 0,8“, auflösen kann ich aber noch 0,73“. Danach kann ich dann noch "hell und dunkel" erkennen, aber nicht mehr einzelne Objekte.



    CS Bernd

  • Hallo Jan,


    Um das vorhin Geschriebene noch abzuschließen - um sauber zu begründen, weshalb die großen Pixel unterhalb Nyqvist auch funktionieren, muss man ganz schön weit ausholen, glaube ich. Im Vergleich zu kleineren Pixeln bei identischer, auf das Seeing abgestimmter Belichtungszeit müsste das Argument sein, dass trotz des zwangsläufigen Kontrastverlusts durch die großen Pixel das Rauschen so viel niedriger ist und das Stacking damit so viel besser funktioniert, dass in Summe kein schlechteres Bild rauskommt. Das mit Zahlen zu versehen dürfte insbesondere fürs Stacking schwierig werden...


    Die Argumentation "bei größeren Pixeln muss man nicht so lange belichten und damit kann man das Seeing besser einfrieren, den Rest erledigt das Stacking mir seiner Subpixelauflösung" war mir zu kurz gegriffen, jetzt ist vielleicht auch klar geworden, warum. Mir zumindest :)


    Herzliche Grüße, Holger

    :milky_way: 10" f/5 Newton-Bino :comet: 120mm f/5 Achromaten-Bino :hammer_and_wrench: 8" f/8 Jones-Schiefspiegler-Bino

  • Du hast offensichtlich die Wirkung des Stackens mit Drizzling nicht berücksichtigt !

    Hallo Jan,


    alles kein Problem, ich kann ja alles nachstellen. Ich habe einen optischen Prüfraum, absolut temperaturstabil und kann alles remote bedienen.

    Du meinst also "Drizzle" beim Stakken. Sag mir doch bitte, welche Werte ich nehmen soll, oder welche Werte Du genommen hast.

    Begrenzt bin ich nur in der Auflösung... aber wenn es nicht mehr als 1,65m sind, bin ich dabei :)


    Ach ja, und "Seeing" gibt es auch nicht


    CS Bernd

  • Die Argumentation "bei größeren Pixeln muss man nicht so lange belichten und damit kann man das Seeing besser einfrieren, den Rest erledigt das Stacking mir seiner Subpixelauflösung"

    Hallo Holger,


    Dank Dir für Dein weiteres Bemühen um klare Argumentation, die ich ja auch selbst suche. Kannst Du mir bitte helfen das obige Zitat zuzuordnen. Die Möglichkeit der kürzeren Belichtungszeiten hatte ich eigentlich eher mit verkürzten Brennweiten begründet ...


    CS Jan

  • Ach ja, und "Seeing" gibt es auch nicht

    Hallo Bernd,


    das ist aber gerade der springende Punkt und im übrigen auch der Grund für die als "Dithering" bezeichnete künstliche Zitterbewegung, mit der eine bestimmte Kamera auf dem Hubble-Teleskop beaufschlagt wird, um das bei erdgebundenen Aufnahmen auf natürliche Weise gegebene Seeing zu simulieren und die damit verbundene Möglichkeit auf ein höher auflösendes Raster zu "drizzeln". Ohne Seeing bzw. Dithern macht Drizzeln gar keinen Sinn ...


    CS Jan

  • Alle Jahre wieder :)

    Hallo zusammen,

    mal kurz eine Anmerkung:

    Was genau besagt das Nyquist-Kriterium? Und wofür ist es entwickelt worden? Was genau kann das Kriterium denn überhaupt aussagen?

    Bevor das nicht geklärt ist, drehen wir uns hier im Kreis.

    Für mich ist die Kernaussage des N-K, dass die diagonale Auflösung (quadratische Pixel) geringer ist als die vertikale oder senkrechte. Demzufolge muss beim Abtasten eines digitalen Bildes ein größerer Maßstab angewendet werden, als es die reinen Pixelmaße vermuten lassen.

    Diese Maße übernehmen wir in der Astrofotografie. Für ein Einzelbild gilt das natürlich. Nach einem Stack mit Subpixel-Bewegungen aber wird m.M.n. der Nachteil der Diagonalen eliminiert und man kann, wenn mal denn will, das Kriterium unterschreiten.

    Das Seeing hat bei dieser theoretischen Betrachtungsweise keine Relevanz.

    Ebenso das Rauschen.

    Das mit dem Kontrast ist schon etwas anders. Gehe ich mit meinem Abbildungsmaßstab sehr knapp an die Auflösungsgrenze, so verringert sich der Kontrast (glaube ich auch festgestellt zu haben), weil ein "Wellental" nicht mehr einzeln abgebildet werden kann, sondern immer auch Licht aus den Flanken enthält. Die Amplitude ist sozusagen "abgerundet". Ob das bildwichtig ist, kann ich nicht sagen.

    Ich denke aber, um gute, hochaufgelöste Bilder zu machen, gibt es sicher sinnvollere Stellschrauben.

    Viele Grüße

    ralf

  • (1) Für mich ist die Kernaussage des N-K, dass die diagonale Auflösung (quadratische Pixel) geringer ist als die vertikale oder senkrechte.

    (2) Das Seeing hat bei dieser theoretischen Betrachtungsweise keine Relevanz.

    (3) ... so verringert sich der Kontrast (glaube ich auch festgestellt zu haben), weil ein "Wellental" nicht mehr einzeln abgebildet werden kann

    Hallo Ralf:


    (1) Die Auflösung eines feineren Rasters erhöht sich gleichmäßig in allen Richtungen.

    (2) Das Seeing - bzw. Dithern - ermöglicht aber erst eine Subpixelauflösung durch Drizzeln.

    (3) Ein Wellental muss ja, wenn in dem von der Optik erzeugten Beugungsbild überhaupt vorhanden, erst in einem durch Drizzeln bereitgestellten, feineren Bildraster sichtbar werden, auch wenn es im groberen Kameraraster noch nicht deutlich wird.


    CS Jan

  • das ist aber gerade der springende Punkt und im übrigen auch der Grund für die als "Dithering" bezeichnete künstliche Zitterbewegung, mit der eine bestimmte Kamera auf dem Hubble-Teleskop beaufschlagt wird, um das bei erdgebundenen Aufnahmen auf natürliche Weise gegebene Seeing zu simulieren und die damit verbundene Möglichkeit auf ein höher auflösendes Raster zu "drizzeln". Ohne Seeing bzw. Dithern macht Drizzeln gar keinen Sinn ...

    Ähem... Dithern bedeutet- man verstellt von Aufnahme zu Aufnahme die Ausrichtung des Teleskops um eine Kleinigkeit und damit verschiebt sich von Bild zu Bild die Abbildung des Objekts auf dem Chip um eine gewisse Anzahl von Pixel.


    Beim Seeing zappellt das Objekt während einer Aufnahme auf dem Chip herum- daher kann man die Auswirkung des Dithern nicht mit der des Seeing als gleich betrachten.

  • Hallo Jan, Ralf,


    Ralf, danke nochmal für das Stichwort Nyqvist - das war der entscheidende Punkt!


    Jan, wenn Du untersampelst bezüglich Nyqvist, dann gibt es zu den höchsten im Bild auftretenden Ortsfrequenzen (den kleinsten Strukturdetails) keine entsprechende Pixelfrequenz und die Information taucht bei niedrigeren Frequenzen wieder auf (Aliasing).


    Es ist prinzipiell möglich, durch Mehrfachaufnahmen und Versatz des Pixelrasters diese Information wieder den richtigen Frequenzen zuzuordnen (grob gesprochen gibt es dann Bildanteile, die sich bei Versatz unterschiedlich verhalten und die man somit wieder auseinandersortieren kann), ich bezweifle aber sehr, dass das beim Drizzeln/Stacken implementiert ist!**


    Wenn nicht (wovon ich ausgehe!), dann bist Du bezüglich Auflösung auf die Nyqvistfrequenz des Sensors festgelegt und hast dazu noch Aliasingeffekte. Zugute kommt Dir dann nur, dass bei den hohen Frequenzen ohnehin wenig Information vorhanden ist (üblicher Abfall der optischen MTF) und das Seeing das nicht besser macht.


    Den mit ** markierten Punkt solltest Du dringend klären. Die im Sensorbild vorhandenen Frequenzen auf ein feineres Raster umzurechnen und dann gemeinsam hinzuschieben, reicht nicht aus, um das Untersampling zu reparieren.


    Herzliche Grüße, Holger

    :milky_way: 10" f/5 Newton-Bino :comet: 120mm f/5 Achromaten-Bino :hammer_and_wrench: 8" f/8 Jones-Schiefspiegler-Bino

  • Hallo zusammen,


    mit etwas Distanz (so 1MPc sollte reichen :D ) kann man das Nyquist Kriterium ganz allgemein betrachten. Es gilt, um übrigens eine der Ursprungsfragen zu beantworten, immer, wie auch die anderen gleich vorgestellten Kriterien.

    • Das Kriterium besagt, etwas salopp gesagt, dass bei einem abgetasteten System keine Signale eindeutig bestimmt werden können, deren Bandbreite grösser ist als die halbe Abtastfrequenz ist. Bei Unterabtastung verliert man Informationen.
    • Dasselbe besagt auch das Shannon-Theorem, allerdings ist das Pferd da anders aufgezäumt. Man kann bei einer bestimmten Signalbandbreite (Frequenzraum) nur eine bestimmte Datenmenge (Zeitraum) übertragen.
    • Das Rayleigh-Kriterium ist ein weiterer Vertreter der gleichen Frage, diesmal aus dem optischen Bereich.
    • In letzter Konsequenz lässt sich das auch mit der heisenbergschen Unbestimmtheitsrelation beschreiben, die besagt, dass man nicht gleichzeitig Ort und Impuls eines Teilchens / einer Welle exakt bestimmen kann.
    • Alle diese Betrachtungsweisen beschreiben letztendlich dasselbe. Planck hat das dann zur Vollendung gebracht mit der theoretischen Grenze E=h*nu oder (etwas salopper E = h*f). Aber so weit brauchen wir es ja nicht zu treiben ;) .


    Wieso diskutieren wir also hier über Seeing, Drizzeln und Pixelversatz. Nun, wir betreiben damit mehr oder weniger schlaue Statistik. An Nyquist, Shannon und Heisenberg kommt niemand vorbei, aber:

    Wird das gewünschte Signal mit einem damit unkorrelierten Rauschen gemischt verteilt es sich (um bei unseren Bildsensoren zu bleiben) auf mehrere Pixel. Die Verteilung über einen längeren Zeitpunkt ist bekannt (Normalverteilung, Gauss'sche Glockenkurve), das Nutzsignal nehmen wir als statisch an (dauernder Photonenstrom) und das ist der Schlüssel zum Erfolg. Wir können nun den Rauschhaufen aus vielen zufällig (!) verteilten Bilder so mit der Normalverteilung korrelieren, dass wir scheinbar (nein, natürlich wirklich) Subpixelauflösung erreichen. Das funktioniert, wenn:

    • wir Zeit haben, das Nutzsignal also im Betrachtungszeitpunkt (Aufnahmezeit aller Aufnahmen) statisch ist
    • Wir ein unkorreliertes möglichst weisses Rauschen haben, das das Nutzsignal überlagert

    Bei Hubble geht das leider nicht, da Kriterium 2 in Form einer wabernden Atmosphäre fehlt. Deshalb wird dort über gezieltes Verschieben im Subpixelbereich die Auflösung erhöht. Ob das deterministisch ist oder über (Pseudo)Zufallsgeneratoren ein unkorreliertes Rauschen verwendet wird, weiss ich nicht. Ich tippe eher auf ersteres.


    Was mit dieser Technik natürlich nicht funktioniert, dass wir mit durch diese statistischen Methoden aus einem 10"er die gleiche Auflösung herauskitzeln können wie aus einem 10m Gerät. Aber wir können den Nachteil der wabernden Atmosphäre bei Langzeitufnahmen durch kurze Aufnahmen zum Vorteil ummünzen und in gewissen Grenzen BIldsensoren die grösseren (und empfindlicheren, rauschärmeren) Sensoren scheinbar vervielfachen.


    Ein grosses ABER bleibt (Kriterium 1, statisches Nutzsignal): wieso treiben denn die Profis einen solch riesigen Aufwand, ihre Riesenspiegel mit in die Ionosphäre gebrannten "Testpattern" in Echtzeit so zu verbiegen, dass sie den Effekt der Atmosphäre kompensieren können. Jetzt wo wir die Lösung mit Kurzzeitaufnahmen und Statistik ja haben?

    Nun, wenn alle paar Sekunden (oder Minuten) mal ein Photon sich bequemt, den Bildsensor zu kitzeln, dann haben wir das Problem, dass unsere ganze Lotto-Statistik zusammenbricht. Das Signal ist nicht mehr statisch sondern diskret veränderlich. Die Technik mit Kurzzeitaufnahmen wird also bei sehr schwachen Signalen zunehmend versagen.


    Ich wage als Abschluss mal zu behaupten, dass beide Techniken für uns i.A. zu vergleichbaren Resultaten führen können. Bei sehr dunklem Himmel im Gebirge könnte ich mir aber schon vorstellen, dass Langzeitaufnahmen gewinnen. Einmal abgesehen von den schieren Datenmengen und der daraus resultierenden Nachbearbeitungszeit eines 4h "Kinofilms".


    Herzliche Grüsse Robert

    Ich habe keine besondere Begabung, sondern bin nur leidenschaftlich neugierig. (Albert Einstein)

  • Hallo Robert,


    bin nicht ganz einverstanden, die reine Statistik bringt noch nix, da kann man auch die Auflösung einfach höher rechnen. Das hat Jan mit seinen Hoch- und Runterskalierversuchen ja auch gezeigt. Allerdings muss man mit der Statistik umgehen im Sinne von "ich schiebe das umherspringende Signal vor dem Aufaddieren zurecht", sonst mittelt es sich dabei weg.

    Entscheidend ist schon der Punkt, dass man das Aliasing rückgängig machen kann (!), wenn man Subpixelversätze verwendet und diese kennt oder zuverlässig schätzen kann. Hier dürfte auch der Unterschied zwischen Hubble und dem einfachen Drizzeln/Stacken liegen.


    Natürlich nur innerhalb der Grenzen, in denen man noch vernünftig Signal bekommt - bei der halben Nyqvist-Frequenz ist das Signal null, weil es sich über ein Pixel exakt wegmittelt unabhängig von dessen Lage, da würde ich rechtzeitig vorher eine harte Grenze ziehen wollen.


    Herzliche Grüße


    Holger

    :milky_way: 10" f/5 Newton-Bino :comet: 120mm f/5 Achromaten-Bino :hammer_and_wrench: 8" f/8 Jones-Schiefspiegler-Bino

    2 Mal editiert, zuletzt von Cleo ()

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!