Hallo Gerd + Frank.
Guten Morgen. Ich habe mal über Gerd´s Berechnungen geschlafen und heute morgen seine neue Liste gefunden. Klasse Sache wenn man das so berechnen könnte. Fakt ist aber, der Gaußfehler kann da die Ergebnisse noch gut verhageln, der ist in den Werten nicht berücksichtigt.
Gerd: Wieso rechnest Du mit der 2-fachen Diagonale der Pixel und nicht mit der 2-fachen Kantenlänge ? Bei Deiner Rechnung liegt das Beugungsscheibchen über 16 Pixeln, nicht 4. Wenn man das streng nach Nyquist mit 4 Pixeln durchrechnet sieht der Fall nämlich auch ganz anders aus.
Kurt: Kann man den Gaußfehler messen ?
Frank: Sei doch nicht so ungeduldig, wir entwickeln die Sache weiter. Zuerst die Theorie rund machen, dann kommt i.d.R. die praktische Umsetzung.
Wir besprechen hier Zahlen, das verwirrt viele Mitleser und sagt ihnen u.U. nicht viel. Daher habe ich mal überlegt wie man das mit den SWD´s, dem Polystrehl und dem daraus entstehenden Defokus in Zusammenhang mit der Pixelgröße setzen kann, so dass es anschaulich wird. Hier mein Versuch, dazu habe ich auf ein Bild des AP 155 von Kurt aus einem anderen Beitrag zurückgegriffen. Ich denke, ob wir den TEC oder AP oder durcheinander betrachten ist der Sache egal, die sind sehr ähnlich, hatte kein anderes Einzelbild der SWD´s:
Ausgehend von der durchgezogenen Linie habe ich versucht, auf Kurt´s Rat hin mit Aberator die entsprechenden Spots zu erzeugen. Es wurden nur die Daten der SWD´s herangezogen, kein Seeing oder sonstige optischen Probleme eingebaut. Das sieht dann so aus über das Spektrum:
Nun stellen wir uns vor, die Spots um 555nm, also die kleinsten die zu sehen sind, sind auf eine Chipfläche von 2x2 Pixel verteilt, das entspräche dem Nyquist Kriterium, da sind übrigens bereits 2" Seeing mit eingerechnet worden, in der Abbildung oben nicht. Das wäre der Maßstab für die weitere Betrachtung.
Nun erkennt man sofort anhand des Maßstabs, dass an den Enden des Spektralbereiches, also im fernen Blauen und im fernen Roten die Spots durch die Defokussierung so groß geworden sind, dass sie sich auf viel, viel mehr Pixel verteilen werden bei einer Luminanz- oder 1-Schuss-Farbaufnahme. Wenn man weiter denkt: Da wir egal welcher Kameratyp zum Einsatz kommt immer hier von einer einzelnen Aufnahme über das gesamte Spektrum sprechen werden alle Spots im obigen Bild gleichzeitig auf der gleichen Chipfläche auftreffen. Den Effekt stellen wir uns so vor als wenn wir die obigen Einzelbilder nehmen und sie mit Registax wie ein Planetenbild stacken würden. Das gilt für Luminanz- und 1-Schuss-Farbbilder.
Anders verhält es sich bei den Farbkanälen, dazu ziehen wir die gestrichelte Kurve in Kurt´s obigem Diagramm zu Rate: Da würde man folgende Resultate erwarten: Das Grüne Kanalbild lässt sich über die Filterbandbreite scharf stellen, das rote auch. Bei Blau, das sieht man an den Kurven und im obigen Spotbild geht das Scharfstellen nicht. Dort wird man ein blaues Kanalbild mit runden Sternen und recht großen blauen Höfen darum erwarten. Für diese Kanalbeurteilung wären die bereits angesprochenen Farbkanal-Polystrehls von Vorteil. Diese Gedanken kann man aber schon im obigen Spotbild ganz gut nachvollziehen.
So, nun meine Frage: Wenn man sich das daraus entstehende Bild vorstellt nach dem Stacken ? Kann das ein scharfes Bild werden ? Gerd: Wo ist der Denkfehler bei meiner Herleitung vs. zu Deiner Rechnung ?
Es wird immer von fotografischer Beurteilung einer Optik gesprochen. Dieses Verfahren ist mir zu subjektiv, da muss es etwas vorher geben. Wenn man sich Kurt´s Werte der APO´s anschaut fällt mir auf:
Die ölgefügten sowie die Petzval´s sind sich in ihren Strehl, Polystrehl und SWD-Daten sehr ähnlich. Die Luftspaltfraktion, auch die zuvor von Kurt vermessenen LOMO´s und LZOS sind da ganz anders von den Eigenschaften. Nun habe ich mal etwas gegooglt: Es gibt unendlich viele schöne ( Vorsicht: subjektiv ) Bilder von Astro-Physics Teleskopen, auch einige schöne von TEC und Pentax, aber fast die meisten vom FSQ. Von Takahashi, LOMO und LZOS oder anderen Luftspalten habe ich nicht so viele gefunden.
Wenn ich nun die gefundenen Bilder subjektiv bewerte dann möchte ich sagen, die öl- bzw. Petzval Bilder gefallen mir besser, sind meistens etwas bunter, die Sterne etwas größer mit kleinen Strahlenhöfen rundum, sie wirken für mich wärmer. Die Luftspaltbilder die ich gefunden habe hatte kleinere Sterne mit weniger Höfen und wirkten kühler und nüchterner. Ich meine den Effekt wie wenn man z.B. einem Bild des Pferdekopfnebels ansieht womit es aufgenommen wurde: Linse oder Spiegel. Bei Spiegel wirkt es nüchterner, sachlicher und kühler, schärfer, bei Linse wärmer, bunter, plastischer. Ich gebe hier meine Meinung wieder, andere Personen haben natürlich einen anderen Geschmack.
Sollte am Ende eventuell die ölgefügte / Petzval Fraktion doch die anschaulichsten Bilder erzeugen wegen ihren kleinen Fehlern ? Hmm ?
Zum Nyquist Kriterium noch ein Nachsatz: Das besagt, dass es zu jeder Pixelgröße die optimale Brennweite gibt um zu erreichen, dass die 2x2-Pixelgeschichte für einen Spot/Stern eintritt. Alles andere ist Over- oder Undersampling. Nun hat man ja eine Kamera eine gegebene Pixelgröße und auch eine Optik eine gegebenen Brennweite, das passt in den seltensten Fällen laut Nyquist, bei mir zumindest. U.U. setzt man ja auch an der gleichen Kamera unterschiedliche Optiken ein, das ist ein Problem. Zoompixel wären hier in Zukunft eine gute Sache. [;)]
Man kann nun auf den Gedanken kommen sich eine Kamera mit möglichst kleinen Pixeln zu kaufen. Kleine Pixel sind aber unempfindlicher, brauchen mehr Belichtungszit wo man sich wieder Fehler einfängt und rauschen mehr als größere. Irgendwie ungefähr passen sollte es jedoch schon zur Optik, das wäre gut.
Wie Kurt schon sagte: Es wäre toll, wenn sich einige erfahrene Astrofotografen an der Diskussion beteiligen würden. Optikexperten auch. Danke.
Viele Grüße
Peter