Beiträge von tbstein

    Hallo Peter, hallo in die Runde,


    ich freue mich, dass der Beitrag nochmal das Interesse geweckt hat. Es ist recht einfach erklärt, die Shutterexperimente entsprechen so ziemlich exakt dem Prinzip, welches ich damals mit der speziellen EM-CCD durchgeführt habe. Diese Kamera ist eine Sonderform, eine FT-CCD, also eine sogenannte Frame-Transfer-CCD. http://www.pi-j.jp/tech_note/html/tframetransfer.htm

    Hierbei wird das aufgenommene Bild möglichst schnell in einen abgedunkelten genauso großen Bereich der CCD verschoben, wo es dann gemächlich mit niedrigem Rauschen ausgelesen werden kann. Dh. nach der recht kurzen Belichtungszeit von 5ms wird das Bild instantan in den abgedunkelten Bereich verschoben und dann in etwa 30ms ausgelesen. Dh. erst nach dem Auslesen wird dann ein neues Bild mit 5ms Belichtungszeit aufgenommen, usw, usf. Dh. die Kamera macht mit jeweils 5ms Belichtungszeit etwa alle 30ms ein Bild.

    Dies ist mit einer normalen CCD nicht möglich, da die CCD immer weiter Photonen sammelt, außer man verwendet einen extrem schnellen mechanischen Shutter, oder ein drehzahlstabilisiertes Shutterrad. Vorteilhaft ist aber bei dem Shutterradprinzip, dass die CCD weiter aufnimmt und das Ausleserauschen nur einmal am Ende der Belichtung zuschlägt. Bei meinem Prinzip nimmt man aber bei jedem Bild das Ausleserauschen mit auf, welches aber bei der speziellen EM-CCD aufgrund der speziellen Nachverstärkung extrem niedrig ist und nur etwa 0,1e- beträgt. Dh. man detektiert im Grunde phasenrichtig wirklich einzelne Photonen.


    Lg Tino

    Hallo Gerd,


    du windest dich wie ein Aal. Ich versuche ich es dir nochmal zu erklären:

    1. Die F-Zahl definiert nur die Beleuchtungsstärke in der Bildebene. Dh. gleiche F-Zahl gleiche Anzahl von Photonen pro Fläche auf dem Sensor. Das ist auch der Grund warum man in der Fotografie dann auch die gleiche Belichtngszeit nehmen kann.

    2. Für die Flächenhelligkeit des Objektes, welches abgebildet werden soll (also die mag/asec^2 des Nebels) ist aber noch der Abbildungsmaßstab relevant und dieser skaliert mit der Brennweite, was bei gleicher F-Zahl immer bedeutet, dass bei Vergrößerung der Apertur die Brennweite größer wird und somit der Abbildungsmaßstab steigt.

    3. Dh. Ein Teleskop mit der doppelten Apertur und der gleichen F-Zahl und somit der doppelten Brennweite hat den doppelten Abbildungsmaßstab.

    Wenn jetzt bei dem kleinen Teleskop beispielweise 10Photonen/s auf dem Sensorpixel ankommt, steigt bei dem großen Teleskop der Abbildungsmaßstab und es kommen statt auf einem Pixel 10Photonen nun auf 4 Pixeln jeweils 10Photonen aus dem selben Flächenelement (1asec^2) an (da gleiche F-Zahl). Das ist exakt das, was aus meiner Simulation hervorgeht. Und wenn du mir jetzt sagen willst, dass das 4-fache Signal aus dem großen Teleskop zur gleichen Tiefe führt, wie das kleine mit der gleichen F-Zahl, dann gebe ich auf und du nimmst am besten dein mit der tollen F1.4er Minilinse und führst uns einfach mal vor, was 1000ende von Astronomen bisher immer falsch gemacht haben und weiterhin ihre sinnlos großen Teleskope bauen.


    Vielleicht auch nochmal einen Kommentar an die restlichen Mitdiskutanten. Ich möchte nicht die "schnellen" Teleskope schlecht machen. Sie haben nämlich sehr große Vorteile, wie beispielweise kurze Baulänge, da kleine Brennweite und man braucht nicht so große, aber dafür höher auflösende Detektoren. Aber die fabelhaften kurzen Belichtungszeiten für das gleiche Ergebnis stimmen einfach nicht, sondern ergeben sich nur wenn man beim Detektor alles gleich lässt und somit nicht das optimale Sampling, beispielweise mittels Binning, einstellt. Dann kommt nämlich bei Änderung der F-Zahl so ziemlich genau das Gleiche raus.


    Wer meinen oben irgendwo verlinkten Artikel (https://arxiv.org/pdf/2011.04674.pdf) zur Nutzung von relativ vielen kleinen schnellen Teleskopen, anstatt großen Telskopen für Surveys, also schnelle Himmelsdurchmusterungen gelesen hat, kann sich einige Randbedingungen herleiten.

    1. Das Teleskop sollte einen Airy-Scheibchendurchmesser von etwa 1/3 x dem erwartbaren Seeing haben. Dh. bei 2asec (rms) Seeing wäre 0,7asec Airy anzustreben, und zwar ergibt sich dann eine Gesamt-Spotgröße von d=sqrt(Seeing^2 + Airy^2) also 2,11asec. Für 0,7asec Airy ist übrigens ein Teleskop mit einer Apertur von 380mm erforderlich. Dann verliert man optisch keine Details.

    2. Jetzt sollte das optimale Sampling (hinsichtlich optimaler Tiefe) etwa 1asec/Pixel betragen.

    3. Dieses Sampling kann ich entweder mit langer Brennweite (hohe F-Zahl, langsames Teleskop) und großen Pixeln erreichen, oder ein Teleskop mit einer kleinen Brennweite (niedrige F-Zahl, schnelles Telskop) und kleinen Pixeln.

    4. Der Artikel beschreibt, dass es dabei effektiver und billiger ist, ein schnelles Teleskop mit kleinen Pixeln, anstatt ein langsames mit großen Pixeln zu verwenden, auch weil die Detektoren mit immer kleineren Pixel und gigantischen Megapixelcounts immer billiger und besser verfügbar werden.


    Aber egal, Gerd kommt bestimmt gleich mit so Buzzwords wie FWHM, EE80, MTF, OTF und und so Milchmädchenrechungen, dass eine F-Zahl von 4 zu einem beugungsbedingten Airy-Scheibchen von 5,x µm führt. Tja, mich beeindruckt das nicht.


    Vg Tino

    Hallo Robin,


    ich hab schon ein paar Sachen vorbereitet, hab aber heute auch noch keine richtige Zeit, eine vernünftige Struktur reinzubringen. Ab morgen hab ich Urlaub und dann nehme ich mir ein paar Sachen vor.

    Ich könnte auch für alle Interessierten mal schauen, ob ich die installierte Phosim-Software (https://www.phosim.org/) als lauffähiges Linux-VirtualBox Image vorkonfiguriere und man müsste es dann nur herunterladen. Ich bin aber leider etwas dumm, wenns um Linux geht. Die erforderliche Neuinstallation auf meinem neuen Laptop war schon etwas umständlich, aber hat letztendlich geklappt. Jetzt funktioniert auch die aktuelle Phosim-Version.


    Lg Tino

    Hallo in die Runde,

    ich hatte leider wenig Zeit mich um das Thema zu kümmern, aber habe nun es endlich mal geschafft mit Phosim ein paar Simulationen anzuwerfen.

    Diese sollten hoffentlich etwas Aufklärung bringen:


    Es wurden 8 ideale Teleskope simuliert:


    Gif-Serie #1

    Apertur: 1cm, 2cm, 4cm, 10cm, 20cm, 40cm, 100cm, 200cm

    F-Zahl: konstant 4

    Seeing: konstant 2asec (rms)

    Sampling: konstant, 2µm/Pixel, also die Spotgröße aufgrund der F-Zahl wird ordentlich gasampled

    Belichtungszeit: 150s

    Darstellung:

    1. Links oben >>> künstliche variable Galaxie, 15Mag Gesamthelligkeit, Ausdehnung ~1 x 1.5 arcmin

    2. Rechts oben >>> Stern Mag18

    3. Links unten >>> schwacher Stern Mag22

    4. Rechts unten >>> künstliche fixe Galaxie, 15Mag Gesamthelligkeit, Ausdehnung ~1 x 1.5 arcmin

    Guter Himmel: ~22Mag/arcsec^2

    Bildgröße konstant, also das was auf dem Sensor ankommt.

    Helligkeitsskalierung der Einzelbilder 40Elektronen für 255 Graustufen.



    Gif-Serie #2

    Alles gleich nur GrößenSkalierung bezogen auf die Größe am Himmel angepasst.



    Ich glaube hier ist sehr deutlich zu sehen, was passiert, wenn man die Apertur hochzieht, bei gleichbleibender F-Zahl.


    Die Einzelpixel haben wirklich etwa die gleiche Helligkeit, also die selbe Menge Photonen (etwa 30-40) aufgefangen. Nur ist die komplette Helligkeit der Galaxie bei 1cm Apertur auf wenigen Pixeln gelandet und beim 200cm Teleskop besteht das Bild der Galaxie aus mehreren 100000Pixeln, welche jeweils einzeln auch die 30-40 Photonen beinhalten. Also wenn man das Bild des 200cm Teleskops auf die grottige Auflösung des 1cm Teleskops zusammenbinnt, kommt der Faktor der größeren Teleskopöffnungen 200^2 also 40000 heraus. Also landen eine Unmenge mehr Photonen auf dem Sensor.


    Also zählt die Apertur, ohne wenn und aber. Wäre auch wirklich witzig, wenn nicht.


    Jetzt nochmal ein kleines Rechenbeispiel:

    Ich habe 2 Teleskope:

    Teleskop 1: 200mm Apertur, F-Zahl 4, also Brennweite 800mm

    Teleskop 2: 100mm Apertur, F-Zahl 2, also Brennweite 200mm

    Kommt bei beiden das gleiche heraus, was ja anscheinend die F-Zahl skalierung propagiert?

    Randbedingungen: Ich habe eine kleine Struktur am Himmel, welche eine Ausdehnung von beispielsweise 10Bogensekunden hat.

    Die Kamera ist bei beiden Teleskopen gleich und bei dem schnelleren Teleskop beträgt das Sampling 5Bogensekunden/Pixel. Also die Struktur beleuchtet 2x2 also 4Pixel beim schnellen Teleskop. Beim langsamen Teleskop werden von der gleichen Struktur aufgrund der 4-fach längeren Brennweite aber 8x8 also 64Pixel (16mal soviele, wie beim schnellen Teleskop) mit einem 4tel der jeweiligen Helligkeit beleuchtet (aufgrund der F-Zahlen). Dh. mit dem langsameren aber größeren Teleskop bleibt immernoch der Faktor 4 mehr Photonen für die 10asec-Struktur übrig, also exakt der Faktor von der größeren Apertur.

    Tja.


    Lg Tino

    Hallo in die Runde,


    ich habe mich nochmal etwas aufgeschlaut. Es ist eigentlich wie es immer ist und zwar etwas komplizierter als gedacht. Die wissenschaftliche Astronomie und die Optik hat längst Metriken für unser Problem entwickelt. Und zwar kann man dieses Problem unter den Schlagworten "etendue", "pixel-etendue", "telescope grasp" und "information content" subsummieren.

    Ich versuche mal aus meiner Sicht zu spoilern:

    1. Es ist nicht allein die Apertur! >>> Lichtsammelvermögen

    2. Es ist nicht allein die F-Zahl! >>> wie stark wird das Licht eigentlich konzentriert

    3. Und die Detektor- und Pixelgröße, bzw. die Plate-Scale und das Sampling ist ein wichtiger Faktor! >>> definiert den Informationsgehalt, ein riesiger großer Pixel fängt zwar irrsinnig viel Licht ein, aber hat leider keinen besonders großen Informationsgehalt


    Im Grunde genommen muss man alles Zusammen betrachten und nicht nur jedes einzeln. Vllt kommen wir ja doch noch von unserer ausgiebig zelebrierten entweder-oder Strategie weg.


    Ich habe heute leider keine Zeit mehr, um groß zu erklären was gemeint ist, aber in diesem Artikel:

    https://arxiv.org/pdf/2011.04674.pdf

    sind die Zusammenhänge ziemlich gut dargestellt.


    Vg Tino

    Hallo nochmal an alle an der Diskussion beteiligten,


    ich habe vor geraumer Zeit versucht das Programm PHOSIM vorzustellen und etwas bekannter zu machen:

    Hier kann man das Belichtungsergebnis unterschiedlichster Teleskope beinahe allumfassend simulieren, also wirklich mit allem drum und dran.

    Es empfiehlt sich diesbezüglich auch die Internetseite nochmal anzuschauen: https://www.phosim.org/
    Die Konfiguration der Simulation ist zwar recht zeitaufwendig, ich würde am Wochenende nochmal ein paar Simulationen durchlaufen lassen und dann kann man die Ergebnisse auch quantitativ analysieren und vergleichen und auch explizit reproduzieren. Ich würde mir mal überlegen, welche Parametervariationen zur Klärung des Sachverhaltes sinnvoll sind und diese dann nochmal hier zur Diskussion stellen.

    Ich hoffe wir könne uns dann darauf einigen, da dieses Programm zum Evaluieren der Performance des LSST, bzw. des Vera C. Rubin Observatoriums

    https://de.wikipedia.org/wiki/Vera_C._Rubin_Observatory genutzt wird und dort hervorragende Ergebnisse zeigt.


    Lg Tino

    Hallo Gerd,


    mhmm, ist ja interessant. Hier versuchen die meisten Astrophotographen schwache Objekte im Bereich des Rauschens der Sensorpixel zu detektieren. Da wird versucht in minutenlangen Einzelbelichtungen Belichtungen <5 Elektronen (rms) Rauschuntergrund zu detektieren. Was bei einer Quanteneffizienz von etwas weniger als 1 etwa 5^2 Photonen also 25 Photonen Signal entspricht.

    Und bei 20mag Grenzgröße kommen bei 100mm Apertur 1,8 Photonen/s also in 60s etwa 100 Photonen an. Vllt überdenkst du gleich nochmal deinen ersten Kommentar.

    Ich denke wenn wir hier schon aneinander vorbeireden, dann machen deine Berechnungsbeispiele zur geometrischen Optik mal gar keinen Sinn.

    Vllt solltest du mal diesen Artikel lesen: https://www.ucolick.org/~bolte/AY257/s_n.pdf

    Falls du mir nicht glauben möchtest.


    Vg Tino

    Hallo Andreas (andi1991a),


    ich denke eine richtige Antwort gibts hierbei nicht. Der FSQ und der Epsilon nehmen sich eigentlich kaum etwas bezüglich Grenzgröße und SNR und bei realen Aufnahmen wird diese wohl kaum auffallen. Ich lande mit meiner Berechnung auch bei weniger als den angebenen 25% Unterschied in der SNR, da die Obstruktion beim Epsilon doch recht hoch sein wird und der Apo bezüglich realer Transmission bestimmt gleichzieht. Ist halt wie beim Autovergleich, ob Mercedes, Audi, BMW. Geschmackssache und unterschiedliche Bedienkonzepte halt. Dann kommen halt Gewicht und Preis ins Spiel und der Gewinner ist gekürt. So richtig viel reininterpretieren und falsch machen kann man wahrscheinlich nicht.


    Vg Tino

    Hallo in die Runde,


    danke nochmal Andreas, dass du meine Berechnungstabelle rausgekramt hast. Ich hatte damals recht viel recherchiert und versucht die Zusammenhänge irgendwie vernünftig zu erfassen und darzustellen. Es gibt aber doch recht viele Stellschrauben.

    Gerd. Ich sehe bei Stathis keine Diskrepanzen bei der Beschreibung und auch Ralf hat es so ziemlich gut und verständlich in den anderen Treads ausgedrückt.

    Ich vermute ganz stark, dass du noch nicht ausreichend Kenntnisse über die speziellen Eigenschaften des Lichts hast. Das Licht ist ja wie bekannt gequantelt und besteht aus Photonen. Zumindest darauf können wir uns doch einigen? Was meinst du wird passieren, wenn ich zwei Pixel nebeneinander mit der gleichen Beleuchtungsstärke (also Licht pro Fläche) beleuchte, so dass auf beiden per Definition jeweils 1000Photonen ankommen? Angenommen es sind ideale Pixel ohne Ausleserauschen und mit einer Quanteneffizienz von 1.

    Messen die beiden Pixel den selben Helligkeitswert? Ich gebe dir einen Tip, wenn du nach ShotNoise suchst wirst du fündig und es hat mit der Quadratwurzel zu tun. Das eigentliche Nutzsignal hat nämlich eine unangenehme Eigenschaft, und zwar dass es aus physikalischen Gründen sein eigenes Rauschen mitbringt. Egal was man macht, außer die Photonen sind quantenmechanisch verschränkt, dann passieren ganz verrückte Dinge.

    Um zu Spoilern: Ob ich beispielweise zwei Pixel in der Helligkeit überhaupt unterscheiden kann, beispielweise aufgrund einer Nebelstruktur, müssen diese sich zumindest so stark unterscheiden, wie das Signal zu Rauschverhältnis bei 1.

    Dein Herumreiten auf der dimensionslosen F-Zahl bezieht sich nur auf die geometrische optische Beleuchtungsstärke, was auch für die Tageslichtfotografie ok ist.

    Aber in der Astrophotografie eben nicht. Da kommt es nur gnadenlos auf die Anzahl der ankommenden Photonen an, welche das Signal zu Rauschverhältnis dominieren.

    Die Apertur spielt die Geige, punkt. Die Brennweite und und somit die F-Zahl definiert nur auf welcher Fläche die Photonen konzentriert werden. Unsere pixelierten Detektoren zählen aber nur die Photonen. Da kann ich bei gleicher Apertur und halber Brennweite halbsogroße Pixel nehmen. Dann kommt so ziemlich exakt das gleiche heraus. Einen Vorteil hat die kürzere Brennweite aber schon. Ich kann kleinere Dektoren für die gleichen Bildwinkel verwenden, oder mit der selben Detektorgröße ein größeres Feld abbilden.

    Aber die Märchengeschichte, dass ein 160mm Tak mit F/3.3 die gleiche Bildqualität in Form des gleichen Signal zu Rauschverhältnisses generiert wie ein 320er Newton mit der doppelten F/Zahl, ist einfach nicht wahr. Der Newton fängt 4x so viele Photonen ein.

    Aber ich möchte keinen davon abhalten sich einen oder mehrere 160/3.3er Taks zu kaufen. Die Enttäuschung ist vorprogrammiert.

    Vg Tino

    Hallo in die Runde,


    hat zwar nicht ganz mit dieser Kamera zu tun, aber hier: https://arxiv.org/abs/2302.03700 wurden kürzlich die großen monochromen Brüder des Sensors, IMX-455 und IMX-411 von Astronomen auf Herz und Nieren geprüft. Dort kann man auch sehen, dass die Quanteneffizienz wohl doch oft etwas zu optimistisch angegeben ist, siehe Seite 11.
    Maximal 80% bei 475nm sinds wohl in der Realität bei den Monochromsensoren. Mit Farbfilter wirds ganz sicher etwas weniger sein. Die kleinen Pixel sind auch nicht sonderlich tief, sodass im NIR nicht mehr viel übrig bleibt, wohl so 20% bei 800nm, da das Licht nicht mehr ausreichend absorbiert wird. Da sind die 1,4µm Pixel des hier besprochen Sensors bestimmt noch etwas kritischer.

    Die Sensoren sind aber trotzdem klasse, keine Frage. Und sowieso vermutlich besser als die Vorgänger.


    Vg Tino

    Hallo Jurgen,


    ja, ich arbeite am IOF in Jena. Ich beschäftige mich aber nur peripher mit der mechanischen Teleskop/Spiegelherstellung, sondern stelle für deren Vermessung spezielle CGHs (computergenerierte Hologramme) mit einer E-Beam-Anlage her, aber hauptsächlich diverse optische Gitter für Weltraummissionen, Laseranwendungen, aber auch Mess-CGHs für Großteleskope, wie beipielsweise den M2 vom ELT usw..

    Um zum Thema zurückzukommen, die mechanische Ultrapräzisionsbearbeitung hat sich die letzten Jahre wirklich stark etabliert. Vor allem die monolithische Herstellung von recht komplizierten Optikaufbauten, ohne die Notwendigkeit von komplizierten Alignmentstrategien, ist bei Weltraummissionen fast essentiell.

    Es ist daher nicht verwunderlich, dass auch neuere "normale" CNC-Anlagen in optische Genauigkeitsbereiche vordringen, welche vor Jahrzehnten feinsten optischen Fertigungsverfahren vorbehalten waren.


    Lg Tino

    Hallo Gert, hallo in die Runde,


    sieht ja schonmal ziemlich gut aus die grobe Spiegelform, ist aber leider nicht alles. Ich arbeite an einem Fraunhofer-Institut, welches sich hauptsächlich mit Optik beschäftigt und wir haben diverse Ultrapräzisionsdreh- und Fräsmaschinen für die Spiegelherstellung. Hier verwendet man eher extrem steife spezielle Al-Legierungen mit sehr viel Silizium (eigentlich mehr Si als Al) als Spiegelgrundträger, aber diese werden galvanisch mit Nickel-Phosphor beschichtet und in diese Schicht wird dann Diamant-gedreht. Das Nickel-Phosphor ist dabei nicht allzu hart und neigt auch wenig zu Kristallisation. Das funktioniert für IR ziemlich gut, aber fürs VIS hat man schon einige Probleme mit den Drehriefen, Rauhigkeit und Welligkeit und im UV sind die gdrehten Spiegel ohne spezielle Nachbearbeitung mit CMP, IBF, MRF garnicht verwendbar. Interferometrisch sieht alles nicht so schlecht aus, aber im hochfrequenten (Rauhigkeit) und mittleren Frequenzbereich (Welligkeit) trennt sich dann die Spreu vom Weizen. Diese misst man entweder mit AFM oder mit dem WLI, da beim klassischen Interferometer ist die Orts-Auflösung nicht ausreichend ist. Mt dem Knife-Edge Test wäre es wahrscheinlich möglich, hier eine Einschätzung der Rauhigkeit und Welligkeit vorzunehmen.

    Der Vorteil beim UP-Drehen ist aber, dass man hier auch relativ einfach asphärische Spiegel und monolithische Spiegelsysteme aus mehreren Spiegelsegmenten, welche jeweils Off-Axis-Segmente eines großen Spiegels sind, in einer Aufspannung bearbeiten kann. Ist beispielweise bei kompakten und miniaturisierten Satelliteninstrumenten und Weltraum-Teleskopen interessant.

    Aber alles in allem schreitet die Bearbeitungstechnik ziemlich schnell voran und mit entsprechenden Aufwand lassen sich mit UP-Drehen sogar geblazte und gechirpte optische Gitter auf gekrümmten Oberflächen herstellen.


    Vg Tino

    Hallo in die Runde,


    auch wenn gebetsmühlenartig die Irrelevanz des Linearitätsproblems des IMX beschworen wird, gibt es doch ausreichend Interessengebiete abseits des Schmalbandfilter-Nebel-Ablichtungsmainstreams, welche eine bestmögliche Linearität einfach erforden, wie beispielsweise Spektroskopie, Photometrie usw. Ich kann zwar jetzt zur aktuellen Problematik mit dem IMX571 nichts beitragen, da ich keine solche Kamera habe, aber ich habe eine Nikon D5100 mit dem Vorgängerchip IMX071. Diese war auch ziemlich problematisch bezüglich Darks/BIAS und Linearität, da der EXPEED-Kamerabildprozessor ziemlich stark selbst in die eigentlichen RAW-Daten des Kamerasensors eingegriffen hat. Eigentlich sind nämlich die Sony-Sensoren recht gutmütig. Es gab sogar einen Firmware-Hack, welcher unter dem Namen Dark-Current-Enabling-Tool firmiert hat und einen versteckten Modus aktivieren konnte, bei welchem die Kamera-Prozessoreingriffe abgeschaltet werden.

    Eine Kurzfassung der Geschichte, wen es interessiert:

    Der Sensor besteht aus den eigentlichen Bild-Pixeln, aber es gibt auch spezielle Pixelreihen, welche zur Kalibration dienen. Diese sind beispielweise mit einer intransparenten Schicht abgedeckte normale Pixel und es gibt auch Reihen, wo die Pixelelektronik ganz ohne Photodioden drauf ist. Ohne Photodioden kann man den BIAS recht gut korrigieren und die abgedeckten Pixel sammeln nur Dunkelstrom auf, sodass man hier den Dark-Current-Offset korrigieren kann. Die Expeed-Prozessoren haben hier recht kreativ diese Kalibrierpixel ausgewertet und den Dunkelstromoffset gnadenlos herauskalibriert. Teilweise so konsequent, dass das Dunklerauschen exakt auf 0 gesetzt wurde und der Gauss-Peak halbseitig abgeschnitten wurde. Bei meiner Kamera war interessanterweise hauptsächlich der Blaukanal betroffen, warum auch immer. Deshalb konnte man selbst bei warmen Sensor keinen Dunkelstromoffset messen, da der Prozessor diesen immer aufgrund der Kalibrierpixelauswertung weggeschnitten hat. Es kam dann natürlich ein perfekter Sensor mit unglaublich niedrigen Dunkelstrom heraus und Schwarz war dann per Definition immer Schwarz. Zumindest war das beim eigentlichen Absatzmarkt, der Tageslichtfotografie, ein toller Gimmik. Geärgert hats nur die Astrofotografen.

    Inwiefern die IMX571er Astrokameras da auch so kreativ bezüglich Offset und Darkabzug herangehen, kann ich leider nicht einschätzen. Zumindest gabs bei der alten Nikon auch einen Umschltpunkt bei etwa 1s, ab dem der Bildprozessor automatisch eine Rauschunterdückung zugeschaltet hat, ob man wollte oder nicht.


    Lg Tino

    Hallo Michael,


    das DIMM misst aber eigentlich nur die sogenannte "Differential Image Motion". Dh. man bestimmt für zwei Subaperturen mit einem definierten geometrischen Abstand die gegenläufige laterale xy-Verschiebung eines Referenzsterns, also im Grunde nur den Tip/Tilt-Term. Die Normalverteilung ist nur angenommen und ergibt sich aus klassischen Wellenfrontmessungen mittels Shack-Hartmann bzw. pyramidal WFS. Es ist aber im Grunde schon sehr komplex, wie sich das Seeing auswirkt und von ganz vielen Randbedingungen abhängig, aber gewisse physikalische Grundannahmen ermöglichen doch eine recht pragmatische Abschätzung des Einflusses auf das Bildergebnis.

    Siehe auch: https://www.telescope-optics.net/seeing_and_aperture.htm


    Vg Tino

    Hallo in die Runde, hallo lieber Stephan,


    wie kommst du denn auf die Behauptung:

    "Gerade hier, so glaube ich, verkennt Gerd die Realität. Wie auch mit der Behauptung, Asti, Koma, SA usw. gehören zum Seeing."

    Ich denke nicht, dass du die Realität für dich gepachtet hast! und zweitens gehören Asti, Koma und SA, wie auch die weiteren Zernike-Polynome zu einer allgemeinen Beschreibung einer Deformation der Wellenfront. Die ist nicht nur für Haupt- und Sekundärspiegel gedacht, sondern beschreibt diese allgemeine Deformation mit Hilfe einer speziellen orthogonalen (dh. jeder Zernikepolynom ist unabhängig und nicht austauschbar, man kann beispielsweise Tip/Tilt nicht durch ein Defocus ersetzen) Polynomzerlegung für eine runde Apertur. Nur mal nebenbei, für rechteckige Aperturen nimmt man sogennnte Legendre-Polynome. Daher kann man sehr wohl die Wellenfrontdeformation durch das Seeing mittes Zernikezerlegung (Asti, Defocus, SA usw.) beschreiben. Prinzipiell ist die meiste Deformation in den Polynomen niedriger Ordnung, dh. der Hauptanteil steckt im Tip/Tilt und dem Defocus, die höheren Ordnungen wie SA usw. tragen immer weniger bei. Dh. das hin und hertanzen des Spots ist erstmal der Hauptfaktor, welchen man aber durch kurze Belichtungen und anschließendem Alignment ganz gut in den Griff bekommt. Auch das Auge kann durch die recht kurze Belichtungszeit diesen Tip/Tilt ganz gut ausfiltern.

    Und jetzt mal ganz ehrlich, der Einfluss von Seeing und Obstruktion auf die Abbildungsleistung eines Teleskops ist ganz gut verstanden, siehe diverse Publikationen. Hierbei ist Seeing eine klassische, wenn auch sehr volatile Wellefrontdeformation, welche zu klassichen Abberationen (geometrische Optik) führt. Die Obstruktion ist eher statisch und durch Beugung verursacht, also eigentlich keine klassiche Abberation. Diese sollten "orthogonal" (also unabhängig) sein, dh. sie addieren sich geometrisch (sehr vereinfacht):

    Gesamtbildstörung = Sqrt ( Obstruktion^2 + Seeing ^2)

    Inwiefern die Klärung dieser Frage überhaupt eine Relevanz hat, erschließt sich mir nicht. Der Einfluss auf das Seeing ist ziemlich begrenzt, außer man fährt nach Gran Canaria, und die Obstruktion sollte so klein wie möglich sein (was wiederum Einfluss auf die Ausleuchtung usw. hat). Just my two Cents.

    Wer übrigens Lust hat diese Einflüsse fast vollumpfänglich zu Simulieren, sollte sich mal hiermit beschäftigen:

    phosim / phosim_release / wiki / Home — Bitbucket

    Hab das hier auch schonmal kundgetan: PHOSIM - ein umfassendes Bildsimulationstool

    Hier sind übrigens auch neuerdings verschiedene Celestron Consumer-Teleskope wie C11 usw. mit realen Optikdesigns intergriert, aber die Bedienung ist doch schon etwas trickreich und auch die Berechnung ist ziemlich zeitaufwendig. Wer sich wirklich damit beschäftigen möchte, kann sich ja gerne an mich wenden.

    Trotzdem ist der Erkenntnisgewinn für die reale Beobachtung aufgrund der vielen Einflussfaktoren recht begrenzt und diese doch eher skurrilen Diskussionsfäden fänden ein jähes Ende. Das will doch keiner, oder?


    Vg Tino

    Hallo Jan,


    das mag zwar sein, aber da steht auch dahinter, dass das für eine FWHM von 0,7asec gilt. Ich denke mal, dass das für die VLT-Site in der Atacama in etwa hinkommt. Für das gewöhnliche Seeing bei uns, ist wohl eher die 2asec anzunehmen, wobei wir wieder bei den realistischen r0=10cm wären. By the way, der Artikel ist zwar etwas älter, aber gut erklärt.

    Aber auch hier kann man es auch nochmal nachlesen und nachvollziehen, dass Ralfs Aufnahmen wohl eher nicht beugungsbegrenzt sind:

    Seeing and aperture

    Ich finde die Bilder von Ralf und Robert übrigens auch Klasse, aber geschärfte Bilder taugen leider nicht dazu, die Beugungsbegrenztheit nachzuprüfen.


    Mir ist noch was Interessantes auf der von mir verlinkten Seite aufgefallen, da steht unter der Bilderreihe "Figure 79" nochmal ein interessanter Absatz, worin auch anhand der Bilderreihe erklärt wird, dass es unter Umständen von Vorteil für die Auflösung sein kann, wenn das Verhältnis Apertur/Seeingzellgröße sich im Bereich 1.5<(D/r0)<2.5 befindet. Dann "speckelt" es noch nicht so dolle, sondern das zentrale Maximum bleibt die meiste Zeit erhalten. Dann kann die Auflösung sogar besser sein, als das mittlere Seeing erwarten lässt und man kann anscheinend auch viel größere Teleskope abhängen (außer die tricksen mit adaptiver Optik). Bei eher seltenen 1asec Seeing mit r0~20cm wäre der 16-Zoller hier in etwa im Optimum. Mit 12" ist man aber wahrscheinlich auch schon gut unterwegs.


    Vg Tino

    Hallo Jan,


    wie kommst du denn auf r0=30cm. Bei normalen 2asec Seeing ist r0 für 550nm etwa 7cm. Und das skaliert mit ^6/5, also landen wir bei 800nm eher bei 12cm. Also ist Ralfs 16Zoller schon längst im Schwimmbadmodus. Dann sind störungsfreie Bilder eher die Seltenheit. Und selbst wenn man unendlich kurz belichtet, sind fast immer mehrere Seeingzellen in der Aperture und der Spot sieht nicht so dolle aus.


    Vg Tino

    Hallo in die Runde,


    ich glaube Ralf hat es ziemlich gut erklärt, aber ich hab auch noch ein bisschen Senf im Angebot. ;)

    Die Profis weisen den Seeingparametern eine Zeitkonstante zu, welche sich aus der relativen Geschwindigkeit der Seeingzellen aufgrund der Windgeschwindigkeit in der jeweiligen Turbulenzschicht ergibt. Die eigentliche Änderungsgeschwindigkeit der Turbulenzzellen ist thermodynamisch begrenzt und noch viel langsamer. Relevant ist also nur, wie schnell die Warmluft-/Kaltluftblasen durchs Bildfeld huschen. Also je besser das Seeing ist, umso größer ist die Zelle und für gewöhnlich ist sie dann auch langsamer und somit wird die Zeitkonstante recht groß, für gewöhnlich mehrere 10ms (hatte mal einen Artikel dazu gefunden, ich schaue mal ob ich den nochmal wiederfinde). Bei schlechten Seeing sind die Seeingzellen klein (bei 2arcsec (rms) ist die Seeingzelle vllt. etwa 70mm groß) was einerseits bewirkt, dass die Zeitkonstante geringer wird, also die Änderungsgeschwindigkeit wird höher. Außerdem verteilen sich gleichzeitig mehrere in der virtuellen Apertur des Teleskops (je größer, desto mehr), was dazu führt, dass der Spot eines Sterns oä, in einzelne Unterspots (Speckles) zerfällt. Auch wenn man diese mit superschnellen Belichtungen einfriert, kommt in Summe ein unscharfes Bild heraus, da jeweils immer ein sich schnell ändernder zerfaserter Spot entsteht. (Außer man macht für jedes Einzelbild eine Deconvolution mit dem jeweiligen aktuellen Spot)

    Solange man aber nicht zuviel Signal verschenkt, da man sich bspw. an der Detektionsgrenze des Sensors befindet (Ausleserauschen dominiert) oder das Auslesen des Sensors im Vergleich zur Belichtungszeit relevant wird, sollte man auch möglichst kurz belichten. Aber kürzer als bspw. 2ms ist wahrscheinlich nicht sinnvoll.


    Vg Tino


    Ps. Das Verhältnis Teleskopapertur zu mittlerer Seeingzellengröße (D/r0) wird übrigens auch gerne zur Beschreibung der Seeingverhältnisse, sowie für die Berechnung der Wahrscheinlichkeit für das Auftreten eines Lucky-Imaging Ereignisses genutzt. Ab einer bestimmten Aperturgröße ist es sehr, sehr unwahrscheinlich, dass sich nur eine Seeinzelle in der Apertur befindet und das Teleskop beugungsbegrenzt funktioniert. https://www.telescope-optics.net/seeing_and_aperture.htm

    Hallo Jan,

    so eine zugeschnittene Größengleichung, welche sich aus einer fast beliebigen Festlegung des Dawes-Kriteriums ergibt, ist aber leider noch keine Theorie.

    Vielleicht versuchen wir es nochmal anders herum. Das Teleskop hat eine recht einfach berechenbare MTF, wobei bei einer definierten Ortsfrequenz am Dawes Limit 5%Modulation übrig bleiben (wenn sich die zwei Spots überlagern).

    Prinzipiell hat ein Sensor auch eine berechenbare MTF. Hier ist für einen idealen Sensor an der Nyqvist-Frequenz 60% Modulation zu erwarten. Dh. der Kontrast im Bild ergibt sich aus der Multiplikation der Sensor-MTF und der Teleskop-MTF. Wenn ich die doppelte Auflösung des Sensors wähle, hat der Sensor eine Kontrastübertragung von 90% bei der Dawes-Auflösung des Teleskops. Der Gesamtkontrast bei der Dawes-Auflösung des Teleskops ist also bei 2x Nyqvist-Sensorauflösung 1,5x so hoch. Wenn man einen immer höher auflösenden Sensor hat, nutzt man die Teleskop-Auflösung immer besser, die sich ergebenden Vorteile , werden aber immer geringer.

    Das von dir angeführte Dawes-Kriterium ist aber eigentlich eine Festlegung, welche sich aus dem physiologishen Randbedingungen des Sehens ergibt. Wenn unsere Planeten-Spezialisten ihre Schärfungsalgorithmen, bspw in Form einer Deconvolution mit dem Airy-Spot durchführen, kann man praktisch auch viel stärker überlappende Spots trennen, da der Kontrast zwischen den Spots dadurch fast beliebig angehoben werden kann. Begrenzend ist hier eigentlich nur das Rauschen.

    Wie auch immer, wenn man sich an Nyqvist und Dawes orientiert, liegt man sicherlich bei unseren gewöhnlichen Seeingbedingungen nicht ganz falsch, aber wenn man das letzte Quentchen Detail rausquetschen will, wenns dann doch mal perfekt ist, sollte man etwas Oversamplen.

    Vg Tino

    Hallo Oliver, hallo Burkhard,


    sorry für die verspätete Antwort. Ich habe mehrere, wahrscheinlich doch eher exotische Kameras, welche speziell mit speziellen Vakuumkammern ausgestattet sind. Hier gibt es dann auch keine prinzipiellen Probleme mit Kondensation an der Frontscheibe, da die Wärmeleitung und Konvektion nicht vorhanden ist, bzw. nur noch ein bisschen Wärmestrahlung. Da wird die Frontscheibe einfach nicht kalt. Meine Andor iXon DU897-BV kühlt beispielsweise den Sensor auf minimal -90°C und ich habe noch eine zweite Hamamatsu ORCA mit dem gleichen Sensor, welche auf minimal -65°C kühlt. Das geht aber nur im Vakuum. Bei den beiden bin ich mir sicher, dass die Peltiersteuerung auch heizen kann. Wie schon gesagt kann man dann Temperaturschwankungen dann auch besser und schneller ausregeln, ohne muss man immer die Trägheit ausnutzen, wenn der Sensor zu kalt wird, bspw. wenn sich die thermische Last aufgrund einer geänderten Bildrate verringert. Mglw. ist das aber auch nur im Vakuum notwendig, bzw. wenns finanziell keine Rolle spielt. Übrigens ist eine Umkehr der Spannung auch kein Hexenwerk, das macht jede bessere Motorsteuerung/-regelung, siehe auch 4-Quadrantenregelung (die kann sogar noch Strom aufnehmen, bspw um den Motor aktiv zu bremsen). Ich habe noch eine ältere Princeton-Instruments Kamera mit großem Sensor, bei der bin ich mir nicht so sicher. Die regelt auch nur bis -55°C runter. Aber wie gesagt, es geht hier nur um die Qualität und Geschwindigkeit der Regelung, Kondensation ist ein anderes Problemfeld und muss anders gelöst werden.


    Vg Tino

    Hallo in die Runde,

    eine aktive Regelung funktioniert aber prinzipiell besser und vor allem schneller, wenn der Peltier aktiv kühlen und wärmen kann. Deshalb können die guten Kameras eigentlich auch beides. Das hat aber prinzipiell erstmal nicht viel mit Beschlagen und Kondensation zu tun, diese Probleme sollten vorher gelöst sein, also die Trockenpatronen immermal reaktivieren oder halt ne Kamera mit Vakuum.

    Vg Tino

    Hallo Jan,


    ich denke das ist mehr oder weniger klar was du meinst. Das Problem ist hierbei aber schon, dass du die Bilder subpixelgenau überlagern musst, ansonst würde sich das Raster nicht wirklich auflösen. Bezüglich der subpixelgenauen Überlagerung gibt es aber in der Realität einige Hürden, welche bspw. das HST mit seinem achsotollen Drizzling gar nicht hat, da wird die Blickrichtung nämlich sehr exakt durch das Gerät selbst bestimmt (bei jedem Dithervorgang) und zu jedem Fits in den Header geschrieben. Dies wird bei dem Standarddrizzle-Software auch aus dem Header entnommen und nicht in jedem Bild einzeln bestimmt. Wenn ein Stern nämlich nur grob einen Pixel einnimmt, möchte ich gerne sehen, wie du einen sinnvollen subpixelgenauen Schwerpunkt bestimmst. Diese Subpixelgenauigkeit ist aber essentiell, um die verlorengegangene Auflösung durch das Undersampling zu rekonstruieren.

    Bei deinem Planetenvideo kann man eigentlich nur den Schwerpunkt des Planeten einigermaßen genau bestimmen, was dann auch eine Option bei Autostakkert ist. Mit dem Alignment der einzelnen Sub-Patches wird das dann beliebig schwierig, hier hat die Mustererkennung denke ich keine Chance, überhaupt subpixelgenau was hinzuschieben.

    Wenn man die Bilder natürlich irgendwie großrechnet und dann erst überlagert, wird wohl etwas rundgelutschtes rauskommen, aber die fehlende Information und Auflösung ist dahin, so oder so.

    Mein Statement ist nochmal:

    1. Oversamplen, wenn sehr viel Licht da ist, viel kürzer als 5ms müssen die Frames nicht sein, da das Seeing sich eh nicht schneller ändert. Bspw. Mond, Jupiter, Sonne. Außer man möchte möglichst viel Feld aufnehmen. Oversampling ist eigentlich für den Erhalt der Bildinformation immer die beste Wahl, da man bei kritischen Sampling, bzw Undersampling recht schnell Probleme mit Moiree-Effekten bekommen kann

    2. Kritisch Samplen, wenn das Licht bereits knapp ist. 3 x Pixelgröße um auch die Diagonalenrichtung mitzunehmen, 2 x Pixelgröße wenn man auf die optimale Auflösung verzichten kann.

    3. Undersamplen, wenn eh alles zu spät ist.


    Man kann ja auch beispielsweise mit Oversampling aufnehmen und dann die Pixel per Software binnen, wenns aufgrund des geringen SNR nötig erscheint. Dann verschenkt man zwar ein bisschen Empfindlichkeit, bezüglich des echten Binnings, aber der Unterschied ist bei weitem nicht so gravierend wie hier dargestellt.


    Vg Tino

    Hallo Jan,


    nochmal, es interessiert ziemlich wenig, ob deine Aufnahme gut oder schlecht ist, oder ob ich eine bessere mit anderen Sampling habe. Das hängt, wie du ja weißt von recht vielen Randbedingungen ab. Außerdem sind die Unterschiede sehr wahrscheinlich nur im direkten Vergleich zu erkennen. Ich mache dir ein Angebot, ich simuliere im Lauf der Woche mal eine Bilderserie mit ImageJ, welche zwei hochaufgelöste ideale Airy-Scheibchen in Form eines Doppelsterns an der Auflösungsgrenze (kannst dir was wünschen Rayleigh, Sparrow), einmal waagerecht und einmal diagonal und dann testen wir mal was das Sampling macht. Ich könnte auch übrigens mit PHOSIM mal einen Simulationsrun starten, da könnten wir auch gerne das Seeing mit dazunehmen. Die Berechnung dauert dann aber 2min pro Bild, sodass ich mir die Lebenszeit gerne für wichtige Sachen aufsparen würde. Ich kann aber gerne mal das Einstein-Kreuz an der Auflösungs- und Helligkeitsgrenze durchrechnen lassen, hatte ich eh mal vor.

    Die Diskussion hatten wir übrigens schonmal so oder so ähnlich: RE: Erfahrungsbericht: Kamera- und Bildauflösung in der Videoastronomie


    Vg Tino

    Oh lecker Popcorn und ich dachte die Maus hätte längst den Faden (Thread) durchgebissen.


    Mal Spaß beiseite, dein Tests Jan taugen leider nicht viel, weil der direkte Vergleich fehlt. Wenn du jetzt ein nach unserer Meinung korrekt gesampletes (besser gesagt kritisch gesampletes), mit bspw 3*Pixelgröße-Sampling mit deinem postulierten 2*Pixelgröße-Sampling bei vergleichbaren Bedingungen gegenüberstellst, dann würde ich nochmal anfangen darüber nachzudenken. Fakt bleibt, dein 2*Pixelgröße-Sampling funktioniert leider nur waagerecht bzw. senkrecht, weil in der Diagonale die Pixel nämlich 2*Sqrt(2), also etwa 2,8 mal soweit auseinander liegen. Also sind wir wieder bei den althergebrachten etwa 3*Pixelgröße, wenn man auch die Diagonale bedenkt. Das ist auch das, was dir 18 Leute bereits versucht haben zu erklären, dass das Nyqvist-Kriterium eigentlich nur für eine 1d-Abtastung, bspw einer Spannung taugt.

    Aber die tausenden Hobbyastronomen, welche sich mit den Barlowverkäufern zusammengetan haben, nur um den Anfängern eine Brennweitenverlängerung aufzuschwatzen, sind sicherlich viel zu leicht zu durchschauen.


    Vg Tino