Beiträge von m.haardt

    Ich befasste mich damit vor längerer Zeit und das resultierte in einer Blechabdeckung des Hauptspiegels, in der ein Lüfter langsamlaufend Luft aus dem Tubus absaugt. Ich notierte mir:


    1979MNRAS.188..249L Page 249


    Das Problem sind sich vom Spiegel ablösende Blasen warmer Luft. Eine laminare Strömung forciert die Ablösung warmer Stellen und verhindert die Blasen, so dass es vorwiegend zu einem Temperaturgradienten kommt, der die Qualität nicht mehr stark beeinflusst.


    So gesehen ist das Absaugen von Luft allein nicht ideal, denn das wird die Spiegelmitte trotz Tubus vernachlässigen. In der Realität funktioniert es bei meinem 6" dennoch sehr gut. Bei großen Spiegeln

    wäre ein zusätzlicher seitlicher Lüfter evtl. hilfreich.


    http://atm.udjat.nl/articles/cooling.pdf


    Die Spiegelkante kühlt am schnellsten aus und sollte gedämmt werden, damit der Spiegel gleichmäßiger auskühlt.


    Ein Temperatursensor könnte für die Fotografie gut sein, um die Bedingungen zu dokumentieren, aber sinnvoll was regeln kann man nicht, weil der Spiegel bei geringen Unterschieden kaum noch Wärme abgibt, selbst damit nur minimal abkühlt, und die ganze Nacht hindurch bei fallender Lufttemperatur das Problem der Blasen besteht. https://lco.global/documentation/data/fits-headers/ verwendet das FITS keyword m1temp für primary mirror temperature.


    https://www.researchgate.net/publication/229038345_First_light_of_the_OVLA_active_mirror_with_its_surface_heating_system/link/0912f50a28c97a37f9000000/download


    Der Spiegel wird von oben geregelt beheizt und von unten gekühlt, um den Wärmeverlust an den Himmel auszugleichen.


    Manche Leute dämmen den Fangspiegel von hinten, z.B. mit Schaum, damit er nachts nicht in den Himmel abstrahlt und sich dabei verformt.


    Beat the Heat: Conquering Newtonian Reflector Thermals — Part 1 - Gary Seronik
    What you need to know when it comes to optimizing your scope’s thermal behavior. Generations of backyard astronomers have debated why, inch-for-inch, the…
    garyseronik.com


    Michael

    Wenn ich hier

    https://www.telescope-optics.net/seeing_and_aperture.htm

    auf die erste kleine Tabelle schaue, dann fällt der Strehl in der Langzeitbelichtung nicht um 0,1 sondern auf unter 0,1 (also um grob 0,9 (D => 300)).
    Das überwiegt mit sehr großem Abstand den bildverschlechternden Effekt der Zentralabschattung.

    Die ganze Seite ist sehr aufschlussreich, aber die Tabelle erzählt eine Geschichte, wenn man ihr zuhört:


    Es gibt soweit Einigkeit, dass Obstruktion mit etwas mehr Öffnung ausgeglichen werden kann, was die MTF angeht, aber es gibt da einen Öffnungsbereich am unteren Ende, wo man sich durch mehr Öffnung direkt auch deutlich mehr Seeing einfängt bis hin zu dem Punkt, wo Seeing gnadenlos dominiert. Man könnte auch sagen: Obstruktion tut bei kleinen Teleskopen relativ gesehen mehr weh, weil die zwar eine fette PSF haben, aber vom Seeing begünstigt werden. Da kann man also ohne Obstruktion durchaus länger belichten, was man wegen der kleinen Öffnung auch tendenziell muss. Mit dem Lichteimer geht dann auch lucky imaging, und es ist anzuraten, denn ansonsten geht es nur schneller, aber nicht um so viel besser, wie man naiv denken könnte. Ich wusste, was r0 ist, aber mir war nie klar, wie brutal es wirkt.


    Der Text geht aber auch mehrfach darauf ein, die integrierten Fehler nicht überzubewerten. Es zwingt einen ja keiner, lange zu integrieren.


    Ich frage mich nun immer noch, wie die Obstruktion in dem Zusammenhang bzgl. der Ausbeute bei lucky imaging wirkt. Wird sie mit wachsender Öffnung genau wie die Beugung immer irrelevanter, weil der Seeingeinfluss immer mehr dominiert, oder gibt's da noch irgendwo eine Überraschung? Geizt man mit dem letzten Millimeter Fangspiegel aus Prinzip oder für die eine Nacht im Jahr, wo Seeing sagenhaft toll ist, oder weil man ein Abo für die Atacama-Wüste hat? :)


    Michael


    PS (aka offtopic):


    Stathis Die Frage war nicht, wie sie zusammenhängen (tun sie nicht, da stimme ich zu), sondern wie sie zusammen wirken. Ich konnte mir nicht mal die einfachere Faltung der Integration im Kopf vorstellen und Gnuplot sagte mir dann: Es gibt Fälle, da macht Obstruktion mehr Unterschied, als man annehmen sollte, denn der erste Ring zieht die Faltung breiter als man denkt, wenn Seeing sehr klein ist, und es gibt das Gegenteil. Und wie man im Verlauf der Diskussion sah, ist das Zusammenwirken noch komplexer und wirklich interessant. Die Frage war nicht schlecht, auch wenn sie ohne Kontext und Begründung im Raum stand. Man tendiert dazu, gelernte Sachverhalte nicht mehr zu hinterfragen. Mein Lieblingsbeispiel ist die DFT: Alle schauen immer auf das obere Ende der Frequenzen, weil man da Aliasing und eine starke Dämpfung sehen kann; da ist richtig was los. Wenige machen sich über die Länge vom Window Gedanken, aber unterhalb der 1. Harmonischen ist man blind. In vielen Prozessen gibt es neben dem im Fokus stehenden Signal noch einen Drift, der einem viel versauen kann, aber die Allan-Varianz ist wenig bekannt und wird wenig benutzt. Das ist aus Sicht der Lernpsychologie (Konstruktivismus) sehr verständlich, aber als Ingenieur profitiert man davon, sich dieses Problems mentaler Modelle bewusst zu sein. Dazu gehört, eine Frage manchmal wortwörtlich zu nehmen, auch wenn die naheliegende Antwort klar und einfach scheint.

    Ich denke das Ergebnis der Integration ist soweit klar, auch wenn die Faltung mit Gauss nicht ganz stimmt. Die Obstruktion führt durch den stärkeren ersten Ring zu einer Verschlechterung: Je mehr Obstruktion, um so schlechter (was zu erwarten war). Es hat mich überrascht, wie sehr sich schon ein wenig Obstruktion bei wirklich gutem Seeing in der Integration bemerkbar macht. Andererseits kommt man mit größeren Optiken schnell in den Bereich, wo das beste Seeing im Vergleich zum Beugungsscheibchen immer noch schlecht ist. Mit dem Leistungsfortschritt im Amateurbereich wird die Diskussion um Obstruktion wohl mit der Zeit abnehmen.


    Die Ergebnisse kurzer Belichtungen sehen natürlich ganz anders als die lange Integration aus. Ich denke die beste Beschreibung wird statistisch sein, d.h. mit welcher Wahrscheinlichkeit kann man welche Bildqualität erwarten, also wieviel Glück braucht lucky imaging für die Ausbeute einer bestimmten Qualität? Es gibt da (nicht von mir) verstandene Mathematik, wieviel Prozent der Aufnahmen welcher Belichtungszeit bei welchem r0 welches FWHM haben. Wenn die Modellierung der Turbulenz im Abberator realistisch ist und man ihn in einer Schleife laufen lassen könnte, dann könnte man herausfinden, was Obstruktion da tut. Das wird auch am ehesten noch aussagen, wieviel erfahrene Beobachter visuell wahrnehmen. Oder jemand kennt ein Paper mit dem Ergebnis, denn das hat sich mit Sicherheit in den letzten Jahrzehnten schon ein Astronom gefragt, der es ausrechnen konnte.


    Das Ergebnis würde bei Messung des Seeings aussagen, wie nah ein Instrument bei lucky imaging dem Limit kommt. Nach meiner Erfahrung sind solche theoretischen Limits sehr aufschlussreich, weil sie gerne bis dahin übersehene Einflüsse der Realität zeigen. Die Wandlung vom gefühlten "alles super, mehr braucht mehr Geld" zum gemessenen "wieso liege ich erheblich unter dem, was theoretisch gehen sollte?" ist ein Klassiker auf dem Weg zur Erkenntnis.


    Ich hatte bisher noch nicht das Glück, das Beugungsmuster vom Sterntest visuell absolut ruhig zu sehen, wobei ich ehrlich gesagt in einer Nacht mit sagenhaft gutem Seeing lieber Saturn schaute als das Seeing und mich seitdem frage, wie es ausgesehen hätte, aber ich bereue es nicht. Aber ich sah schon auf Videoaufnahmen, dass es so gutes Seeing durchaus gibt. Bei brauchbarem Seeing sehe ich die Beugungsringe schon einzeln, aber nicht ruhig genug, dass ich den Hauptspiegel danach einstellen könnte. Bei meinem ersten Newton war der Sterntest die Offenbarung, dass die Spiegelzelle geöffnet werden muss, weil Tubusseeing die Ringe sich gegenseitig verschlingen ließ.


    Michael

    Koma, Asti und Obstruktion etc. ist nicht Seeing

    Koma und Astigmatismus sind spezielle Abbildungsfehler. Obwohl sie in unserem Kontext meist auf Teleskopoptiken bezogen werden, wie tbstein im Detail erklärt, sind es allgemeine Begriffe der Optik. Beim Seeing wird die Atmosphäre optisch wirksam und erzeugt alle möglichen Abbildungsfehler, u.a. auch diese. Man sieht das schon daran, dass die Abbildung nicht mehr rotationssymmetrisch ist und das ist beim Sterntest visuell auch zu erkennen: Die Ringe können Dellen kriegen und kurz mal zu Eiern werden.


    Meine Darstellung bezieht sich auf lange Belichtungen, bei denen der Durchschnitt aller Abbildungsfehler über die Zeit zu einer Gauss-PSF konvergiert (was meine Annahme ist, wie ich zu Anfang sagte, aber bisher scheint mir das plausibel). Abberator hingegen zeigt einzelne Momente, was kurzen Belichtungen bzw. visueller Beobachtung entspricht, und erheblich komplexer zu berechnen ist. Ich sehe da keinen Widerspruch und zeigte, dass die angesprochene scheinbar falsche optische Darstellung der PSF nur an der Gamma-Kodierung liegt. Es ist schade, dass es nicht open source ist, denn dann könnte man schauen, was sich hinter turbulence verbirgt.


    Michael


    PS: Ich sprach schon das Vier-Seiten-Modell an. Hier noch ein URL dazu: https://wirksam-kommunizieren.de/vier-ohren-modell/ Was auch immer das Apellohr hört, und meins ist auch nicht taub, sollte als Antwort nicht zu Beleidigungen auf der Sachebene führen. Ansonsten ist es wenig verwunderlich, mit der Zeit auf Fragen keine guten Antworten mehr zu bekommen.

    Wenn man die Helligkeiten der Ringe in Abberator und im Diagramm vergleicht, dann muss man berücksichtigen, dass das Diagramm die lineare Helligkeit zeigt, Bilder aber stets gamma-kodiert sind. Ich habe das Bild ohne Seeing linearisiert und bekomme dann ziemlich genau den Verlauf meines Diagramms. Das ist also korrekt. Bei Obstruktion geht zwar mehr Energie in den ersten Ring, aber das Scheibchen ist auch kleiner, d.h. die geringere Energie verteilt sich auf weniger Fläche. Es hätte mich auch gewundert, für den Fall ohne Seeing Abweichungen zwischen Abberator und den geschlossenen Formeln zu finden. Man muss sich klar machen, dass das menschliche Sehen anders als ein Bildsensor nicht linear funktioniert.


    Was die Natur von Seeing angeht, habe ich mich auf den fotografischen Fall mit eher längeren Belichtungen beschränkt, weil der analytisch gut fassbar ist. Seeing ist eine komplexe Veränderung der Wellenfront, die bei kurzen Zeitintervallen nicht durch eine einfache 2D Faltung beschreibbar ist, und es kann ganz verschieden aussehen und wird auch verschieden wahrgenommen. Natürlich gibt es Seeing mit und ohne starke Dynamik! Hier vergleicht man schnell Äpfel mit Birnen und das bringt niemand weiter. Bei längeren Belichtungszeiten wird der Vergleich einfacher und dank statischer Bilder hängt die Wahrnehmung auch weniger vom Beobachter ab, so dass man recht neutral bestimmen kann, wie Obstruktion und Seeing zusammen wirken. Man sieht bei DIMM, dass die Summe von atmosphärischem Seeing nach einer normalverteilten PSF, wie ich es annahm, aussieht. Die Einzelbilder sind zum Teil echt schräg.


    Die Frage welches Teleskop welche Form von Tubus- und Spiegelseeing erzeugt, ist nochmal ganz anders, aber darum ging es im Thread nicht.


    Michael

    Das schrieb ich die Tage schon: "Die PSF des Seeings hängt wie gesagt von vielen Faktoren ab, aber etwas länger belichtet vermute ich eine Normalverteilung, d.h. auch jenseits des Kerns ist da noch ein deutlicher Anteil. Darum sehen reine Summenbilder meist grauenhaft unscharf aus. Je kürzer Du belichtest, um so kleiner wird der Einfluss des Seeings als Faltung [...]."


    Kurzbelichtet oder visuell kann Seeing ganz verschieden aussehen und visuell hängt die Bildwahrnehmung dann auch noch sehr vom Beobachter ab. Die von Dir gezeigte Momentaufnahme ist visuell nicht statisch sichtbar, weil es sich kontinuierlich bewegt. Das ist nur als Kurzbelichtung bei lucky imaging zu erkennen.


    Wie hast Du die Bilder erstellt und wie ist das Seeing dort definiert?


    Michael

    Zu meinem Erstaunen steht auf Wikipedia die Formel des Beugungsscheibchens für obstruierte Teleskope. In gnuplot heisst das dann so:


    airydisk(x,obs)=x==0?1: 1/((1-obs**2)**2)*((2*besj1(pi*x))/(pi*x)-(2*obs*besj1(obs*pi*x))/(pi*x))**2


    obs ist das Verhältnis von Obstruktion und Durchmesser. Nehmen wir mal 0,25, was allgemeinhin als noch ok angesehen wird:


    f(x) = airydisk(x,0.25)


    Der Rest bleibt wie oben und die Faltung ist dann:



    Die Obstruktion zeigt sich in einem stärkeren zweiten Ring und das Minimum des Scheibchens rutscht ein wenig zur Mitte, d.h. ich hab's vermutlich richtig abgeschrieben. Mit dem Seeing wird es wie zu erwarten schlechter als ohne Obstruktion.


    Wie gesagt, Gnuplot ist freie Software und läuft auch unter Windows. Mit copy & paste von den paar Zeilen kann man jetzt alles simulieren, wenn man die Zahlen ändert. Die numerische Integration ist natürlich nicht perfekt, wie man an den kleinen Fehlern in der Dreiecksfunktion sieht, aber das letzte Prozent spielt hier ja auch keine Rolle.


    Michael

    Ich hab noch immer die Vorstellung, dass das nicht ganz linear geht. Solange das Seeing eine Spreizung weit unter der Auflösung des Teleskops macht, bleibt das Beugungsmuster für die Abbildungsleistung entscheidend. Und dabei ist wichtig, dass die Auflösung normalerweise nicht durch das gesamte Beugungsmuster bestimmt wird sondern, und das auch bei großen Obstruktionen, durch den Durchmesser des Beugungsscheibchens (je nach Definition). Sobald jedoch das Seeing die Auflösung erreicht, springt die gesamte Spreizung auf eine Größe über das Beugungsmuster, ab hier kann man dann einfach addieren.

    Aber genau dieser Bereich, wo die Spreizung durch Seeing bei der Aufkösung des Gerätes liegt, ist das ganze nicht linear, sondern steigt ziemlich sprunghaft an mit dem Seeing. So wenigstens stelle ich es mir vor. Und das ist ja häufig der Fall bei Öffnungen zwischen 4 und 8 Zoll, dass das Seeing genau in diesem Bereich liegt


    Aber glaubst du auch, dass man prinzipiell aus dem Beugungsmuster an einem Stern schon sehr viel, wenn nicht alles, über die Qualität der Optik lesen kann? Diese Frage ist nur halb rhetorisch.

    Finden wir es raus. Gnuplot ist eine freie Software für Graphen (gibt es auch für Windows):


    gnuplot download


    Es ist hier und da etwas obskur, aber ich nehme es schon ewig und Du kannst es bei Dir so nachvollziehen. Zum Einstieg erstmal die Rechteckfunktion:


    box(x)=abs(x)<=0.5 ? 1 : 0


    Gnuplot kann Funktionen nicht als Argumente übergeben, also nehme ich zur Faltung immer f und g:


    f(x)=box(x)

    g(x)=box(x)


    Die Faltung ist das numerische Integral über den Phasenversatz, hier von -10 bis +10 in Schritten von 1/100:


    eps = 0.01

    convolve_f_g(x) = sum [offset=-10*100:+10*100] f(offset*eps)*g(x-offset*eps)*eps


    plot [-1:1] f(x),g(x),convolve_f_g(x)



    Tut's, die Dreiecksfunktion. Weiter mit dem Beugungsscheibchen (zur Übersichtlichkeit normalisiert und für 0 definiert, damit die Integration klappt):


    airydisk(x) = x==0?1:((2*besj1(pi*x))/(pi*x))**2


    Wie soll das Seeing sein? Exzellent mit einer Standardabweichung von 0.3 Beugungsscheibchen und ich normiere es für die Übersichtlichkeit auch auf 1 in der Mitte:


    gauss(x,stddev,my) = 1/sqrt(2*pi*stddev*stddev)*exp(-0.5*((x-my)/stddev)**2)

    seeing(x) = gauss(x,1.22/3,0)/gauss(0,1.22/3,0)


    f(x) = airydisk(x)

    g(x) = seeing(x)


    plot [-4:4] f(x),g(x),convolve_f_g(x)



    Also wenn Seeing und Beugung etwa gleich sind, wächst das Scheibchen von Radius 1.22 auf ca. 2 und wird im Kern ein wenig dunkler.


    Damit kannst Du jetzt selbst schauen, wie Beugung und Seeing die PSF verändern. Und wenn Du die Funktion für die PSF mit Obstruktion auftreibst, auch die originale Frage beantworten. Man sagt, dass Seeing selten besser als 1 Bogensekunde wird, aber ich habe keine Ahnung, was man da eigentlich genau misst. Der Bezug zur Realität wäre also noch herzustellen. :)


    Deine Frage mit dem Stern als Punktfunktion kannst Du damit auch testen:


    star(x)=x==0?1.0/eps:0


    Da mit einem epsilon von 0.01 integriert wird, muss die Punktfunktion der Kehrwert von epsilon sein. Wenn man analytisch integriert, wird die als Grenzwert unendlich. Die Faltung mit der Punktfunktion ergibt wieder die originale Funktion.


    Prinzipiell steckt in der PSF alles, wenn man berücksichtigt, dass sie nicht über das Feld konstant ist. Suiter kann an der PSF alles ablesen, ich kann's nicht.


    Michael

    Korrekt, mehr Öffnung erzeugt proportional weniger Beugung durch den Rand. 10x so viel Öffnung = nur noch 10% des originalen Beugungsscheibchens. 2" zu 20" deckt den Hobbybereich schon weitgehend ab. Mit mehr Öffnung schafft man mit Obstruktion die gleiche Leistung wie ein kleineres Teleskop ohne Obstruktion und ich meine überschlägig muss der Durchmesser des Teleskops um den Durchmesser der Obstruktion größer sein. Man verliert nur im Vergleich zu einem gleich großen Teleskop ohne Obstruktion immer. Hier hilft einem die PSF alleine nicht direkt weiter, sondern das muss man sich im Fourierraum anschauen, wo aus der PSF ein Ortsfrequenzspektrum wird, was mit dem Spektrum des Bildes multipliziert wird. Dieses Ortsfrequenzspektrum der PSF heisst



    und der Vergleich der MTF eines Teleskops ohne Obstruktion mit der MTF eines Teleskops mit Obstruktion, aber auch etwas mehr Öffnung, zeigt dass man sich quasi durch mehr Öffnung freikaufen kann.


    Die Verbreiterung des Punktes ist in der Tat bereits die erste Faltung: Der Stern ist punktförmig und ein Punkt ist für die Faltung das neutrale Element, d.h. Punkt gefaltet mit einer PSF ergibt wieder die PSF. Darum ist der Sterntest so nützlich: Du siehst direkt die PSF des Teleskops. Deswegen gibt's da dieses exzellente Buch von Suiter drüber.


    Die Faltung des Beugungsmusters mit dem Seeing ist in der Breite eine Addition, wenn jeder Anteil größer als Null zählt, aber das ist keine hilfreiche Definition. Diese Animation ist aus Wikipedia:


    Faltung (Mathematik) – Wikipedia


    Du siehst die Faltung einer Rechteckfunktion mit sich selbst. Da die Rechteckfunktion abgesehen vom Kern 0 ist, wird das Ergebnis doppelt so breit, aber am Rand ist es sehr klein, weil das Ergebnis eine Dreiecksfunktion ist. Irgendwo muss man also eine Schwelle setzen und damit wird es in der Breite weniger als eine Addition.


    Die PSF von Durchmesser/Obstruktion wird nirgends 0, aber sie wird jenseits des Kerns schnell klein. Die PSF des Seeings hängt wie gesagt von vielen Faktoren ab, aber etwas länger belichtet vermute ich eine Normalverteilung, d.h. auch jenseits des Kerns ist da noch ein deutlicher Anteil. Darum sehen reine Summenbilder meist grauenhaft unscharf aus. Je kürzer Du belichtest, um so kleiner wird der Einfluss des Seeings als Faltung, jedenfalls innerhalb kleiner Fleckchen, und die Fleckchen verschieben sich dann vor allem.


    Michael


    PS: Ich wundere mich etwas über die off topic Beiträge hier. Zur Motivation:


    das Kommunikationsquadrat - Schulz von Thun Institut


    Wenn ich die letzten Beiträge entsprechend betrachte, dann stehen da blamable Selbstkundgaben. Erstaunlicherweise mußte ich genau das die Tage schon jemand erläutern. Raue Zeiten.

    Die meisten Leute, die von sich sagen nicht gut in Mathematik zu sein, sind nicht begeistert von Mathematik im Fourierraum als Antwort auf ihre Fragen. :) Ja, kommutativ heißt, es ist was egal was Du zuerst faltest. Damit es nicht zu einfach wird, ist Seeing nicht über das Bildfeld konstant. Die Faltung von Obstruktion/Durchmesser und Seeing liefert aber für kleine Regionen eine gute Annäherung. Ich sage "Obstruktion/Durchmesser", weil das Beugungsscheibchen durch den Teleskoprand bzw. Spiegelrand erzeugt wird. Die Obstruktion kommt nur oben drauf. Auch diese zwei Einflüsse sind zusammen schon wieder eine Faltung. Ein Teleskop ohne Obstruktion ist also nicht etwa frei von Artefakten.


    Den Vergleich mit dem Segelboot meine ich so, dass erfahrene Beobachter wahlweise kleine Artefakte sehen, die sie nicht lieben und von denen sie wissen wie die aussehen, oder die guten Momente vom Seeing mehr wahrnehmen als den Rest. Entsprechend meckern sie über das Teleskop oder loben es in den Himmel, und beide haben das Gleiche gesehen, aber bezogen auf ihre Wahrnehmung recht, ebenso wie der Neuling: "Ich seh da nur ein Fleckchen, ist es das?". Die Beschreibung der visuellen Beobachtung ist sehr subjektiv. Viele Astroforen hätten erheblich weniger Beiträge, wenn die Beobachter akzeptieren würden, dass Wahrnehmung individuell verschieden ist. Viele sagen "klar", gefolgt von "aber" - sofern sie nicht persönlich mit der Nase darauf stoßen, wie groß das Spektrum der menschlichen Erfahrung wirklich ist.


    Da hilft einem Mathematik nur bedingt. Wenn es um Fotografie geht, ist das schon anders. Verfahren wie DIMM messen das Seeing am Bild und schließen daraus auf r0. Hier hast Du also die Faltung des Teleskopdurchmessers, der Obstruktion und der statistischen PSF vom Seeing.


    Ein Spiegel kühlt wegen der einseitigen Verspiegelung und Himmelsexposition ungleichmäßig ab. Das ist in jeder Beziehung ungünstig. Es gibt Teleskope, wo man darum die Vorderseite heizt und die Hinterseite kühlt:


    https://www.researchgate.net/publication/229038345_First_light_of_the_OVLA_active_mirror_with_its_surface_heating_system/link/0912f50a28c97a37f9000000/download


    Nur die gewünschte Temperatur hat er nie und darum muss man sich um Spiegelseeing leider kümmern.


    Michael

    Mir geht es etwas um Mathe (worin ich leider nicht so gut bin)

    Die CO verbreitert das Signal (also ein Querschnitt durchs Blickfeld genau mittig mit Intensität gegen Winkel aufgetragen), weil es ja Licht nach außen verlagert.

    Seeing macht das auch, aber eben flackernd und statistisch.

    Beide Verbreiterungen sind linear unabhängig. Was macht die Mathe damit? Wenn sie das gesamte Signal berechnen will?

    Das wird Dir nicht gefallen: Seeing und Obstruktion sind beides Faltungen (englisch convolution). Die Wikipedia-Seite dazu ist abschreckend, hat aber ein paar Animationen für den eindimensionalen Fall. Du musst es Dir so vorstellen, dass jeder Punkt des Bildes erstmal durch die Verteilung seiner Energie in das Beugungsscheibchen des Teleskopdurchmessers und der Obstruktion ersetzt wird (darum heisst das PSF = Punktspreizfunktion, weil es einen Punkt aufspreizt), und danach macht Seeing nochmal das Gleiche, aber eben mit der PSF des Seeings. Eine Faltung verhält sich ähnlich wie eine Multiplikation, d.h. kommutativ und assoziativ. Du kannst also auch erst die PSF von Durchmesser/Obstruktion mit der PSF des Seeings falten, und danach das Bild mit dem Ergebnis. Und genau das bringt Dich wohl zu Deiner Frage: Wie sieht das Ergebnis mit und ohne Obstruktion aus?


    Es gibt bestimmt Onlinerechner, die die Faltung eines Bildes mit einer PSF zeigen. Theoretisch kannst Du da die PSF mit und ohne Obstruktion eingeben und dazu die PSF des Seeings. Praktisch hängt die PSF vom Seeing auch von der Belichtungszeit und der Wellenlänge ab. Rechnerisch kann man die Faltung diskret machen. Alternativ berechnet man jeweils die 2D diskrete Fouriertransformation der Bilder, multipliziert sie, und macht die inverse diskrete Fouriertransformation, weil eine Faltung in Fourierraum eine Multiplikation ist.


    Wie es visuell wirkt, hängt auch vom Betrachter ab. Wenn man als Landratte von Land aus ein schwankendes Segelboot sieht, wird man viel weniger erkennen als ein Segler, der Windrichtung, Wellen und Segelform erkennt, weil er es schon oft genug gesehen hat, um das Bild mental verarbeiten zu können.


    Weil ein ausgekühltes Teleskop erwähnt wurde und wir schon bei Mathe sind, muss ich den Mythos leider entzaubern:


    http://atm.udjat.nl/articles/cooling.pdf


    Wenn man einmal akzeptiert, dass der Spiegel wärmer ist und bleibt:


    1979MNRAS.188..249L Page 249


    Ein kleiner saugender Lüfter hinter dem Spiegel bringt bei einem Newton auch nach vielen Stunden am Himmel noch eine auch für Neulinge sichtbare Verbesserung.

    Michael

    Wenn Dich das interessiert, kann ich den Astropeiler Stockert in der Nähe sehr empfehlen. Ok, "nur" 25 m, dennoch extrem beeindruckend. Und: Von Amateuren betrieben, d.h. man darf die Nase überall reinstecken und kann die Betreiber Löcher in Bäuche fragen, nachdem die meisten Besucher alles gesehen haben und schon weiter an Kaffee und Kuchen in der Nähe denken, statt an technische Details. :)


    Astropeiler Stockert e.V. – TEST – Radioastronomie, Amateurfunk, Natur und mehr


    Als ich da war, wurde ein historisches Experiment gezeigt: Ein Live-Radioblick quer durch die Milchstraße, an dessen Daten man erkennt, wieviele Arme sie in der Richtung hat. Ich vermute mal, das gehört zum Repertoire, weil das zum ersten Mal eben an diesem Radioteleskop gemacht wurde.


    Michael

    Ich kenne das Modul gut, aber nach der ersten Begeisterung musste ich ernüchtert feststellen, wie schlecht der ISP ist und wieviel Potential des Sensors durch die Firmware verschenkt wird. Du siehst die Artefakte ja in den Bildern schon. Wenn man z.B. Gain benutzt, wird nicht etwa Gain des Sensors konfiguriert, sondern das Bild wird nur digital aufgehellt. Leider reagiert der Hersteller nicht auf Bugreports.


    Erfreulicherweise haben die Entwickler vergessen, die Debuggingschnittstelle aus dem SDK von Sonix zu entfernen, so dass man nicht nur Rawbilder (wenn auch nur mit 10 Bit, mehr kann die Bridge nicht) bekommen kann, sondern auch die volle Kontrolle über den Sensor, so dass Belichtungszeiten bis zu mehreren Minuten möglich sind und gain steuerbar wird. Damit bekommt man eine sehr gute Kamera für kleines Geld.


    Bei Interesse kann ich gerne C Code für Linux zur Verfügung stellen, der all das nutzt, um Bilder zu machen.


    Michael

    Es wird genug Leute wie mich geben, die so eine Platine wegen Umbau auf OnStep herumliegen haben und sie für Kleingeld abgeben. Der Ausbau ist übrigens kein Thema: Zwei Schrauben lösen, fertig. Sofern Du die Platine nicht beschädigt hast, ist der Steckertausch keine große Aktion, sofern der Lötkolben genug Leistung hat. Dabei bietet es sich an, auch gleich einen Blick auf die Kondensatoren zu werfen. Bei mir ist einer geplatzt, sonst hätte ich den Kram schon veräußert.


    Michael

    Da muss ich mal kurz fragen: Hast du eine Beschreibung vom Umbau der HEQ5? Ein Freund von mir hat auch noch eine alte HEQ5 der ersten Generation, die sich über ein Upgrade mit Goto-tauglichen Motoren freuen würde. Wobei es auch schon ohne Zahnriemen ein Fortschritt wäre.

    Ich kann Dir meine Notizen als PDF schicken und gerne Fragen dazu beantworten. Ich machte einen Totalumbau, d.h. die Montierung hat außen nun einen Anschluss für Micro-USB und den OnStep SHC und ich warf alle Elektronik raus und ersetzte sie durch etwas Lochraster als Träger für Teensy 3.6, RTC und Treiber. Das war schon Arbeit, aber nicht teuer, weil ich nicht das Rowan-Kit benutzte, sondern normale GT2-Pullies und Riemen.


    Michael

    Nachdem ich ein Video zu Ocal sah, probierte ich heute mal eine DIY-Lösung zur kameraunterstützten Kollimation meines Newtons aus: https://github.com/rsarwar87/pyReflectorCollimator (nur Linux)


    Die Software tut's ohne weiteres wohl nur beim Autor, so dass ein paar Änderungen nötig waren. Grundsätzlich funktioniert es mit jeder Webcam. Ich druckte mir einen Adapter für meine Microsoft Lifecam. Bisher kollimierte ich mit einem Concenter und danach noch mit einem Laser und dachte, das sei so ganz ok. Die Kamera zeigte mir: Nein, war es nicht. Erstmal fiel direkt auf, dass mein OAZ nicht senkrecht steht, was ich im Concenter noch nie wahrnahm, und nur weitgehend einstellen konnte. Hier muss die Basis ein wenig überarbeitet werden. Dann war auch die Kollimation nicht richtig gut. Die Verbesserung lief so schnell und einfach wie noch nie und der Laser bestätigte das. Ich konnte die Verbesserung im Concenter kaum erkennen, aber am Bildschirm war es sehr deutlich. Die Software könnte noch besser sein, aber die Genauigkeit und Einfachheit des Verfahrens ist beeindruckend. Es ist herrlich, nicht ständig zwischen Schrauben und Concenter wechseln zu müssen.



    Eine Kamera mit einstellbarem Focus kann hilfreich sein, um wahlweise auf den Fangspiegel oder den Hauptspiegel zu fokussieren, aber ich kam ohne Verstellung aus.


    Ein paar Probleme gibt es neben der aktuellen Software aber: Ich habe nicht nachgemessen, ob Concenter, Reduzierhülse oder der OAZ nicht maßhaltig sind, aber die Klemmung sorgt für einen leichten Versatz. Das Druckteil war auch nicht perfekt, weil ich die Lifecam nicht weit hineinstecken konnte, aber man merkt recht schnell, wenn die Kamera am Fangspiegel vorbei schaut, was mit dem Concenter schwieriger ist. Ocal liefert eine Kamera im Alugehäuse und eine mechanisch solide Adaption ist in der Tat sinnvoll. Dann ist mein OAZ kein Wunder an Präzision, was die Kamera gnadenlos aufdeckt. Die Fangspiegelspinne könnte auch präziser einstellbar sein, was ich noch nie so deutlich sah.


    Das Ergebnis war beim kurzen Test an den Windrädern in der Ferne hervorragend: So hat das auzusehen. Hat sich die Arbeit gelohnt? Ein f/6 ist noch recht gutmütig und verzeiht leichte Fehler, aber grundsätzlich ja, weil es so einfach und genau geht.


    Michael

    Bei OnStep wird fast alles im Code in Config.h konfiguriert. Das Arduino IDE baut es dann und flasht es auch gleich, geht ruckzuck. Wer schon mal einen Arduino benutzt hat, wird damit keine Probleme haben. Der große Vorteil ist, dass das immer geht, auch falls die Applikation direkt abstürzt.


    Falls Du noch Motoren mit Zahnrädern hast, empfehle ich den Umbau auf Riemen. An der CG5 habe ich NEMA17 Motoren (0,9 Grad pro Schritt, 0,9 A). Bei der HEQ5 passen nur NEMA14 Motoren (1,8 Grad pro Schritt, 0,8 A) rein, die auch gut funktionieren. Ich wollte erst welche mit 0,9 Grad und 0,4 A benutzen, aber da reichte das Drehmoment leider nicht. Die Riemenuntersetzung sollte gradzahlig sein, falls man den Schneckenfehler kompensieren will.


    Michael

    Sofern die Chinesen alle Informationen mitliefern, damit man OnStep selbst neu flashen kann, ist das sicher eine praktische Sache. Ansonsten geht es grundsätzlich mit rein mechanischen Arbeiten, wenn man für OnStep ein Board für 3D-Drucker verwendet. Ein wenig mehr Arbeit ist ein Aufbau auf Lochraster mit einem DCDC-Wandler (12->5), einem Teensy, einem RTC-Modul und zwei Motortreibern, wobei die Lötarbeiten sich auf die Verbindungen beschränken. Das habe ich gerade für eine HEQ5 gemacht.


    Bei den Motoren muss man sich überlegen, welche Auflösung man haben möchte. Bei meiner alten CG5 habe ich welche mit 400 Steps/Umdrehung benutzt, dazu 16 Mikroschritte und eine 3:1 Riemenübersetzung:


    400 * 16 * 3 = 19200 Schritte pro Umdrehung der Schneckenwelle
    19200 * 144 / 360 = 7680 Schritte pro Grad
    7680/3600 = 2,13 Schritte pro Bogensekunde Auflösung
    360/144 = 2,5 Grad pro Umdrehung
    86400 * (1-1/365.25) / 144 = 598,3 Sekunden RA-Nachführungsperiode
    19200 / 598,3 = 32,1 Hz Nachführungsfrequenz


    Damit bin ich sehr zufrieden.


    Michael

    Ein Frankenstein-SHC für OnStep: Das Gehäuse, die Taster und das Display sind vom Design von TeenAstro, aber ich benutze einen ESP-32S und OnStep als Software. Ich sparte mir die Verwendung eines PCBs oder einer Lochrasterplatine und verkabelte alles direkt. Das Gehäuse musste ein wenig umgeändert werden, ich lackierte es weiß, um es nachts besser zu sehen, und baute eine rote Scheibe ein. Funktioniert! Es mag innen nicht hübsch sein, aber der Arbeitsaufwand hält sich in Grenzen. Die großen Tasten und das große Display sind nachts sehr angenehm.




    Michael

    Die Klemme störte mich auch. Die neue HEQ5 hat bereits eine Klemme mit Losmandy-Aufnahme, die aber extrem kurz und laut Skywatcher nicht einzeln erhältlich ist. Der Puck von PrimaLuceLab ist etwas breiter und dicker, so dass man außenliegende Schrauben haben kann. Der Adapter der EQ6 und AZEQ5 sieht ähnlich aus, aber passt nicht. Die richtigen Bestellcodes sind: PLLFLHEQ5 und PLLMORVLPB. Nicht PLLFLAZEQ5!


    Tripleseven Das ist schon eine starke Leistung. Für etwas in der Art soll meine HEQ5, wenn sie fertig ist, auch verwendet werden. Ich vermute aber, dass ich wirklich einen besseren Polblock brauche.


    Michael

    Es ist schade, dass es für die HEQ5 nicht etwas wie den Nachrüst-Polblock der EQ6 gibt. Ich frage mich schon länger, ob man das nicht, vielleicht etwas einfacher konstruiert, kostengünstig selbst herstellen könnte. Ansonsten ist das eine gute Montierung. Ich baute meine HEQ5 auf Riemenantrieb um, wobei ich normale GT2-Riemen und Pulleys verwendete, nicht das Set von Rowan. Dazu ersetzte ich die Steuerung durch OnStep. Die SHC-Handbox ist von der Bedienung her ganz in Ordnung und dank Riemen läuft die Montierung nun sehr leise.


    Was die Aufarbeitung angeht: Ich ließ schon eine Montierung bei cg-5.de reparieren und war sehr zufrieden mit der Abwickelung und der Arbeit.


    Michael

    Das 3,2 mm Okular halte ich für zu stark. Mag sein, dass es selten mal Nächte gibt, wo es noch etwas bringt, aber normalerweise sollte es eher für weniger Freude sorgen. 6 mm klingt gut.


    Ein Laser ist eher etwas für den Feinschliff der Justierung und das auch nur, wenn der Laser selbst gut justiert ist. Du musst zuerst den Fangspiegel justieren und dafür empfehle ich ein Concenter:


    Teleskop-Express: TS-Optics Concenter 2" Collimation Eyepiece for Newtonian Telescopes


    Schlecht justiert bleibt von Jupiter nicht viel übrig und bei f/5 muss die Justierung schon halbwegs stimmen. Am Anfang haben wir uns alle damit schwer getan und Stunden damit verbracht, später geht das in ein paar Minuten.


    Speziell jetzt im Winter wirst Du am Teleskop keine Freude haben, wenn es nicht gut ausgekühlt ist. Jupiter tanzt und schwappt und verformt sich sonst auf jede denkbare Weise. Ein Lüfter, der Luft hinter dem Hauptspiegel absaugt, hilft auch sehr. Das Teleskop kann ruhig 2 h vor der Beobachtung raus.


    Mit 200 mm ist Jupiter schon sehr beeindruckend. Eine EQ5 ist grenzwertig, geht aber visuell noch so eben.


    Michael

    Die Betrachtung einer Vierergruppe als Farbpixel ist nicht falsch, wenn es einen low pass Filter gibt, aber die low pass Filter arbeiten nicht pro Pixelgruppe, sondern sind nur eine vorgeschaltete Faltung, und damit muss man alle überlagerten Vierergruppen betrachten. DSLRs haben zumeist so einen Filter (es gibt nur wenige Sondermodelle ohne), aber astronomische Kameras haben das nicht. Hier zwei Artikel, die sich der MTF eines Farbsensors widmen. Ich kann das Blog des Autors empfehlen, aber es ist teilweise schwere Kost:


    Combining Bayer CFA Modulation Transfer Functions – I
    In this and the following article I will discuss my thoughts on how MTF50 results obtained from  raw data of the four Bayer CFA color channels off  a neutral…
    www.strollswithmydog.com

    COMBINING BAYER CFA MTF Curves – II
    In this and the previous article I present my thoughts on how MTF50 results obtained from  raw data of the four Bayer CFA channels off  a uniformly illuminated…
    www.strollswithmydog.com


    Es stimmt, dass das Samplingtheorem oft falsch angewendet wird, sowohl bei Kameras als auch bei ADCs, wo es einen Unterschied macht, ob man periodisch den aktuellen Wert mit sample and hold für die Wandlung festhält oder das Integral währund einer Wandlungszeit bestimmt, weil letzteres auch wieder eine Faltung ist. Es gibt nur wenige Hersteller, die die Sensor-MTF ins Datenblatt schreiben und darum kommt man nicht direkt drauf, dass es da etwas zu beachten gibt. Mir war das Thema auch unbekannt, bis ich es in einem Datenblatt sah: MTF bei Nyquistfrequenz und 550 nm: 0.7. Und ich dachte, huch, wieso verliert man da so viel? Am Ende der Reise war klar: Das ist ein sehr guter Wert und darum steht es im Datenblatt.


    Dann ist es so, dass das Samplingtheorem eigentlich für periodische Signale gilt. Etwas wie die Auflösung eines Doppelsterns ist aber nicht periodisch: Der Unterschied zwischen der FT und der DFT ist das Fenster bei letzterer, aber bei aller Kunst kann man nicht vermeiden, dass sich bei einem Impuls ein Peak im Spektrum in eine Glockenkurve im Spektrum verwandelt und die hat eben auch noch einen etwas höheren Anteil. Leider finde ich gerade den Artikel nicht mehr, der diesen Unterschied betrachtet. Man merkt das, wenn man ein Diagramm für das Ergebnis einer FT numerisch mit dem Ergebnis einer DFT plotten will: Es kommt nicht genau das raus, was man erwartete, weil es nicht ganz das Gleiche ist.


    Mathematisch wird die Sache schnell sehr anspruchsvoll, aber man kann es simulieren, indem man schaut, welche Faltung eines Bildes wie digital erscheint, wenn man sie mit einem Pixelraster integriert. Frans van den Bergh hat das für seine Software MTF Mapper gemacht und es gibt eine Artikelserie dazu, mit der man ein paar Tage verbringen kann:


    How to Measure Modulation Transfer Function (1) « Harvest Imaging Blog


    Ich denke mit dem Ansatz kann man auch klären, was Seeing tut, wenn man es als Faltung simuliert.


    Es gibt in der Astronomie schon lange einen Streit, weil Praktiker sagen, dass etwas Oversampling durchaus noch mehr bringt, aber jenseits von 3-4 Pixel/Zyklus lohnt es kaum noch und die Theoretiker halten mit Nyquist-Shannon dagegen. In Wahrheit haben die Praktiker aber die Theorie auf ihrer Seite, nur ist es leider viel komplizierter, als man erst denkt. :)

    Michael

    Ideales Sampling nach Nyquist ist, mindestens zwei Pixel pro Halbwertsbreite der Punktbildfunktion zu haben. Wesentlich mehr bringt aber keine bessere Aufloesung.

    Das stimmt nicht. Es geht damit los, dass Nyquist eine punktförmige Abtastung vorraussetzt, die Pixel aber zu einer Konvolution führen. Dann ist die Auflösung in der Diagonalen geringer als in den Achsen und hat eine andere Konvolution. Oversampling verringert den Effekt der Konvolution und bringt darum mehr Kontrast.


    Die Konvolution von Pixeln unter Mikrolinsen ist dabei besser als ohne Mikrolinsen. Effektiv ergibt sich eine Sensor-MTF, die bei Nyquist-Frequenz bei alten Kameras durchaus nur 0,2 sein kann und bei modernen Sensoren um 0,7 erreicht. Speziell manche Sensoren von Sony haben weniger QE als man erwarten könnte, weil sie kleinere Pixel verwenden, was etwas QE verschenkt, aber dafür die Sensor-MTF erhöht.


    Jenseits von 3,5 Pixeln/Zyklus ist allerdings kaum noch mehr zu gewinnen:


    Image sensors: Modulation transfer function


    Bei Farbkameras wird das Ganze erheblich komplizierter. Natürlich haben sie weniger Nyquist-Frequenz als eine monochrome Kamera, aber bezogen auf die Frequenz quasi kleinere Pixel und damit weniger Konvolution, was die Sache deutlich besser macht, als man naiverweise meinen könnte.


    Michael