Beiträge von astro_alex


    Hallo John,


    Danke, dem Thread kannte ich noch garnicht. Also im Prinzip eine Laserdiode und zwei Filter. Einen ND als Strahlteiler und einen (blau) als Referenz, das ist es. Oder halt statt des ND einen Strahlteilerwürfel.


    Habe ich so richtig verstanden?


    Wenn ja ist das natürlich extrem simpel.


    Danke und Grüße,

    Alex

    Hallo Beat,


    danke für den Link WinRoddier und das Wavefront-Script in Pixinsight habe ich auch schon einige Male genutzt. Werte gleichen sich, das macht einen verlässlichen Eindruck. Bis dato immer am Himmel mit einem im zenitstehenden Stern und dann min 20 Aufnahmen und diese gemittelt.


    Für komplett RGB war ich bis jetzt leider immer zu faul.


    Grüße,

    Alex

    Ulli,


    aber die von dir geschilderten Zweifel insbesondere in Punkto parallel einfallendes Licht, Strahlenbündel, etc. treffen ja genauso auf andere I-Meter Typen wie bspw. ein Tywman-Green zu, mit dem sich definitiv Refraktoren vermessen lassen. Weiterhin lässt sich der von mir beschriebenen Konfiguration ja auch Foucault oder Ronchi-Bilder machen.


    Bei Platzierung im Brennpunkt, kommt vorne aus der Linse ein weitgehend paralleles Lichtbündel. Man kann ja auch mittels eines Refraktors oder Spiegelteleskops mit einer Lichtquelle im Brennpunkt (k-Stern, Pinhole) ein paralleles Lichtbündel erzeugen, was sich wiederum zum Sterntest (ohne xx Meter entfernt sein zu müssen) eines anderen Teleskops nutzen lässt.

    Ergänzende Frage: Wie ist das mit der Autokollimation bei einem Refraktor, der eine Korrekturlinse im Tubus hat wie z.B. Vixen AX 103 S ? Geht das überhaupt? Muss man nicht sicher sein, dass man nur das Objektiv analysiert?


    Beat


    Das wäre mir egal, am Ende ist ja das Gesamtsystem am interessantesten.


    Ein Ronchi-Test oder Foucault gegen einen Planspiegel funktioniert ja auch.


    Wahrscheinlich sollte ich es einfach mal probieren ob ich mit einem Bath auf dem Holzweg bin. Ein Twyman-Green zu bauen, habe ich schon einige Male in Gedanken gehabt, traue ich mir aber nicht wirklich zu.


    Mal sehen, vielleicht meldet sich ja noch jemand.


    Gruß,

    Alex

    Hallo zusammen,


    meine letzten Bath-Experimente /-Messungen liegen tatsächlich schon wieder knapp 4-5 Jahre zurück.


    Etwas angefixt vom Thread Bath- Interferometer aus dem 3D Drucker


    bin ich am überlegen, das Ganze mal wieder zu beleben auch dank Vorhandensein eines 3D Druckers.


    Möchte aber gerne auch meine Refraktoren vermessen, bin das aber noch nicht wirklich angegangen.


    Vorhanden ist ein ordentlicher, vermessener 150 mm Planspiegel. Größte zu messende Optik wäre max. 130 mm.



    Mein Vorgehen zur Messung, wo ich Eure Hilfe/Anleitung/Korrektur brauche, wäre aktuell:


    - Justierlaser in den OAZ des Refraktors und damit den Stand des Planspiegels vor dem Refraktor ausrichten, so das der Laser is sich zurück fällt.


    - Ersetzten des Justierlasers durch das Bath


    Positionierung des Baths im Abstand der Brennweite bspw. 1.000 mm. Richtig? Krümmungsradius wie beim Spiegel gibts ja nicht.


    XYZ-Koordinatentisch, nicht polarisierter Strahlteilerwürfel von Thorlabs, Bikonex-Linse, Laser, etc ist alles vorhanden. Würde das Bath halt statt der aktuelle nicht ganz so ordentlichen Alu-Konstruktion halt auf eine gescheitere gedruckte Basis hieven.


    Denke ich das so richtig oder schreibe ich hier kompletten Murks zur Messung eines Refraktors mittels Bath und oute mich gerade als kompletter Dilettant? Gibt es weiteres zu beachten, was ich aktuell nicht auf dem Schirm habe?


    Gleicher Ablauf wäre dann doch auch für ein Foucault.


    Danke vorab und viele Grüße,

    Alexander

    Hallo Markus,


    was soll sich an der Sensoranalyse mit oder ohne Filter ändern?


    Der Kamera oder besser gesagt dem Sensor und seinen Eigenschaften ist egal ob du einen FIlter davor hast oder nicht.

    Der Filter beeinflusst das Ausleserauschen, den Dynamikumfang oder die anderen ermittelten Parameter des Sensors ja nicht.


    Sonst kann mir NINA keine gescheite Berechnung machen.

    Die gescheite Berechnung macht NINA trotzdem. Der Filter bewirkt ja nur das weniger Licht (das unerwünschte wird ja teils geblockt) auf den Sensor fällt, mehr nicht.

    Die Berechnung wird mit dem L-extreme ggü. ohne nur ergeben, dass du bei gleichem Gain, etc. etwas länger belichten solltest.


    Viele Grüße,

    Alex

    Hallo Stathis,


    insbesondere Nina als auch SharpCap dürften das SDK (Software Development Kit) des Herstellers / Marke verwenden, also quasi mit den entsprechenden Befehlen direkt auf die Routinen der Kamera zugreifen.


    Das wird die herstellereigene Software genauso, jedoch finde ich (persönlich) sowas häufig als Alibi-Programm. Wir legen da mal eine Aufnahmesoftware dazu aber so tief sind die ja als Kamera-Hersteller bzw. OEM-Distributor nicht drin, wie ein Team um NINA das sich Tag und Nacht um nichts anderes als ein umfangreiches, dezidiertes Aufnahmeprgramm kümmert. Ausnahmen wie z.B. ASIAIR und sicher auch weitere sind da natürlich was anderes und ausgefeilter, haben aber natürlich den Hintergrund den Nutzer an den jeweiligen Hersteller/Nutzer zu binden. Asiair, Asi Kamera, AM3/Am5 Monti, Zwo EAF Motorfokus, you name it. Plötzlich ist alles rot am Teleskop :)


    Lange Rede, … wenn du mit Nina gut klar kommst und dir die Bedienung liegt, vergiss den Rest. Für SharpCap gibt es ein aktives Forum, würde mich wundern, wenn es dort noch keinen aufgefallen ist. Der Entwickler ist da m.W. auch recht aktiv. Also im Zweifel vlt. mal darauf aufmerksam machen.


    Wegen Offset, miss ihn dir am besten selbst aus.

    Hallo Peter,


    erlaube mir mal Drehn aus dem anderen Thread, wo das Thema aufkam zu zitieren:

    Die IMX 455 / 571 Chips haben zwei Read Modes, einen für lange Belichtungen und einen für kurze Belichtungen. Das passiert hardwareseitig, du kannst es also nicht umgehen, weder durch Software, einen Treiber noch sonst irgendwas. Bei den Flats unter 1 Sekunde passen die Read Modes der beiden "Bildtypen" nicht mehr zusammen, da die extrem kurzen Flats anders ausgelesen werden als die Lightframes / Darkframes und somit die Rauschmuster nicht mehr zusammen passen - ergo, dein Flat korrigiert über, was in dem typischen Muster wie bei vielen deiner Bilder zu sehen ist, mündet.


    Prinzipiell gebe ich dir Recht. So lange Helligkeit (Peak des Flats) und dessen Bias bzw. Flatdarks zusammen passen , ist ja erstmal alles gut.


    Wenn bei kurzbelichteten Flats (< 1 sek) aber ein anderer Auslesemodus greift als bei den Lights, ist das durchaus eine Beachtung wert.

    Klar, wenn das einen Effekt auf der 3. oder 4. Nachkommstelle macht, geschenkt, für die Praxis keine Relevanz. Wenn dadurch aber eine sichtbare Falschkorrektur stattfindet…


    Ich habe bei meinem Test weiter oben, nichts derartiges festgestellt.


    ZWO hat sich dazu, siehe Screenshot Gert ja geäußert und bestätigt. Mal QHY und PlayerOne fragen ? :/


    Grüße,

    Alex


    Hallo Gert,


    ich meinte wie sehen die unkalibrierten Flats aus? Gibt es da einen Sprung?


    Bei den Darks scheint es ja deinen Zahlen nach keinem zu geben. Ä


    Grüße,

    Alex

    Hallo Gert,


    danke das Du deine Ergebnisse hier postest.

    Wie sieht bei dir die Kurve mit bei unkalibrierten Flats aus? Hast du dann auch den Sprung?


    Meine Serie oben sind nicht kalibrierte Flats, einfach so, wie sie aus der Kamera kamen und mit BatchStatistics in PI ausgewertet und als CSV Tabelle geschrieben.


    Ich versuche das heute nochmal zu wiederholen, dann ebenfalls mit passenden Flatdarks dazu und Mittelung von jeweils 10 in PI. Bereich 0,5 - 1,5 sek sollte ja ausreichen. 


    Grüße,

    Alex

    Hallo zusammen,


    wollte das ganze genauer wissen und habe wie heuite morgen angekündigt, die Linearität meines IMX571 Mono Sensors vermessen.


    Das Flatpanel war so eingestellt, dass bei 2 sek Belichtungszeit eine Sättigung von 70% erreicht wird. Das Flatpanel gehört zu einem fast fertigen motorisierten Cover und hat eine richtige Light Guiding Plate, Das Panel strahlt also sehr diffuses Licht ab und die Helligkeitsregelung (PWM) läuft mit 100 kHz Frequenz (Streifen sind nur bis 0,01 sek Belichtungszeit auszumachen).

    Aber das tut ja nichts zum Test als solches, die Lichtquelle muss ja nur ausreichend konstant bleiben.


    Getestet wurde Gain 0 im DSO Mode (Photographic Mode) und Gain 0 im High Gain Mode. Belichtungszeit 0,1 - 1,5 sek in 0,1 sek Schritten.


    Den Test für den DSO Mode habe ich nochmal mit deutlich reduzierter Helligkeit des Panels gemacht, falls beispielsweise dadurch ein Effekt verursacht werden sollte.


    DSO Mode Gain 0


    High Gain Mode Gain 0


    DSO Mode Gain 0 (low light)




    Das sieht für mich sehr linear aus. Auch wenn die Zahlenwerte nachrechne, sieht es gut aus. Da komme ich auf eine Abweichung von max 21 ADU zwischen zu erwartendem und gemessenen Wert.

    Das waren Einzelmessungen und besser wäre es natürlich mehrere Flats pro Belichtungszeit aufzunehmen und diese wiederum zu mitteln. Einen Knick wie bei Gerd oben gezeigt, kann ich nicht erkennen.


    Das mein Sensor da jetzt eine Ausnahme sein soll, wohl eher nicht. Ist an der Messung was falsch oder wie seht ihr das ?


    Viele Grüße,
    Alex


    p.s. habe die Linearitätsmessung aus SharpCap nicht mehr 100% vor Augen oder abgespeichert, sah aber genauso geradlinig aus.

    Hallo zusammen,


    hoch spannendes Thema. Wird das auch die jeweiligen Monosensoren betreffen? Erste Vermutung ja.


    Man dürfte das dass doch relativ einfach selbst nachvollziehen können, indem man startend bei 0 bis 2 sek Flats macht und die Belichtungszeit von Aufnahme zu Aufnahme um 0,1 sek oder gar in 0,05 Sek Schritten erhöht und Mean und Belichtungszeit grafisch darstellt oder?


    Interessant ist hier sicher auch, ob das für alle Readout-Modi zutrifft.


    Grüße,

    Alex

    In Pixinsight habe ich die 650 besten verwendet basierend auf Eccentricity und FWHM. Die genaue Formel weiß ich nicht mehr, ich schau mal ob sie gespeichert habe.


    Raus gekommen von 650 gesteckten Bildern also knapp eine Stunde war untenstehendes Bild. Bei Bearbeitung mit mehr Hingabe oder gar Ersetzen der signalstarken Bereiche durch einen Stack der Besten 300 Frames oder so, ist da sicher noch mehr raus zu holen.


    (Upload vom Handy)