Planeten Experten: Brauche Hilfe zur Verbessrung meiner Bilder. (Bedingunen / Optilk / Skills)

  • Ich kenne die Algoritmen nicht, aber es wäre am besten, die 10 besten Bilder mit der gleichartigen Verzerrung herauszusortieren, dann wären alle Details drauf, die unter den Aufnahmebedingungen gingen.

    Hallo Captn Difool,

    hier der Algorithmus zum Multipoint Stacking



    Es ist nicht so, dass ich den verstehen würde, aber ich weiß, was der macht. Er entzerrt bzw. zerrt die Bilder zurück auf einen Referenzstack.

    Danach sollten wir eigentlich nicht mehr vom Lucky Imaging sprechen, sondern von einem "Adaptiv Imaging".

    In weiten Teilen ist es übrigens egal, welche Verwendungsraten wir nutzen, zumindest dann, wenn wir viele Bilder haben, nicht in die Extreme gehen und natürlich die Schärfung anpassen (siehe oben SNR). Es gibt Ausnahmen und Feinheiten, vor allem bei großen Teleskopen, aber das würde hier zu weit führen.

    Viele Grüße

    ralf

  • Hallo Andre


    Was mich bisschen irretiert ist das die mal detaillierten Bilder einzeln sind.

    Bei ca. 200fps sind ja 10 Bilder in 1/20s fertig aber es sind nicht einmal 2 oder 3 Bilder in Folge brauchbar.

    Andererseits wenn sich das so schnell ändert müsste auch schnell wieder ein Scharfes dabei sein.

    Vermutlich starkes Tubusseeing, müsst man mal Wärme isolieren, test halber eine Steppdecke oder Schlafsack drum wickeln.


    Gruß Frank

  • Das mit den laufenden Lüftern macht hochfrequente Störungen das erklärt das die guten Bilder vereinzelt und nicht in Serie auftauchen,

    Solltest Du die Lüfter mal vor Aufnahme stoppen und etwas beruhigen lassen.

    Problem ist ja Temperatur Differenz Tubus oben und Unten und Spiegeltemperatur, das sollten die Lüfter angeglichen haben.

    Ist wohl außer Fokus das Einzige was du noch beeinflussen kannst.


    Gruß Frank

  • Andererseits wenn sich das so schnell ändert müsste auch schnell wieder ein Scharfes dabei sein.

    Vermutlich starkes Tubusseeing, müsst man mal Wärme isolieren, test halber eine Steppdecke oder Schlafsack drum wickeln.

    Hallo Frank,

    ich habe mir auch den Film angeschaut, das Bild ändert sich sehr schnell. Beim Stacken hat die SW Bilder aus dem ganzen Film verteilt genommen, auch nicht in Reihenfolge, sondern wie zufällig immer wieder vor und zurück. Der Luftbewegung nach ist das lokales Seeing in Teleskopnähe, nicht im Teleskop. Bei schlechten Waberseeing ist es wirklich so, dass man vielleicht für eine 50stel Sekunde oder Kürzer nur ein "bestes" Bild erwischt.


    Ralf

    Was ich noch nicht verstehe, ob die SW ein (das beste) Einzelbild als Referenz nimmt?

  • Hallo André,


    Zitat


    Was ich noch nicht verstehe, ob die SW ein (das beste) Einzelbild als Referenz nimmt?


    Autostakkert nimmt ein aufaddiertes Bild als Referenzbild (sozusagen ein vorläufiges Summenbild).


    Eine gute Beschreibung über die Arbeitsweise von Autostakkert findest Du in unter nachfgendem Link:


    AutoStakkert! 2


    Viele Grüße


    Oskar

  • Zwei weitere Versuche.

    Mit Siril behutsam geschärft (Wavelet) sieht recht natürlich aus.


    Mit Lynkeos Image Processor Lucy Richardson, Kontrast deutlich härter gemacht um die Grenzen zu sehen.


    An Detailschärfe bekomme ich aber nicht mehr hin.

  • Hier noch ein paar Screenshots vom Planetary Image Processor


    Das Terminal zeigt alle Bearbeitungsschritte, das ist bei der Anwendung sehr vorbildlich gemacht.


    Hier sehen wir das beste Einzelbild (roter Punkt). Die Grafik rechts zeigt die Qualitätsverteilung und das es nur sehr wenige wirklich gute Einzelbilder gibt. Eigentlich sind es nur 13 Bilder, die sprichwörtlich herausragend sind. Auswählen kann man aber nur die Prozentzahl. Bei 1% sind es aber schon 61 Bilder.... Ich werde mal den Rolf kontaktieren, ob er das in einer der nächsten Versionen einbauen kann, auch wenige Einzelbilder auszuwählen.


    Hier die Ansicht, wenn man in Reihenfolge der besten Bilder auswählt. Die Anwendung springt dann beim Stacken vom besten Bild quer durch den Film absteigend in der Qualität.


    Im Handbuch gibt Rolf an, das hier auch entzerrt wird. Das war ja meine Frage weiter oben.

  • Hallo Ralf,


    hier habe ich mal 2 Tutorials für AutoStakkert gefunden. Eines ist aber auf Englisch.

    tutorial autostakkert 3 - Google Suche


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Gutes Seeing

    Gruß

    Günther

  • Hallo Günther,


    Danke für den Link zum Video. AS! ist eigentlich so gut programmiert, dass es selbst erklärend ist, besonders auch durch die Hilfe Texte beim Mouse-Over. Ich bin persönlich anderer Meinung als in dem Video, wo 90% Bilder verwendet werden. Selbst bei ähnlicher Frame Qualität sollten wir nur die besten Frames nehmen. Damit dann genug Tiefe im Stack ist, nehmen wir ja auch 10k Frames auf und davon sind dann z.B. 10% oder 20% 1000 oder 2000 Frames. Das sollten genug sein, damit die Registrax Schärfung was zu arbeiten hat.


    Hier meine AS! settings dazu (sehr ähnlich wie im Video):


    Z.B. in dem upload AVI von mir kann ich beim Frame -Schieber ganz deutlich sehen, dass ein 50% Bild deutlich schlechter ist. Das will ich nicht im Stack haben.


    Beispiel hier das 100% Bild:


    Und das bei 50%:


    Clear Skies,

    Gert

  • Hallo Gert,


    dem was die anderen schon geschrieben haben kann ich so eigentlich durchweg zustimmen.
    Das Seeing ist nach der Justage und Akklimatisierung der Optik das A und O bei den Planeten.

    Dabei spielt das lokale Seeing eine ganz große Rolle.

    Daheim nehme ich mit einem 8" Newton auf, wahlweise vom Balkon als Dobson oder auf einer G11 im Garten - also immer freistehend und ich habe nur Felder und Wiesen um mich rum.
    Da kommen scharfe Bilder zusammen.
    In der Sternwarte haben wir einen 16"er.. das was da raus kommt reicht den Ergebnissen mit dem 8er bei weitem nicht die Kante.
    Zum einen ist die größere Öffnung wesentlich anfälliger auf das Seeing, zum anderen haben wir da echt Probleme mit dem Kuppelseeing, selbst wenn wir stundenlang davor lüften.

    Was mir aber beim lesen aufgefallen ist.. zu deinen Einstellungen in Firecapture kamen noch kaum Tipps.
    Die Belichtungseinstellungen passen soweit, aber an der USB-Übertragung kannst du noch erheblich schrauben! deine Framerate von 126fps ist bei dem kleinen ROI geradezu lächerlich für heutige Verhältnisse ;)

    Ich nehme stark an du hast USB3 an deinem Laptop und eine SSD? Sonst rüste in den punkten zuerst mal auf.

    Setze in Firecapture dann unbedingt mal den Haken bei "High-Speed" und schiebe den Regler "USB-Traffic" höher - (jetzt 40) gerne mal auf 100 und dann wenn es Probleme gibt wieder ein Stück zurück.

    Dann sollte das einzige limitierende für die Framerate die Belichtungszeit sein.

    Das kann auch mal zum testen ohne Teleskop ausprobiert werden, die Kamera am Rechner reicht da.

    Viel mehr Rat habe ich ansonsten auch nicht mehr..

    Viele Grüße,
    Johannes


  • Hallo Günther,


    Danke für den Link zum Video. AS! ist eigentlich so gut programmiert, dass es selbst erklärend ist, besonders auch durch die Hilfe Texte beim Mouse-Over. Ich bin persönlich anderer Meinung als in dem Video, wo 90% Bilder verwendet werden. Selbst bei ähnlicher Frame Qualität sollten wir nur die besten Frames nehmen. Damit dann genug Tiefe im Stack ist, nehmen wir ja auch 10k Frames auf und davon sind dann z.B. 10% oder 20% 1000 oder 2000 Frames. Das sollten genug sein, damit die Registrax Schärfung was zu arbeiten hat.

    Hallo Gert.


    Da gebe ich dir vollkommen recht, ich verwende (festgestellt durch Versuche) meistens so um die 5%. Kommt ein bisschen darauf an wieviel % über der 75% Linie auf dem Qualitätsdiagramm liegen.


    Gutes Seeing

    Gruß

    Günther

  • Hallo Johannes,


    Was mir aber beim lesen aufgefallen ist.. zu deinen Einstellungen in Firecapture kamen noch kaum Tipps.
    Die Belichtungseinstellungen passen soweit, aber an der USB-Übertragung kannst du noch erheblich schrauben! deine Framerate von 126fps ist bei dem kleinen ROI geradezu lächerlich für heutige Verhältnisse ;)

    Ich nehme stark an du hast USB3 an deinem Laptop und eine SSD? Sonst rüste in den punkten zuerst mal auf.

    Setze in Firecapture dann unbedingt mal den Haken bei "High-Speed" und schiebe den Regler "USB-Traffic" höher - (jetzt 40) gerne mal auf 100 und dann wenn es Probleme gibt wieder ein Stück zurück.

    Dann sollte das einzige limitierende für die Framerate die Belichtungszeit sein.

    Du hast Recht. Andererseits kommt aus der Kombination ca. 'unity gain' / F20 / AS224MC / Jupiter so etwa 5msec Belichtung heraus. Gibt es eine endgültige Antwort, was man mit dem Gain nun machen soll? Ist 'Unity gain' eine gute Idee? Oder soweit aufdrehen, wie es Spaß macht? Irgendwo ist da doch auch eine Grenze des Rauschens. Wieso jetzt bei der Aufnahme beim C14 nur 125FPS angezeigt wurden ist mir auch nicht klar. Eben am 6zöller und ebenfalls ca. F20 bei 5msec 200FPS was mathematisch ja stimmt.


    Also den 'High Speed' Knopf in FC kenne ich. Aber in früheren Jahren hat es immer geheißen, den absolut nie einzuschalten und USB-Speed auf Minimum zu setzen. Das war irgendwie Gott-gegeben. Evtl. ist das Dogma ja aufgeweicht? Klar im Laptop ist ein 1T M.2 SSD.


    Wenn ich mal 'zum Spielen' die Belichtung auf 1msec stelle, kann ich auch 600FPS angezeigt bekommen. Aber dann ist der Jupiter nicht mehr zu sehen.


    Wenn sich das mit dem 'High Speed' Knopf noch aufklärt, ist das auch ein guter Schritt vorwärts.


    Vielen Dank & Clear Skies,

    Gert

  • Hallo Gert,


    ich bleibe mit dem Gain eigentlich immer über dem unity-gain. Theorie ist schön und gut, aber ich bin dann doch mehr der Typ try&error ;) und für mich funktioniert das so.
    Genau so wie die USB-Speed Einstellungen... dass man das nicht verwenden sollte, habe ich gar nicht mitbekommen.. aber warum sollte ich meine Hardware künstlich bremsen?
    Es ist ja heut nicht mehr so wie damals mit der alten Philips ToUcam, wo bei höheren Frameraten die Kompression erhöht wurde aufgrund der Übertragungsgeschwindigkeit mit USB1...


    Solange die Technik der Datenflut hinterher kommt spricht doch nichts dagegen den Hahn aufzudrehen??

    Anders sieht es natürlich aus, wenn es dadurch zu Problemen jeglicher Art kommt (dropped Frames, freezes, Programmabstürze..).

    aber zumindest mit meinem ZWO Kameras habe ich bei mir immer maximal-Speed fahren können.
    Mit anderen Herstellern (Omegon/ ToupTec) habe ich da ganz andere Erfahrungen... da spinnt der Treiber von Firecapture momentan noch und ich musste zur eigenen Herstellersoftware greifen um die volle Framerate sicher abzurufen.

    Mit der Belichtungszeit hast du natürlich recht, zu wenig ist auch nichts. Bei Jupiter lag ich dieses Jahr mit 8" effektiv f/16-17 bei 4-5ms, beim Mars auch noch kürzer.
    Von dem her sind deine 5ms schon realistisch und absolut in Ordnung.

    Viele Grüße,
    Johannes

  • Hallo Gert,


    kann sein, dass die Empfehlung, den High-Speed nicht anzuschalten nnch aus der Zeit stammt, als USB 3.0 noch nicht der Standard bei Laptops war. Ich habe High-Speed an, denn sonst erreichen meine Kameras nicht die beworbenen Übertragungsraten.


    Die Frage nach dem Gain stellt sich für mich im Rahmen der Frage, mit welchen Kombinationen bekomme ich bei gutem Signal zu Rauschverhältnis möglichst viele Bilder in gegebener Zeit auf die Festplatte. Da schaue ich zuerst, welche Übertragungsrate lässt die Kamera mit dem gewählten (notwendigen) ROI zu. Das ist ein fixes Limit. Dann stelle ich die Belichtungszeit so ein, dass sie dieses Limit nicht weiter beschränkt. Als letztes regle ich den Gain so, dass ich auf eine Histogrammauslastung um die 60 % komme.


    Wird der Gain zu hoch (ab 350 von 600 wird es mir bedenklich) muss ich an den anderen Stellschrauben drehen:


    weniger Histogrammauslastung akzeptieren

    Belichtungszeit erhöhen (und damit evtl. die Übertragungsrate reduzieren)

    oder generell im Setup weniger Brennweite wählen (geht natürlich nur wenn nicht im Primärfokus aufgenommen wird).


    Innerhalb dieser Parameter muss jeder für sein Setup Werte finden, die zu einem Ergebnis führen, mit dem er zurfrieden ist.


    Bei Jupiter habe ich mit meinem Setup bei /f = 20 folgende Werte:


    ROI 400 x 400

    Belichtung 6 ms

    Gain um die 330 (je nach Transparenz)

    und komme auf Übertragung von um die 160 fps.

    Kürzere Belichtungszeit führt nicht zu höherer Übertragungsrate.


    Funktioniert. Ich erhebe aber nicht den Anspruch, dass dies das Optimum oder das einzig Wahre ist.


    Viele Grüße


    Oskar

  • aber an der USB-Übertragung kannst du noch erheblich schrauben! deine Framerate von 126fps ist bei dem kleinen ROI geradezu lächerlich für heutige Verhältnisse ;)

    Naja.... bei einer Bildgröße von 640x480 und 24 Bit Farbe sind 126fps so ziemlich das Ende der Fahnenstange, was ein guter Rechner mit schneller SSD und 6Gps Schnittstelle so schaffen kann. Kurzzeitig mit HD-Cache geht etwas mehr... aber nicht über 78 Sekunden.

    Zwischen Bildgröße, Framerate und Bit-Tiefe gibt es ganz einfache, mathematische Zusammenhänge.

    Ich würde, wie es schon beschrieben wurde, den ROI so klein wie möglich machen, dann gehen auch höhere Frameraten.


    CS Bernd

  • Hallo Oskar,


    Nur schnell die Rückmeldung von mir, dass die Parameter wie Du sie angibst bei mir auch Sinn machen. Jupiter so bei F20 ist bei auch ca. 5msec mittlerer Gain etc. Nimmst Du auch die ASI224MC ? (Ich hab jetzt nicht in den alten Beiträgen nachgesucht, sorry wenn Du's schon geschrieben hast)


    Clear Skies,

    Gert

  • Naja.... bei einer Bildgröße von 640x480 und 24 Bit Farbe sind 126fps so ziemlich das Ende der Fahnenstange, was ein guter Rechner mit schneller SSD und 6Gps Schnittstelle so schaffen kann. Kurzzeitig mit HD-Cache geht etwas mehr... aber nicht über 78 Sekunden.

    Zwischen Bildgröße, Framerate und Bit-Tiefe gibt es ganz einfache, mathematische Zusammenhänge.

    Hallo Bernd,

    Da hast du Recht.
    Aber es geht hier um die ASI 224, die kann maximal 12bit.. und selbst das bringt bei Planeten wenig nennenswerten Vorteil gegenüber den gebräuchlicheren Standard 8bit.
    Und dann sieht die Sache doch wieder ganz anders aus.

    Btw.. was hast du denn für eine Kamera die 24bit macht?


    Viele Grüße,
    Johannes

  • Das machen so ziemlich alle (Farb)-Cam's


    Verwechsest Du da vielleicht etwas mit dem Analog/Digital-Wandler?


    CS Bernd

    Ich meine die Werte, die in sämtlichen Datenblättern nachzulesen sind, und welche auch in den gebräuchlichen Programmen so verwendet werden. Ich denke mal das sind die des AD Wandlers.
    Natürlich kann man bei Farbkameras auch sagen das sind 3x8bit, also 24bit gesamt, nur ist diese Darstellung für mich nicht gebräuchlich/ praxisorientiert - zumindest lese ich davon nirgendwo etwas.

    Ich mache mir nicht allzuviel um die tiefe Theorie, Hauptsache das Ergebnis stimmt. Natürlich ist mir auch klar dass es nicht ganz ohne geht, aber übertreiben muss man es ja nicht ;)
    Und aus meinen Erfahrungen finde ich für USB3, genügend kurze Belichtungszeiten und derartig kleine Auflösungen die 126fps nicht gerade üppig.
    Ist ja auch nur meine Meinung.. ich wollte dem Gert ja auch nur den Tipp mit der Übertragungsgeschwindigkeit geben und hier keine Diskussion über Sensortheorie anfangen..


    Viele Grüße,
    Johannes

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!