Beiträge von mkoch

    Ich würde dafür nicht Fitswork nehmen, sondern Registax oder Autostakkert! - letzteres kann aber soweit ich weiß nur Videos verarbeiten. Unabhängig davon sieht es aber so aus, als wären die gewählten Bereiche nicht optimal - besser wären Bereiche, die alle ähnlich groß sind und sich nur auf dem hellen Teil des Mondes befinden, also genügend Abstand zum Terminator haben.


    Gruß


    ullrich

    Autostakkert! kann auch Einzelbilder verarbeiten, und dieses Programm wäre auch meine erste Wahl um Mond-Bilder zu stacken. Der entscheidende Unterschied zu Fitswork besteht darin, dass Fitswork nur die Bilder als ganzes verschiebt um sie bestmöglich zur Deckung zu bringen. Bei Autostakkert! hingegen wird jedes Bild in kleinere Bereiche zerlegt, die alle einzeln zur Deckung gebracht werden. Denn der Einfluss des Seeings wirkt sich bei flächenhaften Objekten wie dem Mond nicht an allen Stellen gleich aus. Dadurch erreicht man ein viel besseres Ergebnis.


    Gruß

    Michael

    Ich habe das jetzt so gelöst, dass ich mir aus der aktuellen Datenbank vor Lensfun die Koeffizizienten raussuche die ich für mein Objektiv brauche. Das "ptlens" Modell braucht nur drei Zahlen, die logischerweise von der eingestellten Brennweite abhängen. Mit diesen Zahlen und der entsprechenden Formel wird die Verzeichnung mit dem Remap-Filter in FFmpeg korrigiert. Das ist zwar nicht die schnellste Lösung, aber ich bin sicher dass das richtige Ergebnis rauskommt. Das Ergebnis ist fast das gleiche wie bei Darktable.

    Mit RawTherapee hingegen sind merkwürdige Dinge passiert, die ich nicht verstehe. Nachdem mein Objektiv offenkundig nicht in der Datenbank drin war (jedenfalls nicht mit dem richtigen Crop-Faktor), habe ich mir gedacht dann muss ich eben die Datenbank von Lensfun aktualisieren, auf die RawTherapee zugreift. Also habe ich mir eine neuere Datei besorgt, wo mein Objektiv definitiv mit Cropfaktor 1 drinsteht. Dann habe ich die alte Datei mit der neuen überschrieben. Danach waren viele Objektive aus der Liste verschwunden, auch meins, und dafür sind andere aufgetaucht... Das muss man nicht verstehen.

    Aber egal, ich habe jetzt eine Lösung die gut funktioniert und wo ich sicher sein kann dass das Ergebnis stimmt.


    Gruß

    Michael


    P.S. Kapitel 2.98 in http://www.astro-electronic.de/FFmpeg_Book.pdf

    Hallo Michael,


    das weiß ich nicht. Ich kriege keine solche Warnung, habe aber bisher nur Festbrennweiten gehabt. Vielleicht liegt es am Zoom, dass das Programm die verwendete Brennweite nicht richtig einliest?

    p.s.

    Ich sehe gerade, der Fehler tritt auf, wenn man als Obektiv dein Canon EF 100-400mm f/4.5-5.6L IS II USM eingibt, direkt darunter kann man dieselbe Objektivbezeichnung ohne die "II" auswählen, dann verschwindet der Fehler. Komisch!

    Das Objektiv ohne "II" ist aber älter und hat andere Eigenschaften. Das kann ich für die Korrektur nicht nehmen. Scheint so dass es in RawTherapee keine Korrekturdaten für mein Objektiv mit einer Vollformat-Kamera gibt.

    Obwohl es in der aktuellen Lensfun-Datenbank auch mit Cropfaktor 1:1 drinsteht:

    Lensfun's coverage


    Gruß

    Michael

    Das kostenlose RawTherapee kann das auch. Bild laden, dann Transformation, Objektivkorrektur. Deine Kamera und Objektiv sind auswählbar. Häkchen setzten bei Verzeichnung und Vignettierung. Falls das nicht genau passt, kann man noch zusätzlich eine variable Verzeichnungskorrektur anwenden. Am Ende als 16 bit .tif abspeichern. Siehe auch hier ab Seite 99.


    Ich verwende RawTherapee sehr gerne auch für Astrofotos. Gradationkurven, selektiver Kontrast, Hintergrund Weißabgleich, Defringe für Farbsäume an den Sternen entfernen, selektive Rausunterdrückung, Vignettierungskorrektur, Verlaufsfilter, Hotpixel Entfernung usw.

    Hallo Stathis,


    ich habe RawTherapee installiert und wenn ich die Kamera und das Objektiv einstelle dann kommt da so eine Warnung. Wie kriege ich die weg?


    Gruß

    Michael


    Vielen Dank dafür! Die Verzeichnungs-Korrektur mit Darktable scheint sehr gut zu funktionieren. Wenn ich den richtigen Ausschnitt aus dem korrigierten 100mm Bild vergrössere, dann ist er nahezu dechungsgleich mit dem korrigierten 200mm Bild. Es ist noch nicht ganz perfekt, aber vorher ohne die Verzeichnungs-Korrektur waren die Bilder überhaupt nicht deckungsgleich.

    Lassen sich die Bilder in Darktable in einem 16-bit Format exportieren?


    Gruß

    Michael

    Werde mal die drei Bilder in naher Zeit heute ausprobieren, und in PS auch. Wenn es nichts ausmacht, stelle ich sie hier rein. (verkleinert)

    Klar, kannst du gerne hier reinstellen.


    Gruß

    Michael


    P.S. Ich möchte ein Deep-Zoom-In machen, also mit dem 100mm Bild beginnen und reinzoomen, dann nahtlos in das 200mm Bild überblenden, weiter reinzoomen und in das 400mm Bild überblenden. Ich habe inzwischen rausgefunden dass das nicht geht, wenn man nicht vorher die Verzeichnung korrigiert.

    Kannst mal die hier hoch laden, ob es in Darktable das mit 100 Bilder automatisieren kann, weiß ich nicht ob das geht. In PS kann ich mit einer Aktion die ich aufgezeichnet habe, das auf viele Bilder anwenden. (Automatisieren, Stapelverarbeitung) Die Kameradaten sollten im Bild vorhanden sein.


    Nein das hast du falsch verstanden, es sind nur drei Bilder:

    http://www.astro-electronic.de/100mm.CR2

    http://www.astro-electronic.de/200mm.CR2

    http://www.astro-electronic.de/400mm.CR2

    Kamera: Canon EOS 5D Mark 4

    Objektiv: Canon EF 100-400mm f/4.5-5.6L IS II USM

    (Die "II" in der Objektiv-Bezeichnung ist wichtig weil es auch ein älteres "I" Objektiv gibt, das andere Eigenschaften hat)

    Das steht aber auch alles in den Exif-Daten drin.

    Die eingestellten Brennweiten des Zoom-Objektivs entsprechen den Dateinamen.


    Gruß

    Michael

    Hallo Michael,


    Darktable ist kostenlos und dort wird die Objektiv-Korrektur angeboten. Dort ist auch zu den verschiedenen Kameramodellen, eine Objektiv-Datenbank enthalten. Sonst wenn du das neue Photoshop CC hast, über den RAW-Converter-Filter.


    Ich hatte Darktable mal installiert, aber jetzt ist es nicht mehr drauf und habe es wahrscheinlich nicht ohne Grund gelöscht. War mir vielleicht zu kompliziert. Könntest du mir mal drei Bilder damit korrigieren? In der Zeit bis ich rausgefunden hätte wie das funktioniert, könntest du wahrscheinlich 100 Bilder korrigieren.


    Gruß

    Michael

    Ich suche eine kostenlose Software mit der man bei einem (16-bit) Bild die Verzeichnung des Objektivs korrigieren kann.

    -- Den "lensfun" Filter in FFmpeg habe ich bislang noch nicht zum laufen gebracht. Es ist auch nicht ganz klar ob Lensfun 16-bit kann.

    -- Lensfun als Plugin für Gimp ist wohl veraltet und lässt sich im aktuellen Gimp nicht installieren.

    -- Der "lenscorrection" Filter in FFmpeg geht zwar und kann auch 16-bit, aber dafür gibt es keine Datenbank mit Objektiven, d.h. man müsste die nötigen Korrekturwerte erst mühsam selber ermitteln.

    -- In DaVinci Resolve gibt es eine einfache Verzeichnungs-Korrektur die zweifellos mit 16-bit arbeitet, aber leider keine Objektiv-Datenbank.

    -- Gibt es sonst noch irgendwas?


    Gruß

    Michael

    Hallo Michael,

    Hab von einem Kollegen ein fd Objektiv bekommen. Einen Adapter habe ich mir auch gekauft und nun bin ich mal gespannt. Nach dem cine Objektiv werde ich mal googeln.


    Viele Grüße und c.s.

    Ein Adapter vom Canon FD Objektiv zur Canon EF Kamera ist leider nicht optimal, weil der Adapter entweder eine Verlängerungslinse enthält (wodurch die optischen Eigenschaften nicht besser werden), oder falls er keine Linse enthält dann kannst du nicht auf unendliche Entfernung fokussieren. Das geht nicht anders, weil das Auflagemaß bei FD 42mm ist und bei EF 44mm.


    Gruß

    Michael

    Du musst nach "cine" Objektiven suchen, also Objektive für Filmaufnahmen. Die haben eine manuelle Blendeneinstellung am Objektiv. Davon gibt es auch viele mit Canon EF Bajonett. Die Original-Objektive von Canon sind sehr teuer, aber es gibt auch viele Objektive von Drittanbietern wie wesentlich billiger sind, z.B. Rokinon oder Meike oder Samyang (es gibt noch mehr...).


    Eine andere Alternative sind alte Objektive mit M42 Anschluss, die alle eine manuelle Blende am Objektiv haben. Adapter von M42 auf Canon EF ist kein Problem.


    Gruß

    Michael

    Hallo Reinhold,

    nur so ergänzt, den Fehler, der über einen Umlauf entsteht, würde ich eher als Drift bezeichnen und müsste sich mit einmaliger Messung und über eine Steuerung (in begrifflicher Abgrenzung zu Regelung) gut und vor allem genau vermeiden lassen.

    Unter "Drift" würde ich verstehen, wenn sich die Achse in einem siderischen Tag nicht um genau 360° gedreht hat. Das würde bedeuten dass die Zeitbasis der Steuerung nicht mit der richtigen Frequenz läuft. Das ist ziemlich einfach korrigierbar.


    Als ich geschrieben habe "Die Periodendauer des Fehlers ist 24 Stunden" habe ich gemeint dass es bei dieser Art von Getrieben keine kleinere Periodendauer (im Bereich von Minuten bis Stunden) gibt, nach der sich der Fehler exakt wiederholt.

    Beim Schnecken-Getriebe steckt der Fehler im Wesentlichen in der Schnecke, d.h. der Nachführ-Fehler wiederholt sich in guter Näherung mit jeder Umdrehung der Schnecke, also im Bereich von einigen Minuten.

    Beim Harmonic-Getriebe ist es eben nicht so. Da setzt sich der Fehler aus mehreren Komponenten mit unterschiedlichen Frequenzen zusammen, und er wiederholt sich erst nach einer kompletten Umdrehung der Abtriebswelle.


    Gruß

    Michael

    Leider haben all diese Montierungen die gleichen Probleme, sofern es sich nicht um einen geschlossenen Regelkreis mit einem hochauflösenen Winkelsensor handelt:

    -- Der periodische Fehler ist ziemlich groß

    -- Die Periodendauer des Fehlers ist 24 Stunden, d.h. falls man den Fehler abspeichern wollte, müsste man eine ganze Umdrehung betrachten

    -- Für Dauerbelichtungen ist ein Autoguider unverzichtbar.


    Gruß

    Michael

    Hallo Gert,


    Anstelle Bildschirm Capture sollte auch gehen ein Verzeichnis zu überwachen, in das NINA alle 5sek die neue FITS Datei schreibt. Dann besteht die Bildschirm-Limitierung nicht. Normaler HD Laptop Schirm erlaubt keine sinnvolle Beurteilung der Sterne in den Ecken vom 26M Pixel APS-C Sensor. Es gibt da wohl Watchdog Programme, die ein verzeichnis 'überwachen' und bei einer neu angekommenen Datei dann z.B. ASTAP starten und dort einen Tilt oder FWHM Plot machen.


    Ja, sowas gibt es. In C# heisst die Funktion "fileSystemWatcher". Nicht ganz unproblematisch, weil das Event oft zu früh ausgelöst wird. Es wird nämlich schon erzeugt, wenn damit begonnen wird die Datei zu schreiben. Das heisst es kann passieren, dass das Event kommt, aber wenn man versucht das Bild sofort einzulesen, dann schlägt das evtl. fehl weil die Datei noch gar nicht fertig geschrieben ist. Das Problem tritt hauptsächlich bei großen Dateien auf, insbesondere wenn die über Netzwerk nur langsam reinkommen. Dieses Problem muss man berücksichtigen wenn man sowas programmiert. Irgendwo habe ich ein Beispiel dazu.

    Soweit ich weiss ist es mit FFmpeg leider nicht möglich ein Verzeichnis auf neue Dateien zu überwachen.

    Das müsste man sich in C# selber programmieren. Wobei FITS jetzt nicht das Dateiformat meiner Wahl wäre, weil viel zu kompliziert. PNG ist einfacher einzulesen.


    Gruß

    Michael

    Ich habe auch noch die zweite Variante zu Kapitel 2.117 hinzugefügt:

    http://www.astro-electronic.de/FFmpeg_Book.pdf


    Das funktioniert so:

    Man braucht zwei Monitore und die müssen im Windows so konfiguriert werden dass sie nebeneinander liegen, also ein erweiterter Desktop mit doppelter Breite.

    Das FFmpeg Script wird gestartet. Es holt sich den Inhalt vom linken Bildschirm (1920x1080), vergrößert die vier Ecken mit dem einstellbaren Faktor, und stellt das Ergebnis auf dem zweiten Bildschirm dar (ebenfalls 1920x1080). Man kann mit dem Mauszeiger testen ob's funktioniert.

    Dann kann man irgendeine andere Software starten, die alle 5 Sekunden ein Bild macht und fullscreen auf dem linken Monitor darstellt. Die vergrößerten Ecken erscheinen in Echtzeit auf dem zweiten Bildschirm.


    Das Funktionsprinzip lässt sich auch auf viele andere Anwendungen übertragen:

    1. Datenquelle kann der Bildschirminhalt sein, oder ein Fensterinhalt, oder eine Video-Datei, oder eine HDMI oder USB Video-Quelle.

    2. Die Daten werden in Echtzeit bearbeitet. FFmpeg bietet da sehr viele Möglichkeiten.

    3. Das Ergebnis wird in eine Datei geschrieben, oder direkt auf einem Monitor ausgegeben.


    Gruß

    Michael

    Die gleiche Funktionalität könnte man vielleicht auch mit "OBS Studio" zusammenbasteln. Als Quelle wahlweise "Window Capture" oder "Video Capture Device", dann die Effekte "Crop" und "Scaling" hinzufügen. Das habe ich jetzt nicht im Detail ausprobiert. Unklar ist mir im Moment nur, wie man das Eingangssignal vervierfachen kann, bevor man "Crop" und "Scaling" anwendet.


    Gruß

    Michael

    Das FFmpeg Script für ein HDMI Eingangssignal (FHD 1920x1080 unkomprimiert mit 5fps) habe ich mal eben geschrieben, siehe Kapitel 2.117 in http://www.astro-electronic.de/FFmpeg_Book.pdf

    Man braucht dafür einen billigen chinesischen HDMI zu USB Konverter, den es für weniger als 20 EUR zu kaufen gibt.


    Bei der Version wo sich FFmpeg das Eingangssignal vom Bildschirm holt wäre nur der Anfang des Scripts anders. Die Bildverarbeitung und Ausgabe wäre identisch.


    Gruß

    Michael

    Hallo Gert,


    das wäre mit einem FFmpeg Script machbar und würde so ablaufen:

    1. Du lässt irgendein Programm laufen das ständig 5sek Bilder macht und auf dem Bildschirm darstellt.

    2. Das FFmpeg Script holt sich den Bildschirminhalt (wahlweise den ganzen Bildschirm, oder nur ein bestimmtes Fenster), vergrössert die Ecken und stellt das Ergebnis dar (wahlweise auf einem anderen Bildschirm, oder in einem anderen Fenster).

    Mit dem zweiten Teil kann ich gerne weiterhelfen.

    Der Nachteil dieser Methode ist, dass die Auflösung bereits in Schritt 1 festgelegt wird. Sie kann also nicht größer sein als maximal die Bildschirmgröße.


    Gruß

    Michael


    P.S. Falls das Eingangssignal als HDMI von einer DSLR kommt, dann könnte sich das FFmpeg Script das Bild auch direkt von einem HDMI zu USB Konverter holen, mit der vollen Auflösung die dieser Konverter liefern kann.