Filmen oder Einzelbilder mit Fire Capture bei Sonne und Mond

  • Hallo Leute


    Ich bin seit meinem 14 Lebensjahr vom Astro-Virus befallen, der sich trotz vieler anderer Interessen bis heute nicht verflüchtigt hat. (Heute bin ich 70)


    Seit einem knappen Jahr habe ich eine AST 178MM und fotografiere damit vorwiegend Sonne und Mond. Die Optik ist eine Rubinar Makro Russentonne mit 500 mm Brennweite. Deren Optik hervorragend ist. Seit drei Wochen hat sich ein Skymax 150 auf einer EQ5 dazugesellt.


    Die ASI wird über Fire Capture angesteuert. Soweit alles gut und alles funktioniert auch. Jetzt meine Frage:


    Was besteht für ein Qualitätsunterschied zwischen dem Stacken von Einzelbild Sequenzen oder dem Filmen. Ich rede hier ausschließlich von Sonne und Mondsequenzen.


    Bei der Sonne habe ich bisher zwischen 35 und 55 ms mit Gain 100 die Bilder gemacht. Bildfolge waren 50 Bilder. Nachdem ich die Einstellungen von Fire Capture bezüglich der Qualitätsauswahl der Bilder begriffen habe, habe ich auch schon Serien von 500 gemacht. Alles gut gelaufen. Die Bilder sind ok.


    Jetzt frage ich mich, ob mit Filmen da noch mehr geht. Wenn ich mir überlege, dass ich mit 35ms ein Bild mache, wieviel Belichtungszeit habe ich dann beim Filmen pro Bild? Das Video wird doch beim Stacken auch in Einzelbilder zerlegt. Gibt es einen Qualitätsunterschied zwischen dem gefilmten Einzelbild und dem Einzelbild aus einer gestackten BMP Serie? Da habe ich eine Verständnislücke.


    Danke für Eure Stellungnahmen und herzliche Grüße


    Horst-Dieter


    Link zum Astropart auf meiner Webseite:


    HDDs Mikrowelten

  • Jetzt frage ich mich, ob mit Filmen da noch mehr geht

    Ja, auf jeden Fall...


    Wenn ich mir überlege, dass ich mit 35ms ein Bild mache, wieviel Belichtungszeit habe ich dann beim Filmen pro Bild?

    Das ist relativ einfach... wenn du 10ms belichtest kannst Du so ungefähr 100 Bilder machen (abzüglich der Übertragungsgeschwindigkeit von Deinem Rechner).

    Ich mache immer so zwischen 10.000 und 20.000 Aufnahmen und lasse dann die Besten 2000 bis 5000 stacken (je nach Qualität)


    Ich füge mal ein Bild von meinem 80mm Refraktor an, da kannst Du dann sehen, was man mit 80mm F7,5 so alles anstellen kann :)


    cs Bernd

  • Hey, das ging ja schnell


    Vielen Dank für Eure Antworten. Das werde ich mir mal zu Gemüte führen und auf jeden Fall ausprobieren.


    Danke und noch einen schönen Sonntag

    Horst-Dieter

  • Hallo


    mehr wie 5% der Bilder sind meist nicht brauchbar

    wenn man dann die Sonne auf Oberfläche belichtet und die schwachen unterbelichteten Protuberanzen sichtbar machen will, muss man so stark strecken das man auf höhere Bittiefe durch stacken vieler Bilder und rauschen auf viele Bilder angewiesen ist, da langen dann 100 oder 200 verarbeitete Bilder kaum mehr.

    man weiß auch nie in welchen sekunden das Seeing gerade mal zufällig besser ist.

    Verrückt wird es dann beim Jupiter der so schnell dreht das man die Bilder noch derotieren lassen muss


    Gruß Frank

  • Servus Horst-Dieter,


    der vermutlich gravierende Unterschied zwischen Bilder stacken und ein Video mit einem der dazu passenden Programme zu einem Einzelbild verarbeiten liegt in der Vorgehensweise.


    Bei Stack von x Bilder wird normalerweise immer das ganze Bild genutzt. Wenn ich aber ein Sonnenvideo z.B. mit AviStack verarbeite, werden zuerst alle im Video enthaltenen Bilder mit zu niedriger Qualität komplett verworfen (je nach Einstellung). Danach zerlegt die SW jedes Einzelbild in viele Schnipsel und sortiert davon wieder jene Bildanteile mit zu niedriger Qualität aus. Im letzten Schritt werden die "guten" Bildschnipsel der vielen einzelnen Frames des Videos zu einem Einzelbild verarbeitet.


    Daher erreicht man mit Videos en besseres Ergebnis


    Gruß Stefan

  • Moin zusammen,


    also da muss ich mich mal einklinken für das Verständnis ... für mich hat es bisher keinen Unterscheid gemacht, ob ich Einzelbilder mit z.B. 50 ms oder ob ich einen Film erstelle, denn der Film wird ja auch nur aus Einzelbildern zusammengesetzt, die je 50 ms belichtet wurden. Das merkt man ja auch schon daran, dass der Film am Ende nicht die Anzahl Bilder (z.B. 1000) mal der Belichtungszeit lang ist. In diesem Beispiel wären das als 50 ms x 1000 also gleich 50000 ms oder 50 Sekunden. Ein Film aus 1000 Bildern sollte bei z.B. 25 Bildern pro Sekunde 40 Sekunden lang sein. So ein Film egal ob SER oder AVI ist doch nur ein Container für Einzelbilder. Auch bei der Aufnahme von Filmen wird doch die Belichtungszeit für das Einzelbild eingestellt. Die können natürlich noch beschnitten sein in der Größe, was dann am Ende vielleicht doch eher für die Verwendung von Einzelbildern sprich.

    Könnt ihr meiner Theorie folgen oder habe ich jetzt einen totalen Denkfehler in meinem Kopf ... ?

    Gruß Thomas

  • Hallo an Alle


    Erstmal herzlichen Dank für die schnellen Stellungnahmen. Ich habe auch so meine Bedenken wegen der Filmerei. Meine Überlegung dabei ist folgende:


    Wenn ich das Seeing z.B. bei den Sonnenbildern beobachte, entsteht da ein gewisser Wiederholungsrhytmus. Wenn ich diesen in ein paar Minuten erkannt habe, mach ich mit 35 Millisekunden oder weniger eine Sequenz von 100 Bildern. Diese werden von Hand ausselektiert. Dabei bleiben bei einer 100er Serie zwischen 50 und 80 Bilder als gut übrig. Je nach Seeing. Diese Bilder werden mit AS gestackt und die grüne Histogramm Kurve mit den Balken bei 50 begrenzt.


    Die Ergebnisse sind bisher recht gut. Ich habe es bisher aber nur bei den Sonnenbildern so gemacht.


    Anbei das Sonnenbild von heute Mittag, das auf diese Art und Weise entstanden ist.

  • Das Original liegt als Tif Datei vor und hat 12Mb. Es ist wirklich knackscharf.

    Meine Überlegungen dazu tendieren in die Richtung wie Thomas sie beschrieben hat.

    Aber ich habe mir im Laufe meines Lebens abgewöhnt mich bei neuen Dingen festzufahren.

    In etwa nach dem Motto:

    Sag niemals nie... und... ich werde dran bleiben.


    Herzliche Grüße und Danke

    Horst-Dieter

  • Hallo


    Zur abspielvideolänge, wenn du einen Film mit 30 Bildern je 10s machst wird Das Video vermutlich nur 1s abspieldauer haben? Die Zeit des Einzelbildes wird ignoriert


    MA hst du ein Video mit 10000 Bildern und lässt es mit Autostackert analysieren wirst du sehen wie die Qualität schwankt, da sind 75% schlecht, wirklich gut nur wenige, und die müssen nicht nur Details zeigen, die müssen auch noch übereinander passen, der Zerschnipselungstheorie wenigsten Ausschnittweise.


    Gruß Frank

  • Servus Thomas,


    wie schon beschrieben, es hängt davon ab, wie das Stacken erfolgt. Beim Stack von Einzelbildern werden diese zueinander anhand von Marken ausgerichtet und dann wird für jedes Pixel aus der Gesamtanzahl der Bilder vereinfach gesagt ein additiver Mittelwert gebildet. Durch Seeing "wabbert" aber gerade die Sonne recht kräftig und von Bild zu Bild hast du dabei Verschiebungen. Betreffen diese das ganze Bild gleichmäßig, ist das kein Problem, würde über die Marken deckungsgleich ausgerichtet. Sind aber einzelne Bildanteile betroffen, hilft das nicht mehr.


    Bei Videos werden die einzelnen Frames deshalb vor dem Stack in beliebig große Schnipsel zerlegt (kann man einstellen, mehr Schnipsel- mehr Rechenarbeit). Bildanteile, in denen die in den Schnipseln gesetzten Marken zu stark verschoben sind, werden verworfen. Nur "scharf" abgebildete Schnipsel werden benutzt, zueinander ausgerichtet und dann erst erfolgt die additive Mittelwertbild.





    Hier zu sehen, es gibt noch einen schwarzen Bildanteil, in den bis hierher 33 gestackten Frames waren nur Schnipsel dabei, die in dem Bereich zu große Abweichungen hatten




    Das fertige Bild, nur grob noch per Hand etwas abgedunkelt und leicht geschärft.


    Das kann vielleicht auch eine SW mit Einzelbildern machen. Aber ich habe teilweise 50 Videos an einem Tag aufgenommen und diese dann per Stapelverarbeitung von AviStack der Reihe nach automatisch durchwurscheln lassen. Die Videos liegen alle in einem Ordner, das Programm holt sich diese einfach der Reihe nach und legt das Ergebnis in diesem Ordner wieder ab.


    Wenn du mit Einzelbildern arbeitest, wie soll eine SW erkennen, welche Bilder zueinaner gehören?


    Servus Horst-Dieter,

    Wenn ich das Seeing z.B. bei den Sonnenbildern beobachte, entsteht da ein gewisser Wiederholungsrhytmus. Wenn ich diesen in ein paar Minuten erkannt habe, mach ich mit 35 Millisekunden oder weniger eine Sequenz von 100 Bildern. Diese werden von Hand ausselektiert

    Woran richtest du dich bei dem Erkennen? Die Seeingstörungen betreffen das ganze Bild, aber nicht jede Stelle des Bildes gleich. Und genau das wird durch das "Zerschnipseln" bei der Verarbeitung von Videos betrachtet. Die Anzahl der Schnipsel und die Grenze, wieviel Abweichung in einem einzelnen erlaubt wird, das kann man frei einstellen. Je mehr Schnipsel und je strenger die Toleranzgrenze desto länger die Rechenzeit. Kann im Extremfall bedeuten, du bekommst ein fertiges Bild, in dem noch ein schwarzer Fleck ist (siehe Bilder oben)- weil in diesem(n) Schnipsel(n) kein einziger Frame innerhalb der Toleranz lag.


    Das für die Bilder genutzte Video war auch ein sehr kurzen mit nur 113 frames gesamt, normalerweise haben meine Videos so 800-1000 frames


    Gruß

    Stefan

  • Hallo Stefan


    Ich Danke Dir.

    Endlich konnte mir mal jemand genau erklären, wie es vom technischen Ablauf her gesehen funktioniert. Nochmals Danke für Deine Bemühungen. Bisher hatte ich es nur mit Astro-Fotografen zu tun, die es zwar genauso machen, aber Keiner konnte mir erklären wie es wirklich funktioniert.

    Da werde ich wohl meinen bisherigen Workflow gehörig umstellen müssen.


    Danke nochmal und viele Grüße

    Horst-Dieter

  • Wenn du mit Einzelbildern arbeitest, wie soll eine SW erkennen, welche Bilder zueinaner gehören?

    Moin Stefan,

    ja gut erklärt und ich kann dem auch folgen, zumal auch meine rein praktische Erfahrung sagt, dass es mit Videos besser wird.


    Woher die Software wissen soll, welche Bilder zusammen gehören ist doch klar, das sagt ihr der nette Mensch vor dem PC. Denn bei allen Softwarepaketen die ich kenne, ist es ja so, dass Du die Bilder oder den Ordner gezielt auswählst. "Mischdaten" würde ich natürlich nicht zur Verfügung stellen, sondern eine kleine feine vorsortierte Auswahl.

    Gruß Thomas

  • Hi,

    Woher die Software wissen soll, welche Bilder zusammen gehören ist doch klar, das sagt ihr der nette Mensch vor dem PC.

    Darauf wollte ich ja hinaus. Mit dem Workflow bei Einzelbildern musst du erst zusätzlich tätig werden. Entweder alle zu einer Serie gehörenden Bilder in jeweils einen eigenen Ordner packen oder der Bilderserie eine jeweils eigene Bezeichnung zuteilen, damit diese getrennt von der SW erkannt und bearbeitet werden können.

    Denn bei allen Softwarepaketen die ich kenne, ist es ja so, dass Du die Bilder oder den Ordner gezielt auswählst. "Mischdaten" würde ich natürlich nicht zur Verfügung stellen, sondern eine kleine feine vorsortierte Auswahl.

    Bei den Videos muss ich nur alle gewünschten, in einem Ordner liegende Videos markieren und das war es, den Rest macht die SW. Die Aufnahme-SW vergibt für jedes Video selbst eine neue Bezeichnung. Der Workflow insgesamt ist also einfach- Aufnahmen machen und dabei x Videos erstellen. Zum Einzelbild verarbeiten- in meinem Fall AviStack starten, den Ordner mit den Videos öffnen, normalerweise alle Videos zur Verarbeitung auswählen und den Batchprozess starten- fertisch..... Je nach Größe und Anzahl läuft der Rechner dann für 1-3h, danach liegen die gestackten Bilder im Ordner und können nach Wunsch noch manuell bzw. ebenso per Stapelverarbeitung nachbearbeitet (schärfen, Grauwert anpassen etc.) werden.


    gruß stefan

  • Bei den Videos muss ich nur alle gewünschten, in einem Ordner liegende Videos markieren und das war es, den Rest macht die SW.

    Vielleicht habe ich es überlesen, mit welcher SW arbeitest Du denn?

    AS arbeitet auf jeden Fall anders.

    mehr wie 5% der Bilder sind meist nicht brauchbar

    Das ist nicht richtig

    man weiß auch nie in welchen sekunden das Seeing gerade mal zufällig besser ist.

    ist auch nicht richtig


    Verrückt wird es dann beim Jupiter der so schnell dreht das man die Bilder noch derotieren lassen muss

    stimmt auch nicht... es sei denn, Du nimmst mehrere Minuten auf. Der Jupiter ist so hell, dass man schon nach 1 Munute mehr als 18.000 Frames hat... und da muss man noch nicht derotieren.


    CS Bernd

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!