Starlink als Leitstern?

  • Hallo zusammen,


    bitte entschuldigt bitte wenn meine Frage naiv ist, aber kann man Luftunruhen auch via Software korrekturrechnen?
    Wäre es dann nicht möglich bei Starlik aus der Not eine Tugend zu machen?


    Also in meiner idealen Gedankenwelt stelle ich mir das so vor:
    Sollte ich bei einer Objektaufnahme N Bilder erzeugen, für Lucky Imaging oder so, dann sollte doch eine Software im Nachgang relativ einfach feststellen können:
    - Ob sich was durchs Bild bewegt hat
    - Anhand von Ausrichtung und Urzeit ob es ein/zwei/viele Starlinks waren.
    - Abschätzen können wie der Starlink eigentlich hätte aussehen müssen (da Form, Ausrichtung, Farbe usw immer gleich sind)
    - Anhand dessen dann das Seeing im Bild abschätzen, quantifizieren und evt. versuchen das zu korrigieren?


    Wenn man Bilder Stackt, kann man dann auch nur Bildbereiche verwenden? Also z.B. die Flugbahn eines Satelitens aus einem Bild streichen und nur das "Drumherum" verwenden?


    Ginge es auch dass die Software überlegt ob sie Belichtungszeiten anpasst? Also ... keine Ahnung sobald sie merkt dass am Bildrand etwas beginnt zu kreuzen sie die aktuelle Belichtung stopt und dann in kürzenren Intervallen Bilder macht bis der Himmel oder wenigstens ein Bereich dieses wieder frei ist? Weil kürzere Satelitenstreifen vielleicht leichter zu korrigieren sind als komplett durchlaufende?


    Bitte entschuldigt wenn das alles zu leicht gedacht ist,
    ich hab da keine Ahnung ;)


    Viele Grüße,
    Andre

  • Hi Andre, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn man Bilder Stackt, kann man dann auch nur Bildbereiche verwenden? <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Stacking-SW nutzt immer das ganze Bild, du könntest allenfalls vor dem Stack bei allen Einzelbildern den gleichen Bildanteil an einem Rand abschneiden, aber nichts aus dem inneren Bereich. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ginge es auch dass die Software überlegt ob sie Belichtungszeiten anpasst? Also ... keine Ahnung sobald sie merkt dass am Bildrand etwas beginnt zu kreuzen sie die aktuelle Belichtung stopt und dann in kürzenren Intervallen Bilder macht..<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Wie soll die SW das erkennen? Die "sieht" das bild doch erst, wenn es ausgelesen ist. Während einer laufenden Belichtung ist das nicht möglich. Und nachträglich lässt sich an der Belichtungszeit nichts mehr ändern.


    Starlink oder Satelliten allgemein sind flächige Objekte. Seeingeinfluss zeigt sich aber stärker an punktförmigen Objekten. Anhand von sich bewegenden Objekten Seeingeinfluss rausrechnen- eher nein. Woher sollte die SW wissen, wie das Objekt aussieht?


    Gruß
    Stefan

  • Hi Stefan,
    Nutzt Stacking-Software bei jedem Bild den gleichen Ausschnitt "weil das im allgemeinen so Sinn macht" oder MUSS sie algorithmisch bedingt immer den gleichen Ausschnitt verwenden?
    Wenn der Algorithmus mit ungleichen Ausschnitten nicht zurecht kommt könnte man ja vielleicht fehlende Ausschnitte eines neuen Bildes mit dem bereits summierten Ausschnitt des verwendeten Stacks auffüllen. Oder so.


    Ja wie soll sie das erkennen....
    Dafür müsste ich wissen wie Astrofotografie funktioniert [:D]
    Also rein aus Sicht als Softwareentwickler würden mir zwei Möglichkeiten aus dem Bauch heraus einfallen:
    -über eine zweite Kamera die vielleicht im Leitrohr steckt.
    -odee bei Astrokameras direkt über die Kamerafirmware selber. Bei einer laufenden Belichtung sollte ein Satelit der das Bildfeld betritt doch direkt als "unverhältnismäßig hell beleuchteter Pixel anhand des helligkeithistogramms der letzten X msec" darstellen. Der sich dazu anfängt Linear auf andere Pixel auszubreiten. An der Stelle könnte die kamera das ja irgendwohin bemerkbar machen...USB, Steuerring usw.



    Hm woher soll die Software das wissen...ich denke bei bisherigen Objekten ist das wohl eine gute Frage, aber bei Starlink hat man es ja theoretisch immer und immer wieder mit einem Baugleichen System zu tun. Kennt man einen, kennt man alle. Ob es ein Starlinksat ist sollte die Sw wie gesagt anhand von Zeit und Ausrichtung herausfinden können. Und damit auch die genaue Form (Grundform des Satelitens verrechnet mit der räumlichen Verzerrung anhand der Position von Satelit und Kamera verrechnet mit der aktuellen Sonnenposition um ggf. Helligkeitsschwankungen am Objekt berechnen zu konnen = "so sollte der Satelit für mich in einer Idealen Welt aussehen")


    Und dann sollte man sich ja auch den "Idealen Strich in der Belichtung" berechnen können.


    Naja okay, wenn das bei flächigen Objekten nicht hilft schade


    Viele Grüße,


    Andre

  • Hi Andre,


    die SW nimmt Sterne aus dem Bild und legt die Bilder diese möglichst deckungsgleich übereinander. Tritt dabei zwischen einzelnen Bildern ein Versatz auf, dann sind im Summenbild am Rand Sterne, die nur von einem Teil der Einzelbilder stammen.


    auch bei Bildfeldrotation passiert das, dann stimmt der mittlere Bereich, zum Bildfeldrand hin dagegen werden die Sterne zunehmend verzogen aussehen. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Dafür müsste ich wissen wie Astrofotografie funktioniert <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Grundsätzlich nicht anders als Tagfotografie, nur mit längeren Belichtungen. [:)] Egal ob DSLR oder Astrokamera, während die Aufnahme läuft, wird von den Pixeln Licht gesammelt. Und das Ergebnis wird erst bei Ende der Aufnahme ersichtlich, dann wird der Pixelinhalt ausgelesen und erst dann würde eine SW erkennen, ob da sich etwas im Sichtbereich bewegt hat. Auch die Kamerafirmware kennt das Ergebnis nicht vor dem Auslesen.


    Über eine zweite Kamera kontrollieren und gegebenenfalls die Aufnahme stoppen- ginge prinzipiell. Aber dann musst du diese zweite Kamera quasi in Echtzeit auswerten und sich bewegende lichtschwächere Objekte werden dabei vielleicht nicht erkannt. Außerdem musst dann die Aufnahme-SW eine Möglichkeit bieten, über ein Signal die Aufnahme früher zu stoppen als eigentlich vorgegeben.


    gruß stefan

  • Stacking software die selektiv aufgrund von Qualitätsmerkmalen einzelne Bereiche eines Einzel-Frames beim Aufaddieren ein/bzw ausblendet gibt es ja bereits, das findet aber mehr Anwendung für Planeten- und Sonnen-Bilder: Autostakkert, Registax, Avistack, und wie sie alle heißen.


    Weniger spezialisierte Software für's Stacking kann soetwas auf Pixel-ebene machen wenn man sie entsprechend konfiguriert. D.h. beim Aufaddieren können einzelne Pixel aus Einzelframes ganz ignoriert (oder schwächer gewichtet) werden (i.d.R. dann wenn die Pixel entweder nach einem Sensor Defekt aussehen oder wenn der Pixelwert statistisch gesehen zu stark von den sntsprechenden Pixelwerten an der gleichen Stelle im Himmel auf anderen Bildern im "Stack" abweicht.
    Letzteres führt dann dazu dass aus dem Gesamtbild Cosmic-Ray-Artefakte oder auch "echte" aber sich bewegende Objekte am Himmel rausgerechnet werden : Satelliten, Flugzeuge, schnelle Asteroiden , Meteore, Glühwürmchen , Wolken, Drohnen, ....)


    CS
    HB

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!