Kurzzeitbel.: Seeing, Kameras, Auflösung

  • Hallo, Kollegen,


    als Laie habe ich mal folgende Frage:
    bei gleichem Seeing, gleicher Teleskop-Öffnung (Gesamtbelichtungszeit egal) und gleicher Einzelbelichtungszeit (0,2 - 4 sec) gilt doch sicher bei verschiedenen Kameratypen, nach Qualität des Ergebnisses (=Auflösung) geordnet, folgende Reihenfolge:
    DSLR mit altem Prozessor --> DSLR mit neuem Prozessor --> CCD (?)--> Planeten-Kamera (ASI) -->sCMOS-Kamera --> EM-CCD.


    Aber wie ist es, wenn man mit einer alten DSLR arbeitet, aber ein besseres Seeing hat als ein Kollege, der eine EM-CCD verwendet?
    Erreicht man da ein gleich gutes Ergebnis (Auflösung) oder vielleicht sogar ein besseres Ergebnis (Auflösung) , wenn das Seeing entsprechend gut ist?


    Wie groß ist da das Gewicht des jeweils aktuellen Seeings gegenüber den Qualitätsunterschieden der verschiedenen Kameratypen?
    Kann die EM-CCD den Nachteil des wesentlich schlechteren Seeings wirklich aufholen?


    Beispiel: ein Kollege im Alpenraum mit DSLR hat ein gutes Seeing und macht viele 10 sec Aufnahmen (und erreicht eine gute Auflösung), ein anderer Kollege mit EM-CCD im Flachland hat durchschnittliches Seeing. Dieser muss nun kürzer belichten, z.B. 3 sec und in der BB zuletzt schärfen. Reicht das aus, um den Seeing-Rückstand aufzuholen, bezüglich der Auflösung?


    viele Grüße und cs
    Andreas

  • Hi Andreas,


    irgendwie willst du Äpfel, Birnen und Bananen mit Kirschsaft vergleichen. [:D]


    Auswahl der Kameras- soll das auf Planeten rausgehen oder auf Deepsky? Die ASI macht für Deepsky nicht soviel Sinn, die DSLR ebenso wenig für Planeten.


    Der Kollege im Alpenraum wird für Deepsky kaum nur mit Belichtungen von wenigen Sekunden arbeiten, der belichtet im Minutenbereich. Er hat ja deiner Auswahl entsprechend nicht nur das bessere Seeing, er hat auch vermutlich den dunkleren Himmel. Der Kollege im Flachland mit schlechtem Seeing wäre mit der empfindlichen EM-CCD wohl besser dran, wird aber auch mit Störlicht kämpfen- das hast du aber nicht mit aufgelistet.


    Gruß
    Stefan

  • Hallo, Stefan,


    es soll nur um DeepSky gehen und es geht um Kurzzeitbelichtungen. Die Zeitspanne kannst Du meinem Beitrag entnehmen.
    Zudem geht es darum, die DSO's mit möglichst hoher Auflösung darzustellen, also die großen Öffnungen von Teleskopen auch etwas besser bezüglich der Auflösung ausnutzen zu können. Da gilt natürlich, je kürzer, um so besser, um das Seeing zumindest etwas austricksen zu können.
    Auch in den österreichischen Bergen wird man nicht minutenlang lang belichten können, ohne, dass die Sterne im Laufe der Zeit größer werden und damit die Auflösung wieder sinkt.
    Zudem: die Lichtverschmutzung soll an beiden Standorten mal keine Rolle spielen! Es geht hier nur um das Seeing, Luftunruhe.


    viele Grüße und cs
    Andreas

  • Hi Andreas,


    wenn du bei Deepskyaufnahmen Gesamtbelichtungszeiten im Stundenbereich erreichen willst, macht die DSLR schon mal kaum noch Sinn- da hast du den Verschluss der Kamera recht schnell aufgearbeitet. 1h Belichtungzeit = 720 Bilder bei 5s/Bild. [B)]


    Dazu kommt noch- du verschlechterst damit das Signal/Rauschverhältnis, bei den kurzen Belichtungszeiten spielt das Auleserauschen auch eine Rolle.


    Und mit Aufnahmezeiten im Bereich von wenigen Sekunden hast du die Luftunruhe selbst für ein Einzelbild noch längst nicht "eingefroren". Und wenn du 100 Kurzbelichtungen machst, werden die Spekles der einzelnen Sterne auf jedem Einzelbild eine willkürliche andere Lage haben zueinander und damit nicht deckungsgleich alle in die gleiche Richtung zum vorherigen Bild abweichend auf dem Sensor abgebilet.


    Damit dürfte das gestäckte Ergebnis der längeren Belichtung sehr ähnlich sein- auf der langen Belichtung sind die Sterne entsprechend dem Seeing vergrößert, bei den vielen Kurzbelichtungen sind sie es aber auch- durch das Stacken werden diese willkürlich zur Sollpostition abweichenden Spekles ja auch wieder zu einem vergrößerten Stern führen.


    Einzelne Bilder mit momentaner Luftruhe werden viel zu selten dabei enthalten sein und mit diesen alleine erreichst die dann die gewünschte Tiefe des Deepskyfotos nicht.


    Gruß
    Stefan

  • Hallo Andreas,


    deine Aufzählung stimmt so nicht...


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">DSLR mit altem Prozessor --&gt; DSLR mit neuem Prozessor --&gt; CCD (?)--&gt; Planeten-Kamera (ASI) --&gt;sCMOS-Kamera --&gt; EM-CCD.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Eine CCD - damit meinst Du vermutlich eine typische gekühlte Astro-CCD von SX, SBIG, etc.? Die haben, weil sie auf Langzeitbelichtung optimiert sind, ein wesentlich höheres Ausleserauschen, als eine moderne DSLR, die ja mittlerweile auch gerne zum Drehen von Videos genutzt wird.


    Außerdem hast Du einen Denkfehler, der mir vor kurzer Zeit auch noch den Kopf strubbelig gemacht hat: Das Seeing ist nicht das Seeing. Es handelt sich um ein chaotisches System (ohne jedes System) mit gleichzeitig auftretenden unterschiedlichem Amplituden und Wellenlängen. Außerdem schiebt das Seeing nicht nur das ganze Bild hin und her, sondern verzerrt und verbiegt das ganze Bildfeld in sich.


    Wenn Du also tatsächlich "das Seeing" überlisten willst, musst Du nicht mehr von Belichtungszeit, sondern eher von Framerate sprechen;-) Ist zwar prinzipiell das gleiche, aber ich spreche so ca. von 50-60fps, also Belichtungszeiten von einer 1/50stel Sekunde. Das machen die Planetenfotografen so und benutzen zusätzlich nich Stacking-Programme, die die Verzerrung innerhalb des Einzelbildes angleichen.


    Mit Belichtungszeiten um 1s kann man einen gewissen Teil des Seeings überlisten. Das geht aber nur mit Kameras, die ein extrem niedriges Ausleserauschen haben (EMCCD). Und auch nur, wenn Objekt-Helligkeit und die Lichtstärke der Optik passen. Also z.B. M57 mit f/4 aber M16 nur mit f/1,8 (nur zur Verdeutlichung - nicht selbst ausprobiert).


    Beim Folgenden weiß ich schon, wer mir heftig widersprechen wird. Also vorab ganz klar: Es handelt sich um meine ganz persönliche subjektive Ansicht;-):
    Bei längeren Belichtungszeiten - also z.B. 30s statt 5min - trickst man evtl. auch noch gewisse Aspekte des Seeings aus - zumindest im Einzelbild. Beim Stacken macht man das aber wieder zunichte. Die kurzen Belichtungen haben dann wohl eher den Vorteil, Nachführfehler, Wind, etc. zu minimieren. Mit dem Seeing hat das nur noch sehr wenig zu tun...


    Und deshalb ist deine Frage, die ja nach einem linearen Vergleich im Endergebnis bei tollem Seeing, oder toller Kamera fragt, so einfach nicht zu beantworten. Da ist - wie Stefan schon schreibt - nich eine Menge anderes Obst im Spiel...


    Gruß
    Klaus

  • Hallo, Stefan,


    ich habe vor, mit der DSLR zumindest bei einigen hellen DSO's auf 2 sec herunter zu kommen. Ich habe festgestellt, dass die Schärfe in meinen Bildern steigt, wenn ich von 10 min Aufnahmen, auf 30 sec und dann auf 10 sec heruntergehe, d.h., der Sterndurchmesser wird schon um einiges kleiner (das könnte auch am aktuellen Seeing liegen oder am manuellen Guiden bei längeren Belichtungen und anderen Fehlerquellen). Die steigende Schärfe bestätigt auch der Thread von Ralf, "30 sec", M57 aus dem Jahr 2015. Die Gesamtbelichtungszeit ist mir erst einmal egal. Ich weiss, das Ergebnis wird dann immer flacher,auch egal! tief muss das Bild erst einmal nicht sein.
    Der Verschluss der Kamera stellt auch kein Problem dar, soll bis zu 100000 Auslöser vertragen, ich habe erst 5000 und wechsel in 1 Jahr die Kamera. Signal/Rauschverhältnis, Ausleserauschen, alles egal. Es geht mir nur um die Schärfe, Auflösung.
    Ich weiss, an die Luftunruhe komme ich erst ab 1 sec etwas heran, aber auch das soll hier keine Rolle spielen.


    Ich will mal meine Frage etwas konkretisieren: Gleiche Teleskope, gleich viele Einzelbilder:
    Ich belichte mit DSLR viele 3 sec Bilder bei einem FWHM-Wert von 1,8".
    Der Kollege mit EM-CCD belichtet ebenfalls mit 3 sec bei einem FWHM-Wert von 3,6". --&gt; zwei Roh-Summen-Stacks ohne BB.
    Erreicht der Kollege mit EM-CCD trotz des schlechteren Seeings
    mit seiner wesentlich besseren Kamera ein gleich gutes Ergebnis (gleiche Auflösung) oder sogar eine bessere Auflösung?
    ... oder bleibt er bei einer schlechteren Auflösung trotz der viel besseren Kamera? Das würde für mich bedeuten, lieber die DSLR behalten, da ein Umstieg auf höherwertige Kamera kaum lohnt.


    viele Grüße und cs
    Andreas

  • Hallo, Klaus,


    dass meine Reihenfolge der Kameras nicht stimmt, mag sein. Das weisst Du bestimmt besser als ich.
    Bei der Sache bezüglich der extrem kurzen Zeiten hast Du sicherlich vom Prinzip her Recht!
    Aber auch mit einer ASI Planetenkamera erreicht man schon viel. Lies Dir mal bitte folgenden link durch:


    http://www.astrotreff.de/topic.asp?TOPIC_ID=188962


    ... und wenn das mit einer ASI funktioniert, geht es auch etwas schlechter mit einer DSLR.


    viele Grüße und cs
    Andreas

  • Hi Andreas,


    ich sehe da überhaupt keinen Widerspruch...


    Die ASI120 hat ein Ausleserauschen von 1,5-e - die 6D bei 25600ASA ebenso (EMCCD 0,1-e). Mit einer lichtstarken Optik und einem hellen Objekt (M57) - kein Problem.


    Aber da man nicht ständig nur M57 knipsen will, kann man daraus nur wenig Schlüsse für die allgemeine DeepSky-Fotografie ziehen. Und daraus einen Vergleich zu basteln, mit jemandem, der unter perfektem Himmel Langzeitbelichtung macht - das geht immer noch nicht.


    Gruß
    Klaus

  • P.S. Da Du auch das Thema neue/alte DSLR angesprochen hast - hier sind die Readnoise-Werte für einige Kameras aufgeführt:


    http://www.sensorgen.info


    Wichtig: Auf die jew. Kamera klicken und schauen, welches die günstigste ASA-Einstellung ist.


    Ich weiß ja nicht, von welcher alten Kamera Du sprichst - aber da sind die Unterschiede teilw. schon erheblich. Und gerade bei Kurzzeitbelichtungen stimmt halt nicht, dass es mit einer nicht ganz so guten Kamera nicht ganz so gut wird. Die Frage ist, ob sich das Ausleserauschen so stark addiert, dass die Bildinformation komplett darin absäuft. Das ist dann nicht mehr weniger gut, sondern katastrophal schlecht...


    Gruß
    Klaus

  • Hi Klaus,


    weil du auf die Seite mit der Kameraübersicht verlinkst und da auch auf das teils niedrigere Ausleserauschen bei hohen ISO-Werten hinweist.


    Man muss dabei auch die andere Seite betrachten. Bei der 6D mit ISO 100 hat man zwar 26,4 e- Ausleserauschen gegenüber nur 1,6 e- bei ISO 51200, aber bei dem hohen ISO-Wert ist die Sättigung ja auch bei nur 161e- erreicht. Das erreichbare Signal/Rauschverhältnis verschlechtert sich bei dem hohe ISO-Wert also deutlich.


    Bei ISO100 liegt das Verhältnis noch bei 2812, bei ISO 51200 aber nur noch bei knapp 100. Der Verlust am Dynamikumfang ist also drastisch.


    Gruß
    Stefan

  • Hallo Andreas,
    vielleicht mal ein paar Bemerkungen zu deiner konkreten Frage: <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ich will mal meine Frage etwas konkretisieren: Gleiche Teleskope, gleich viele Einzelbilder:
    Ich belichte mit DSLR viele 3 sec Bilder bei einem FWHM-Wert von 1,8".
    Der Kollege mit EM-CCD belichtet ebenfalls mit 3 sec bei einem FWHM-Wert von 3,6". --&gt; zwei Roh-Summen-Stacks ohne BB.
    Erreicht der Kollege mit EM-CCD trotz des schlechteren Seeings
    mit seiner wesentlich besseren Kamera ein gleich gutes Ergebnis (gleiche Auflösung) oder sogar eine bessere Auflösung?
    ... oder bleibt er bei einer schlechteren Auflösung trotz der viel besseren Kamera? Das würde für mich bedeuten, lieber die DSLR behalten, da ein Umstieg auf höherwertige Kamera kaum lohnt.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Bei dieser Konstellation kann man eine recht eindeutige Antwort bezüglich Auflösung geben und zwar ist bei gleicher Einzelbelichtungszeit das bessere Seeing natürlich immer besser. (Außer man hat ein Teleskop mit einer schlechteren Auflösung als die 3,6", dann ist wieder alles gleich). Dies gilt erstmal prinzipiell für das Einzelbild. Der Vorteil der EMCCD ist für das Einzelbild eigentlich nur, dass man eine kürzere Belichtungszeit, als die ausleseverrauschtere DSLR verwenden kann, um jeweils das gleiche Signal/Rauschverhältnis zu erreichen. Wenn man aber kurzbelichtete Einzelbilder Stacken möchte um mehr Tiefe zu erreichen, kommt noch ein anderes Problem zum tragen und zwar brauch man für das Alignment (deckungsgenaues Überlagern) helle Sterne im Feld (mit einem möglichst guten Signalrauschverhältnis). Dann kann man nämlich den Schwerpunkt genau bestimmen und die Verschiebung definieren. Deshalb kann es bei einem sehr lichtschwachen DSO ohne helle Sterne drumrum passieren, dass die DSLR bei 3s Belichtungszeit nur Rauschen zeigt, aber die EMCCD bei 3s bereits Sterne, welche zum Alignment verwendet werden können. Also ist hier die DSLR mglw. unbrauchbar und die EMCCD ermöglicht die kurzen Belichtungszeiten überhaupt erst.
    Viele Grüße Tino

  • Hallo, Kollegen,


    vielen Dank für Eure vielen Informationen! Da habe ich wieder einiges dazugelernt!
    Ich versuche es erst einmal weiter mit DSLR und hoffe, mal ein richtig gutes Seeing zu haben!


    eine Frage hätte ich dann noch:
    wenn ich immer nur einen FWHM-Wert von ca. 4" habe mit meinem C9.25 bei 1525mm, würden dann kurze Belichtungen mit z.B. 1-5 sec die Auflösung irgendwie verbessern? .. und wenn ja, wie kurz müsste ich dann ungefähr belichten?


    viele Grüße und klaren Himmel
    Andreas

  • Hallo Andreas,


    angenommen, das Seeing hätte eine Sinus-Funktion (was es nicht hat) - dann wären die 4" die Amplitude. Ob Du mit 1, 2, 3s etwas erreichst, hat aber nicht mit der Amplitude, sondern der Wellenlänge zu tun...


    Gruß
    Klaus

  • Hi Andreas,


    du willst mit den kurzen Belichtungen das Seeing "einfrieren". Leider tut dir das aber nicht den Gefallen, den du gerne hättest.


    Nimm mal an- auf dem Bild sind 5 Sterne abgelichtet- jeweils einer in einer Ecke, der fünfte irgendwo mittig.


    Das Seeing lässt die Sterne auf deinem Chip jeweils +/- 1 Pixel herumtanzen- also könnte jeder Stern auf 9 Pixel liegen- Mitte (Sollposition), je 1 Pixel links/rechts, oberhalb/unterhalb der Mitte und jeweils diagonal linksoben, rechtsoben und ebenso diagonal unten (Zufallspositionen seeingbedingt).


    Du machst nun 9 Bilder mit je 1s- auf welchen Pixeln liegen die Sterne in den Einzelbildern? Die Verteilung auf die je 9 Pixel ist rein zufällig und für jeden Stern völlig unabhängig von den anderen Sternen- das Seeing verschiebt nicht das ganze Bild um 1 Pixel nach links, da wäre zu einfach bzw. zu schön.


    Jeder der 5 Sterne könnte bei den 9 Einzelbildern auch jeweils eines der 9 Pixel getroffen haben, ebenso könnte ein Stern vielleicht 5x Mitte und 4x sonst irgendwo abgelichtet worden sein. Je mehr Einzelbilder du machst desto gleichmäßiger wird sich die zufällige Verteilung auf jeweils alle 9 Pixel ergeben.


    Gestackt erhältst du also für die 5 Sterne eine Abbildung über diese 9 Pixel verteilt. Die Stacking-SW kann ja nicht erkennen, ob und wohin der linke obere Stern von Bild zu Bild zu den anderen durch das Seeing verschoben wurde- und das gilt für die anderen Sterne ebenso. Also erhältst du eine vergrößerte Abbildung bei allen Sternen.


    Machst du statt dessen eine Einzelbelichtung von 30s, werden die Sterne bei dem Seeing in diesen 30s ebenso über die 9 Pixel herumtanzend ihr Licht hinterlassen. Führt somit zu dem Ergebnis, das auch die Kurzbelichtungen mit in Summe z.B. 30s bringt.


    Das ist jedenfalls meine Ansicht. Bei Planetenfilmerei funktioniert es ein bisschen anders, da werden ja die Einzelbildchen in Schnipsel zerlegt- und als unscharf erkannte verworfen. Und die Einzelframebelichtungszeiten sind da noch deutlich kürzer. Mit den kurzen Zeiten wirst du vonlichtschwachen Sterne überhaupt nichts auf dem Chip haben, geschweige denn bei noch lichtschwächeren Nebelstrukturen.


    Gruß
    Stefan

  • Hallo Stefan,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Bei Planetenfilmerei funktioniert es ein bisschen anders, da werden ja die Einzelbildchen in Schnipsel zerlegt- und als unscharf erkannte verworfen. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Tja, das ist der Punkt, machen wir doch auch die ganze Zeit. Verzogene Bilder werden aussortiert, dadurch das Seeing verbessert.... da muss man nicht lange Diskutieren.


    Du darfst aber gerne eine andere Ansicht haben.


    Viele Grüße,


    René


    PS: Sortiere gerade eben wieder mit Fitswork, manchmal auch MaximDL.

  • Hi,


    Wenn man 4 mal 15 min. Belichtet und sich in dieser Stunde das seing immer mal bessert , habe ich doch den Effekt nicht umgangen. Macht man 60 mal 1 min. erwische ich vielleicht auf 10 Bildern diese gute phase. Soweit versteh ich das . Nur was ist mit dem Rest . Ich hab im ersten Fall 1 h belichtet und im zweiten Fall auch eine Stunde fotografiert und 10 min. brauchbares Material. Steht da Aufwand und nutzen im Verhältnis auch was das sichtbar machen schwächerer Objekte betrifft. Ich müsste doch viel länger draußen sein , ohne Garantie natürlich.


    Viele grüße

  • Hallo Klaus,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: watchgear</i>
    <br />P.S. Da Du auch das Thema neue/alte DSLR angesprochen hast - hier sind die Readnoise-Werte für einige Kameras aufgeführt:


    http://www.sensorgen.info


    Wichtig: Auf die jew. Kamera klicken und schauen, welches die günstigste ASA-Einstellung ist.
    ...
    Gruß
    Klaus
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich weiß nicht, wie die Leute bei 'sensorgen' ihre Meßdaten gekocht haben, aber da sind einige schlimme Fehler drin. Z.B. wird bei Nikon D2X eine QE von 476% angegeben!? Wo solche Fehler eingebaut sind, kann man den anderen Daten nicht trauen.


    CS,
    Gert

  • Hallo Stefan!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: stefan-h</i>
    Bei Planetenfilmerei funktioniert es ein bisschen anders, da werden ja die Einzelbildchen in Schnipsel zerlegt- und als unscharf erkannte verworfen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Der Deepsky-Stacker macht genau das und Fitswork im Multipoint-Alignment mit Einschränkungen auch. Hast Du denn eine moderne Stackingsoftware überhaupt einmal selbst benutzt?


    Viele Grüße,
    Carsten



    [Edit]: Muss mich korrigieren; Fitwork und DS machen nicht ganz das gleiche weil sie keine Teilbilder verwerfen können; alles oder nichts...

  • Hallo Carsten


    Das genau kann Deepsky Stacker wohl nicht, bei Sternbilder welche durch immer größere Horizontnähe verzerrt werden schafft es nicht mal die Hauptstelle übereinander, das ist sicher nur eine langsam ansteigende gleichmäßige Verzerrung. Bei den wellenförmigen Verzerrungen durch Seeing, wo es dann Fehler 4. Oder 5. Ordnung sind ist es noch schwerer.


    Gruß Frank

  • Hallo!


    Wenn DS nicht mal die "Hauptstelle" schafft, dann sind irgendwo die Stackeinstellungen nicht richtig gesetzt. Leider hat DS da ziemlich viele Stellschrauben zum drehen.
    Allerdings kann DS nicht beliebig große Verzerrungen korrigieren, da ist bei 10-20 Pixel irgendwann mal Schluss weil sonst die Gefahr besteht, dass innerhalb des Suchradius der falsche Stern ausgewählt wird. Ich weiß allerdings nicht, wie groß der Suchradius für die Alignsterne bei DS ist. Für Sternbildaufnahmen könnte er aber in der Tat zu klein sein.


    Grüße,
    Carsten

  • Hi Carsten,


    DSS macht doch nichts anderes, als bei allen Bildern für jedes Pixel jeweils den Mittelwert des Pixelwertes zu bilden und gibt diese Werte dann für alle Bilder als Mittelwert/Summe als fertiges Stackergebnis aus.


    Dabei wird doch kein unscharfer oder verschobener Bildanteil aussortiert. Multipoint-Alignment oder andere Einstellungen machen nur eines- damit werden Sterne als Referenzpunkt benutzt, um die Bilder deckungsgleich auszurichten. Würde deine Annahme stimmen, müsste DSS ja Aufnahmen mit nicht korrekter Einnordung auch noch hinbekommen- die SW würde dann ja verschobene Sterne Richtung Bildfelrand zurechtrutschen oder als "nicht korrekt" verwerfen- dann dürfte beim Ergebnis zum Rand hin immer weniger sichtbar sein.


    Wenn ich dagegen mit AVIStack meine Sonnenbilder verwuschteln lasse passiert etwas gänzlich anderes. Da werden in einem Bild Referenzmarken gesetzt, danach alle Bilder anhand dieser Marken überprüft und völlig (bzw. nach Vorgabe Einstellungen) unbrauchbare verworfen. Anschließend zerschnipselt die SW alle restlichen Bilder, setzt in jedem Schnipsel neu Referenzmarken und überprüft erneut- unscharfe Schnipsel (Refernzmarken passen nicht) werden verworfen.


    Kann man beim abschließenden Stacken dann am Monitor mitverfolgen. Es gibt manchmal Bildstellen, die nur aus wenigen Einzelbildern zusammengesetzt werden.


    Gruß
    Stefan

  • Hallo!


    DS kann zwar keine Teilbilder verwerten, aber es dreht und streckt die Bilder (bei Fitswork lineare Operationen: rauf/runter skalieren und Trapezkorrektur; was DS im Hintergrund macht weiss ich nicht genau, aber es schiebt wohl Subbilder zurecht), bis das Ergebis bestmöglich mit der Sernmaske die beim Registrieren erstellt wird übereinstimmt. Das hat natürlich seine Grenzen, aber für mittlere FOV reicht das. Meistens ist entweder das ganze Bild Mist oder es ist gut. Fitswork ist rigoroser; damit kann man sogar Bilder, die mit unterschiedlicher Brennweite aufgenommen wurden stacken.
    Autostakkert oder ähnliche Programme sind da etwas fortschrittlicher da sie Subbilder verwenden können. Fitswork und DS können zwar nur die Bilder so hinschieben dass sie passen, machen aber doch mehr als nur stupide aufzuaddieren. Ist zwar nicht genau das gleiche wie bei Autostakkert oder Avistack, aber es reicht um hier trotz bescheidenem Seeing noch was raus zu holen.


    Grüße,
    Carsten

  • Hallo, Klaus,


    zum Thema: sensorgen.info:
    Wenn die Werte für das Ausleserauschen wirklich stimmen würden, dann wäre die Sony A7 S richtig interessant und sehr beliebt bei den Kollegen, da sie ja angeblich einen Wert von 0,4 e hat sowie einen großen Bildsensor. Das ginge ja schon in Richtung EM-CCD (0,1 e)! Die Pixel sind zwar ziemlich groß, aber für Kollegen, die hohe Brennweiten verwenden, wäre das nicht so schlimm.
    Man hört aber recht wenig Infos zu dieser Kamera von den Kollegen. Kurzbelichtungen mit der A7 S habe ich noch nicht gefunden, nur eine Demonstration, was die ISO-Werte bewirken.
    Das finde ich schon merkwürdig.


    viele Grüße und cs
    Andreas

  • Hi Carsten, <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">DS kann zwar keine Teilbilder verwerten, aber es dreht und streckt die Bilder (bei Fitswork lineare Operationen: rauf/runter skalieren und Trapezkorrektur; was DS im Hintergrund macht weiss ich nicht genau, aber es schiebt wohl Subbilder zurecht), bis das Ergebis bestmöglich mit der Sernmaske die beim Registrieren erstellt wird übereinstimmt.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Bevor du so etwas schreibst wäre ein Nachlesen in der Anleitung von DSS empfehlenswert. [:)]


    DSS kann zwar ein Sternmaske erstellen, aber nicht benutzen- siehe Handbuch DSS: http://deepskystacker.free.fr/german/


    <i>Wichtig: DeepSkyStacker kann zwar diese Masken erstellen, aber selbst in keiner Weise nutzen.</i>


    Drehen, strecken oder stauchen eines Bildes zum Anpassen bezieht sich auf das ganze Bild, nicht auf Einzelpositionen von den im Bild sichtbaren Sternen.


    Bei den verschiedenen wählbaren Stackingemethoden werden abweichende Pixel der verschieden Bildern auch nicht zurechgeschoben, allenfalls ausgesondert, so wie bei DSS zu lesen: <i>Kappa-Sigma Clipping
    Diese Methode wird verwendet, um abweichende Pixel iterativ auszusondern.</i> oder bei anderer Einstellung durch Mittelwerte ersetzt.


    Zur Art deiner Begrüßung- <b>Hallo!</b>- Ausrufezeichen so gesetzt sind wie "laut rufen" und das gilt als nicht recht freundlich. [;)]


    Gruß
    Stefan

  • Hallo Stefan,


    Sternmaske war auch die falsche Vokabel, im DS-Handbuch heisst das was ich meinte Stern-Identifizierungs-Schablone. Auf der Webseite steht unter Technische Details dazu auch genau das was ich schon beschrieben habe.


    Viele Grüße,
    Carsten

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!