Andromeda ala Ralf ...

  • Ich wollt's ja immer mal ausprobieren. Und momentan kann man ja aufgrund des Wetters sowieso nichts anderes machen.


    Hab' dummerweise vergessen das Gain hochzustellen und mit Gain 0 / Offset 25 aufgenommen. Entstanden auf einer EQ3 mit Asi 174 mc cool an altem Jupiter-39-Teleobjektiv bei Offenblende. Die Kühlung der Kamera war eingeschaltet -- hätte ich mir vermutlich auch sparen können bei den kurzen Subs. Zusammengekommen sind letztendlich 5622 mal 2 Sekunden, ohne Filter. Einen Guider brauchte es natürlich nicht. Kalibriert ist da rein gar nichts, das hätte sonst auch wirklich den Rahmen gesprengt. Das Alignment und Stacking hat schon ewig gedauert. Habe immer 100 Subs aufaddiert und letztendlich dann alle Stacks nochmals gestacked. Ist alles in Pixinsight passiert, da ich mit AS!2 irgendwie nicht klar komme (vielleicht kann mir da jemand nochmals ein paar Tips zum Workflow geben...)


    Letztendlich ist die Technik enorm (zeit-)aufwendig und ich weiss nicht ob sich das für mich und unter meinem Himmel wirklich lohnt.


    Hier erst einmal ein einzelnes Lightframe:


    Selbes Lightframe getretched:


    Gestretchtes Summenstack:


    und das bearbeitete Master:


    in grösser hier:
    http://www.heiserstudios.de/pi…17/2017_11_22_m31_rgb.jpg



    VG, Hannes

  • Hallo Hans,
    ich kenne das Tele nicht und damit steht und fällt natürlich letztendlich die Auflösung. Aber mir gefällt das Bild. Das sind auch mal "echte" Farben, eben sehr blass, aber realistisch. Möglicherweise ist´s ein bisschen überschärft, aber das ist nicht so wichtig. Schön auch die "Entwicklung" von einem zu allen Bildern. das kenne ich natürlich, aber für viele Leute ist es verblüffend, wie wenig auf einem Einzelbild zu sehen ist.
    Dein Chip ist ja recht groß, deshalb rechnet dein Rechner vermutlich auch lange.
    Zu AutoStakkert: es gibt eine neue Version "3". In dieser sind auch große Bilder stackbar. Wichtig ist es auf "Öberfläche" "Surface" zu stellen. Das "Ausrichtungskästchen" muss mind. 3 Sterne, besser irgendwelche Grauwerte enthalten. Ich habe da auch öfters Probleme. bei den Alignmentpoints brauchst du nur einen per Hand setzen. das spart viel Zeit. Mein Rechner mit SSD Platte und USB3 mit externer Platte ist um den Faktor 10 schneller als der "gute" normale.
    Es freut mich sehr, dass du es mal versucht hast, jeder muss seinen Weg finden. Und wer weiß, irgendwann stehst du auf dem Feld, dein Guiding versagt, und du musst wenigstens nicht nach Hause fahren.
    Viele Grüße,
    ralf

  • Hallo Hans
    Ich finde deine Arbeit hat sich gelohnt.
    Wie Ralf schon angemerkt hat etwas zu scharf, aber hey das ist auch Geschmackssache.
    Die Sache mit den Kurzbelichtungen hat ja auch so ihre Tücken, ich arbeite mich da auch gerade ein.
    Die Arbeit am PC ist sicher nicht zu unterschätzen, aber so ist es bei den "normalen" Astrofotos ja auch.
    Also ich finde das Bild ist doch Motivation genug es noch einmal Belichtungszeit in Sachen Kurzbelichtungen zu investieren.
    bis dann
    mfG
    Andreas

  • Hallo Hannes,


    wenn das Schule macht, braucht man bald nur noch Montierungen aus Rohrschellen und handgeschnitzte Schneckenräder. Die Guiderproduzenten können dann auch einpacken.
    5600 mal Andromeda sollte eigentlich für eine Weile reichen.


    Respekt


    Heiko

  • Grüß dich Hannes,


    für den ersten Versuch klasse! Womit nimmt das auf bei der Prozedur, FireCapture oder ähnliches? Und sah man im Liveview außer den Sternen vll irgendwas?


    Auch wenn die Asi 120MC sicherlich völlig ungeeignet ist dafür, es damit selber zu versuchen reizt mich sehr. Gibt es eventuell bereits Erfahrungen damit?


    CS
    Marco

  • Hallo zusammen,


    soviel Resonanz hab' ich erstmal gar nicht erwartet. Also erstmal danke für Eure Kritik und Anregungen.


    Also aufgenommen ist das mit APT -- und da ist schon mal der erste Knackpunkt: Man verschenkt einfach irrsinnig viel wertvolle Integrationszeit, weil halt nach jedem Bild erstmal der Download beendet werden muss. Keine Ahnung wie sich das bei Firecapture & Co verhält. Unter APT ist das halt blöd, d.h. ein Frame geschossen a 2 Sekunden, dann 2 Sekunden Pause wegen Download, dann das nächste Light ...


    Bei der kleinen Asi 174 hält sich das Datenvolumen noch halbwegs in Grenzen (ich hatte insgesamt etwa 25gb Lightframes). Wenn ich mir vorstelle ich müsste das mit einem grösseren Sensor machen ... oh Mann ... Ein weiteres Problem ist auch, dass man kaum Möglichkeiten hat schlechte Frames auszusortieren. Wollte das über den Subframeselector machen in Pixinsight, habe aber aufgegeben. Oder der Rechner hat aufgegeben oder wir beide :) naja, klar -- bei den kurzen Einzelbelichtungen sind kaum Ausreisser zu erwarten ... und selbst wenn, wäre das vermutlich egal, bei der großen Anzahl Bilder, die man stackt. Ich hab jedenfalls mal nachgedacht wie viel Belichtungszeit man eigentlich verschenkt durch die Warterei beim Download bis die nächste Belichtung startet. Würde ich längere Subs machen käme da wesentlich mehr zusammen.


    Ich schätze ich muss das noch weiter austesten, auch mit den Gainsettings mal spielen und / oder vielleicht einen Batzen kurzer Subs für die Details und längere Subs für den fainteren Stoff kombinieren. Insgesamt ist das aber ein spannendes Dingen. Zumindest staune ich was alles möglich ist !
    Und ich muss nochmal an AS!3 ran, Pixinsight ist für sowas ungeeignet. Das Stacken hat 3 (!) Tage gedauert mit 'nem i7, 32gb RAM und zwei SSD's. Aber der Ralf hat mir ja dazu ein paar gute Tips gegeben schon mal. Und beim nächsten Mal auch mal 'nen Tubus nehmen und kein Teleobjektiv.


    Hänsken

  • Hallo Marco,
    ich habe lange mit der 120MM und der MC Kurzzeitbelichtungen betrieben. Selbstverständlich ist die Mono empfindlicher und ich nutzte sie für die Luminanz. Die MC brachte die Farbe dazu. Weil aber die Bilder der MC durchaus gut brauchbar waren habe ich auch hier noch die Luminanz extrahiert. Selbstverständlich ist das Feld relativ klein, je nach Teleskop. Aber um es mal zu testen ist sie sogar recht gut geeignet, weil geringes Ausleserauschen. Die Kamera ist im IR noch recht empfindlich (trotz Bayermaske) wenn nötig, dann denke an einen IR-Sperrfilter. Ich konnte an meinem C11 mit Reducer aber ohne arbeiten. Bin sehr neugierig :)
    Gruß,
    ralf

  • Hehe,


    Du hast da wohl nun einen neuen Volkssport in der Gemeinde gestartet :)


    Ich werd' mich der Sache auch noch mal annehmen. Mit der EQ6 mache ich gerade so'n Langzeitprojekt, da braucht's noch bis zum Frühling, aber die EQ3 kann ja derweilen rumrödeln ...



    VG, Hannes

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: hansheiser</i>
    <br />Keine Ahnung wie sich das bei Firecapture & Co verhält. Unter APT ist das halt blöd, d.h. ein Frame geschossen a 2 Sekunden, dann 2 Sekunden Pause wegen Download, dann das nächste Light ...
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Meine naive Vorstellung wäre jetzt, via Firecapture oder SharpCap das ganze als Videostream, möglichst im .ser Format aufzunehmen. Die Belichtungszeit und Gain entsprechend angepasst. Eventuelles Bildrauschen, vll auch stärkeres, sollte durch die schiere Maße an Frames den Griff zu kriegen sein? Wäre das vll die nötige Zeitersparnis, statt APT?


    Boah, langsam darf das Wetter wieder mal mitspielen, soviel was einem durch den Kopf geistert und getestet werden will. [xx(]


    Hoffentlich bald CS
    Marco

  • Hmm... DeepSky mit dem 12 Zoll Newton auf EQ-Plattform? :) Das fänd ich jetzt auch noch einen Versuch wert. Helle PNs müssten da doch mitspielen... Dazu die A.S.I. 224 MC damit es bis zu der kommenden Planetensaison auch was zu tun gibt... Was sagen denn die Erfahrungen, wo hier die minimalen Belichtungszeiten liegen könnten? Wobei - ne größere SSD bräuchte ich dann garantiert auch ;)

  • Hallo,


    ich habe es gerade mal getestet, APT genehmigt sich tatsächlich zwischen jedem Bild 2s Pause.
    Das ist natürlich ein Nogo für die Kurzzeitbelichtungen.
    Anders Sharpcap, da ist nur eine minimale Pause zwischen den Frames.
    Leider bietet Sharpcap nicht das programinterne Dithern und erstellen von Plänen wie APT an.
    Für längere Belichtungszeiten ist daher APT die bessere Wahl.


    VG Cl.-D.

  • Hallo Hannes,


    sieht richtig gut aus, habe es gerade erst gesehen. Das Jupiter kann was, das ist auch nix neues, etwas Abblenden würde Dir noch mehr Schärfe bringen. Und bei Deiner Maschinengewehrfotografie muß dann halt ne Salve mehr draufgehalten werden. Farben sind auch gut, Schärfe finde ich für mich auch gut. Mehr davon, bitte!


    CS
    Jörg

  • Nabend,


    in welchem Format speichert Sharpcap denn? FIT oder Bitmap?
    Achso, gedithert ist's nicht, auch kein Darkabzug, also quasi reine Lights. Bei den kurzen Subs gibt's keinen Ampglow und dadurch, dass nicht geguidet wurde, mittelt sich das Rauschen wunderbar weg.
    Das Jupi werde ich mal vorne ablenden mit nem Ring, ich mag die Spikes, die durch Blendenlamellen entstehen, nicht wirklich. Aber für kleine Sensoren offensichtlich eine recht brauchbare Optik.


    (==&gt;)Frank: Wat denn?! Der 12er kommt auf die EQ3 natürlich :)



    VG, Hannes

  • Hallo Hans,
    SharpCap kann mittlerweile einiges.
    8 und 16 bit (von denen nur 12 oder 14 genutzt werden) im SER Format. Ich glaube auch als 16 Tiff oder Fit. Braucht man aber nicht, wenn man so viele Bilder hat.
    Die SW steuert auch Filterräder an usw. Timing Funktionen gibt es auch. Automatischer Stack. automatische Darkverrechnung usw. Ich nutze das aber alles nicht.
    Interessant ist ein Plate-Solving zur genauen Einnordung. habe ich aber auch noch nicht probiert.
    Wenn du auf der Suche bist, dann schau auch mal FireCapture an. Thorsten ist hier im Forum auch aktiv.
    Viele Grüße,
    ralf


    Nachtrag:
    ...ach ja, und wenn du nicht exakt einnordest, dann hast du ja jedes Bild gedithert ;)

  • Moin Ralf,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">...ach ja, und wenn du nicht exakt einnordest, dann hast du ja jedes Bild gedithert ;-)<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    genau, das wollte ich damit ausdrücken :)



    Was ich Dich aber noch fragen will:
    Du nimmst also in SER, also im Videoformat auf? Kann man die Dateigröße in der Software sicher begrenzen, d.h. vor Beginn der Session Festlegung einer maximalen Dateigröße von z.B. 2 gb, dann automatisch neues File generieren und Belichtung fortsetzen? Bei Mond- und Planetenaufnahmen ist die Größe aufgrund der überschaubaren Länge des Videos ja eh begrenzt, aber bei Deepsky wird das doch schnell irre groß ...


    VG, Hannes

  • Hallo Hans,
    das ist kein Problem. ich mache das z.B. immer so, dass ich etwa 30 min. für einen Film nehme und dann wird automatisch ein neuer angefangen. Du kannst nach Zeit begrenzen oder nach Bilderanzahl. Und du kannst eine Anzahl von Sequenzen angeben. Sogar mit Pausen dazwischen. Ich nehme übrigens kein SER Format. Entweder normal Avi oder Png. 16 bit bei so vielen Bildern ist nicht nötig (im Einzelbild). Den Offset sollte man möglichst hoch setzen, es gibt da u.U. Verwirrungen in den Bezeichnungen der Regler. Bei mir heißt der "Brightness".Das Gain setze ich immer fast ans Maximum, hier ist das Ausleserauschen am geringsten und AutoStakkert sieht hier überhaupt erst einmal etwas.
    Viele Grüße,
    ralf

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!