Beiträge von hansheiser im Thema „Andromeda ala Ralf ...“

    Moin Ralf,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">...ach ja, und wenn du nicht exakt einnordest, dann hast du ja jedes Bild gedithert ;-)<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    genau, das wollte ich damit ausdrücken :)



    Was ich Dich aber noch fragen will:
    Du nimmst also in SER, also im Videoformat auf? Kann man die Dateigröße in der Software sicher begrenzen, d.h. vor Beginn der Session Festlegung einer maximalen Dateigröße von z.B. 2 gb, dann automatisch neues File generieren und Belichtung fortsetzen? Bei Mond- und Planetenaufnahmen ist die Größe aufgrund der überschaubaren Länge des Videos ja eh begrenzt, aber bei Deepsky wird das doch schnell irre groß ...


    VG, Hannes

    Nabend,


    in welchem Format speichert Sharpcap denn? FIT oder Bitmap?
    Achso, gedithert ist's nicht, auch kein Darkabzug, also quasi reine Lights. Bei den kurzen Subs gibt's keinen Ampglow und dadurch, dass nicht geguidet wurde, mittelt sich das Rauschen wunderbar weg.
    Das Jupi werde ich mal vorne ablenden mit nem Ring, ich mag die Spikes, die durch Blendenlamellen entstehen, nicht wirklich. Aber für kleine Sensoren offensichtlich eine recht brauchbare Optik.


    (==&gt;)Frank: Wat denn?! Der 12er kommt auf die EQ3 natürlich :)



    VG, Hannes

    Hehe,


    Du hast da wohl nun einen neuen Volkssport in der Gemeinde gestartet :)


    Ich werd' mich der Sache auch noch mal annehmen. Mit der EQ6 mache ich gerade so'n Langzeitprojekt, da braucht's noch bis zum Frühling, aber die EQ3 kann ja derweilen rumrödeln ...



    VG, Hannes

    Hallo zusammen,


    soviel Resonanz hab' ich erstmal gar nicht erwartet. Also erstmal danke für Eure Kritik und Anregungen.


    Also aufgenommen ist das mit APT -- und da ist schon mal der erste Knackpunkt: Man verschenkt einfach irrsinnig viel wertvolle Integrationszeit, weil halt nach jedem Bild erstmal der Download beendet werden muss. Keine Ahnung wie sich das bei Firecapture & Co verhält. Unter APT ist das halt blöd, d.h. ein Frame geschossen a 2 Sekunden, dann 2 Sekunden Pause wegen Download, dann das nächste Light ...


    Bei der kleinen Asi 174 hält sich das Datenvolumen noch halbwegs in Grenzen (ich hatte insgesamt etwa 25gb Lightframes). Wenn ich mir vorstelle ich müsste das mit einem grösseren Sensor machen ... oh Mann ... Ein weiteres Problem ist auch, dass man kaum Möglichkeiten hat schlechte Frames auszusortieren. Wollte das über den Subframeselector machen in Pixinsight, habe aber aufgegeben. Oder der Rechner hat aufgegeben oder wir beide :) naja, klar -- bei den kurzen Einzelbelichtungen sind kaum Ausreisser zu erwarten ... und selbst wenn, wäre das vermutlich egal, bei der großen Anzahl Bilder, die man stackt. Ich hab jedenfalls mal nachgedacht wie viel Belichtungszeit man eigentlich verschenkt durch die Warterei beim Download bis die nächste Belichtung startet. Würde ich längere Subs machen käme da wesentlich mehr zusammen.


    Ich schätze ich muss das noch weiter austesten, auch mit den Gainsettings mal spielen und / oder vielleicht einen Batzen kurzer Subs für die Details und längere Subs für den fainteren Stoff kombinieren. Insgesamt ist das aber ein spannendes Dingen. Zumindest staune ich was alles möglich ist !
    Und ich muss nochmal an AS!3 ran, Pixinsight ist für sowas ungeeignet. Das Stacken hat 3 (!) Tage gedauert mit 'nem i7, 32gb RAM und zwei SSD's. Aber der Ralf hat mir ja dazu ein paar gute Tips gegeben schon mal. Und beim nächsten Mal auch mal 'nen Tubus nehmen und kein Teleobjektiv.


    Hänsken

    Ich wollt's ja immer mal ausprobieren. Und momentan kann man ja aufgrund des Wetters sowieso nichts anderes machen.


    Hab' dummerweise vergessen das Gain hochzustellen und mit Gain 0 / Offset 25 aufgenommen. Entstanden auf einer EQ3 mit Asi 174 mc cool an altem Jupiter-39-Teleobjektiv bei Offenblende. Die Kühlung der Kamera war eingeschaltet -- hätte ich mir vermutlich auch sparen können bei den kurzen Subs. Zusammengekommen sind letztendlich 5622 mal 2 Sekunden, ohne Filter. Einen Guider brauchte es natürlich nicht. Kalibriert ist da rein gar nichts, das hätte sonst auch wirklich den Rahmen gesprengt. Das Alignment und Stacking hat schon ewig gedauert. Habe immer 100 Subs aufaddiert und letztendlich dann alle Stacks nochmals gestacked. Ist alles in Pixinsight passiert, da ich mit AS!2 irgendwie nicht klar komme (vielleicht kann mir da jemand nochmals ein paar Tips zum Workflow geben...)


    Letztendlich ist die Technik enorm (zeit-)aufwendig und ich weiss nicht ob sich das für mich und unter meinem Himmel wirklich lohnt.


    Hier erst einmal ein einzelnes Lightframe:


    Selbes Lightframe getretched:


    Gestretchtes Summenstack:


    und das bearbeitete Master:


    in grösser hier:
    http://www.heiserstudios.de/pi…17/2017_11_22_m31_rgb.jpg



    VG, Hannes