Beiträge von Berlinsky

    natürlich. Die Sensoren sind selektiert. "Industry Standard" oder so, nennt sich das.

    Es ist wie bei den Tischtennisbällen. Die sehen auch alle gleich aus. Aber es gibt 1, 2 oder 3 Stern Qualität..

    🤔, wenn das so wäre, dann würde QHY diesen Vorteil sicherlich spezifizieren und entsprechend bewerben. Da das jedoch nicht der Fall ist, würde ich das eher als Gerücht einstufen. Schön wären Daten, die das belegen oder zumindest untermauern, z.B. hot/cold Pixeldichte vs. Hersteller o.ä.


    CS - Oliver

    Lass doch mal PHD2 für eine Weile laufen und schau Dir das log file an. iOptron spezifiziert ja < +/- 5 arc sec, dann hast Du erst einmal einen Anhaltspunkt. Die Schnecke verändert sich ja nicht mit der Zeit außer sie wurde beschädigt. Wenn mit Deiner Montierung nicht passiert ist und in der Vergangenheit alles i.O. gewesen ist, dann ist es vermutlich einzustellen.


    VG - Oliver

    PHD2 liefert Dir den Backlash und den periodischen Fehler pk-pk in arc sec. Dann hast Du konkrete Werte als Diskussionsgrundlage. Am besten den iOptron Service kontaktieren.


    CS - Oliver

    Hallo Zusammen,


    meiner Erfahrung nach resultiert der soft look aus der nicht kanalseparierten Bearbeitung bei Objekten, die in Ha dominieren. OIII leidet dann sehr, wenn die Streckung von Ha bestimmt wird.


    Christian, ganz allgemein, Bortle 2 ist doch herausragend, warum bei diesem sehr hellen Objekt nicht ganz auf den Filter verzichten?


    CS - Oliver

    Hallo Günter,


    Danke Dir. Die OSC Aufnahmen wurden zunächst kalibriert, dann de-Beyered, gestacked, in RGB zerlegt und Ha=R, OIII=0.75*G+0.25*B zugeordnet. Ich habe auch Versuche unternommen, RGGB für jeden der vier Kanäle separat zu prozessieren, aber der Aufwand ist enorm, denn jeder Kanal benötigt ein eigenes Dark und Flat, diese können zwar aus dem OSC Dark und Flat generiert werden, dennoch sind es sehr viele Daten. Zum Schluss ist dann noch ein 2xDrizzle notwendig, um die ursprüngliche Auflösung zu erhalten. Das Ergebnis hat mich dann nicht überzeugt, hier muss ich noch tiefer einsteigen.


    CS - Oliver

    Hallo Zusammen,


    hier ein kleiner Vergleich zweier Aufnahmen desselben Objektes die zeitlich ziemlich genau ein Jahr auseinander liegen und mit unterschiedlichem Equipment entstanden sind. Die ältere Aufnahme (diese) ist mit f/6 und einer Pixelgröße von 4.65 micron entstanden. Belichtet wurde insgesamt 9h40 min einer ASI 294MM Pro. Für die neuere Aufnahme (diese) kam f/7 und eine Pixelgröße von 3.75 micron zum Einsatz. Der Unterschied im Öffnungsverhältnis erfordert bei f/7 schon 36% mehr Belichtungszeit, um die geringere Photonenstromflächendichte in der Sensorebene zu kompensieren. Um nun dieselbe Photonenstrompixeldichte mit den kleineren Pixel zu erhalten sind noch einmal 54% mehr Belichtungszeit notwendig. Ausgehend von 9h40min bei f/6 und 4.65micron ergäbe sich hier 20h15min. Der Vergleich hinkt natürlich, denn die CMOS Sensoren sind unterschiedlich, die Schmalbandfilter ebenso und die Bedingungen an den Tagen der Aufnahme waren sicherlich auch verschieden. Dennoch , ich finde es fast schon überraschend, dass mit "nur" 6h40min die hier dargestellt Aufnahme möglich ist.


    CS - Oliver


    NGC6888 OSC + dual narrowband vs. Mono HOO

    Also 4" pk-pk wäre ja noch innerhalb der Spec. Ich würde mal den Guiding Assistenten von PHD2 laufen lassen, dann weißt Du auch gleich wie groß der Backlash ist. Sollte dieser recht groß ausfallen, dann würde ich das Schneckenspiel einstellen und 'mal sehen, ob es besser läuft.


    Viel Erfolg.

    Ich befürchte ja es ist tatsächlich ein periodischer Schneckenfehler, im Zweifelsfall muss ich es austauschen lassen.

    Lass doch mal PHD2 für eine Weile laufen und schau Dir das log file an. iOptron spezifiziert ja < +/- 5 arc sec, dann hast Du erst einmal einen Anhaltspunkt. Die Schnecke verändert sich ja nicht mit der Zeit außer sie wurde beschädigt. Wenn mit Deiner Montierung nicht passiert ist und in der Vergangenheit alles i.O. gewesen ist, dann ist es vermutlich einzustellen.


    VG - Oliver

    Hi Sascha,


    Welcome back.


    Wenn es wirklich regelmäßig auftritt, dann könnte es der periodische Schneckenfehler sein. Ich kenne die Periode der CEM70 nicht, das müsstest Du mal recherchieren. Falls es denn wirklich so sein sollte, dann könnte dies hier evtl. helfen: https://www.ioptron.com/v/Support/iOptron_Gear_Switch.pdf. Das verhindert natürlich nicht den Schneckenfehler, Justage könnte dennoch helfen.


    CS - Oliver

    Hi Frank,


    ich vermute, dass Du durch Justage den Peak in die Chipmitte bringen kannst:



    An der Homogenität stimmt irgend etwas nicht, insbesondere bei dem kleinen Chip der 533MC. Ist das Flat evtl. gestreckt worden oder hast Du wirklich so extreme Gradienten zum Rand?


    CS - Oliver

    Hallo Zusammen,


    meine letzte Aufnahme mit einem dual-narrowband Filter liegt mit Dezember 2021 schon eine Weile zurück. Schmalband habe ich dann seit Anfang 2022 mit einer 294MM aufgenommen. Nun sind die Nächte wirklich kurz und hier im Norden wird schon seit einigen Wochen keine astronomische Dunkelheit mehr erreicht. Dann leuchte der Mond mit 85-92% Illumination in den letzten beiden Tagen auch noch dazwischen und ich wollte mal wieder einen kombinierten Schmalbandfilter für Ha und OIII ausprobieren und zwar den Antlia ALP-T. Die FWHM ist mit jeweils 5nm nicht ganz so gering wie beim L-Ultimate, jedoch wird man evtl. mit weniger Halos belohnt. Glücklicherweise waren die letzten beiden Nächte fast wolkenfrei und ich konnte insgesamt 6h15 min belichten. Da es hier in Berlin nicht nur durch den Mond und die Jahreszeit recht hell ist und ich nur mit f/7 unterwegs war, ist meine Erwartungshaltung nicht übermäßig groß gewesen. Mit den gesammelten Daten bin ich aber ganz zufrieden und das hier ist dabei herausgekommen.


    CS - Oliver


    "> NGC7000 - Cygnus Wall


    (5. und 6.7.2023, Berlin, Bortle 6+, 107PHQ, f/7, ASI 533MC, Gain 100, 75 Lights jeweils 5min, Darks, Flats, Bias, Antlia ALP-T Filter, pre- und post-processing mit PI)

    Hallo Zusammen,

    das Skript ist schon recht alt und ermöglicht das Erhalten der Sternfarben in Sternen, die im Zentrum in Sättigung geraten sind. Ich finde den Einsatz und die Optimierung im Workflow etwas mühsam und würde gerne herausfinden, ob es eine attraktive Alternative gibt. Wie erreicht ihr eine homogene Farbverteilung über den Sternquerschnitt trotz enormer Variation der Luminanz?

    VG - Oliver

    Der Rechner ist ein HP ENVY mit 64 GB RAM 12th Gen Intel(R) Core(TM) i7-12700, 12 Kern(e), 20 logische Prozessor.

    Hallo Peter,


    bin gerade auf Deinen Hinweis zum HP Envy gestoßen. Wenn das der all-in-one PC mit dem 4k Ultra-HD Display ist, dann hätte ich eine Frage an Dich. Bist du mit dem Display zufrieden und ist der Rechner im Normalbetrieb kaum zu hören? Danke Dir und viele Grüße.


    CS - Oliver

    Hallo Zusammen,


    als Freund und Nutzer von Astro Photography Tools musste ich mit Erschrecken heute dieses hier finden:


    A fundraising campaign for APT has started!


    Wahrscheinlich kennen das alle APT Nutzer mit Lizenz ohnehin, evtl. entgeht es aber den Nutzern der Testversion. Ich befürchte das ist der Anfang einer Entwicklung in die falsche Richtung ;(. Hoffentlich bleibt uns (mir :)) APT noch ein wenig erhalten. Ich hatte gerade meine Lizenz verlängert, das reicht aber nur für einen Kaffee.


    Also, wem etwas an APT liegt....


    VG - Oliver