Beiträge von pete_xl

    Yep, vielen Dank, es funktioniert jetzt viel konsistenter! Ich hatte versehentlich Daten verwendet, die schon kalibriert waren und das klappt dann natürlich nicht.


    Allerdings liefert mir ASTAP für eine 2023er M101 im Zenit mit 50% Mond knapp über dem Horizont allerdings ein SQM von 20,64. Es wäre schön, wenn ich von meinem Dorfbalkon dahin kommen könnte


    Ich werde das in Zukunft mal live mit meinem Unihedron SQMeter vergleichen.


    Grüße

    Peter

    Hallo Sebastian,


    ich glaube meinen Hauptpunkt habe ich nicht richtig rübergebracht. Deine 0,3" HFR-Differenz Differenz zwischen den besten und schlechtesten Werten in deinen V-Kurve sind einfach zu wenig. Und alle Werte sind sehr nah am Fokuspunkt. In diesem engen Skalenbereich streuen die Ergebnisse zu stark um ein konsistentes Verfahren zu ermöglichen.


    Folglich: der HFR-Abstand zwischen dem "echten" Fokus Wert (z. B. 2") und dem schlechtesten muss größer werden (z. B. 4" bis 6").

    Das 6-8 fache vom Fokuspunkt ist mir nicht ganz klar. Der Fokuspunkt ist ja erst einmal eine willkürliche Motorstellung, die als Zahl wiedergegeben wird.

    Was soll ich da mit was multiplizieren?

    Die Motorstellung ist ganz egal. Wenn dein optimaler Fokus z. B. bei Motorstellung X einen HFR von 2" zeigt, deine Schrittweite Y beträgt und dein Schrittoffset 4 ist, sollte der HFR Wert am rechten Kurvenende, also der erste gemessene Wert der Prozedur, bei Motorstellung X + 4 * Y laut jokogeo einen HFR Wert von 12" bis 16" haben. Das ist für die meisten Setups wohl zu viel, und für dich ganz bestimmt. Deshalb habe ich bei dir als Zielgröße einen ersten HFR < 4" vorgeschlagen.

    Das mit dem Sensorabstand verkleinern habe ich mal versucht (0,5 mm und 1mm vom optimalen Fokuspunkt weg).

    Absolut keine Änderung.

    Was ich da halt überlege: Wenn ich den Abstand immer kleiner stelle, dann komme ich schlechter in den Fokus, aber das ändert ja nichts daran, dass ich an der Miximum-Unendlichkeitstufe nicht vorbei komme.

    Um hinreichend Defokussierung zu erreichen muss die Schrittweite erhöht werden. Wenn das wegen der Limitierung durch die Objektiveigenschaften hinter unendlich nicht geht, muss der Sensorabstand verringert werden.


    Aber wir fischen im Trüben und drehen uns dabei im Kreis ;). Du brauchst eine hinreichende Defokussierung am rechten Kurvenende damit das Verfahren funktioniert. Wir wissen aber noch gar nicht, welche Defokussierung sich bei dem aktuellen Sensorabstand mit deinem Objektiv überhaupt maximal erreichen lässt. Deshalb hatte ich vorgeschlagen, dass du das mal manuell einstellst und in NINA den HFR-Wert für diese Einstellung ermittelst. Und wenn der aktuelle Wert zu klein ist (was einigermaßen sicher der Fall ist), daher nicht für die das Verfahren ausreicht, den Sensorabstand sukzessive so weit verringerst, bis es vielleicht passt.


    Der getestete 1 mm ist vielleicht zu wenig, aber du kommst ja wahrscheinlich auch in den Fokus, wenn du noch weniger Abstand einstellst, falls das adaptierungsmäßig geht. Irgendwann ist das Objektiv bei Unendlichstellung ausreichend defokussiert und NINA kann arbeiten. Die Frage ist, wie gewölbt das Bildfeld dann ist und ob die Abbildungsleistung dann noch ausreicht. Einen Versuch ist es Wert, meine ich.


    Und Du fragst nach dem Backlash. Den habe ich versucht, so gut wie möglich zu eliminieren. Ich habe mir kleine Klebepfeile angebracht und bin 1000 Schritte in die eine Richtung und in 100er Schritten wieder zurück. Das gleiche dann in die andere Richtung. Ich habe damit für beide Richtungen einen Backlash von 24 Motorsteps ermittelt. Ob das jetzt exakt 0 ist, kann ich natürlich nicht sagen. Aber es ist nach bestem Wissen und Gewissen erstellt.

    ABER: Ich habe nicht "Overshoot" eingestellt, sonder "Absolute", weil ich damit bei meinen anderen Teleskopen bessere Erfahrungen gemacht habe.

    Die Bestimmungsmethode wäre mir ehrlich gesagt zu unsicher, gerade bei einem Tele-Zoom-Objektiv. Die Overshoot" Methode ist echt narrensicher. Wenn die Schrittweite groß genug gewählt wird, eliminiert sie Backlash immer zu 100% und kann bei nicht schlechter sein als eine Methode mit festen Werten, egal bei welchem Teleskop. Auch z. B. der Lacerta MFOC arbeitet mit eingebautem Overshoot - wenn man will.


    CS Peter


    P.S. ist eigentlich sicher gestellt, dass es bei dem Tele-Zoom bei Motoraktivität auch nicht zu kleinsten Verschiebungen der Brennweite kommt?

    Hallo Alex,


    ich habe das in ASPAP bisher noch nie ausprobiert, weil es im Menü immer ausgegraut war. Ein wenig Nachdenken (sollte man öfter machen) führte gerade dazu, dass die Routine natürlich erst ein Solving benötigt um in die Datenbank gehen zu können ;) .


    Das hat dann erstmal super funktioniert. Aber mir wird angezeigt, dass ich einen Wert für ein Pedestal eingeben muss (der Offset Wert in ADU, denke ich). Ich arbeite immer mit High GAin und 500 ADU Offset. Im ersten Bild (M 106) und einer versehentlichen 300s Belichtung ermittelt ASTAP deprimierende SQM 18,82, wenn ich 500 als Pedestal eingebe.


    In einem zweiten Bild (M51) wird angezeigt, der Wert 500 sei zu hoch, erst unterhalb von 400 beschwert es sich nicht mehr. Nehme ich aber Werte über 0 und unter 400, werden SQM Werte zwischen 20,66 und 24,71(!) angezeigt.


    Weißt du, oder weiß jemand anderes, wie man den korrekten Wert für das Pedestal ermittelt? Und gibt es Erfahrungen bezüglich der Belastbarkeit der Ergebnisse von ASTAP?


    LG Peter

    Hallo Sebastian,


    schön, dass du deine Sorgenkurven für eine "Kurvendiskussion" zur Verfügung stellen konntest :) .


    Was neben der Variabilität der Kurven untereinander sofort auffällt, ist die geringe Variationsbreite der HFR Werte. Die Bandbreite liegt ja auch bei den "guten" Kurven nur im Bereich von 0,3 HFR-Einheiten (= Pixel) . Und das bei einem Abstand von 600 steps vom Wendepunkt der Kurve (Fokus) bis zum Ende. Das ist an sich schon deutlich zu wenig um eine gute Trendkurve zu berechnen, was man ja auch an den extrem breiten Fehlerbalken und dem zackeligen Verlauf sieht. In meinem Beispiel oben sind die Fehlerbalken so klein, dass sie sogar innerhalb der dargestellten Punkte liegen. Der Programmierer von Hocus Focus, George Hilios (jokogeo), hat mal geschrieben, er empfehle, ausgehend vom Fokuspunkt, für den Startwert der Messreihe das 6-8-fache des optimalem Fokuswertes. Ich hatte damals übrigens auch mit zu kleinen Schrittweiten begonnen und mit den Kurven gehadert, bis ich den Hinweis von George fand. Mindestens das 3-fache des Fokuswertes würde ich für die gute Bestimmung des Fokuspunktes als notwendig ansehen, systemabhängig besser mehr.


    In den meisten deiner obigen Kurven liegst du in der gesamten Messreihe in der Nähe des Fokuspunktes. Dies und die sehr kleinen Unterschiede zwischen den Messwerten könnten, zusammen mit den breiten Fehlerbalken zumindest erklären, warum die Routine aus dauernd dem Tritt gerät und unterschiedlichste, nicht reproduzierbare Ergebnisse produziert.


    Es fehlt also in erster Linie an Bandbreite für die HFR-Werte. Zunächst noch eine Zwischenfrage, vorher habe ich den Punkt immer vergessen. Was ist mit deinem Backlash? Ist der wirklich 0 Steps? Bei der ganzen Diskussion und dem kleinen Spielraum, den dir die Linse bietet, ist es eine Grundvoraussetzung, dass der komplett eliminiert wird (0!). Das leistet in NINA nur die Overshoot Methode (Überschreiten) mit den passenden Werten. Und, wenn deine Linse an der Unendlich-Seite praktisch "durchdreht", ist es unerlässlich, dass der Overshoot genau in die andere Richtung gesetzt wird! Und (das musste ich selber lernen 8o ) man muss sich je nach Montageseite des Motors sicher sein, dass die Bewegung auch physisch richtig herum umgesetzt wird.


    Noch eine Zwischenfrage. Die Messwerte am rechten Kurvenende legen nahe, dass die Sterne gar nicht so sehr defokussiert sind, obwohl du mit dem verkürzten Abstand über unendlich hinaus sein müsstest. Hast du mal manuell bis zum Ende gedreht, Einzelbelichtungen gemacht und die HFR-Werte bestimmen lassen? Deckt sich das Ergebnis?


    Was kann man machen, um die Bandbreite der HFR-Werte zu erhöhen? Ich würde folgendes Vorgehen vorschlagen:


    Falls die Messwerte der manuellen "Maximal-Unendlichstellung" die bisherigen Kurven-Messwerte nicht bestätigen, sondern sagen wir mal > HFR 4 liegen (also schön aus dem Fokus sind) muss der Fehler in der Konfiguration/Systematik von Motor und Hocus Focus liegen (Backlash etc.).


    Anderenfalls würde ich zunächst den Sensorabstand in kleinen Schritten so weit verkleinern, bis bei manueller Maximaleinstellung in den Einzelbelichtungen HFR-Werte > 4 gemessen werden. Die Aufnahmen würde ich aus dem Aufnahmefenster als Snapshop machen und "Speichern" aktivieren. Die Werte werden in der Statistik (Fenster "Star Detection Results") und auch in der Bildhistorie angezeigt. Wenn's passt, einige Autofokusläufe starten und sehen, wie die Kurven aussehen. Die Schrittweite und Schrittanzahl wären zu vergrößern so zu wählen, dass am rechten Ende der Kurve wieder > 4 herauskommt. Wenn die Kurven gut aussehen und der Fokus stimmt, ist die Frage, ob der kleinere Abstand noch geeignet ist, die Sterne bis in die Ecken zufriedenstellend abzubilden. Im Zweifel würde ich die Aufnahmen lieber ein wenig croppen und dafür die Vorteile einer automatischen Fokussierung genießen.


    CS Peter

    Hallo Andreas,


    die Bortle Skala basiert ja auf der optischen Wahrnehmung des Nachthimmels insgesamt (Sichtbarkeit von Milchstraße, Zodiakallicht, Wolken etc.). Es macht deshalb m. E. nicht viel Sinn, die Bortle Klassen für die Klassifizierung unterschiedlicher Himmelsrichtungen einzusetzen. Ich fotografiere in Bortle 5, wenn ich eine Zenitmessung des SQM bei Neumond in die Bortle Klasse umrechne. Wenn ich unter flachem Winkel in deine Richtung messe, dürfte ich eher bei mittleren Bortle 6 liegen. Wenn dann noch Mond ist....und spätestens wenn Filter eingesetzt werden, ist Bortle eh drittrangig.


    Für Astrofotografen wäre eine Einschätzung anhand des SQM-Wertes des tatsächlichen Bildfeldes sinnvoller, wenn es darum geht, Belichtungszeiten, erreichbare Bildergebnisse etc. abzuschätzen. Auch z. B. der "Optimale Belichtungszeitrechner" in NINA berechnet die "optimale" Belichtungszeit anhand der Sensordaten aus Referenzbildern. In meinen Pentax-DSLR-Zeiten habe ich öfters eine Formel von Samir Kharusi herangezogen, um die Aufnahmebedingungen und ggf. die Belichtungszeit anzupassen:


    Mag/sq arc-sec = 13.93+2.5*log10(seconds to mid histogram at ISO 800 and f4)


    Ich hatte mir sogar ein Excel-Tool für andere Kameraeinstellungen etc. gebastelt und mit meinen Pentax-Forenkollegen geteilt, finde es aber nicht mehr wieder. Den Hintergrund der Formel kann man sich hier Measuring Skyfog from Camera JPEG erläutern lassen, auch wenn man Gefahr läuft, sich die Augen zu verbiegen (es ist schon interessant, was in Sachen Webseitengestaltung vor 20 Jahren so als schick empfunden wurde :S ).


    CS und weniger Bortle!


    Peter

    Hallo Sebastian,


    die historischen Kurven kann man eigentlich über die Liste in der Dropbox über dem Autofocus-Button wieder abrufen. Hier mal ausgeklappt:



    Ich nutze in NINA das Hocus Focus Plugin, aber ich glaube, das das auch bei dem NINA Fokuser so ist. In jedem Fall würde ich aber Hocus Focus empfehlen, falls du das noch nicht nutzt.


    Deine Kurve wird ja flach, weil keine Sterne erkannt werden und für die Fokusposition kein HFR-Wert berechnet werden kann. Du kannst auch versuchen, die Parameter für die Sternerkennung zu variieren, damit mehr Sterne erkannt werden:




    CS Peter

    Hallo Sebastian, zeig doch mal eine solche missglückte V-Kurve als Screenshot. Sie sind ja gespeichert und über die Dropdownliste verfügbar.


    Wenn NINA es manchmal hinbekommt, bist du ja nah dran.Vielleicht kannst du die Stepweite so weit verringern, dass sich doch etwas wie ein V erstellen lässt. Und ggf. die Anzahl Schritte um 1 verringern, falls das noch nicht reicht.


    CS Peter

    Hallo Oliver,


    danke dir für die Hinweise! Im Moment ist alles verschraubt und es lässt sich nicht schütteln ;) . Ich möchte erstmal, den optimalen Sensorabstand zu ermitteln, bevor ich alles auseinandernehme. Das hatte ich immer vor mir her geschoben.


    Es war bei den Aufnahmen im Januar im Schnitt etwa 10°C kälter als bei den letzten Aufnahmen mit dem TSFRED im Dezember. Ein Heizband an der Linse ist für mich ein Problem, weil mir die Linearität der Temperaturcharakteristik verloren geht, die eine Voraussetzung für automatische Temperaturdriftkorrektur ist. Ich denke, ich werde erstmal beobachten und schauen, was ich herausfinde und ob es tatsächlich einen Zusammenhang mit der Temperatur gibt.


    CS Peter

    Hallo Andreas,


    unterschiedliches Seeing zwischen dem 384er- und dem 480er-Setup könnte zwar theoretisch sein. Jedoch in der Praxis hier sicher nicht, weil ja das 480er- zeitgleich mit dem 740er-Setup fotografiert hat und dies einwandfreie Sterne lieferte. Außerdem würde nach meiner Vorstellung ein schlechteres Seeing bei 300s Belichtung zwar größere Sterne produzieren, aber keine "zerrupften" ;) .


    Was das Undersampling angeht, ist es schon richtig, dass ich mit dem 384er an der Grenze zum Undersampling bin. Das betrifft aber nicht die helleren Sterne, um die es hier vorrangig geht.


    Viele Grüße nach Hamm!


    Peter

    Hallo Andreas,


    bevor ich auf die Frage nach dem Einfluss von Öffnung, Öffnungsverhältnis, Auflösung und Tiefe einsteige, muss ich mich erst noch tiefer einarbeiten und einige Auswertungen machen, bevor ich mich in dieses hitzig diskutierte Thema mit konkreten Aussagen hinein wage. Dazu habe ich momentan leider zu wenig Zeit.


    Im Moment beschäftigt mich der Umstand, dass die Sternabbildung an den hellen Sternen beim TS-CFAPO-80 mit TSFLAT25 koll in den aktuellen Aufnahmen bei generell gleichem FWHM etwas zerrupft aussehen. Das war vorher bei den Aufnahmen mit dem TSFRED80 nicht so gewesen. Besonders aufgefallen ist mir das im Vergleich zu den Aufnahmen, die ich zeitgleich im Doppelsetup mit dem TS Photoline 130/910 mit TSRED379 gemacht habe. Dabei kamen identische Filter und Kameras zum Einsatz. Im direkten Vergleich sieht man, was ich meine:


    (200%)


    Der Effekt könnte sich natürlich auch negativ auf die Tiefe bzw. die Auflösung auswirken. Zumindest deutet sich das an, wenn man sich die beispielsweise die schwachen Sterne im gelben Kreis ansieht:


    (600%)


    Allgemeine Ableitungen möchte ich daraus aber nicht ziehen, so lange ich die Ursachen nicht kenne. Ich habe noch einige Datensätze aus Parallelaufnahmen, die ich aber noch nicht bearbeitet habe. Wie gesagt, momentan fehlt für die interessanten Details einfach die Zeit.


    Viele Grüße

    Peter

    Hallo Leute,


    endlich habe ich auch die 740 mm Version von SNR G206.9+2.3 fertig. Anders als bei der 480 mm Version ist die weitere Umgebung des SNR im 740 mm Bildrahmen ziemlich nichtssagend. Ich habe daher das Hochformat gewählt, auch um den schönen und differenzierten Aufbau des Nebels besser herauskommen zu lassen.


    Ich muss sagen, wenn man sich den SNR in beiden Versionen in gleicher Größe nebeneinander stellt, sind die Unterschiede nicht so groß, wie ich erwartet habe. Für beide Bilder wurden ja die Daten beider Teleskope verwendet. Dabei hat es dem 480 mm Bild gut getan hat, dass die herunterskalierten 740 mm Daten eingerechnet wurden und umgekehrt hat das 740 mm Bild wohl nicht so sehr von den 480 mm Daten profitiert hat. Das mag auch daran liegen, dass dir Gewichtungsparameter sich während des Preprocessing durch das Heraufskalieren der Daten des kleinen Teleskops ungünstig entwickelt haben. Aber ich habe keine Lust mehr, weiter zu experimentieren.


    Bei dem schwachen Nebel haben unter dem Strich beide Versionen von großen Datenmenge profitiert, die jeweiligen Gesamtintegrationen der Daten beider Teleskope sind deutlich besser und besser zu verarbeiten als die Einzelstacks. Das zeigt sich besonders in den dünnen Ausläufern der Struktur. In jedem Fall sind die Sterne des 130/910 deutlich besser definiert als die des 80/480. Weitere Angaben und Bildbeispiele für den Vergleich der beiden Setups, die ja bei quasi identischem Öffnungsverhältnis, gleichem (Ha-)Filter und gleicher Kamera parallel auf einer Montierung aufgenommen haben, liefere ich nach.




    Viel Grüße und CS

    Peter

    ... auf den ersten Blick dache ich an eine Hummel ohne Flügel oder Kakerlake:cockroach:, dieses Phacops Viech passt aber perfekt :)...

    Ich dachte an einen Maikäfer, hätte auch gar nicht gewusst was so ein Trilodings ist... :saint:

    Hauptsache es erinnert nicht an einen Mistkäfer :D ...

    ..Peter, nun bin ich auch gespannt, was du zum Thema Öffnung und Öffnungsverhältnis aus deiner Praxis beisteuern kannst....

    Stathis Freut mich echt, dass dir die Aufnahme so gut gefällt :) ! Ich arbeite noch an der 720 mm Version, hatte noch versucht, RGB Sterne zu schießen, was aber nicht geklappt hat, wie es derzeit aussieht. Wenn die Bearbeitung durch ist, werde ich versuchen, die Unterschiede zwischen den beiden Öffnungsweiten herauszustellen. Allerdings möchte ich "phänomenologisch" vorgehen und einfache, praktische Schlussfolgerungen ziehen, und wenn es auch nur für mich selber passt ;) . Die zu Grunde liegende Theorie überlasse ich dann gern den Experten unter den Kombattanten der beiden Super-Threads hier und im schwarzen Forum :S .


    Viele Grüße

    Peter

    Hallo Eike,


    vielen Dank! Ich bin nicht ganz sicher, ob du das mit den noch ggf. angestrebten 1-2 Stunden Belichtungszeit für Deep Sky Aufnahmen ernst meinst ;) .


    Die Ausdauer muss ich gar nicht selber bringen, sondern das Meiste läuft über die Nacht automatisch auf dem Balkon. Das hatte ich mir über die Jahre so eingerichtet um dem Hobby neben dem Beruf überhaupt nachgehen zu können.


    CS Peter

    Vielen Dank Andreas!


    Ja, die Säule auf dem Balkon und meine Leichtbau-Schutzhütte helfen enorm.


    Der SNR ist aber gar nicht so dunkel wie man aufgrund der geringen Anzahl von Bildern davon meinen mag. Mit meinem F6 Setup hätten für ein halbwegs ansehnliches Bild auch 10 Stunden gereicht. Die Schmalbandemissionen sind schon ziemlich prägnant. Ich zeige dazu mal 2 Screenshots der sternlosen, nur mit Standardstretch bearbeiteten Masters:


    Ha


    OIII

    Wenn man sich das Ha ansieht, versteht man vielleicht warum ich mich bei den im Netz auffindbaren Referenzbildern gewundert hatte, dass meistens nicht viel davon zu sehen ist.


    CS und LG

    Peter

    Hi Seraphin,


    vielen Dank! Ja, auch an dieser Perle wird seltsamerweise generell vorbei fotografiert. Ähnlich wie meine vorherige SNR HB3 liegt sie ja in prominenter Nachbarschaft knapp westlich von Rosettennebel und Christmas Tree.


    Seraphin, wenn du traurig bist, dass du seit 2 Wochen keine klaren Nächte hattest, hört sich das für uns hier im Norden sehr nach Leiden auf hohem Niveau an ;) . Wir hatten bis letzte Woche monatelang nur Wolken, Wind und Regen ;( ;( ;( .


    CS und LG

    Peter

    Hallo Leute,


    ich habe mich kurz vor dem 3-tägigen, langersehnten Wolkenloch entschlossen, mein Doppelsetup aus TS Photoline 130/910 Triplet Apo (red. auf 740 mm, f/5.7) und TS CF-Apo 80 (480 mm, f/6) aufzubauen. Das hat mich zwar zuerst Nerven und Belichtungszeit gekostet bis alles lief, dann hat das Doppel aber mächtig Daten reingeschaufelt. Als Hauptziel habe ich mit den Supernovarest SNR G206.9+2.3 im Sternbild Einhorn ausgesucht, weil der in 740 mm hervorragend ins Bild passt und mit den schönen Emissionsnebeln am Rand auch im Feld des 480 mm Apos eine gute Figur macht. Weil das Objekt erst spät über mein Nachbarhausdach kommt, habe ich erst um 9 Uhr starten können und musste wegen der flachen Höhe schon um 3 Uhr morgens aufhören. Trotzdem sind dank des Doppelsetups insgesamt 27 Stunden verwertbares Licht in den 3 Nächten auf den Sensor gelangt.


    Bei der Bearbeitung habe ich mit APP für jede Brennweite eine Version gerechnet. Die 720 mm Version macht mir noch Probleme, deshalb zeige ich erstmal das weitere Feld des kleinen APO. Das engere Feld des auf 740 mm reduzierten 130/910 mm wird folgen. Spätestens bei der Gelegenheit - soviel kann ich schon sagen - habe ich auch etwas zur hier intensiv geführten Diskussion

    https://forum.astronomie.de/th…tnis-entscheidend.354127/ beizutragen. Denn ich habe mit gleicher Kamera und gleichem Filter gleichzeitig dasselbe Objekt mit identischen Aufnahmeparametern von derselben Montierung mit unterschiedlichen Öffnungsweiten und nahezu gleicher Öffnungszahl aufgenommen. Aber dazu später mehr.


    Auf das Objekt bin ich durch die Aufnahmen von Gary Imm und Göran Nielsson auf Astrobin aufmerksam geworden. Es hat mir dort wegen seiner feinen, filigranen Struktur so gut gefallen und weil es schwierig aussah ;) . Als Geologe ist mir natürlich sofort aufgefallen, dass der Nebel aussieht wie ein Trilobit der Gattung Phacops https://dinopedia.fandom.com/wiki/Phacops, so hat er bei mir jetzt den Namen "Phacops Nebel" :) . Gewundert und neugierig auf meinen eigenen Versuch hat mich das in quasi allen Referenzaufnahmen nur schwach vertretene Ha-Emissionssignal. SNR 206.9 ist etwa 7.000 Lichtjahre von uns entfernt. Er hat Ausdehnung von ca. 120 Lichtjahren und auf dem Sensor eine Projektionsgröße von ca. 60' x 40' . Am rechten Bildrand sieht man die Ausläufer des riesigen Monoceros Loop SNR G205 +0.5).


    Mangels einer weitern klaren Nacht habe ich auf RGB Sterne verzichte und mit HOO Sternen gearbeitet. Natürlich ist es während ich dies schreibe draußen unerwartet klar und ich kann die RGB Sterne ggf. nachliefern.


    Hier die Aufnahme des 480 mm Feldes:


    ?hash=9b5976b2f1e53786f0d427901adf78af


    Volle Auflösung auf Astrobin: https://astrob.in/full/kdwoux/0/


    ?hash=9b5976b2f1e53786f0d427901adf78af


    ?hash=9b5976b2f1e53786f0d427901adf78af


    CS und viele Grüße

    Peter


    Daten


    Himmels Hemisphäre: Nördlich ·

    Sternbild: Monoceros (Mon)  ·

    Beinhaltet: LBN 947 · LDN 1631 · PGC 136566 · PGC 136567 · PGC 136568 · PGC 136570 · PGC 136571 · PGC 136572 · PGC 136581 · PGC 19609

    Teleskop: TS-Optics CF-APO 80mm f/6 (TSCFAPO80)  × · TS-Optics Photoline 130mm f/7 FPL53 Triplet Apo (APO130f7-P)  ×Aufnahmekamera: ZWO ASI2600MM Pro
    Montierung: Sky-Watcher EQ8-R Pro  ×
    Filter; Antlia O-III Pro Ultra Filter - 2.8 nm Ultra Narrowband - 36 mm · Astronomik H-alpha CCD 6nm 36mm · Chroma OIII 3nm Bandpass 36 mm
    Zubehör: Lacerta MFOC Motorfocus · Pegasus Astro Falcon Rotator · TS-Optics TSFlat25koll  × · ZWO EFW 7 x 36mm
    Software: Adobe Photoshop · Aries Productions Astro Pixel Processor (APP) · Pleiades Astrophoto PixInsight · Stefan Berg Nighttime Imaging 'N' Astronomy (N.I.N.A. / NINA)

    Aufnahme Details

    Datum: 8. - 10. Januar 2024Frames:Antlia O-III Pro Ultra Filter - 2.8 nm Ultra Narrowband - 36 mm: 112×300,″(9h 20′)

    Astronomik H-alpha CCD 6nm 36mm: 123×300,″(10h 15′)

    Chroma OIII 3nm Bandpass 36 mm: 89×300,″(7h 25′)
    Aufnahmedauer: 27h

    Durchschnittliches Mondalter: 27.35 Tage

    Durchschnittliche Mondphase:6.03%

    Durchschnittlicher SQM:20.30

    RA Zentrum: 06h49m03s.85

    DEC Zentrum: +06°20′39″.4

    Pixel Skala: 1,592 Bogensekunden / Pixel

    Ausrichtung: 0,431 Grad

    Feldradius: 1,630 Grad

    Hallo Drehn,


    M33 ist meine Lieblingsgalaxie, da muss ich mich einfach melden :) .


    Kleine Manöverkritik, die Galaxie selber ist gut gelungen, aber der Hintergrund ist rotstichig und hat grünliche Gradienten. In der größeren Auflösung hat sich ein Fehler eingeschlichen:



    CS Peter

    Hallo Jochen,


    kleiner Happen stacken und dann kombinieren macht schon Sinn, weil die Anzahl der multiplen "Views" im Modus Mosaik exponentiell steigt, wenn ich mich nicht irre. 11 x 60 + 1 x 11 zu stacken müsste zigmal schneller gehen als 1 x 660.


    Grüße

    Peter

    Oh sh*t, ich habe gerade in einem überholten Browserfenster geantwortet :S . Vergiss bitte meinen letzten Post...


    Wenn die Aufnahmen sich mit großer Überlappung kreisförmig um einen zentralen Punkt gruppieren, kann man vielleicht im normalen Modus registrieren. Ich würde das mal mit einer chronologisch zusammenhängende Teilmenge ausprobieren.


    CS Peter

    Hi Jochen,


    Jürgen hat Recht, bei großen Datenmengen macht es oft Sinn, die Kacheln erst einzeln zu stacken, Gradienten zu entfernen etc. und dann das Mosaik zusammenzurechnen. Bei kleinen Brennweiten und/oder kleinen Pixelgrößen kann es zu "blockigen" Sternen kommen. Dann in Tab 6 bei pixel interpolation den Filter auf "Cubic B-Spline" setzen.


    - In Tab 4 scale start auf 1, scale stop auf 15 setzen, same camera and optics "uncheck", use dyn. dist. corr. "check".
    - In Tab 5 mode auf "advanced".
    - In Tab 6 LNC degree auf "2nd degree" setzen, LNC iterations auf "2", enable MBB AN und auf "20%".


    Die Sache mit den Stellina-Dateien ist seltsam. Was ist den das Problem bzw. wie äußert es sich?


    LG Peter