Beiträge von Berlinsky

    Hallo Michael,


    vielen Dank. Da die Hauptemission im Nebel ja vom Ha bei 656nm kommt, dann müssten wir etwa ganz rechts unten hier im Diagramm 1 liegen. Ich würde also sagen bei mir ist zu viel Blau dabei, ist halt auch ein wenig künstlerische Freiheit :). Die Kamera habe ich gerade noch ergänzt, es ist die ZWO ASI 533MC.


    Viele Grüße - Oliver

    Liebe Gemeinde,


    in meiner städtischen Umgebung bin ich eigentlich auf den Einsatz von Schmalbandfiltern angewiesen, dennoch lasse ich gelegentlich auch schon einmal das gesamte sichtbare Spektrum durch. Das Ergebnis ist aufgrund meiner Lichtverschmutzung schon recht fade und dann muss also doch noch etwas mit Schmalbandunterstützung nachgeholfen werden. Meine RGB Grundlage waren hier 170 x 90s = 4.25h. Das ist natürlich bei Bortle 6+ nicht viel, insbesondere mit f/7. Als nächstes musste ich dann mit 69 x 300s = 5.75h nachhelfen, um aus dem Antlia ALP-T das Ha für den Nebel zu extrahieren. Da ich bisher noch keine HaRGB erstellt hatte, musste ich mich erst einmal etwas inspirieren lassen, wie ich das Ha in das RGB bekomme (Danke auch an Einsteinchen für die Anmerkungen zu Deinem tollen Bild). Das verwendete Konzept ist recht einfach (Ha zu R und ein wenig zu B addieren). Im Detail stellt sich das dann doch (zumindest bei mir aus Mangel an Erfahrung) etwas schwieriger dar, da die unterschiedlichen Background level geeignet angepasst werden müssen, um den Nebel hervorzuheben, nicht jedoch das gesamte RGB in Richtung Rot zu verschieben. Hier gibt es noch viel zu lernen und bei Bortle 6+ kann ich mit den anderen IC 5146 nicht mithalten, ich zeige dennoch einmal, was aus der Stadt heraus so möglich ist.


    CS - Oliver




    Cocoon Nebula IC 5146 aus Berlin


    4.9. und 8.9.2023, Berlin, Bortle 6+, ASKAR 107PHQ, f/7, ZWO ASI 533MC


    RGB: 170 x 90s, Gain 0, UV/IR cut Filter

    Narrowband: 69 x 300s, Gain 100, Antlia ALP-T Filter


    pre- und post-processing mit PI

    Wenn man ohnehin einen Computer braucht, kann ich die SharpCapPro Polar Alignment Routine (15,- Euro Jahresabo), oder das N.I.N.A. 3 point polar alingment empfehlen. Letztere nutze ich mit voller Begeisterung, sie ist kostenlos, so genau, wie die Mechanik hergibt und braucht nicht einmal den Blick auf den Polarstern.

    Sehe ich auch so - wer ohnehin schon Guiding-Hardware besitzt kann auf die Anschaffung zusätzlicher Komponenten zur Poljustage verzichten.


    CS - Oliver

    Hallo Peter,


    Nun habe ich nach langem Zögern auch den Schritt in PI unternommen, komme aber seit 2 Monaten nicht so recht klar damit

    Pixinsight ist definitiv nicht intuitiv, aber leicht zu erlernen, wenn man die richtige Erwartungshaltung mitbringt. Ich denke nach 2 Monaten ist man ganz am Anfang, war zumindest bei mir so, und es hilft hier nur, viele Bilder zu bearbeiten, Erfahrung zu sammeln und sehr, sehr viel ausprobieren. In den ersten beiden Jahren habe ich meine Experimente und Erfahrungen mit PI immer dokumentiert, ergänzt revidiert, etc. Im Laufe der Zeit entwickelst Du dann Deinen eigenen Workflow, das kommt mit der Zeit.


    1. weiterhin mit APP zu stacken (einfach weil es so schön ist!):

    Ich würde Dir WBPP empfehlen, wenn Du tiefer in PI einsteigen möchtest, dann kannst Du vorab auch Deine Lights mit dem Subframe Selector analysieren und lernst viel über die Qualität Deiner Daten.


    a) vor DBE noch DynamicCrop, um Artefakte zu entfernen

    b) eher zunächst die einzelnen Kanäle bearbeiten

    c) eher vor der Sternextraktion leicht strecken, damit später keine Artefakte gestreckt werden

    d) wozu ?

    e) eher im linearen Zustand

    f) GHS würde ich erst einsetzten, wenn Du Dich intensiv mit Histogram/Curves Transformation auseinander gesetzt hast, dann an Grenzen stößt und diese Grenzen mit GHS überwinden möchtest.


    Vielleicht kennst Du ja auch schon das hier, in diesem Faden werden nun schon seit 5 Jahren PI workflows diskutiert.


    An welcher Stelle in der Bildbearbeitung wendet Ihr Blur_X

    Am besten erst einmal gar nicht außer Du hast hier ein konkretes Problem, das Du lösen möchtest.



    CS - Oliver

    Hallo Zusammen,

    meistens gibt es ja nicht genau die Konfiguration, die man aufgrund der persönlichen Präferenzen benötigt. Selbst zusammenbauen ist eine Option, aber nicht immer gewünscht oder möglich. Nun gibt es eine ganze Reihe von Anbietern, die recht umfangreiche Konfigurationsmöglichkeiten bieten, z.B. diese hier

    https://www.dubaro.de
    https://www.rhino-computer.de
    https://www.mifcom.de

    und noch viele weitere.

    Habt ihr Euch in letzter Zeit einen PC konfiguriert und bauen lassen, wie sind oder waren Eure Erfahrungen und würdet ihr denselben Anbieter wieder wählen?

    Danke Euch.

    CS - Oliver

    Bei den meisten Sensoren ist die Belichtungszeit nicht mehr so das Kriterieum. Von daher ist man mit "langesameren" Optiken nicht wirklich schlechter dran.

    Hallo André,


    ich glaube das kann man so nicht stehen lassen. Die Belichtungszeit ist immer das oder zumindest ein wesentliches Kriterium, ebenso das Öffnungsverhältnis.


    Ich glaube was der Kapitän damit sagen wollte ist, dass es bei den heutigen modernen empfindlichen Sensoren nicht mehr so auf diese eeeeeeeeeewig langen Frames ankommt, um das Ausleserauschen zu verdrängen. Da jenes sowieso schon sehr gering bis vernachlässigbar ist.

    Hi Drehn,


    selbst wenn diese Interpretation zutreffen sollte, was ich ich übrigen nicht nachvollziehen kann, denn bisher wurde Ausleserauschen oder Hintergrundlimitierung nicht erwähnt, selbst dann reduziert das nicht die Bedeutung der Belichtungszeit oder des Öffnungsverhältnisses.


    Hallo Captn Difool,

    Wie begründet sich diese Aussage?

    Mich würde eine, an die geltende Physik angelehnte Begründung sehr interessieren.

    Gruß,

    Burkhard

    Hier bin ich bei Burkhard und zwar aus dem folgenden Grund:


    Wir generieren unsere Bilder durch die Ermittlung der Photonenstromflächendichte in der Sensorebene. Selbst wenn wir thermisches Rauschen, Ausleserauschen, den Hintergrund entfernen und die Quanteneffizinenz maximieren, dann bleibt immer noch die Photonenstatistik als intrinsiche Rauschwelle, die sich vollkommen unabhängig vom Sensor nicht eliminieren lässt. Es gibt nur einen Weg, das Rauschen zu reduzieren, um ein möglichst gutes Signal-Rausch-Verhältnis zu generieren: Erhöhung der Anzahl der detektierten Photonen. Das gelingt zum einen über das Öffnungsverhältnis, dieses geht umgekehrt quadratisch in die Photonenstromdichte ein. Und zum anderen über die Belichtungszeit, die direkt proportional die Anzahl der detektierbaren Photonen bestimmt.


    Wenn wir uns also im Rahmen der gängigen Physik bewegen, dann kommen wir um Belichtungszeit und Öffnungsverhältnis nicht herum 8). Das soll übrigens nicht bedeuten, dass ein niedriges Öffnungsverhältnis benötigt wird um schöne Bilder zu erzeugen, denn der Mensch besitzt kein gutes Vermögen, das Signal-Rausch-Verhältnis in einem Bild zu ermitteln.


    CS - Oliver

    Ist doch alles drauf :thumbup: In welcher Gegend fotografierst Du denn? Eher in der Stadt oder eher am Rand?

    Danke Dir. Ich bin in der Stadt, glücklicherweise nicht im Zentrum, ClearOutside App sagt Bortle 6, könnte aber aufgrund meiner Straßenbeleuchtung auch schlechter sein, deswegen nenne ich immer Bortle 6+.


    VG - Oliver

    Hallo Zusammen,


    nachdem ich neulich Pickering's Triangle aufnehmen konnte, siehe hier, wurde ich gleich noch mit einer weiteren klaren Nacht belohnt. Den Hantelnebel hatte ich bisher aus Mangel an Brennweite noch nicht "angefasst". Mit den mir gerade zur Verfügung stehenden 750mm wollte ich es einmal probieren. M27 stand auch recht günstig in Bezug auf mein Schlafbedürfnis - Meridian Flip kurz nach Mitternacht und dann musste das Set ohne mich auskommen. Was mich wirklich überrascht hat ist die Helligkeit von M27. Eigentlich wollte ich 5min Lights mit dem Antlia ALP-T aufnehmen, musste aber auf 3min bei Unity-Gain reduzieren. Die doch enorme Helligkeit war bei der Bearbeitung eher ein Hindernis, hier musste ich sehr, sehr vorsichtig strecken und maskieren, um ein Ausbrennen zu verhindern. Mit knapp 4.5 Stunden bei f/7 aus Berlin bin ich aber ganz zufrieden:



    23.8.2023, Berlin, Bortle 6+, ASKAR 107PHQ, f/7, ZWO ASI 533MC, Gain 100, 88 Lights jeweils 3min, no Darks, Flats, Bias, Antlia ALP-T Filter, pre- und post-processing mit PI


    CS - Oliver

    Hallo Deep Sky Freunde,


    nach längerer wetter- und urlaubsbedingter Pause war es endlich einmal wieder soweit - clear skies in Berlin 8).


    Den Veil Nebula haben sich viele sicherlich schon satt gesehen, ich wollte dennoch 'mal wieder in Pickering's Triangle gehen, vor mehr als einen Jahr hatte ich mit kürzerer Brennweite und in Mono diese Aufnahme hier erstellt. Seit einiger Zeit bin ich recht angetan vom Antlia ALP-T dual-narroband Filter, der auch hier wieder um Einsatz kommen sollte. Zunächst wurde das RGB in R + G + B aufgeteilt und Ha aus R sowie OIII aus G + B generiert. Der Nebel ist dann ein HOO und für die Sterne wurde Ha für R, OIII für B und eine Kombination aus Ha und OIII für G verwendet. Die künstlichen Sterne sind dann durch die photometrische Farbkorrektur gelaufen und wurden durch "negativ Multiplizieren" mit dem Nebel gemischt.


    CS - Oliver



    Pickering's Triangle in HOO aus Berlin


    18. und 22.8.2023, Berlin, Bortle 6+, ASKAR 107PHQ, f/7, ZWO ASI 533MC, Gain 100, 116 Lights jeweils 5min, Darks, Flats, Bias, Antlia ALP-T Filter, pre- und post-processing mit PI

    Hallo Zusammen,


    wie ja bereits bekannt, kann das Update von PI Version 1.8.9-1 auf 1.8.9-2 zu einigen Herausforderungen führen, also bin ich erst einmal bei 1.8.9-1 geblieben. Am 6. August hat Russ seine NoiseXT Engine auf 1.1.4 aktualisiert und dieses Update habe ich jetzt installiert. Interessanterweise muss der Lizenzschlüssel im NoiseXT neu eingegeben werden, was normalerweise keine Probleme darstellen sollte. Leider ist es aber so, dass in dem Feld für den Lizenzschlüssel nur noch Zahlen eingegeben werden können und keine Buchstaben, die zumindest bei mir Teil des Lizenzschlüssels sind. Hat jemand von Euch dasselbe Problem und wisst ihr, wie as zu lösen ist. Mir ist aktuell kein einfacher Weg bekannt, um die NoiseXT Engine wieder auf die Vorgängerversion zurück zu bringen.


    Danke Euch.


    CS - Oliver

    Hi Sascha,


    das hat mich auch schon einmal beschäftigt, siehe hier. Leider hat das nicht zu einem kleinen, feinen Alarmsystem geführt sondern zu manuellen Betrieb, also:


    1. Das Wetter ist super, auf dem Regenradar ist nichts zu sehen und ich kann mir nicht vorstellen, dass es regnet > ich lege mich hin und schaue erst am nächsten Morgen nach, ob alles ok ist.
    2. Das Wetter ist ok für die nächsten Stunden aber da ist eine Restwahrscheinlichkeit, dass es evtl. noch noch regnen könnte > ich lege mich hin, stelle den Wecker und stehe nach der Aufnahmesequenz auf, um das Rigg abzudecken.
    3. Es könnte während der Session evt. doch noch anfangen zu regnen > ich warte bis zum Ende der Aufnahmesequenz und komme mit dem Schlafdefizit irgendwie klar  ||.


    CS - Oliver

    Hallo Heinz,


    Danke für Deine Antwort. Ich habe das Skript nur sporadisch eingesetzt und leider keinen allgemeingültigen Workflow der konsistent zu guten Ergebnissen führt. Eine gute Alternative ist mir bisher auch nicht bekannt. Die beste Empfehlung ist wahrscheinlich, Sterne nicht überbelichten, separat bearbeiten und sehr moderat strecken.


    CS - Oliver

    Den Link auf der QHY Seite finde ich nicht mehr. Aber hier ein Statement von QHY im Cloudynights Forum:

    Beitrag #84 ganz unten:

    Das sind doch genau die nicht faktenbasierten Gerüchte. #84 macht ein Statement ohne Fakten, #85 stellt das in Frage und der Poster aus #84 bleibt stumm. Was genau kann man nun daraus ableiten? Ich würde sagen: „nichts“.


    CS - Oliver