Beiträge von Einsteinchen

    Hallo Astrofreunde,


    ich habe letztens den intergallaktischen Staub um Polaris aufgenommen. (IFN Polaris)

    Das Bild ist einigermaßen erfolgreich gelungen, jedoch musste ich unglaublich viele Bilder wegschmeißen, weil das Guiding nicht richtig funktionierte.

    Also es ist einigermaßen verständlich, dass durch die kleinen Bewegungen der Sterne direkt an der Erdrotationsachse Schwierigkeiten mit PHD2 auftreten.

    Ich habe dann schon die Belichtungszeitabstände in PHD2 hochgeschoben. Damit wurde es etwas besser, aber so richtig auch nicht.


    Habt ihr hier noch eine Empfehlung, oder kann man nur Kurzzeitbelichtungen (15s - 30s, vielleicht auch 60s - 120s wenn das Einnorden gut war) mit abgestelltem Guiding machen?


    Viele Grüße und CS


    Sebastian

    Hallo Community,


    ich habe letztens zum ersten Mal versucht, mit meinem Telezoomobjektiv und einem Motorfokussierer Aufnahmen zu machen.

    Sie sind einigermaßen gut gelungen. Aber ich hatte unglaubliche Schwierigkeiten mit dem Autofokus-Tool von N.I.N.A eine Parabel und somit einen guten Fokuspunkt herzustellen.


    Ich versuche mal meine Herangehensweise zu erklären:

    Telezoomobjektive sind ja sehr empfindlich was den richtigen Arbeitsabstand angeht. Der sollte schon sehr genau eingehalten werden.

    Ist der Arbeitsabstand zu groß (der Fokuspunkt liegt somit vor der Chipebene), können vielen Objektive nicht über diesen Punkt hinaus (sozusagen über Unendlich hinaus) fokussieren.

    Liegt der Fokuspunkt hinter der Chipebene, kann man das mit dem Fokussierring ausgleichen.


    Mein Telezoomobjektiv hat einen Arbeitsabstand von 46,5mm. Da noch ein 2mm Filter im Lichtweg lag, verlängert sich der Abstand um 1/3 Filterdicke. Wäre ich also bei ca. 47,2mm.

    Wie oben geschrieben, sollte man aber auf keinen Fall an diesem Wert zu knapp dran sein, um nicht über unendlich zu liegen. Also habe ich 47mm eingestellt.


    Und nun zu meinem Phänomen in N.I.N.A:

    Nach einer groben Fokussierung fährt das Autofukus-Tool ja von diesem Punkt ausgehend in vorgegebenen Schrittweiten weitere Punkte an und ermittelt dabei, wie defokussiert die Sterne an den anderen Punkten sind.

    Daraus wird dann eine Parabel oder auch Linien oder eine Hyperbel erstellt, und der tiefste Punkt ist dann der neue Motorstellwert für die beste Fokussierung.


    Zur linken Seite war bei mir der Ansatz der Parabel immer zu sehen. Nach rechts lagen die Punkte also nahezu auf einer Linie. Vermutlich, weil das Objektiv an dieser Stelle nicht weiter ins Unendliche hinaus einstellbar war.

    Ich habe nun den Arbeitsabstand um 0,5 mm auf 46,5 mm verringert, was ja ohne Filter sogar dem Sollwert entspricht.

    Dadurch wurde es minimal besser aber von einer Parabel konnte man nicht sprechen und ich denke mal nur jede 10 Versuch ist zu einem erfolgreichen Fokuspunkt gekommen.


    Nun meine Frage:

    Ist dieses Phänomen bei Objektiven nicht immer der Fall, da bei DeepSky-Aufnahmen der Fokuspunkt auf Unendlich liegt?

    Schaffe ich es sozusagen nie eine Parabel mit einem Objektiv zu erreichen?

    Oder muss ich den Arbeitsabstand noch weiter verkleinern? Aber entferne ich mich dann nicht vom Fokuspunkt und lande eh wieder da, wo ich schon war? Drehe ich mich dann nicht im Kreis?


    Vielleicht hat hier ja jemand schon Erfahrungen gesammelt.


    Vielen Dank fürs Lesen und CS


    Sebastian

    Hallo Jochen,


    ich habe leider jetzt erst gesehen, dass Du dieses Thema aufgemacht hast. Ich habe auch lange gebastelt, bis ich was hinbekommen habe, weil ich das Filterrad mit im Strahlengang haben wollte. Mein Objektiv hat zum Beispiel keine 55mm Backfokus, sondern glaube 47,5mm


    Hier habe ich ein Bild meiner Ausrüstung und ein paar verwendete Bauteile (ganz unten auf der verlinkten Seite ist die Ausrüstung mit Teleobjektiv):


    Eigene Ausrüstung - Astrobasics
    AusrüstungMontierung:iOptron CEM70G (Traglast 31 kg)Teleskop:Meade ACF-SC 203/2032Kamera:ZWO ASI294MC Pro (14 Bit)4144 x 2822 Pixel (4,63 µm)Chipgröße: 19,2 mm…
    astrobasics.de


    Du kannst mich bei Fragen gerne kontaktieren, oder hier weiter fragen. Interessiert ja vielleicht auch andere.


    Viele Grüße und CS


    Sebastian

    Hallo zusammen,


    ich hatte auch einmal ein solches Problem. Bei mir war es, dass der Chip bei -15°C langsame vereist ist. Das Bild hatte dann in der Mitte einen dunklen und milchigen Fleck, und irgendwann ist dann auch das PlateSolving eingebrochen.

    Abhilfe hat folgendes geschaffen:

    - Trockenpatrone ausbauen und in einer Schale bei 120°C eine Stunde lang im Ofen backen (Tipp aus dem Buch "Digitale Astrofotografie" von Axel Martin und Bernd Koch)

    - Heraufsetzen der Temperatur auf 0°C (Bei der ASI294MC/MM macht das nicht viel aus, da bei 0°C immer noch nur rund 0.02 Elektronen/Sekunden/Pixel erzeugt werden) Das nehme ich dann lieber in Kauf als noch einmal einen vereisten Sensor zu haben.


    Viele Grüße


    Sebastian

    Hallo Jürgen,


    das liegt noch an einer fehlerhaften Speicherung in der PixInsight.ini Datei. Da hat sich nach der Installation was angehäuft.


    Geh mal unter: C:\Users\Username\AppData\Roaming\Pleiades


    und lösche alle Einträge die mit den folgenden Zeilen beginnen:


    1. WBPP - "ScriptData\WeightedBatchPreprocessing\executionCache="

    2. Image Integration - "ModuleData\ImageIntegration\ImageIntegration\Cache\00000001="

    3. SubFrame - "(ModuleData\SubframeSelector\SubframeSelector\Cache\00000001="


    Wobei Nummer 1 wohl das Problem mit dem Hängen der Prozessfenster schon komplett löst. Bei mir hat es funktioniert.


    Ich habe jetzt nur noch ein Thema, dass das Hintergrundbild etwas flimmert, wenn man mit der Maus über ein Bild geht.

    Da gibt es aber noch keine Lösung im PixInsight Forum und es betrifft wohl auch nicht alle.


    Viele Grüße


    Sebastian

    Hallo zusammen,


    ich habe das Update gestern auch gemacht. Seitdem muss ich jedes mal 10s warten, wenn ich ein Prozessfenster schließe, oder ein Bild abspeichern will.

    Kein Plan, woran das liegt im PixInsight Forum gibt es dazu erst mal nur einen Eintrag. Dort schlug jemand vor die tensorflow.dll zu überschreiben.

    1.8.9-2 post update - very slow?
    but upgrading the core PI application removes any post-installed dlls in the pixinsight folder. Gotta love PI....That sounds like a bug not a feature. If…
    pixinsight.com

    Das hat bei mir aber nicht funktioniert.

    Hat noch jemand dieses Problem?


    Ansonsten hatte ich keine Probleme nach der Installation.


    Viele Grüße


    Sebastian

    Hallo Udo,


    das wird jetzt eine etwas kitschige Eigenwerbung, aber ich habe mir die Frage damals auch gestellt und habe das auf meiner Internetseite im Berechnugstool integriert.

    Ich habe damals alle gängigen Katalogobjekte zusammengetragen und mögliche Filter aus Datenbanken wie z.B. bei Vizier, wo die Emissionslinien aufgeführt werden, zusammengetragen.


    Wenn Du in meinem Tool Dir ein Objekt raussuchst und auf das Informations "i" im Bild klickst, erscheint rechts dann der Wissensteil mit der Filter-Empfehlung (hier mal am Beispiel von Abell 3):


    Viele Grüße


    Sebastian

    Hallo Peter,


    ich stoße hier definitiv an meine Erklärungsgrenzen, weil ich nicht weiß, was da in den ganzen Bearbeitungsschritten im Hintergrund von PixInsight passiert.

    Wenn ich ein synthetisches Luminanzbild in PixInsight erzeugen möchte, tue ich das über den Prozess 'ImageIntegration' und dem Kombinationsschritt 'Average'.

    Dort werde die drei Bilder einzeln reingeladen und bearbeitet. Jegliche Haken bei 'rejection' müssen dabei deaktiviert werden.

    Ich ziehe das Luminanzbild also nicht aus dem zusammengefügten RGB. Ich glaube,das würde dann nämlich nichts bringen.


    Und immer wenn ich das gemacht habe, konnte ich ein besseres SNR erzielen.


    Viele Grüße


    Sebastian

    Hallo Frank,


    ja, hier kann man sehr schön sehen, was ich am Anfang geschrieben hatte:

    Prinzipiell kann ich hier noch einmal aus vielen gelesenen internationalen Foren-Threads folgendes zusammenfassen, wenn es um das SNR geht: ("<" bedeutet hier schlechter als)


    RGB < sLumRGB < LumRGB < SuperLumRGB

    Du zeigst hier halt sehr gut: RGB < sLumRGB. Vielen Dank für Deinen Vergleich.


    Viele Grüße


    Sebastian

    Ja, da sagst Du was. Ich muss gestehen, dass ich auch oft aus Zeitmangel nur wenig Belichtungszeit für R, G und B hinbekommen habe.

    Und ich war trotzdem erstaunt, wie viel Farbintensität in dem Bild ist. Das war der Grund, warum ich angefangen habe so viel nachzulesen und zu fragen, was denn nun der goldene Mittelweg sein könnte (auch wenn es den vermutlich nur für 80% der Objekte gibt). Ob viel L, oder ob es auch reicht L komplett wegzulassen und alles ausschließlich aus den RGBs zu holen.


    Aber ich glaube inzwischen sind sich hier alle einig, dass L Pflicht ist, und dies so lange belichtet wie es geht.

    Und was die Bearbeitung angeht, sollte man je nach Objekt vermutlich zweimal EBV machen. Einmal der Standardweg und einmal mit SuperLum und schön vergleichen.

    Bei manchen Objekten lohnt es sich und bei manchen eben nicht und es gehen Details verloren.

    Und ich denke je mehr Belichtungszeit man hinbekommt, umso geringer fällt der Vorteil eines SuperLums aus, weil man ja eh schon ein ziemlich geringes SNR hat.


    Viele Grüße


    Sebastian

    Hallo Peter,

    ich bin nicht sicher, ob ich die Abkürzungen richtig deute. Ich weiß z. B. nicht, was sLumRGB bedeuten soll.

    Ein sLumRGB ist ein LRGB Bild, bei dem der Luminanzanteil aus den RGB Filterbildern gewonnen wird, wenn man keine Luminanzbilder gemacht, und die gesamte Belichtungszeit für die RGB-Aufnahmen verwendet hat.

    Und ja, mir ging es in meinem Post vorrangig um das SNR. Was Du zu den ganzen Details geschrieben hast, muss ich erst einmal in Ruhe sacken lassen.

    Aber da scheinst Du schon was anzusprechen. Ich habe derweilen noch etwas weiter gelesen, auch was das mit den Details angeht.


    Wie es aussieht, funktioniert das mit den SuperLums und wenigen Verlusten an Details am Besten, wenn erstens alle Aufnahmen mit der gleichen Belichtungszeit und in einem Verhältnis 3:1:1:1 (L:R:G:B) gemacht wurden. Also als Beispiel: Ich nehme 60 L je 180s auf und jeweils 20 RGB je 180s.


    Also das ist jetzt mal etwas, was mir immer wieder in den Foren aufgetaucht ist. Wobei ich mich hier auch Frage, wie dann die helleren Lums wirken. Der L-Filter lässt ja alle Photonen durch und prinzipiell sollte er nur ein drittel der Belichtungszeit von RGB haben, um ähnlich wie die RGBs zu wirken.


    Und natürlich hängt dann alles noch vom Objekt ab.

    Da dreht sich mir langsam der Kopf.


    Viele Grüße


    Sebastian

    Hallo Peter,


    hab mal noch in Deinem ersten Link gelesen und da schreibt Rasfahan:


    "I got an answer on the Pixinsight Forum, by the developer. LRGB Combination is, indeed, combining the provided L with the a,b/c,h components (of L*ab or L*ch color model) of the supplied RGB image. So there is no extraction or processing of L* from the RGB components."


    Also LRGB Combination nutzt nicht noch einmal das Luminanzbild aus RGB. Es nutzt nur a*b*.


    Viele Grüße


    Sebastian


    Edit: Ich sehe gerade, dass Du das ja auch schon gepostet hattest, zwei Posts unter Deiner Beschreibung.

    Hallo Peter,


    vielen Dank für Deine ausführliche Aufklärung. Du würdest also wenn überhaupt das SuperLum aus Lum+sLum genererieren (sLum = syntheteisches Luminazbild aus RGB) und nicht aus der Intergration von LRGB. Du meintest ja auch, dass der Prozess LRGBCombination das genau so macht. Dann bräuchte ich ja dieses ganze Hickhack nicht mehr zu veranstalten. :)


    Prinzipiell kann ich hier noch einmal aus vielen gelesenen internationalen Foren-Threads folgendes zusammenfassen, wenn es um das SNR geht: ("<" bedeutet hier schlechter als)


    RGB < sLumRGB < LumRGB < SuperLumRGB


    Viele Grüße


    Sebastian

    Hallo Ralf,


    um die Luminanz der RGB nicht zu verschwenden, erzeugt man ein SuperLum.

    Dazu lädt man die vier nach dem Stacken erzeugten LRGB Bilder ins ImageIntegration Tool und erzeugt ein neues Luminanzbild, was dann auch die RGB-Anteile besitzt.

    So kann dann das SNR verbessert werden. Das normale Luminanzbild wird dann nicht weiter betrachtet.


    Ich habe gestern noch getestet und herausgefunden, dass es besser ist, das CIE L*a*b* nach dem stretchen zu machen.

    Auch habe ich das Bild mal mit dem Standard-Prozess 'LRGBCombination' verglichen. Es ist wie bei Deinem Beispiel mit dem "A". Es scheint mit CIE L*a*b* alles etwas "schärfer" zu sein,

    aber die Farben sind nicht ganz so intensiv. Dies kann man aber über EBV wieder ausgleichen.


    Viele Grüße


    Sebastian

    Hallo Ralf,


    eine sehr interessante Gegenüberstellung.

    Da frage ich mich gerade, wie ich das in PixInsight realisieren könnte

    Da gibt es ja bei Channel Combination die Möglichkeit, CIE L*a*b* auszuwählen?

    Wäre ein folgendes Vorgehen richtig (ohne jetzt auf Gradienten- oder Entrauschschritte einzugehen)?


    1) Öffne die vier Bilder LRGB.

    2) Kombiniere mit Channel Combination die RGB-Filterbilder zu einem Farbbild

    3) Wende über Channel Extraction CIE L*a*b* auf das RGB an

    4) Verwerfe das entstande Luminanzbild und behalte a* und b*

    5) Verwende Channel Combination und kombiniere über CIE L*a*b* das eigene Luminanzbild mit a* und b*


    Kann man das alles noch im linearen Zustand durchführen?

    Ich glaube mal gelesen zu haben, das CIE L*a*b* eher für den nicht linearen Abschnitt gedacht ist. Bin mir da aber nicht mehr sicher.

    Man kombiniert ja auch normal L und RGB erst nach dem Stretchen. Wäre dann das die richtige Reihenfolge?


    1) Öffne die vier Bilder LRGB.

    2) Kombiniere mit Channel Combination die RGB-Filterbilder zu einem Farbbild

    3) Stretche das RGB-Bild und das Lumionanzbild.

    4) Wende über Channel Extraction CIE L*a*b* auf das RGB an

    5) Verwerfe das entstande Luminanzbild und behalte a* und b*

    6) Verwende Channel Combination und kombiniere über CIE L*a*b* das eigene Luminanzbild mit a* und b*



    Viele Grüße


    Sebastian

    Hallo zusammen,


    ich möchte wie versprochen mal noch ein paar Vergleichsbilder zeigen:


    RGB kombiniert und STF gestretcht (nur DBE durchgeführt)


    --> intensive Farben


    RGB kombiniert und mit einem synthetischen Luminanzbild kombiniert und STF gestretcht (nur DBE durchgeführt)


    Hintergrund detailreicher, aber Sterne ausgebrannt und sehr blasse Farben


    RGB nach schärfen, entrauschen und Stretchen


    RGB Bild mit kombinierten synthetischen Luminanzbild (geschärft, entrauscht) nach dem Stretchen


    RGB Bild (geschärft, entrauscht) nach dem Stretchen kombiniert mit dem synthetischen Luminanzbild (geschärft, entrauscht)


    Vergleich der gecroppten Nebel nach etwas Farbsättigung (links: RGB, Mitte: RGB+sLum vor dem Stretchen kombiniert, rechts: RGB+sLum nach dem jeweiligen Stretchen kombiniert)



    RGB Final


    RGB+sLum vor dem Stretchen kombiniert Final


    RGB+sLum nach dem jeweiligen Stretchen kombiniert Final


    Fazit:

    Ein Kombinieren des sythetischen Luminanzbildes mit dem RGB-Bild hat einen Effekt auf die Detailtiefe des Hintergrunds und ist sinnvoll.

    Es sollten dabei aber beide unabhängig vor dem Stretchen bearbeitet und erst nach dem Stretchen kombiniert werden.

    Ein richtiges Luminanzbild wird vermutlich einen noch größeren Detailgewinn bringen.


    Viele Grüße


    Sebastian

    Hallo Frank,


    Danke für die Links. Ohoh, das sieht ja echt ähnlich aus. Aber hier scheinen die Reflexe auch durch das ganze Fremdlicht von Laternen usw. zu kommen. Ich wüsste nicht, was ich noch schwärzen sollte. Das Lacerta Teleskop ist überall geschwärzt und mit Velour ausgelegt. Und eine Tauschutzkappe nutze ich auch.


    Viele Grüße


    Sebastian

    Hallo Frank,


    die Korrektorinnenschwärzungsorgie kenne ich nicht. Ich hoffe nicht, dass der damit zu tun hat. Das ist extra der höherwertige von GPU.

    Die Flats sahen dahingehend sehr unfällig aus.


    Die Kamera ist noch neu. Da sollte das Trockenmittel noch top sein. Mir ist mal der Chip der 294MC eingefroren. Da sah dann alles milchig aus. Seitdem gehe ich nur noch bis 0°C Kühltemperatur und beide Kameras haben die ZWO Frontscheibenheizung.


    Und wenn es fehlerhafter Flatabzug ist, warum dann nur beim Newton? Nie bei den anderen? Hier könnte ich aber mal noch nachforschen. Ich bin nämlich noch nicht optimal justiert und habe unten rechts eine sehr dunkle Vignettierung, die auch beim Flat zu sehen ist. Nach Abzug ist sie aber immer noch da.


    Was mich irritiert, ist der Fakt, dass ein Halbkreis heller als das Bild ist, und die andere Hälfte dunkler. Als würde an irgendeiner Kante Licht gebeugt, so dass es mehr auf die eine Seite fällt.


    Viele Grüße


    Sebastian.

    Hallo Frank,


    ja, da bringst Du es genau auf den Punkt. Es scheint halt wirklich mit richtigem Luminanzbild die beste Lösung zu sein. Und RGB sollte dann so viel für möglich um die Farben und die Intensität rauszuholen. Nichts geht über Belichtungszeit.


    Ich hab vorhin mal noch mit einem synthetischen Luminanz bei vdB 2 rumfespielt. Die Farben sind voll verblasst.

    Sah irgendwie sehr schlapp aus.


    Viele Grüße


    Sebastian

    Hallo Newton-Experten,


    ich habe des Öfteren bei meinen Bildern einen merkwürdigen hell-dunklen Ring im Bild, wenn ich Aufnahmen mit meinem Newton mache.

    Hier mal ein sehr weit gestretchtes Luminanz Bild von vdB 152, um den Ring besser sichtbar zu machen:



    Wie könnte der entstanden sein?

    Ist das Fremdlicht, was von irgendwelchen Nachtlampen aus der Umgebung nur von einer Seite rein scheint?

    Aber warum wird die andere Hälfte dunkler?

    Ist das vielleicht ein leicht verkippter Spiegel? Dann wären die Sterne aber schlechter.

    Bin etwas ratlos.


    Viele Grüße


    Sebastian

    Hallo zusammen,


    bei der Verwendung von den drei Filtern kann man in N.I.N.A. ja auch erst einmal den Filter Offset Calculator verwenden.


    Um noch einmal zum ursprünglichen Thema zu kommen. Ich habe jetzt noch bei CloudyNights einen Thread gefunden, der der Frage nachgeht.


    LRGB versus RGB - a fascinating debate at the highest level - Beginning Deep Sky Imaging - Cloudy Nights
    Page 1 of 5 - LRGB versus RGB - a fascinating debate at the highest level - posted in Beginning Deep Sky Imaging: An innocent post from someone fairly new, in…
    www.cloudynights.com


    Und hier bringt jemand Bilder von M51 mit 900s Belichtungszeit Luminanz und 2700s RGB mit synthetischer Luminanz.

    Das Luminanzbild ist hier der eindeutige Gewinner, obwohl es nur ein drittel der zeit benötigt hat.


    Dann scheine ich mit meinen Überlegungen eher auf dem Holzweg zu sein und sollte die Luminanz wieder in die Sessions mit aufnehmen.


    Viele Grüße


    Sebastian.