Beiträge von app

    Mein lieber Herr Gesangsverein, Du legst ja wirklich was vor, Peter!


    Großartige Arbeit, vor allem der Fokus auf das Auge gefällt mir ausgezeichnet.
    Nach kurzer Recherche bei den üblichen Verdächtigen incl. Großobservatorien fand ich keine ähnliche Bearbeitung.
    Durch Deine Bilder bekomme ich wirklich wieder Lust, auch selbst mal wieder ein paar Photonen einzufangen...

    Servus Peter!
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: pete_xl</i>


    ich habe keine andere Entschuldigung, als dass für mich mit den schwachen Daten nicht mehr herauszuholen war [;)].


    Ich hätte insgesamt konservativer herangehen können, dann wären der Hintergrund rauer geblieben und der Übergang schöner geworden, aber die äußere Flaserung und die schwachen OIII-Ausläufer wären dann auf der Strecke geblieben...
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Ich würde mich für diese Arbeit nicht entschuldigen, Peter, ich finde sie großartig.
    Mir persönlich ist gerade die Struktur eines Nebels wichtig, die Sterne sind ja nur Beiwerk und ebenfalls dezent herausgearbeitet.


    Dein BB-Workflow ist wirklich beeindruckend, mit so wenig Belichtungszeit so viel herausholen, Chapeau!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: pete_xl</i>
    P.S. Ich hatte bei der Bearbeitung eine Flasche Wein offen - vielleicht hatte ich ihn mir schön getrunken... [8D]
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Das hilft immer, daher lebe ich ja auch in einer Weingegend [:D]

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: pete_xl</i>
    (..)
    Aber einige meiner Bilder werden auch intensiv diskutiert und das kommt vielleicht auch nicht von ohne. Ich gebe gerne zu, dass es mir manchmal nicht leicht fällt, mich zwischen dem, was mir optisch am besten gefällt, dem Mainstream in den internationalen Foren und dem, was man hier vielleicht erwartet festzulegen. Und dann kommt auch noch hinzu, dass ich manchmal einen leichten Hang zum Extremen habe und generell gern etwas zu schnell/ungeduldig und oberflächlich in der Bearbeitung bin.
    (..)
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Hallo Peter!
    Ich habe gerade ein starkes Déjà-vu, da es mir im Jahr 2015 beim gleichen Bild so ähnlich wie Dir ergangen ist.
    Ich bin damals für eine Bearbeitung in verschiedenen Foren z.T. sehr heftig kritisiert worden,
    sodass ich mich damals entschloss, mich von allen Foren und in weiterer Folge komplett von der Astrofotografie zurück zu ziehen.


    Ich bitte Dich daher, Dich nicht entmutigen zu lassen und unbedingt mit Deinem eingeschlagenen Weg weiter zu machen.
    Dein Ansatz und Deine Bilder gefallen mir ganz ausgezeichnet!


    Eigentlich wollte ich mich schön langsam wieder mit der Astronomie beschäftigen,
    meine Sternenwarte nach den vielen Jahren wieder öffnen, die Spinnweben entfernen,
    und mich mit der aktuellen Bildbearbeitungssoftware wieder vertraut machen...
    Ich werde wohl bis auf weiteres passiv mitlesen und Deine Bilder mit Genuss ansehen.


    Viel Erfolg und Freude wünsche ich Dir auf Deinem Weg [:)]

    Servus Micha!


    Tut mir leid, dass ich erst jetzt reagiere, aber ich habe eine längere Auszeit und bin in den Foren (fast) nicht mehr aktiv.


    Du schreibest vom "HC Tool" - damit meinst Du das "Astrofocus HC" Tool von Ivaldo nehme ich an.
    Dieses funktioniert aber auch auf ascom-Basis, daher sollte APT den Fokussierer auch erkennen?


    Ich konnte mit APT vor ein paar Monaten damit reibungslos beide Fokusser bedienen...

    Hallo Lieber Leute!


    Nachdem meine Frage/Erkenntnis im Orignalthread scheinbar untergegangen ist,
    mache ich hier einen neuen Thread auf. [:)]



    Ich habe im Originalthread meine Erfahrungen beim Selbstbau einer Schritt-Motorsteuerung nebst mechanischer Kopplung beschrieben.
    Vor ca. 2 Wochen machte ich meine ersten (erfolgreichen) Fotos, aber auch ein paar Messungen bei Tageslicht.


    Leider war das Wetter bei uns im Süden so mies, sodass ich keine weiteren Messungen/Test durchführen konnte.




    Ich habe vom Messaufbau leider vergessen Fotos zu machen,
    aber im Grunde ist das ganze recht einfach zu beschreiben.


    Ich baute das Teleskop mit Montierung auf und fixierte eine Messuhr mit einer Genauigkeit von 0,01mm an der CCD-Kamera.


    Danach verfuhr ich mehrmals mit dem Fokussierer nach innen und außen und notierte die Anzahl der Schritte,
    die ich verfahren musste, damit die Zahnflanken bei Richtungsumkehr wieder ineinander griffen.



    Ich stellte 3 verschiedene Belastungssituationen für den Okularauszug her, wo die 2 Kg schwere CCD-Kamera wirken konnte.
    Einmal zeigte das Teleskop 90° in Richtung Zenit (max. Belastung)
    Die zweite Variante war rund 45° Teleskopneigung (mittlere Belastung)
    Zum Schluß nivellierte ich das Teleskop auf 0° (min. Belastung)



    Nun, das Ergebnis war für mich recht ernüchternd [:(]
    <ul>
    <li>Bei 90° ist der Backlash 30 Schritte</li>
    <li>Bei 45° ist der Backlash 50 Schritte</li>
    <li>Bei 0° ist der Backlash 180 (!) Schritte, wobei der Okularauszug zuerst in die "falsche" Richtung bewegt wird und danach wieder "zurück kommt" und erst dann die Gegenflanken der Zähne greifen [:0]</li>
    </ul>


    Für mich bedeutet dies nun, dass mit diesem Getriebe der Backlash nicht mit einem simplen Eingabefeld im Treiber zu beheben ist.
    Einen winkelabhängigen Backlash zu realisieren fällt mir schwer, da ich nicht im Besitz des Source-Codes des Ascom-Treibers bin.



    Ich bin gespannt wie andere (kommerzielle) Lösungen aussehen ?



    Hat schon jemand die Backlash-Korrektur in Abhängigkeit der OAZ-Belastung (Teleskopwinkel) mit einer Meßuhr vermessen?

    Servus Andreas!
    Ich habe beide im Einsatz und kann äußerlich keinen Unterschied feststellen.
    Im eingeschalteten Zustand ist das Display des 2ers etwas kontrastreicher und oragenfärbig.
    Du kannst das auch auf Seite 2 und 9 in der Bedienungsanleitung nachlesen. [;)]

    Gestern hatte ich etwas Zeit ein paar Messungen vorzunehmen:


    <font size="3"><b>Backlash/Getriebespiel ist stark Lastabhängig!</b></font id="size3">


    Ich habe vom Messaufbau leider vergessen Fotos zu machen,
    aber im Grunde ist das ganze recht einfach zu beschreiben.


    Ich baute das Teleskop mit Montierung auf und fixierte eine Messuhr mit einer Genauigkeit von 0,01mm an der CCD-Kamera.


    Danach verfuhr ich mehrmals mit dem Fokussierer nach innen und außen und notierte die Anzahl der Schritte,
    die ich verfahren musste, damit die Zahnflanken bei Richtungsumkehr wieder ineinander griffen.



    Ich stellte 3 verschiedene Belastungssituationen für den Okularauszug her, wo die 2 Kg schwere CCD-Kamera wirken konnte.
    Einmal zeigte das Teleskop 90° in Richtung Zenit (max. Belastung)
    Die zweite Variante war rund 45° Teleskopneigung (mittlere Belastung)
    Zum Schluß nivellierte ich das Teleskop auf 0° (min. Belastung)



    Nun, das Ergebnis war für mich recht ernüchternd [:(]
    <ul>
    <li>Bei 90° ist der Backlash 30 Schritte</li>
    <li>Bei 45° ist der Backlash 50 Schritte</li>
    <li>Bei 0° ist der Backlash 180 (!) Schritte, wobei der Okularauszug zuerst in die "falsche" Richtung bewegt wird und danach wieder "zurück kommt" und erst dann die Gegenflanken der Zähne greifen [:0]</li>
    </ul>


    Für mich bedutet dies nun, dass mit diesem Getriebe der Backlash nicht mit einem simplen Eingabefeld im Treiber zu beheben ist.


    Ich bin gespannt wie andere (kommerzielle) Lösungen aussehen ?



    Hat schon jemand die Backlash-Korrektur in Abhängigkeit der OAZ-Belastung mit einer Meßuhr vermessen?

    Hallo liebe Leute!


    Ich habe leider erst jetzt Zeit, wieder etwas zu diesem Thema zu schreiben [:)]



    <font size="2"><b>Die mechanische Kopplung (Versuch 2 FINALE)[8D][8D][8D]</b></font id="size2">


    Nach dieser Ernüchterung ging ich erst mal in mich und ließ den Tag ausklingen.
    Meine Sternwarte ist 80 Km von meiner Wohnung entfernt, so dass ich nur an den Wochenenden an meinem Equipment arbeiten kann.
    Das ist zwar ärgerlich, aber dadurch bekomme ich zwangsweise auch etwas Abstand von der Misere [:)].


    Nach einigen Tagen und vielen verschiedenen Lösungsansätzen kam ich zum Schluss,
    dass der Riemenantrieb für den kleinen Pentax nicht geeignet ist.


    Der Fokusser-Antrieb des SDHF hat keine eigene Untersetzung und die Reduktion durch die Zahnriemenscheiben um einem Faktor 1:3,3 schien mir zu wenig.
    Außerdem ist die Lösung nicht selbsthemmend und mechanisch instabil.


    Ich entsann mich, dass ich in meiner Wühlkiste (leider 80 Km entfernt) noch ein Schneckenrad meiner Astro3 vom legendären Lidl-Scope haben müsste.



    Ich kürzte die Schnecke und machte eine 5 mm Bohrung mit einer Reibahle passend für die Motorwelle.
    Beim Schneckenrad entfernte ich die innere Presspassung und schnitt die Welle ab.
    Danach fertigte ich aus Messing eine neue Hülse mit einer 7 mm Bohrung, mangels passender Ahle leider nur mit einem Eisenbohrer.
    Durch den starken Kühlmitteleinsatz und der stufenweisen Bohrung ist die Passung wider Erwarten recht exakt geworden.



    Diese Lösung ist nun mechanisch stabil und durch den kleinen Modul und den Winkel der Welle des Schneckenradgetriebes auch selbsthemmend.
    Ich werde versuchsweise den Schrittmotor nach dem Fokussieren spannungslos machen und prüfen ob sich der Fokus verschiebt oder nicht.


    Als Alternative zum Schneckengetriebe der alten Astro3 Montierung könnten auch Getriebe von z.B. RS-Components oder anderen Anbietern verwendet werden.
    Allerdings sollte man bei diesen Komponenten darauf achten, ob die Selbsthemmung (u.a. Abhängig vom Steigungswinkel) vollständig gewährleistet ist.
    Ansonsten müsste sie mit dem Haltemoment des dauermagnetisierten Schritt-Motors realisiert werden.


    Spannend wird noch die Justage des Ascom-Treibers (min/max) werden, da durch das Übersetzungsverhältnis von 1:88 die Wege sehr lang sind [:)].

    So es geht weiter mit ein paar neuen Zeilen [:)]


    <font size="3"><b>Die mechanische Kopplung (Versuch 1)</b></font id="size3">
    Nun da die Elektronik und die Software fertig und getestet sind, wagte ich mich an die Montage und Verbindung des Schrittmotors an die Welle des Fokussierers meines kleinen Pentax.


    Nach einiger Recherche im Web stieß ich in einem Beitrag von „Adrian“ im stargazerslounge Forum auf eine Lösung mittels Riemenantrieb (Bild).


    Ich besorgte mir bei Conrad-Elektronik 2 Zahnriemenscheiben und einen dazu passenden Zahnriemen um rund € 25 .—

    Danke an dieser Stelle an Rudolf Reiser, der erklärt, wie man den Drehknopf von der Welle montieren kann.


    Da die Welle vom Pentax einen (exotischen) Durchmesser von 7 mm hat, musste ich die Zahnriemenscheibe auf 10 mm aufbohren und eine Messinghülse mit einem Innendurchmesser von 7 mm fertigen.


    Danach baute ich aus 5mm starkem Aluminium-Blech den Haltebügel mit einem Winkel von 45°.


    Da mir die Montage des Winkels in der Lösung von Adrian mit nur einer 6 mm Schraube zu filigran erschien, montierte ich eine zusätzliche Schraube (4 mm Senkkopf) mit einem Schlauchbinder, der zwischen einer Lage Hartgummi am Tubus fixiert wird.



    Leider musste ich feststellen, dass mein gewählter Motor größer als jener in Adrians Lösung war und der Riemen leider zu kurz ist.[:0]



    Daher disponierte ich kurzfristig um und machte im wahrsten Sinne des Wortes ein „Workaround“ :)



    Diese Lösung hat leider einige gravierende Nachteile, zum einen neigt diese Konstruktion zu Biegungen und Schwingungen und andererseits ist der zarte Zahnriemen wohl überfordert mit der Last der CCD mit Filterrad.
    Und das Untersetzungsverhältnis dürfte auch zu gering ausfallen, trotz Mikroschritt-Ansteuerung...


    Fortsetzung folgt (2. Versuch einer mechanischen Kopplung...) [:)]

    <b>Servus Igor!</b>


    Ich habe bei unbelasteter Welle gemessen.
    Um das Drehmoment zu testen, habe ich mit den Fingern die Welle umfasst, die Vibrationen blieben trotzdem gleich.
    Als ich den Stepper provisorisch an den Fokusierknopf montierte, machte ich mir etwas Sorgen um die Filter im Filterrad der CCD, so hat es 'gescheppert'[B)]



    <b>Servus Dirk!</b>
    Danke für den Link, auf Roberts Seite bin ich auch gestoßen, habe sie aber wohl falsch als "myFocuser" beschrieben. Das steht nämlich als Überschrift in seinem Video [:0]
    Mich hat als Einsteiger in die Arduino Welt die schiere Menge an Möglichkeiten dieses Projektes etwas abgeschreckt, mittlerweile denke ich, ist auch dieses bewältigbar.


    Ich werde bald (am nächsten Wochenende ist bei uns im Süden 'schwieriges' Astrowetter angesagt) ein 1st Light mit dem Fokusser machen.
    Dabei musss ich zuerst meine mechanische Lösung testen und danach schauen, wie die Software mit APT zusammenarbeitet...
    Dann werde ich entscheiden, ob ich Ivaldos Projekt weiter entwickle oder umsteige auf eine Alternative.


    Das ist ja das schöne an der Arduinoplattform - wenn die Hardware passt kann man leicht auf eine andere Software wechseln!

    <b><font size="3">Software und Ascom Treiber</font id="size3"></b>


    Ivaldo hat ein kleines Tool geschrieben, mit dem man den Fokussierer via USB mit dem PC steuern kann.


    Die Bedienungselemente sind zwar in Italienisch beschrieben, allerdings sind die Buttons und Felder (beinahe) selbsterklärend.



    Mit (1) öffnet man den Ascom-Treiber und wählt den richtigen Fokusser aus.
    Hier wurden schon beide unabhängigen Treiber (2+3) installiert.




    Nach einem Click auf die „Properties“ muss noch der richtige serielle Port ausgewählt werden




    Mit „Disconnetti“ (1) kann die Verbindung zum Fokusser wieder getrennt werden.
    „TC“ (2) aktiviert die automatische Temperaturkompensation (mehr dazu weiter unten)


    Mit den Pfeiltasten und dem vorgewählten Wert (3) kann der Fokusser verstellt werden.
    Mit dem Wert oberhalb und der Taste „Vai“ kann der Fokusser auf eine absolute Position gefahren werden.




    Nach einem Druck auf „Impostazioni“ öffnet sich ein Einstellungs-Fenster.


    „Step Size“ (1) ist die Länge eines einzelnen Motor-Schrittes gemessen in Mikrometern.
    Einige Programme (wie z.B. FocusMax) benötigen diesen Wert für interne Kalkulationen.


    Um diesen zu errechnen, empfiehlt Ivaldo, sich die aktuelle Position des Fokussierers zu notieren (z.B. 13584) und danach möglichst exakt 10mm zu verfahren (Richtung ist egal).
    Idealerweise vermisst man den Weg mit einer Messuhr und notiert diesen Wert ebenfalls.
    Die Differenz der beiden Werte geteilt durch 1000 ergibt den „Step Size“ Wert.
    Nach dem Ascom-Standard sind nur ganzzahlige (=gerundete) Werte gültig!


    Der „T Coefficient“ (2) entspricht der Länge des zu verfahrenden Weges in Schritten bei einer Temperaturänderung um 1°C.
    Dieser Wert muss ebenfalls gerundet sein.
    Ivaldo beschreibt dies in einem kleinen Beispiel: Bei 17 °C sei die aktuelle Position 12478 Schritte und bei 13 °C 11529 Schritte.
    Der daraus resultierende „T Coefficient“ ist gerundet 237 Schritte. Gerechnet wird nach folgender Formel:

    Diese Messung kann einmalig zum Beispiel bei einer Vollmondnacht durchgeführt werden.
    Ähnlich arbeitet Bernhard Hubl der diesen Koeffizienten über die Kühlleistung seiner CCD-Kamera interpoliert, vgl. Interstellarum 92, Seite 48ff im Artikel „Jede Belichtungsminute nutzen“.


    Mit „Set Min“ und „Set Max“ werden die Grenzen des Verfahrweges des Fokussers eingestellt.
    Achtung! Der Nullpunkt bezieht sich immer auf das eingefahrene Auszugsrohr. (Ggf. die Motor-Drehrichtung ändern)


    Mit (5) werden die Grenzen angefahren mit (3+4) gespeichert.



    <b><font size="3">Eigenheiten des Schrittmotors</font id="size3"></b>
    Ich machte einige Tests mit Ivaldos Programm und angeschlossenem Motor.
    Dabei fiel mir auf, dass der Motor bei schnellen Bewegungen sehr stark zu vibrieren begann.


    Als ich alle Ansteuerungsvarianten im Programm von „Single“ und „Interleave“ auf „Microstep“ änderte, verschwanden die Vibrationen komplett. Allerdings reduzierte sich dabei natürlich auch die Drehgeschwindigkeit und ebenso das Drehmoment des Motors.


    Mit einer angepassten Variante des Steppermotor Demoprojektes der Arduino IDE vermaß ich die mit meinen Schrittmotor maximale erreichbare Geschwindigkeit.
    Die Vibrationen waren auch im Demoprojekt vorhanden, wenn nicht im Microstep-Betrieb gearbeitet wurde.
    Heraus kam dabei eine recht interessante Kurve.

    Da im Mikroschritt-Betrieb eine Geschwindigkeitsänderung mit freiem Auge sehr schwer erkennbar ist, stoppte ich die Zeit einer 360° Umdrehung des Wellenstummels.
    Bemerkenswert ist auch, dass ein setSpeed () Wert von „1“ einer Zeit entspricht, die eigentlich mit einem setSpeed() von „8“ erreicht wird!
    Somit ist die langsamste zu erreichende Geschwindigkeit mit setSpeed(2) zu realisieren.


    Der maximale setSpeed() Wert für meinen Schrittmotor ist „64“.



    Nach dem der Trockentest erfolgreich war, kommt nun die Hochzeit zwischen Fokussierer und Getriebe [:D]






    Fortsetzung (Die mechanische Kopplung - Versuch 1) folgt...

    Servus Gerrit!


    Wie schon oben geschrieben, habe ich auf meine alte Webseite verwiesen (wo ich die Links gesetzt habe), <s>da die Forensoftware die komplexeren Links leider verstümmelt.</s>


    Allerdings habe ich es jetzt noch einmal versucht, und plötzlich funktionieren die Links [:0]


    Arduino Uno Clone (mein originaler Arduino war leider defekt) (Amazon.de)


    Adafruit Motorshield V2.3 (Amazon.de)


    Temperatursensor I²C MCP9808 (Amazon.de)


    Gehäuse für Arduino (Amazon.de)


    Schrittmotor PSM42BYGHW603 1,8° (12V) (Neuhold Elektronik in Österreich)



    Das Netzgerät hatte ich schon zu Hause, ebenso die Taster und die Box.

    Da hier bei uns im Süden Österreichs seit vielen Wochen sehr schlechte Wetterbedingungen herrschen, habe ich mich an ein Projekt gemacht, dass mir schon sehr lange am Herzen liegt.


    Ich betreibe neben dem Newton auf einer EQ-8 parallel auch einen kleinen Pentax SDHF75 Refraktor auf einer EQ-3.
    Seit ich diesen mit einer CCD Kamera, anstatt der EOS ausgestattet habe, ist das Scharfstellen zu einem echten Abenteuer geworden.
    Die Kamera ist sehr schwer und durch das externe Filterrad ist der Zugang zu den Stellschrauben kompliziert und der Okularauszug hat keine Untersetzung.


    Für den Pentax gibt es am Markt keine fertige Motorfokus Lösung, so suchte ich nach einer Selbstbau-Lösung.


    Gefunden habe ich jene von Ivaldo Cervini, einem italienischen Amateurastronomen, der wie ich finde, eine sehr gute und zugleich einfach nachzubauende Lösung präsentiert.


    Ich werde meine Baufortschritte hier Schritt für Schritt vorstellen, im Moment stecke ich noch bei der Mechanik etwas fest.



    Wer möchte, kann parallel dazu auch auf meiner alten Homepage (http://www.a2p.at/Astronomie/StepperFoc_Pentax.html) den etwas detaillierteren Bericht mit größeren Bildern lesen…




    <font size="3"><b>Auswahl der Software und Hardware-Plattform</b></font id="size3">
    Hier entschied ich mich recht schnell für die Arduino Platinen, da diese sehr günstig und auch für Einsteiger einfach zu programmieren sind.


    Bei der Software gibt es eine Unzahl an Projekten, die sehr unterschiedlich sind.


    In der näheren Auswahl standen unter anderem folgende:


    <ul><li>AstroFocus</li>
    <li>ArduinoFocus</li>
    <li>myFocuser</li>
    <li>SGL Ascom Motor Focus Control</li>
    <li>Arduino based motor focus controller</li>
    </ul>

    Ich entschied mich für das AstroFocus Projekt von Ivaldo aus mehreren Gründen:


    + optimal zum Einstieg, viele andere Projekte sind zu überladen und zu komplex


    + einfach und mit Standardelementen (Adafruit Motorshield, Adafruit Temperatursensor, …)


    + Temperaturkompensation


    + bietet 2 Ascom Treiber für den dualen Betrieb an (Danke noch einmal Ivaldo)


    - Webseite nur in Italienisch verfügbar (ist aber dank google translate kein Problem)



    Ivaldo beschreibt auf seiner Webseite sehr genau den Aufbau seines Fokussers, die Bilder das Video und die Tabellen sind dabei sehr hilfreich.
    Es existieren auf seiner Webseite 3 Variationen seines AstroFocusers, die unterschiedliche Motorplatinen unterstützen (Arduino Motorshield und Adafruit Motorshield v2).
    Eine Variante (AstroFocus3) besitzt statt der Steuertasten einen Endschalter zum Setzten des Nullpunktes, das ist für nichtstationäre Astronomen sehr hilfreich.




    <font size="3"><b>Arduino Hardware</b></font id="size3">
    Der Zusammenbau der Komponenten gestaltete sich recht einfach.


    Folgende Geräte habe ich verwendet:


    <ul><li>Arduino Uno Clone (mein originaler Arduino war leider defekt) ~ € 13.—</li>
    <li>Adafruit Motorshield ~ € 30.—</li>
    <li>Temperatursensor I²C MCP9808 ~ € 8.—</li>
    <li>Gehäuse für Arduino ~ € 13.—</li>
    <li>Netzgerät für den Arduino 12VDC/ 1,5A ~ € 15.—</li>
    <li>Taster & Gehäuse für Handbedienung ~ € 15.—</li>
    <li>Schrittmotor PSM42BYGHW603 1,8° (12V) ~€ 16.—</li>
    </ul><i>Die Links zu Bezugsquellen befinden sich auf meiner Homepage, da die Forensoftware komplexe Links leider nicht darstellen kann.</i>



    Wichtig ist beim Schrittmotor neben dem Drehmoment (0,38 Nm) auch die Spannung, da ich die Spulen immer bestromt lasse.
    Damit ist ein Haltemoment gegeben, das verhindert, dass sich der Fokusser während des Fotografierens bewegt. Versuche mit einem kleineren Motor (6V) führten zu einer starken Überhitzung.


    Die Materialkosten betrugen rund € 110 .— zuzüglich der Kosten für die mechanische Ankopplung, dazu aber später mehr.



    Arduino Uno, Motorshield und Temperatursensor, wobei hier noch ein wenig Lötarbeit zu machen ist.
    (Ansonsten werden die Platinen bis auf die Pfostenstecker fertig aufgebaut geliefert.)



    Temperaturfühler, Schrittmotor, Arduino im Gehäuse und Handsteuerbox fertig aufgebaut.




    Fortsetzung (Software und Ascom Treiber) folgt...

    Hallo Frank!



    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: frasax</i>
    (..)
    Das was im L Kanal vorhanden ist, sollte sich auch im RGB Kanal wieder finden. Hast du ein sehr starkes Ha Signa in der Luminanz, jedoch die gleiche Information nicht im RGB Layer, dann wirst du im besten Falle sehr ausgewaschene Farben bekommen, im schlechtesten Fall wird das Gebiet im fertigen Farbbild grau sein.
    (..)
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Ich bin hier ganz bei Dir, das entspricht auch meinem Verständnis von einem LRGB Bild.
    Darum war ich durchaus erstaunt, dass viele Nebelbereiche, die nur in der Ha-Luminanz vorhanden sind,
    eine (wenn auch rot/bräunliche) Farbe bekamen. Ich schließe daraus, dass im RGB Bild noch zarte Farbinformationen
    vorhanden sein müssen (sofern mein Hintergrund neutral ist?). Ich habe das jetzt nicht nachgemessen...


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: frasax</i>
    (..)
    Darum mein Rat, wie schon oben geschrieben: Bastel ein RGB(ha) - R(ha)GB. Also eine künstliche Luminanz aus den RGB Kanälen, mit vorsichtig dazu gemischtem Ha Anteil, und darüber das RGB mit Ha in den Rotkanal gemischt.
    (..)
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Ich habe aus meinem RGB Summenbild und dem Ha Bild versucht, Deinem Rat gemäß, ein neues Bild zu machen.


    Dazu muß ich aber sagen, dass ich keine exakten Prozesse verwendete, sondern nur die gröbsten Schritte ausführte,
    um eine Ahnung vom Ergebnis zu bekommen.



    Verwendet wurden die beiden nicht-linearen Ausgangsbilder (Ha und RGB-Summe):
    Ich extrahierte nun R,G,B, aus dem Summenbild und machte daraus mit Hilfe von ImageIntegration ein künstliches Flat.
    Danach mischte ich mit L*0.5+Ha*0.5 ein (nicht so zartes) neues Luminanzbild, das aber etwas 'stumpf' wirkte.
    Mit R*0.5+Ha*0.5 entstand der neue Rotkanal.
    (Andere Werte in PixelMath löschten das Ha Signal zu stark aus...)
    Mit LRGBCombination erzeugte ich ein neues Summenbild aus Ha_L + R_Ha + G +B


    Ich vermute einmal, dass ich bei dieser husch pfusch Aktion vieles falsch machte, aber denke schon,
    dass man ungefähr erahnen dürfte, wie das korrekte Endbild einmal aussehen könnte.


    Mir hat es nun wieder zu wenig Struktur = die feinsten Nebelteile sind auf Kosten der Farbe (und/oder meinem Unvermögen) verschwunden.


    Das Summenbild hat meiner Meinung nach einen zu hohen Schwarzwert/Kontrast und die Luminanz ist auch zu kräftig.
    Ich verstärkte auch keine Strukturen. Dies erschien mir hier als passend.
    Du siehst schon, sobald wir im RGB-Bereich sind, ist mir meine Bearbeitung schon zu stark [:)].
    Wenn aber der alles dominierende Ha Anteil ins Spiel kommt, möchte ich die Strukturen auch sehen, denn sie sind ja auch da...



    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: frasax</i>
    (..)
    Wie du richtig vermutest, liegt das daran, das die Autoren ihre Aufnahmen farbkalibrieren. Dazu braucht man aber nicht zwingend Theli. Auf einfache Art und Weise macht das auch schon PixInsight, REGIM, und etwas anspruchsvoller die Software Excalibrator. Das alles hilft aber auch nicht gegen ausgewaschene Farben:-)
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Danke für den Tipp mit PI, ich wusste nicht, dass es diese Funktion auch dort gibt. [:)]

    Servus Tino!
    Im Moment herrscht ja eine kleine 'M87-Jet Renaissance' hier im Astrotreff!


    Deine Aufnahmen und auch die Aufbereitung gefallen mir sehr gut (Obwohl ich Deine Erklärung zu den Bilddaten nicht ganz verstehe - das dürfte aber an Deiner speziellen Kamera liegen ?)

    Servus Tobias!


    Ein sehr Stimmige und schön herausgearbeitete Weitfeld-Aufnahme zeigst Du uns hier.


    Genau nach meinem Geschmak, in der großen Weite kann man die vielen Hintergundgalaxien mit dem Auge abfahren [:)]

    Servus Robert, Marcus & Frank!


    Vielen Dank für Eure Anmerkungen!


    (==&gt;)<b>Robert</b>
    Zu den Farben möchte ich mich unten noch ausführlicher äußern...


    (==&gt;)<b>Marcus</b>
    Das ist ein interessanter Einwurf, mir persönlich war die schnell
    zusammen geschusterte PS Variante zu knallig und 'amerikanisch' wenn ich das so sagen darf.


    Ich versuchte in der PI Variante möglichst viel Struktur herauszuarbeiten,
    ohne gleich mit der Faust aufs Aug' zu hauen (ist aber Ansichtssache;-)).
    Daher reduzierte ich auch die Sterne etwas, um dem Nebel mehr 'Raum' zu geben,
    wobei die großen Sterne durchaus Präsenz zeigen, wie ich finde.


    (==&gt;)<b>Frank</b>
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ich habe versucht dein Bild nicht einfach ab zu kanzeln , sondern die Kritik möglichst konstruktiv zu halten. Ich hoffe du respektierst das.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Lieber Frank, ich respektiere Deine Kritik sehr gerne, und gebe mir wirklich Mühe,
    ebenfalls eine gut durchdachte Argumentationslinie aufzubauen.
    Das trainiert den Umgang mit der Materie (sic!) und schärft gleichzeitig meine Sinne (ganz zu schweigen vom Lerneffekt)...


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">War es denn deine Idee eine Falschfarbenaufnahme zu machen oder eine RGB Aufnahme? Du wolltest doch ein RGB machen mit gepushtem Ha Anteil oder nicht? <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Ehrlich gesagt (nachdem du dezitiert nachfragst, muß ich meine Gedanken nun ausformulieren, was gut ist)
    wollte ich einen Hybriden produzieren, d.h eine Mischung aus Schmalband und RGB.


    Daher immer schon der Hinweis, dass mir Struktur (mit dem Ha Bild als falsche Luminanz, da es die meisten Informationen besitzt) im Bild das wichtigste ist.


    Klar ist, dass es zu einer Farbverschiebung aufgrund des Fake-L kommt, diese Erkenntniss habe ich schon im
    Nachbarforum (astronomieforum.at)dargestellt. (Falls Du einen Account hast, magst Du hier nachlesen:
    PixInsight vs. Photoshop 0:1 (5. Post)
    Dort habe ich mit verschiedenen Grautönen (für mich) versucht zu erklären, wie sich die Farbverschiebung eines RGB Bildes verhält.
    In jedem Fall gibt es eine Verschiebung, aber alle Farben bleiben innerhalb des eigenen Spektrums. (Blau - Blau, Grün - Grün, usw...)
    Allerdings ändern sich die HSL Komponenten der Farben zum Teil sehr stark.


    Ich stelle nun mal die Behauptung auf, dass auch bei der klassischen RGB-Ausarbeitung keine 2 Bildautoren die
    exakt gleichen Farben erreichen sondern durchaus signifikante unterschiede in Farbton, Helligkeit und Sättigung zu finden sind.
    Es gibt in der gesamten Verarbeitungskette unterschiedliche Belichtungszeiten, Bildformate, Kamerachips, kalibrierte und unkalibrierte
    Bildschirme, Fehlsichtigkeiten der Bearbeiter, und persönliche Vorlieben.


    Abhilfe schaffen wohl nur Programme wie Theli mit Astrometrie/Photometrie Funktion, das ist mir aber ehrlich gesagt (noch) zu anspruchsvoll...



    Ich stimme Dir aber zu, dass alle RGB Bilder sich farblich sehr nahe sind und meines sehr weit außen im Spektrum des Möglichen liegt.



    Wie gesagt, für mich war mein Bild immer ein Hybrid, ich weiß nicht ob dies eine gängige Variante ist
    (Ich vermeide absichtlich das Wort 'zulässig').
    Tatsache ist aber, dass das Bild mehr und echte Information als ein RGB Bild besitzt.
    Und das die Farbe (die ja immer als Hilfsmittel zum Unterscheiden von Informationen gilt) unterschiedliche Bereiche des Nebels kennzeichnet.


    Ich sehe nun aber auch, dass viele Betrachter dieses nahe am Original und doch Falsch(e-Farbe) sehr irritiert.
    Trozdem sehe ich für meinen Hybriden Platz (wenn auch nur als Minderheitenprogramm) [:)]

    Hallo Frank!
    Jetzt wird es interessant [:)]


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: frasax</i>
    (..)
    Mir geht es aber um die anderen Sätze die du und Reinhold geschrieben haben, und die so klingen, als dürfte man selbstverständlich von der Norm abweichen um es dann mit "Kunst" zu rechtfertigen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Nun, ich sehe mich in der Astrofotografie nicht als Künstler, aber das Bildermachen ist immer Interpretations-Sache. Sowohl was Inhalt, Form und Farbe betrifft.


    Zur "Norm" komme ich noch später.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: frasax</i>
    Und das ist eben falsch, denn die Astrofotografie ist keine Kunstform, sondern in erster Linie mal dazu da, zu dokumentieren. Und Astronomie ist eine Wissenschaft und keine Kunstform!
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Das ist ein sehr interessanter Ansatz, ich bin nicht so vermessen zu glauben, dass ich wissenschaftliche Arbeit leiste, sondern sehe mich als interessierten Menschen mit Fotoapparat.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: frasax</i>
    Ausserdem mag ich diesbezüglich immer wieder gerne den Satz: Kunst kommt von können und nicht von wollen. Sonst hiesse es Wunst:-)
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Dazu schreibe ich jetzt mal besser nichts...


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: frasax</i>
    Nun mal was zum Bild selber: Du schreibst, du hättest im Netz keine HaRGB Aufnahmen gefunden. Warum ist das so? Dieser Nebel hat einen gehörigen Anteil blauen Reflexionsnebels. Diesen kann man aber nicht mit einem sehr schmalen Rotfilter aufnehmen! Ha als Luminanz zu wählen war hier einfach falsch. Um das zu retten bleibt dir noch der Weg einen künstlichen Luminanzkanal aus den drei RGB Kanälen zu erstellen, und dort sehr vorsichtig den Ha Kanal ein zu mischen. Dann mischst du Ha noch zum Rotkanal dazu, und dann solltest du ein einigermassen farblich stimmendes Bild bekommen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Wer hat diese schon oben beschriebene "Norm" gemacht?


    Es gibt sehr viele Varianten, wie Kanäle gemischt werden, Ha+OIII+OIII, Ha+OII+SII, HaRGB, selbst RB mit künstlichem Grün, oder RG mit künstlichem Blau, usw...


    Viele der Schmalbandaufnahmen sind Falschfarbendarstellungen, das ist erlaubt und normgegecht?
    Es geht hier wohl vielmehr um die Darstellung von Informationen und die Zuweisung dieser auf menschliche Sichtweisen.
    Diese Vereinbarungen heißen dann 'Hubble Palette', 'Canada France Hawaii Telescope Palette' usw...
    Kein Mensch mit einem "Norm"augenlicht würde die so dargestellten Objekte in Wirklichkeit (schnelles Raumschiff vorausgesetzt) so sehen können.


    Tatsache ist, ich könnte den Nebel mit (L)RGB aufnehmen, ich könnte auch Ha, OIII, und SII Aufnahmen machen. Und ich kann sie vermischen.
    Das Ha Bild besitzt mit Abstand die meisten Informationen, daher habe ich dieses als L-Kanal gewählt.
    Die Farbinformationen kommen ausschließlich vom RGB, logisch.
    Die braunen Molekülwolken sind beinahe ausschließlich im Ha zu sehen und - sie sind da!.


    Kannst Du mir bitte sagen, wo in meinem Bild der blaue Anteil im Reflexionsnebel fehlt, bzw. wo die Farben falsch sind?

    Servus Frank!


    Keiner vergleicht sich hier mit Helmut Newton es geht um folgendes Zitat
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Helmut Newton im Restaurant:
    Der Koch: "Ihre Fotos gefallen mir, Sie haben bestimmt eine gute Kamera."
    Newton nach dem Essen: "Das Essen war vorzüglich - Sie haben bestimmt gute Töpfe." <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich habe mir heute bezüglich der Werkzeuge viele Gedanken gemacht und wollte wirklich wissen, wie mein Bild im alten Workflow ausgesehen hätte.
    Ich nahm als Grundlage die kalibrierten, gestackten aber nicht gestreckten Ha, R, G, B Summenbilder von PixinSight.


    Ich setzte mich zum Rechner und machte eine schnelle quick & dirty Bearbeitung, d.h ich feilte nicht an Masken und am Rest -
    nach rund 2 Stunden kam folgendes Bild heraus:


    Klar, das Bild ist nicht identisch mit der PI-Variante, aber die Farben und Strukturen sind ebenso vorhanden.
    Wobei ich bei der PS Version es mit der ROT-Luminanz wohl etwas übertrieben habe...




    Nun noch der Workflow in kleingerechneten Übersichtsbildern:
    --&gt;
    --&gt;
    --&gt;
    --&gt;
    --&gt;

    Hallo Leute!


    Danke für Eure Anmerkungen.


    Bevor das ganze jetzt zu eskalieren beginnt, werde ich kurz meine (für mich offensichtliche) Intention erklären, mich aber nicht dafür rechtfertigen!


    Bevor ich mit einer Bildbearbeitung beginne, schaue ich im Web nach Referenzaufnahmen, z.B. in diesem Fall bei Robert Gendler oder auf Astrobin und hier im Forum.
    Bemerkenswert bei vielen RGB Aufnahmen waren die starken Rotanteile und auch die ausgeprägten Blauanteile im Nebel.
    HaRGB Bilder fand ich keine, aber einige Schmalband-Varianten.


    Mein Ziel war es nun, möglichst viele Nebeldetails zu erfassen und gleichzeitig die ausgeprägten RGB Farben zu erhalten.
    Mir persönlich gefällt bei einer Nebelaufnahme mehr die Darstellung von Struktur als von Fläche.



    Das man das Ergebnis einer Bild-Bearbeitung an einer Software festmachen kann, ist mir neu und unverständlich.
    Wenn ich ein Ziel vor Augen habe, ist das Werkzeug egal (wie auch Helmut Newton schon feststellte, danke Reinhold).



    Wenn jemand schreibt, mein Bild gefällt ihm nicht, nehme ich das sehr gerne zu Kenntnis, ich finde, in der Fotografie (wie auch in der gesamten darstellenden Kunst) ist der persönliche Geschmack ausschlaggebend.


    Wenn ich aber das Gefühl habe, jemand kritisiert mein Ergebnis, nur weil es bestimmten (genormten?) Sehgewohnheiten nicht entspricht, kann ich damit gar nichts anfangen.



    Zu Thema HD(R):
    In meinem Bild steckt die komplette Information im Ha, das ich daher sehr lange belichtet habe. Ich nahm das gestreckte Summenbild und erhöhte den Kontrast so weit, bis ich im Nebel genug Details feststellen konnte.
    Das hat jetzt nichts mit HDR zu tun, ich verrechnete keine Belichtungsreihen im Ha-Kanal.
    Viele Astrofotografen haben das Ziel, möglichst tiefe Aufnahmen zu erzeugen, so auch ich.
    Das in diesen langbelichteten Aufnahmen mehr Details stecken, ist offensichtlich.
    Das kann man mit Planetenaufnahmen vergleichen, wo im verwaschenen Summenbild auch jede Menge Informationen stecken.
    Diese Aufnahmen erlauben nun auch eine viel stärkere und verlustfreie Kontrasterhöhung, als kurzbelichtete Bilder.

    Servus Reinhold!


    Dein M13 ist (vor allem in dieser Größe) wirklich beeindruckend!


    Ich versuche ebenfalls immer nach Gefühl die Farben abzustimmen,
    das ist wirklich eine sehr persönliche Sache, jeder hat andere Präferenzen...
    (Ich pers. hätte maximal den Vordergrundstern links etwas abgeschwächt,
    der lenkt etwas von der Hauptattraktion ab, aber wie gesagt, das ist Geschmackssache...)



    Was ist eigentlich NAFE? Ich habe nach einer Suche nur die 'National Academy of Forensic Engineers' gefunden [:D]

    Servus Gerald!


    Mir gefallen die 'Standardobjekte' auch sehr!


    Deine M101 hat wirklich eine beeindruckende Tiefe, vor allem im 1600px Bild wird man richtig hineingezogen.
    Die Berabeitung ist Dir wirklich gelungen!