Ein selbstgebauter Autoguider

  • Hallo alle miteinander,


    > der Erbauer des Autoguides war Werner Hanelt von der GvA.


    Ich habe mal in uralten Unterlagen gesucht und tatsächlich ein paar Notizen gefunden, die ich mir damals beim Vortrag von Werner Hanelt gemacht hatte:


    -- Als OP wurde der CA3420 von RCA empfohlen.
    -- Betriebsspannung 5V
    -- Die Gegenkopplungs-Widerstände haben 1 TOhm = 1e12 Ohm.
    -- Der Signalpegel ist proportional zu R, aber der Rauschpegel ist proportional zu Wurzel(R).
    -- Die Zeitkonstante t=RC ist ungefähr 1 sec, mit R=1e12 und C=1e-12.
    -- effektive Brennweite 10-20m
    -- Erreichbare Grenzgrösse 4...9 mag
    -- Die 4-Quadranten Photodiode muss eine gemeinsame Kathode haben.
    -- Jeweils zwei gegenüberliegende Dioden werden von einem OP ausgewertet.


    Gruss
    Michael

  • Hallo Michael,
    danke für die Infos, das gibt doch schon mal ein paar konkrete Hinweise.
    Als Off-Axis-System scheint das sich jedenfalls nicht so gut zu eignen. Und ein Lidl-Scope mit 5x Barlow wird demnach auch nicht genügen.
    Für den CA3420 habe ich zwar problemlos ein Datenblatt gefunden, nur haben die "normalen" Elektronik-Versender das Teil nicht im Programm, vielleicht gibt es den auch gar nicht mehr zu kaufen.
    Ich muß mal bei meinen Arbeitskollegen schauen, ob es auch 4Q-APDs gibt. Deren Beschaltung ist zwar vielleicht auch nicht einfacher, aber sie dürften empfindlicher sein.


    Lieber ist mit natürlich so ein Teil mit CCD-Sensor wie vom Martin Raabe hier vorgestellt.


    Gruß,
    Martin

  • Hallo Martin,


    > Für den CA3420 habe ich zwar problemlos ein Datenblatt gefunden, nur haben die "normalen" Elektronik-Versender das Teil nicht im Programm, vielleicht gibt es den auch gar nicht mehr zu kaufen.


    Es dürfte inzwischen bessere geben. Entscheidend ist niedriger Offset-Strom und geringe Temperatur-Drift.


    Ein Problem ist auch die Beschaffung von 1TOhm Widerständen. Ich kann mich (sehr dunkel) daran erinnern dass Werner Hanelt die selber gemacht hatte, indem er bei 10 oder 100 GOhm Widerständen die Schicht mit Polierrot noch dünner poliert hat.


    > Lieber ist mit natürlich so ein Teil mit CCD-Sensor wie vom Martin Raabe hier vorgestellt.


    Das hat zweifellos grosse Vorteile.


    Gruss
    Michael


    P.S. CA3420 gibt's bei Reichelt.

  • Moin,


    Moin,


    den Hanelt kannte ich auch, macht so glaube ich momentan nicht mehr so viel Astro.


    Er hat im Sternkieker, der Zeitung der GvA in Hamburg, mal einen mindestens zweiteiligen Bericht verfasst, ich glaube in den 80ern.


    Inklusive Schalt- und Bestückungsplänen.


    Zur Verwendung als Detektor kam übrigens keine 4Q-Diode, sondern eine mit nur drei Flächen. Er entwickelte daraus eine "Kantenlauf-Steuerung".


    In RA wurde die Nachführgeschwindigkeit etwas schneller eingestellt, so daß der Stern permanent in einer Richtung abwich und damit gegen eine Kante des Photoelements lief. In Dek befand sich der Leitstern zwischen den Elementen.


    Die einzelnen Photoelemente waren sozusagen in T-Anordnung ausgerichtet.


    Der hat sich da wirklich was tolles einfallen lassen, der Werner Hanelt.


    Übrigens wurde damit sein 30cm/f4 Wright-Väisäla nachgeführt und zwar mit einem parallel montierten C8. Er erreichte damit Leitsterne mit ca. 8mag.

  • Hi,


    > Er hat im Sternkieker, der Zeitung der GvA in Hamburg, mal einen mindestens zweiteiligen Bericht verfasst, ich glaube in den 80ern.
    Inklusive Schalt- und Bestückungsplänen.


    Hat jemand diesen Bericht? Würde mich sehr interessieren.


    Gruss
    Michael

  • Hallo Martin,


    Glückwunsch zu Deinem Projekt! Ich benutze ja seit Jahren einen sehr ähnlichen Autoguider, den Pictor 201XT. Deshalb kurz folgende Anmerkungen:
    1) Bei uns wurde die Produktion mangels Nachfrage eingestellt. Verlass Dich also besser nicht darauf, daß Du bei eigener Fertigung bzw. Selbstbausatz Deinen Arbeitseinsatz wieder hereinbekommst. Allerdings waren die Pictor 201/208/216 ihrer Zeit voraus. Damals konnte fast niemand was mit einer Kalibration anfangen. Heute gibt es durch die Webcams sehr viel mehr Autoguidingerfahrung im Markt.
    2) Ein Guider ohne Display verzeiht kein unsystematisches Arbeiten. Daran sind damals viele gescheitert. Außerdem gibt es Schwierigkeiten, wenn zwei Sterne ähnlicher Helligkeit im Gesichtsfeld sind (die man ja dann leider nicht sehen kann). Mit etwas Pech wird während der Kalibration erst auf den einen, dann auf den anderen Stern gemessen, das ergibt Chaos bei der Nachführung (oder Doppelbilder).
    3) Bei der Verwendung an einfachen Optiksystemen im Off-Axis Guider wird der Stern durch das Koma verschmiert. Das reduziert die Grenzgröße drastisch. Die Verwendung von Leitrohren bei langen Brennweiten ist ja zu Recht umstritten.
    4) Überlege Dir genau, was für einen Aufwand Du treiben willst. Da es ja schon solche Guider gibt, kannst Du sicher nichts mehr schützen lassen. Und sobald Du damit einen Euro verdienst, z.B. indem Du Deine Software zum Selbstbausatz verkaufst, musst Du dem Finanzamt alles belegen, das nervt und kostet Zeit.


    Fazit: Hab Spaß mit Deinem Autoguider, aber mach erst was für andere, wenn Du eine Anzahl X fest vorbestellter und vorbezahlter Kameras verbuchen kannst. Ich bin mit sowas mal fast ruiniert worden, in meiner Studentenzeit. Seitdem halte ich mich da zurück.


    Clear skies


    Tassilo

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: mkoch</i>
    <br />Hi,


    &gt; Er hat im Sternkieker, der Zeitung der GvA in Hamburg, mal einen mindestens zweiteiligen Bericht verfasst, ich glaube in den 80ern.
    Inklusive Schalt- und Bestückungsplänen.


    Hat jemand diesen Bericht? Würde mich sehr interessieren.


    Gruss
    Michael


    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich hab den wohl noch. Aber das dauert ein wenig, bis ich den finde.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Übrigens wurde damit sein 30cm/f4 Wright-Väisäla nachgeführt und zwar mit einem parallel montierten C8. Er erreichte damit Leitsterne mit ca. 8mag.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ein C8? Soweit ich mich erinnere (ich war mal bei ihm zu Besuch), machte er sich selbst einen 8" f/2 (!!) Parabolspiegel, dessen Bild er mit einem Mikroskop nachvergrößerte. Allerdings weiß ich nicht, wie lange er welcghe Kombination im Einsatz hatte. Nur, daß er sich selbst eine Hypersensibilisierungsanlage mit Propan baute, ist mir noch in Erinnerung.


    Gruß


    ullrich

  • Hallo Martin,


    Ich möchte dir zu diesem gelungenen Projekt gratulieren.
    Als Elektronikentwickler kann ich mir nur zu gut vorstellen
    wieviel Mannstunden in dieses Projekt geflossen sind.
    Respekt!!!


    Bei der kommerziellen Vermarktung bin ich mir nicht ganz sicher, anbei paar Gedanken von mir:
    Der Markt ist natürlich lediglich auf DSLR User beschränkt, CCD-User
    haben sowieso bereits ein Notebook mit.
    Wie hoch wäre der finanzielle Nutzen für einen User gegenüber Billigsdorfer Notebook-Webcam Lösung? Ein Notebook das den Ansprüchen
    des Guidings genügt wird einem bei ebay ja förmlich aufgedrängt.
    Selbst wenn der Standalone Guider gleich günstig wie die Notebook-Webcam Lösung wäre, welche Lösung ist flexibler?
    Die Webcam kann ich praktisch bis zum Absurden aufrüsten.
    Ich sehe sofort am TFT (ich rede jetzt nur von Guidemaster) wie es um mein Guiding steht und muß keine Zahlen interpretieren.


    Ich habe hier bewußt nur die negativen Dinge aufgezählt um hier bißchen
    den Gegenpol in der euphorischen Diskussion zu spielen.
    Verstehe mich nicht falsch, dein Projekt ist wirklich gelugen und schön ausgeführt und hat auch einige Vorteile gegenüber anderen Lösungen :)


    lg,
    Michael

  • Hi Tassilo,


    du wirfst einige sehr bedenkenswerte Fragen auf!


    Demnach hat sich also z.B. der Pictor 201 nicht durchsetzen können, da die erforderlichen Kalibirierschritte für den durchschnittlichen Anwender zu wenig verständlich bzw. nachvollziehbar sind bzw. damals waren. Ohne ein Display zur Kontrolle merkt der weniger sorgfältig arbeitende Benutzer nicht wenn was schiefgeht, und mangels Verständnis für die internen Abläufe kann er die Fehlerursache nicht abstellen.


    Da ist sicher was dran. Wenn man so ein Teil selbst gebaut und programmiert hat, führt man gewissermaßen während der Nutzung das Programm selbst ständig im Kopf aus. D.h. man kann sieht die Zusammenhänge des Geräteverhaltens mit den internen Abläufen, und kann interpretieren warum was passiert oder warum nicht.


    Vielleicht ist also die Bedienung für einen unerfahrenen Nutzer doch nicht so einfach wie ich glaube...


    Das Thema mit den zwei Sternen im Bild läßt sich lösen. Bei meinem alten oben verlinkten Windows-Guiderprogramm hatte ich sowas wie eine "Software-Vignettierung" eingebaut: Sternhelligkeiten werden zur Bildmitte hin stärker gewichtet. Beim Stand-alone Gerät geht das nicht so einfach aus Rechenzeitgründen (höchstens zeilenbezogen), aber mit verkleinertem Suchbereich im eingeschwungenen Zustand kann man den Algorithmus auch hier auf einen bestimmten Stern fixieren.



    Die Reduzierung der Grenzgröße durch Koma hab ich bei jedem Kamerasystem, und vermutlich ja auch bei visueller Nachführung. Sofern der Komafleck hell genug ist, sollte die komatöse Form kein Problem sein. Ich persönlich ziehe ein Leitrohr vor, natürlich mit anständiger mechanischer Verbindung zur Aufnahmeoptik.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Überlege Dir genau, was für einen Aufwand Du treiben willst. Da es ja schon solche Guider gibt, kannst Du sicher nichts mehr schützen lassen.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Sehe ich auch so.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Und sobald Du damit einen Euro verdienst, z.B. indem Du Deine Software zum Selbstbausatz verkaufst, musst Du dem Finanzamt alles belegen, das nervt und kostet Zeit.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Auch das sehe ich so, zumindest bis mir jemand erklärt wie ich sowas steueroptimal gestalten könnte.



    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Fazit: Hab Spaß mit Deinem Autoguider, aber mach erst was für andere, wenn Du eine Anzahl X fest vorbestellter und vorbezahlter Kameras verbuchen kannst. Ich bin mit sowas mal fast ruiniert worden, in meiner Studentenzeit. Seitdem halte ich mich da zurück.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Si, Ruhe und Besonnenheit sind das Gebot der Stunde. Den ersten Hype werte ich höchstens als Interessensbekundung. Wie oft überlegt man es sich nach ein paar Tagen wieder anders, und das unverzichtbar geglaubte Gut wird dann plötzlich gar nicht mehr sooo dringend benötigt. Vielleicht nächstes Jahr, wenn Erfahrungen damit vorliegen, wenn ich mir ein neues Teleskop/Montierung/Kamera kaufe... Das kenne ich ja von mir selbst.


    cs
    Martin
    PS: Ich hab dein Posting als persönlich interpretiert, nicht als Statement deines Arbeitgebers an einen potentiellen "Konkurrenten" [:D] [:D]

  • Hallo Michael "Lateralus",


    danke! Deine trickreiche nur-USB Webcam-Mod gefällt mit aber auch gut!


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Der Markt ist natürlich lediglich auf DSLR User beschränkt, CCD-User haben sowieso bereits ein Notebook mit.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Da hast du vermutlich recht. Und viele benutzen auch bei der visuellen Beobachtung einen Laptop, wegen CDC, oder bei der DSLR-Fotografie wegen DSLR-Focus. Meine Entwicklung geht auf 2002 zurück, als Film noch das übliche Medium war. Wer zu spät kommt...


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wie hoch wäre der finanzielle Nutzen für einen User gegenüber Billigsdorfer Notebook-Webcam Lösung?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Vermutlich &lt;0. Einziger Aspekt wäre die Bequemlichkeit, und evtl. die Grenzgröße.
    Edit: und der Stromverbrauch


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Ich sehe sofort am TFT (ich rede jetzt nur von Guidemaster) wie es um mein Guiding steht und muß keine Zahlen interpretieren. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Wobei man aber diese Zahlen braucht um zu wissen ob die Sterne punktförmig bleiben. Mein Gerät zeigt direkt in Bogensekunden an. Aber das kann Guiding-SW vermutlich auch.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Ich habe hier bewußt nur die negativen Dinge aufgezählt um hier bißchen den Gegenpol in der euphorischen Diskussion zu spielen. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Was ich sehr begrüße. Der richtige Blick auf die Sache läßt sich nur durch Beleuchtung aller Gesichtspunkte gewinnen. Danke dafür!


    cs
    Martin

  • Hallo Martin,
    super Sache - bin von Mathias nochmal auf Dein Projekt aufmerksam gemacht worden!
    Kannst Du eine Bauteilliste zur Verfügung stellen, für interessierte Bastler, das wäre hervorragend?!
    Ich für meinen Teil entrichte da auch gerne einen Obulus (so a la Shareware?!?); weiß nicht, wie die anderen Forumsteilnehmer dazu stehen.
    Gruß,


    Steffen Elste

  • Hallo zusammen,


    inzwischen ist der erste Praxiseinsatz des Guiders erfolgt, natürlich anlässlich von Mr. Holmes. Der Guider war an einem 6" f12 Mak angeschlossen (Intes MK66), da mein 80er Leitrohr noch im Bau ist. Leitstern war Del Per mit 3m0.


    Die Belichtungszeit hat sich auf 4ms eingestellt, für ca. 50% Aussteuerung des hellsten Pixels.


    Dabei fielen mir folgende Dinge auf:


    - Der Helligkeitswert des hellsten Pixels schwankt ständig zwischen ca. 25% und ca. 90%, bei gleicher Belichtungszeit. Das muss daher kommen dass der Leitstern einmal zentral auf einem Pixel steht, und andererseits auch mittig zwischen 4 Pixeln stehen kann und diese entsprechend weniger beleuchtet. Der Effekt tritt nur auf wenn der Leitstern sehr genau fokussiert wird. Das Problem dürfte darin bestehen dass ein schwächerer Stern, der zufällig genau einen Pixel trifft, zum Nachführen herangezogen wird, obwohl ein bis zu 4x hellerer Stern daneben steht (dieser aber sein Licht zufällig auf 4 Pixel verteilt). Ich werde die Maximumsuche wohl mit einer 2x2-Maske durchführen müssen (sehr unschön für die Rechenzeit).


    - Es gibt ein Temperaturdrift-Problem (ob es wirklich ein Problem ist muss sich noch zeigen). Je kälter das Gerät, um so mehr wandert der Schwarzwert nach oben. Der Abgleich war erfolgt auf ca. 2% bei Raumtemperatur, aber bei ca. 5 Grad steigt der Schwarzwert auf ca. 16%. Der Effekt muss vom Correlated-Double-Sampling Chip von Sony kommen. Vermutlich muss ich den Offset per SW kompensieren (anhand der Optical-Black Zeilen des CCD). Die Auswirkung ist so dass der Störabstand zum Leitstern verschlechtert wird.


    - Extrapoliert auf 1s Belichtungszeit und ein 80mm Leitrohr wäre eine Grenzgröße von ca. 7m5 erreichbar. Da muss also noch was passieren, über 8m wollte ich schon kommen.


    (==&gt;)Steffen: Wie das mit dem Verfügbar-machen aussehen kann weiss ich noch nicht, siehe obige Diskussion.


    cs
    Martin

  • Hallo Martin -


    1s ist nicht so viel. Man kann die Guiding-Zeit auch gut auf 2s ausdehnen. Gerade was die Luftunruhe in den hiesigen Breiten angeht, ist eine etwas längere Belichtungszeit nicht unbedingt von Nachteil. Das Seeingproblem kann vielleicht auch Teil der schwankenden Intensität des Guiding-Sterns sein, was dann mit etwas verlängerter Belichtungszeit auch wieder verbessert werden kann.


    Mit meiner ST9 guide ich teilweise sogar mit 4-5s, was jedoch sehr von der Montierung abhängig ist, ob das erfolgreich ist. Allerdings bin ich mit dem Off-Axis-Chip ja auf sehr kleine Bereiche für die Leitsterne angewiesen, wo die Sterne dann nicht immer 8mag haben...


    Zum Temperaturproblem: Zumindest aus meiner Cookbook-Zeit kenne ich das auch. Je kälter der Chip, desto höher stieg der Schwarzwert bzw Bias-Wert. Allerdings da nicht in dem beschriebenen Maße.


    Gruß


    ullrich

  • Lieber Martin,


    wie findest Du denn den Hellgkeitsschwerpunkt? Alle X- und Y-Koordinaten mitteln, wo Du ein Pixel oberhalb eines Schwellwertes findest? Dann könntest Du versuchen, die Koordinaten jeweils mit der Pixelhelligkeit zu gewichten.
    Also nicht
    sumx = sumx + x
    sumy = sumy + y
    anzahl = anzahl + 1
    ...
    centerx = sumx / anzahl
    centery = sumy / anzahl


    sondern
    sumx = sumx + helligkeit * x
    sumy = sumy + helligkeit * y
    anzahl = anzahl + helligkeit
    ...

    centerx = sumx / anzahl
    centery = sumy / anzahl


    Damit würden die vier schwächeren Pixel genauso stark eingehen wie eines mit voller Helligkeit.


    Viele Grüsse


    Martin

  • Hallo Martin,


    den Schwerpunkt ermittele ich bereits so wie du unter "sondern" angegeben hast. Das mache ich aber nicht über das volle Bild (500x291 Pixel), sondern nur für 32x32 Pixel rund um den hellsten Pixel. Aus Gründen der Rechenzeit.


    Die ungefähre Leitstern-Position, also der Mittelpunkt der 32x32 Matrix, ermittele ich über eine einfache Suche nach dem hellsten Pixel im Bild. Also gehe ich davon aus dass der hellste Pixel irgendwo im Lichtfleck des Leitsterns liegt.


    Wegen dem o.g. Problem glaube ich es wäre sinnvoll nicht einfach nach dem hellsten Pixel zu suchen, sondern das Maximum der Helligkeitssumme von jeweils 2x2 Pixel über die 500x291 Pixel zu ermitteln, und dann das als Basiskoordinaten für die Schwerpunktberechnung zu nehmen.


    cs
    Martin

  • Lieber Martin,


    aha, und wenn Du einmal einen Stern gefunden hast, dann müsstest Du im nächsten Bild um die vorher gefundenen Koordinaten herum suchen...
    Aber ich merk' schon, dass Du da keinen grossen Beratungsbedarf hast. Wenn man so etwas nur bei Tag testen könnte, Laserpunkte an der Wand mit anderer Optik vor der Kamera??


    Viele Grüsse


    Martin

  • Hi Martin,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">aha, und wenn Du einmal einen Stern gefunden hast, dann müsstest Du im nächsten Bild um die vorher gefundenen Koordinaten herum suchen...
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Im Moment mache ich das noch nicht. d.h. jedes Bild ist unabhängig vom vorhergehenden, und wird völlig neu ausgewertet. Es könnte aber sein dass es sinnvoll ist eine Abhängigkeit vom vorhergehenden Bild einzubauen, z.B. um zu verhindern dass auf einen anderen Stern gesprungen wird (warum auch immer).

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn man so etwas nur bei Tag testen könnte, Laserpunkte an der Wand mit anderer Optik vor der Kamera??
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Ich mach das mit einem 50mm Objektiv, einem konvexen Verkleinerungsspiegel (Zubehörteil für Auto-Rückspiegel), und einer hellen LED in 3m Abstand vom Spiegel. Durch Verändern der Lichtquelle kann man dann punkt- oder flächenförmige Leitobjekte erzeugen.


    cs
    Martin

  • Lieber Martin,


    coooler Test! Muss ich nachmachen.
    Das mit dem Springen zwischen den Sternen kann halt passieren, wenn Du zwei annähernd gleiche helle Sterne im Gesichtsfeld hast, oder wenn Dir beim Zentrieren etwas noch Helleres ins Gesichtfeld kommt. Bin ja mal gespannt wies weitergeht...


    Viele Grüsse


    Martin

  • Hallo Martin,
    nun wo die Hardware fertig ist, wird die Sache erst spannend und die eigentliche Entwicklungsarbeit kann beginnen [:D]...


    Ein paar Anmerkungen fallen mir zu deinem ersten Praxistest ein.



    Helligkeitsschwankungen:


    Wenn das Beugungsscheibchen kleiner ist als ca. 2x Pixelabstand, bekommst Du auch dann ein schwankendes Gesamt-Helligkeitssignal, wenn Du mehrere Pixel addierst oder mittelst. Das liegt daran, daß nicht 100% der Pixelfläche gleichermaßen lichtempfindlich sind. Nur ca. 20-40% der Fläche pro Pixel beinhalten die Licht-Sammelzelle, der Rest ist mit Aluminium abgedeckt. Darüber liegt bei dem verwendeten Sony CCD ein Mikrolinsen-Array, das die effektive Apertur bei diesem CCD-Typ immerhin auf 60-70% bringen dürfte.
    Wenn nun das Zentrum des Beugungsscheibchens auf der Mitte zwischen den Pixeln liegt, kann sogar das Summensignal aller 4 Umgebungspixel niedriger liegen als das Einzelsignal bei genau getroffenem Pixel.


    Mal was anderes: Gibt es eigentlich eine Möglichkeit, das Helligkeitssignal vor der A/D-Wandlung irgendwie logarithmisch vorzuverstärken? Damit könnte man einen größeren Dynamikumfang erreichen. Bei den Astrofoto-typischen Temperaturen hat der verwendete CCD schon so wenig Rauschen, daß eine lineare 8-Bit Digitalisierung nicht genügt, um ihn zu nutzen. Das Gesamtrauschen kann schon unter 10 e-/Pixel liegen, die FWC liegt, glaube ich, bei über 20k e-.



    Zum Thema Guiding-Algorithmus:


    Einfach eine mitwandernde 2x2 Umgebungssumme zu bilden halte ich nicht für der Weisheit letzten Schluß.
    Statt dessen würde ich zunächst schon einfach das Vollbild Pixel für Pixel scannen und dann nur in der Umgebung z.B. der hellsten 5 oder 10 Pixel noch mal ein Array von m*n Nachbarpixeln mit berücksichtigen.
    In diesem kleinen Array könnte man dann auch nach Bedarf spezielle digitale Filter anwenden.


    Die Firmware sollte ebenfalls erkennen, wenn 2 oder mehr Sterne so eng zusammen stehen, daß sie beide im Umgebungsfeld liegen, und auf diese Information sinnvoll reagieren.
    Vielleicht kann man sowas sogar positiv verwerten. Wer sagt denn, daß man nur auf einen einzigen Stern guiden muß?
    Wenn z.B. zwei ausreichend helle Sterne im Kamera-Gesichtsfeld sind, müßte es doch möglich sein, die Schwerpunkte beider Lichtflecken getrennt zu ermitteln und dann auf das geometrische Mittel zu guiden. Das sollte doch die Guiding-Präzision verbessern können?


    Ich würde, nachdem das Guiding einmal "eingerastet" ist, nicht mehr das ganze Bild scannen, sondern nur in der Umgebung des oder der erkannten Objekte, so lange damit ein ausreichendes Positionssignal erzeugt werden kann.


    Man könnte diverse Parameter per Setup justierbar machen, um den Guider auf das jeweilige Teleskop zu optimieren.
    Selbst mit ein- und demselben Teleskop dürfte das optimale Guiding je nach Deklination ganz unterschiedliche Parameter erfordern. Eine fortgeschrittene Firmware wäre in der Lage, Parameter wie Schwellwerte, Suchradius und Abtastintervall selbständig zu optimieren. Aus diesen Werten ließe sich z.B. ein Anzeigewert "Guiding-Signalqualität" extrahieren, der den Benutzer grob informiert, ob die Sache so paßt.
    Wenn Du mehrere Bilder pro Sekunde aufnehmen kannst, das Guiding-Intervall aber 2 Sekunden dauert, solltest Du auf jeden Fall mehrere Aufnahmen pro intervall machen und diese dann mitteln.


    Schlußbemerkung: Als bisher nur "Guiding-Theoretiker" kann ich natürlich nicht sehr gut beurteilen, ob sich meine Ideen sinnvoll in die Praxis umsetzen ließen. Aber vielleicht sind sie ja trotzdem hilfreich für dich.


    Gruß,
    Martin

  • Hi Martin(B),


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wenn nun das Zentrum des Beugungsscheibchens auf der Mitte zwischen den Pixeln liegt, kann sogar das Summensignal aller 4 Umgebungspixel niedriger liegen als das Einzelsignal bei genau getroffenem Pixel.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Das ist sicher richtig. Im Prinzip ist die Helligkeitsschwankung ja auch kein Problem, außer dass man bei dem momentanen Faktor 4 leicht ein falsches Maximum erwischt. Eine Schwankung um 10 oder 20% würde ich als unkritisch ansehen.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Mal was anderes: Gibt es eigentlich eine Möglichkeit, das Helligkeitssignal vor der A/D-Wandlung irgendwie logarithmisch vorzuverstärken? Damit könnte man einen größeren Dynamikumfang erreichen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    *hihi* sowas hab ich damals im Rahmen meiner Diplomarbeit für einen Neutronen/Gamma-Detektor gemacht. Da mussten 5 Zehnerpotenzen auf einen 8bit-Wandler abgebildet werden.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Bei den Astrofoto-typischen Temperaturen hat der verwendete CCD schon so wenig Rauschen, daß eine lineare 8-Bit Digitalisierung nicht genügt, um ihn zu nutzen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Für eine Kamera ok, aber beim Autoguider m.E. ziemlich sinnlos. Hier braucht man die Helligkeits-Abstufungen eigentlich nur für die Schwerpunktermittlung. Und die müsste auch mit 4 Bit schon hinreichend gut funktionieren.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Einfach eine mitwandernde 2x2 Umgebungssumme zu bilden halte ich nicht für der Weisheit letzten Schluß.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Wieso nicht? Welches Problem siehst du hier?


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Statt dessen würde ich zunächst schon einfach das Vollbild Pixel für Pixel scannen und dann nur in der Umgebung z.B. der hellsten 5 oder 10 Pixel noch mal ein Array von m*n Nachbarpixeln mit berücksichtigen.
    In diesem kleinen Array könnte man dann auch nach Bedarf spezielle digitale Filter anwenden.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Das stelle ich mir schwierig vor. Wenn nur 1 Stern im Bild ist? Dann berechne ich 4 oder 9x den Schwerpunkt vom Rauschen. Außerdem ist für solche Mehrfach-Aktionen keine Rechenzeit da, wenn sie nicht echt einfach in der Implementierung sind.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Die Firmware sollte ebenfalls erkennen, wenn 2 oder mehr Sterne so eng zusammen stehen, daß sie beide im Umgebungsfeld liegen, und auf diese Information sinnvoll reagieren.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Könnte sinnvoll sein. Wobei dann wieder das Problem auftaucht ab wann ein Pixelwert ein Stern ist.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Wenn z.B. zwei ausreichend helle Sterne im Kamera-Gesichtsfeld sind, müßte es doch möglich sein, die Schwerpunkte beider Lichtflecken getrennt zu ermitteln und dann auf das geometrische Mittel zu guiden. Das sollte doch die Guiding-Präzision verbessern können?
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Warum sollte die Präzision dadurch besser werden? Oder anders gefragt, wieviel Präzision willst du dem Guider abringen? Jeglichen Guiding-Versuch auf besser +/-2" halte ich für aussichtslos. Ich stelle auch die Toleranzschwelle meist auf 2" ein, d.h. erst ab einer Abweichung von 2" korrigiert der Guider.
    Deshalb denke ich die aktuelle Positionsermittlung mit einem Leitstern ist absolut ausreichend, da seeingbegrenzt.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Ich würde, nachdem das Guiding einmal "eingerastet" ist, nicht mehr das ganze Bild scannen, sondern nur in der Umgebung des oder der erkannten Objekte, so lange damit ein ausreichendes Positionssignal erzeugt werden kann.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Das werde ich vermutlich mal testen. Hätte auch den Vorteil, dass man sich mehr Rechenoperationen erlauben könnte, da das Datenvolumen erheblich kleiner ist.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Man könnte diverse Parameter per Setup justierbar machen, um den Guider auf das jeweilige Teleskop zu optimieren.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Die erforderlichen Parameter (Brennweite, Achsenzuordnung, Bewegungsrichtungen, Korrekturgeschwindigkeit, Toleranzschwelle) sind per Menü einstellbar. Sehr viel mehr wollte ich nicht nehmen, sonst wird die Sache echt kompliziert (siehe obiges Posting von Tassilo bzgl. Kundenakzeptanz ohne Kontrollmonitor).


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Selbst mit ein- und demselben Teleskop dürfte das optimale Guiding je nach Deklination ganz unterschiedliche Parameter erfordern.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Wieso das? Hab ich nie beobachtet.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Eine fortgeschrittene Firmware wäre in der Lage, Parameter wie Schwellwerte, Suchradius und Abtastintervall selbständig zu optimieren.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Das klingt gut, ist aber in der Umsetzung bezüglich Zuverlässigkeit, Problemfällen, Transparenz für den Benutzer vermutlich recht knifflig.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Wenn Du mehrere Bilder pro Sekunde aufnehmen kannst, das Guiding-Intervall aber 2 Sekunden dauert, solltest Du auf jeden Fall mehrere Aufnahmen pro intervall machen und diese dann mitteln.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Ist nicht drin. Dazu dauert das Auslesen des Chips, die AD-Wandlung, das Einlesen, das Schreiben ins RAM, zu lange. Im Ram wäre auch nur Platz für 2 Bilder.
    Dann lieber eine längere Belichtungszeit, wie Ullrich oben geschrieben hat.


    Oder, noch besser, die Reglerstruktur ändern. Im Moment verwende ich einen reinen P-Regler (für die die wissen was das ist). Die Regelstrecke hat einen I-Anteil (Stellgröße ist die Dauer der Korrekturbewegung pro Regelzyklus, Meßgröße die Positionsabweichung). Zum Glätten der Seeing-Effekte wäre vermutlich ein P-T1 Regler geeigneter.


    Edit: wobei das dann höhere Anforderungen an die Stabilität der Regelung stellt. Eine instabile Regelung würde zum Aufschaukeln der Korrekturbewegungen führen. Der jetzige P-Regler mit Faktor 0.8 war bisher immer stabil.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Schlußbemerkung: Als bisher nur "Guiding-Theoretiker" kann ich natürlich nicht sehr gut beurteilen, ob sich meine Ideen sinnvoll in die Praxis umsetzen ließen. Aber vielleicht sind sie ja trotzdem hilfreich für dich.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Klar, ich bin für jede Anregung dankbar! Oft übersieht man ja das Naheliegende [;)]


    cs
    Martin

  • hallo martin


    also erstmal ein dickes lob für die weiterführung des projektes.
    theoretisch hatte ich auch schon über so was nachgedacht, nachdem ich mich mal bei dir nach dem verbleib des ersten projektes erkundigt hatte.mußte aber feststellen das das proggen für timer einer canon, oder anderer steuergeschichten eine sache ist....und
    die bildverarbeitung über atmel ne ganz ander geschichte ist....ich sag ja immer "schuster, bleib bei deinen leisten"...[:D].
    möchte mich natürlich in den kreis derer einreihen, die schon lechzend auf eine veröffentlichung warten.
    leider verstehe ich von der materie zu wenig, als das ich hier konstruktives beisteuern könnte, aber man schaut mal öffters rein[:D]
    also in diesem sinne martin weiter viel erfolg beim justieren der firmware.


    cls thomas

  • Hallo,


    das ist meine erste Antwort hier, deshalb erstmal ein freundliches Hallo an alle.


    Ich habs nur ab und zu mal mit dem Sterngucken und da wäre so ein StandAlone Guider genau das richtige. Noch ein bischen volkstümlicher in der Bedienung, das wäre es. Einfach für mal zwischendurch, wenn schönes Wetter ist.


    Ob ich mich mit der laptop-Schlepperei irgendwann mal einlasse weis ich noch nicht, wahrscheinlich werde ich es mangels Alternativen tun müssen.


    Auf jedenfall finde ich die Arbeit absolut beeindruckend, auf meine Geduld bezogen schon fast übermenschlich[;)] und würde mir sowas von den Großen der Branche schon wünschen.


    Das soetwas als Einmann-Nischenprodukt nicht wirtschaftlich zu realisieren ist weis ich von einem anderen Interessengebiet, Schachcomputer. Da stürzt sich auch alles auf PC und Multicore-wasweisich und dabei ist es doch tausendmal schöner gegen einen 20 Jahre alten Bretti zu verlieren. Die wenigen Projekte die es dann gibt verlaufen i.d.R im Sand oder bleiben unbezahlbare Kleinstserien. Und die Hersteller, an einer Hand abzuzählen, bringen lieber billige Massenware im 15. Aufguss.


    Genug gejammert, so oder so, höchsten Respekt und vielleicht bequemen sich meade und Co ja doch irgendwann mal wieder.


    Frage: Gibt es wenigstens einen Autoguider für PDA's?


    Bis dann, Dirk

  • Hallo Freunde der standalone AG,


    erstmal Glückwunsch zu deinem Projekt, da ich selbst ein "alter" Elektronikbastler/Programmierer bin, kann ich in etwa nachvollziehen was für eine Arbeit da drin steckt.


    Lustigerweise arbeite ich zur Zeit an der selben Sache, allerdings habe ich versucht den Aufwand so gering wie möglich zu halten. Als Bauteile verwende ich eigentlich nur einen PIC Mikrocontroller und einen MAX232 für die UART.(serielle Schnittstelle)und einige passive Bauteile. Ich hatte letzte Woche das Firstlight der Kamera. Sterne bis zur 7. Größe bei einem f10 Teleskop konnte ich so als Leitsterne erreichen. Der Aufnahmechip hat eine Größe 128x128 Pixeln, hört sich wenig an, aber fürs Autoguiding vollkommen ausreichend.
    Zur Zeit kämpfe ich mit der Bildauswertung im PIC, da ich ohne RAM auskommen muß und die Bildauswertung "on the fly" passieren muss.


    Einen Autoguider für einen PocketPC gibt es so leider nicht, da es hier an passenden Kameras mangelt. Eine Webcam funktionieren leider am PocketPC auch nicht, da der Pocket PC nur ein USB Client ist und direkt keine Kamera ansprechen könnte.


    Viele Grüße aus Bärlin
    Daniel

  • Hi Daniel,


    welcher Sensorchip ist es denn?


    Grüße,
    Thomas<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: daniel</i>
    Der Aufnahmechip hat eine Größe 128x128 Pixeln, hört sich wenig an,
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!