Beiträge von Doc HighCo im Thema „eVscope“

    Hallo Gerd,


    erst mal frohe Weihnachten.


    Wir sollten an Weihnachten wirklich etwas besseres zu tun haben, als uns über's eVscope zu unterhalten. Aber da ich sehe, daß Du mich hier noch mal direkt ansprichst, möchte ich Dir antworten.
    Ich denke wir sollten das Thema eVscope ruhen lassen, bis es auf dem Markt ist. Dann kann man prüfen was es wert ist und es mit anderen Lösungen vergleichen. Wie gesagt, ich sehe nichts besonderes in der Funktionalität des eVscope und denke, man kann das, so man das will, heute schon haben. Daß die Entwickler einen Doktortitel haben ist für sich genommen noch kein Qualitätsmerkmal. Ich setze da einfach mal meinen eigenen dagegen und komme zu anderen Schlüssen. Und glaube mir, auch ein Patent zu bekommen bedeutet nicht, daß man immer etwas Revolutionäres losgetreten hat - meine Frau steht auch auf mehreren und wir sind trotzdem nicht reicher.
    Aber man kann da natürlich anderer Meinung sein. Da Du so vom elektronischen Okular und von den Möglichkeiten das mit dem Handy zu steuern so begeistert bist, nehme ich an, wirst Du Dir ein eVscope kaufen. Ich bin dann mal auf Deinen Bericht gespannt.


    Ansonsten wünsche ich Dir noch schöne Feiertage - ich widme mich jetzt noch einem schönen Glas Rotwein oder einem Single Malt mit meiner Familie vor meinen Kaminfeuer. Ich rate Dir, mach was ähnliches.


    Ho, ho, ho,


    Viele Grüße


    Heiko

    Hallo Svend,


    ja, man muss natürlich Sterne mit genügend S/R erkennen können, um zu guiden. Aber das ist natürlich auch Voraussetzung um Bilder zum Livestacken auszurichten und um die Position mit Platesolving zu bestimmen. Das geht ja alles zusammen. Daher der Ausblick, daß das in Zukunft mit besseren Kameras quasi in "Echtzeit" möglich sein wird - die werden wahrscheinlich noch geringeres Rauschen haben, noch einen höheren Dynamikumfang haben und noch größere Chips und damit Gesichtsfeld haben. Wird erst teuer sein, aber dann wird der Preis mit der Zeit fallen. Dann wird das alles möglich sein. Im Moment wäre es vielleicht bei leidlich hellen Objekten bei kürzeren Brennweiten schon möglich - also da wo sich auch das eVscope tummeln will.
    Bevor hier Einwände kommen: Gute Ausrüstung wird immer bessere Ergebnisse liefern als schlechte - das ist klar. Aber die gleiche Qualität wir immer einfacher zu haben sein.
    Und zu Livestacken - da bedeutet ja lediglich das die Aufnahmen in Echtzeit gestackt werden können - nur weil ich das am Bildschirm o.ä. sehen kann, hat das nichts damit zu tun, daß das dann ein Ersatz fürs visuelle Beobachten ist.


    Gruß


    Heiko

    PS: Ja ich hoffe auch, das wir bei der Sache bleiben können und einfach mal weiterspinnen, was kommen könnte und was wirklich nützlich wäre. Abweichende Ansichten sind ja erlaubt.

    Hallo Svend,


    nee, Livestacking ist nicht neu. Das weiß ich. Nur zum am Bildschirm anschauen ist das aber zu schade. Die neuen Möglichkeiten die ich sehe, sind mehr, daß man bei besseren Sensoren und anständigen 2sec Aufnahmen mit gutem S/R-Verhältnis das Guiding gleichzeitig mit der Bildkamera machen könnte. Zwischen zwei Bildern die man stackt kann man die Drift berechnen und dann korrigieren. Bei 2 Sekunden bleibt das im Subpixelbereich, wie bei einem Guider - den bräuchte man dann nicht mehr - adieu Guidekamera. Kein Referenzstern driftet nach schon zwei Sekunden aus dem Bild - tut er ja auch bei einer Guidekamera nicht..
    Wenn Du dann Platesolving integriert und die Montierung über ASCOM oder ST4 ansteuern kannst, hast Du auch Dein Goto ins Stackingprogramm ausgelagert. Und dann kann man richtige Langzeitserien belichten.
    Wenn Du einzeln nur zwei Sekunden belichtest, kannst Du mittelmäßige Montierungen nehmen, wenns wackelt sortierst Du die schlechten Bilder schon mal beim Live-Stacking aus (automatisch). Ein Cirrus, ein Windstoß oder Flugzeug versaut nur ein paar Sekunden Aufnahme.
    Kein Guiding nötig, billigere Montierung - da kann man mehr in Optik und Kamera stecken um noch bessere Resultate zu erzielen. Alles in einer bedienerfreundlichen Stacking/Guiding/Plate solve/Positionierungs-Software kombiniert, die an einem 08/15-Setup auf dem Laptop läuft, wäre alles was man braucht, das würde ich mir wünschen - kein eVscope nötig. Wenn es das schon gibt, dann bitte her damit.
    Die Zukunft wir spannend.


    Gruß


    Heiko

    Hallo Stefan,


    ich spreche für mich nur von einer parallaktischen Montierung mit meiner Ausrüstung - nicht vom eVscope. Beim Livestacken mit SharpCap werden Drift- und Bildfelddrehung mit Referenzsternen wie beim Off-line-stacking kompensiert. Jedes 2 Sekunden Bild wird ja ausgerichtet. Auf 200 Sekunden ist das gar kein Problem - selbst bei einer azimutalen Montierung und bei grober Einnordung.
    Zur Einnordung hat Sharpcap übrigens ein Tool, mit dem das sehr genau funktioniert. Nehme ich fast immer.
    Wenn Du SharpCap o.ä. noch mit dem Steuergerät der Montierung z.B. über die ST4-Schnittstelle verbindest, könntest Du sogar Steuerimpulse senden, die die Drift kompensieren. Dann kannst Du beliebig lange Aufnahmeserien machen. Ob das schon implementiert ist, weiss ich nicht.
    Ich werde das mal beobachten und ausprobieren. Ich zeige dann irgendwann mal was geht. Und die Entwicklung geht ja weiter.


    Viele Grüße


    Heiko

    Hallo Svend,


    ich sehe gerade, daß es bezüglich eVscope auch hier weitergeht - hoffentlich sachlicher.


    Das eVscope-Thema scheint doch ein starkes Interesse zu erzeugen. Ich glaube aber, es ist weniger das eVscope selber, was soviel Aufsehen erregt, sondern die sich abzeichnenden Möglichkeiten in der Astrofotografie/Beobachtung. Ich will auch gar keine neue Diskussion anfangen, ob "Beobachten" jetzt nur durch "Original"-Photonen stattfindet und wie lange nach dem Eintreffen dieser Photonen im Teleskop man noch von "Live" sprechen kann.


    Ich sehe da im wesentlichen die Ankunft immer rauschärmerer Sensoren mit höherem Dynamikumfang auf dem Markt. Das heißt, man kann immer kürzer belichten um noch ein gutes Signal/Rauschverhältnis zu erhalten. Wir haben hier ja schon Deep-Sky-Bilder gesehen die aus tausenden Zwei Sekunden Einzelaufnahmen gestackt wurden. Was bedeutet das? Ein riesiger Speicherplatzbedarf? Meiner Meinung nach nicht. Man könnte die Zwei Sekunden Aufnahmen in hunderter Serien livestacken und abspeichern (also als 200-Sekundenaufnahmen) und später ein paar hundert davon ganz normal nachbearbieten (stacken, schärfen etc.).
    Wenn man zwei Sekunden Einzelaufnahmen macht braucht man auch kein separates Guidescope oder OAG mehr. Man kann dann direkt die Einzelaufnahmen nehmen und korrigieren. Man rechnet die Drift der Einzelaufnahmen zum Alignen beim Livestacken ja sowieso aus. Mit einer ST4-Verbindung und einer ASCOM-Schnittstelle kann man damit nachführen. Wenn man einen Platesolver in die Stacking-Software integriert, kennt man jederzeit die Position des Bildauschnitts am Himmel und kann dann jede Montierung mit ASCOM-Schnittstelle relativ präzise positionieren und nachführen. D.h. Jede billige motorisierte Montierung wird zur präzisen GOTO-Montierung. Bei Zwei-Sekundenaufnahmen spielt der Schneckenfehler dann auch praktisch keine Rolle mehr.
    Schau Dir die neue SharpCap Betaversion 3.1 an. Da taucht das schon alles auf. Bald kann man mit billigen motorisierten Montierungen ohne extra Guidescope das machen was das eVscope für Ende nächsten Jahres verspricht - und noch mehr.
    Sorry, aber das eVscope wird überholt sein, wenn es auf den Markt kommt. Die Jungs tun mir fast leid.


    Viele Grüße


    Heiko

    Hallo Robert,


    ich will mich nicht in die Rolle des Miesepeters drängen lassen, der alles Neue ablehnt. So bin ich eigentlich nicht. Und ich bin auch nur zufällig hier in den Thread gerutscht, weil ich zufällig heute über den Bericht in Spacedaily.com zu diesem eVscope gestoßen bin, nachdem ich den Beitrag hier auf Astrotreff gesehen hatte. In dem Ding stecken sicher auch gute Ideen, die man auch in andere Produkte übernehmen kann - z.B. die direkte Kopplung einer GOTO-Steuerung mit Kamera und Platesolver (was manche Programmen sogar schon ermöglichen).
    Aber wo soll ein WOW-Effekt herkommen, wenn die Qualität eines Livestacks nicht besser sein kann, als das was ich nach 30 sec Belichtung auch am Laptopbildschirm sehe. Über die Auflösung des kleinen OLED-Displays wird sich ja auch freundlich ausgeschwiegen, oder?
    Vielleicht gehe ich von ganz falschen Annahmen aus und kann so ein Ding irgendwann mal testen und ändere dann meine Meinung. Aber im Moment zähle ich nur Eins und Eins zusammen und komme immer nur auf Zwei.


    Gruß


    Heiko

    Hallo nochmal,


    ich hoffe nur, daß wir nicht auch schon soweit sind, daß Medienhype und eindrucksvoll bebilderte Webseiten mehr zählen als die Produktspezifikationen.


    Der gleiche Kamerasensor an einem gleichen Teleskopspiegel kann prinzipiell nicht anderes liefern in der Qualität der Bilder. Egal wie ich es nenne - Fotografie, Videoastronomie oder EAA, das Signal/Rauschverhältnis ist dasselbe, ob ich nun 30sec Livestacking mache oder eine Aufnahme von 30sec auf die "normale" Art und Weise. Ich habe meine meisten Bilder mit einem 114/450er Newton mit vermutlich dem gleichen Spiegel wie das eVscope und einer Planetenkamera gemacht. Ich weiß, die Qualität bei 30 sec ist meist noch Mist und wird erst ab mehreren Minuten vorzeigbar.


    Schöne helle Objekte wie Andromeda, Orionnebel oder Plejaden passen gar nicht ganz ins Gesichtsfeld und bei z.B. lichtschwächeren Messierobjekten und Nebeln sind 30sec Belichtung nichts. Ich hoffe das Produkt überlebt den Kontakt mit der Realität. Man darf ja mal vorsichtig warnen.


    Gruß


    Heiko

    Hallo Holger,


    warten wir es einfach mal ab. Ich will das Teil nicht schlecht machen. Vielleicht findet es seine Nische.
    Aber ich denke, für den (noch) ahnungslosen Anfänger und Papa, Opa etc. der für Weihnachten ein Geschenk sucht, ist das Teil wohl zu teuer. Und ob sich viele, die schon so tief in der Materie stecken, daß sie Geld im deutlich vierstelligen Bereich ausgeben wollen, davon überzeugen lassen ohne zu vergleichen was sie sonst für ihr Geld bekommen, muß man auch abwarten. Wer weiß was es sonst noch in einem Jahr gibt.


    Gruß


    Heiko

    Ja, das fürchte ich auch. Wenn das Teil Ende 2018 in die Massenproduktion geht, wird es schon überholt sein. Für 1720.-Euro bekomme ich jetzt schon mehr und bessere Teleskope inkl. Zubehör.


    Heiko

    Hallo Stefan,


    den Preis dafür habe ich noch gar nicht gesehen. Eine Kamera mit dem gleichen Chip gibt es z.B. hier für 235.-Euro:
    (https://www.teleskop-express.d…apixel---Komplettset.html)
    Das ist also nix anderes, als was heute Standard ist bei Planeten- und Guidingkameras. Wenn ich mich auf eine EQ3-Synscan, einen 114/450 Newton und diese Kamera beschränke, habe ich das gleiche für unter 1000.- Euro und viel mehr Möglichkeiten. Ich hätte nur ein paar Kabel mehr und nicht die WiFi/Smartphone-Gimmicks.


    Gruß


    Heiko

    Hallo,


    ich habe dazu heute einen Bericht hier gefunden:
    http://www.spacedaily.com/repo…_Citizen_Science_999.html
    und einen Link auf:
    https://www.kickstarter.com/pr…l-than-a-classical-t/faqs


    Auch wenn das Teil interessant ist, sehe ich doch einige Einschränkungen:
    - Unterschiedliche Vergrößerungen sind nur digital möglich
    - Das Blickfeld ist auf ca. 30´ festgelegt
    - Barlow, Reducer oder Filter geht scheinbar nicht (Planeten sind damit z.B. dann nicht möglich)
    - Die Pixelauflösung ist 1305x977
    - Eine einfache Nachjustierung scheint nicht vorgesehen zu sein


    Als Hightech-Spielzeug ist das für mich ok. Aber ein Teleskopersatz wäre es für mich nicht.


    Gruß


    Heiko