REVOLUTION IMAGER R2

  • Hallo Stefan,


    <font size="3">zum eVscope</font id="size3">


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Da haben die Jungs schlappe 2.209.270$ eingesackt
    Und dann wurde auf Indiegogo nochmals eingesackt
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    was heißt hier eingesackt, für das Geld bekommen die die es gegeben haben ja auch ein eVscope.
    Treffender wäre also die haben den entsprächenden Umsatz gemacht.
    Was noch mal eindrucksvoll zeigt welch grandiosen Erfolg sie schon jetzt mit dem eVscope erreicht haben.
    Und es beweist das sie da in eine echte Marktlücke gestoßen sind und es hier einen sehr großen Bedarf solcher Produkte und erhebliches Käuferpotential gibt.
    Hier haben die etablierten Hersteller einfach geschlafen.
    Aber gut das kennen wir ja auch aus anderen Bereichen.
    Da musste eben zb. bei Elektroautos erst Tesla kommen.
    Und hier ist es eben Unistellar die zeigen wie das Teleskop der Zukunft für unser Hobby aussieht.
    Aber ich denke es wird auch den etablierten Herstellern nicht entgangen sein das man mit so einem Teleskop der Zukunft wie dem eVscope Umsätze in Millionenhöhe generieren kann.


    Man kann das eVscope jetzt übrigens auch ganz normal vorbestellen und muss nicht mehr über Kickstarter oder Indiegogo gehen.


    https://unistellaroptics.fr/product/evscope/


    2000 wurden also insgesamt schon geordert.
    Macht 2000*2099 = 4,2 Millionen Umsatz.
    Der Astro Marlkt ist sehr klein, manch Hersteller klassischer Teleskope wäre froh so einen Umsatz innerhalb von ein paar Jahren zu erreichen.
    Man sieht daran sehr schön Teleskopen wie dem eVscope gehört die Zukunft.



    <font size="3">zum Revolution Imager</font id="size3">
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Oh- Bildverarbeitung ist das also? Na toll, was kann die?
    Also max. 6x5,12s Bildinhalt ausummieren, echtes Stacken wie üblich durch die gängigen Programme ist aber ein bisserl mehr.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Aber selbstverständlich.
    Der gravierende Unterschied zwischen dem Revolution Imager und dem Ding das du verlinkt hast besteht genau hierin.
    6x5,12s = 30,72s Integratriuonszeit.
    Das simple Video Modul das du verlinkt hast dürfte 25 Bilder / s liefern.
    ( PAL Standard) also Belichtungszeit 1/25 = 0,04s
    Der Revolution Imager kann also 30,72/0,04 = 768 mal mehr Licht sammeln.
    Rechnet man noch den 0,5X Reducer mit ein der beim Revolution Imager ja dabei ist und der seinerseits die Lichtintensität auf dem Sensor noch mal um Faktor 4 erhöht kommt man insgesamt auf Faktor
    768X4 = 3072[:0][:)]
    Ja richtig gelesen mein lieber Stefan.
    Das Bild das der Revolution Imager liefert zeigt 3072 mal so lichtschwache Objekte als das Bild welches das von dir verlinkte Video Modul am gleichen Telskop liefert.
    Das ist im wahrsten Sinne des Wortes ein Unterschied wie Tag und Nacht.
    Und da ist der 10 fache Preis für den Revolution Imager in Anbetracht der Tatsache das er immerhin mehr als 3000 mal lichtschwächere Objekte zeigt ja wirklich sehr günstig.
    Bedenkt man das man obendrein ja auch noch einen Monitor und 2 Fernbedienungen dazu bekommt und die Tasche sollte man auch nicht vergessen ist das Preis/Leistungsverhältnis des Revolution Imager für DS um ein vielfaches besser als bei dem von dir verlinkten Video Modul.


    Grüße Gerd

  • Hallo Marcus,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Der Revolution Imager ist ein Schritt in die richtige Richtung, aber das Hardwarestacking und das geschlossene System mit eigenem Monitor ist meiner Meinung nach eine Sackgasse.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    warum das denn?
    Gut der Revolution Imager bietet momentan nur ein einfaches OSD und nicht so eine schöne grafische Benuzeroberfläche die Programme wie Sharpcap bieten aber was nicht ist kann ja noch werden.
    Der Revolution Imager ist ja auch nicht mehr ganz so taufrisch, ich lese da was von 2016.
    Ich könnte mir gut vorstellen das ein Nachfolger auch eine ähnliche grafische Benuzeroberfläche bieten kann wie sie Sharpcap bietet und das auch der funktionsumfang ähnlich sein wird.
    Hardwarelösungen müssen nicht schlechter sein, im Gegenteil.
    Wenn man etwas in Hardware realisiert erreicht man in der Regel mit wenig Aufwand sehr große Rechenleistung, die würde man das gleiche in Software verwirklichen selbst leistungsstarke Rechner in die Knie zwingen.
    Schau dir mal die neue Gopro an, die schafft 4 K Video mit 60 Bildern/s.
    Wolltest du das Roh Videosignal des Sensors mit einem Software Encoder mit 60 Bildern/s in Echtzeit in H265 Encodieren würde wohl selbst ein leistungsfähiger Laptop in die Knie gehen.
    Der kleine Bildprozessor der Gopro schafft das aber und das mit einem Bruchteil des Energieverbrauchs.


    Für einen Nachfolger des Revolution Imager würde ich mir wünschen.
    Verzicht auf den analogen Videoausgang, stattdessen digital, möglichst gleich über WLAN.
    Dann kann man auch auf den Monitor verzichten und stattdessen per WLAN gleich Smartphone oder Tablet damit verbinden.
    Moderne grafische Benutzeroberfäche ähnlich Sharpcap und deutlich aufgebohrter funktionsumfang beim Lifestacking.
    Das Lifestacking sollte aber nach wie vor im Revolution Imager stattfinden!!
    Das Smartphone dient nur zur als Monitor und zur Steuerung.
    Moderner und etwas größerer Sensor mit höherer Auflösung.


    Grüße Gerd

  • (==&gt;)Gerd,


    das "lieber Stefan" kannst du dir gerne sparen, das kommt so von dir lediglich anmaßend rüber. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">was heißt hier eingesackt, für das Geld bekommen die die es gegeben haben ja auch ein eVscope.
    Treffender wäre also die haben den entsprächenden Umsatz gemacht.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Du solltest besser sagen- die Geräte sollten ausgeliefert werden, bei einem Croudfunding hat man keinen Anspruch darauf. Und Umsatz hat die Firma erst dann gemacht, wenn für das eingenommene Geld auch eine Ware geliefert wurde. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">2000 wurden also insgesamt schon geordert.
    Macht 2000*2099 = 4,2 Millionen Umsatz.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Umsatz wenn geliefert und ob die 2000 "Orders" tatsächlich direkte Bestellungen oder nicht vielleicht aus "orders" der beiden Croudfundingaktionen stammen- das kann dir deine Glaskugel wohl nicht sagen. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">6x5,12s = 30,72s Integratriuonszeit.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Ja, aber Bildsignal aufsummieren ist nicht gleich Bildinhalt stacken- sollte bis zu dir schon durchgedrungen sein. Die einfache Summenbildung führt schnell zum Füllen der Pixel und damit auch schnell zum Ausbrennen, das zeigen die so erstellten Bilder und/oder Videos sehr deutlich. Zum echten Stacken ist halt ein Prozessor und die dazu nötige SW/Firmware nötig, zur einfachen Summenbildung genügt ein Zwischenspeicher.


    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Das Video wurde mit dem Vorgängermodell aufgenommen, konnte 5 Bilder integrieren, das neue Modell schafft halt 6- na und? Deswegen werden hellere Sterne/Objekte halt noch stärker ausbrennen- toll. Das Video stammt von dem Anbieter der Kamera- https://www.revolutionimager.com/pages/which#STACK und die Qualität der im Netz zu findenden Bilder ist vergleichbar kläglich. <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Der gravierende Unterschied zwischen dem Revolution Imager und dem Ding das du verlinkt hast besteht genau hierin. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">Nun, du entnimmst aus deiner Glaskuegel die Infos (<i>Es findet also eine Bildverarbeitung mit Stacking statt und das dazu nötige Modul ist natürlich im Revolution Imager R2 integriert. </i>) und ich vergleiche an der Stelle das Bild des Produkts. Das Modul hat das gleiche Gehäuse und den gleichen Chip. Also ist lediglich die Ansteuerung zu modifizieren, damit die jeweils vom Chip ausgelesene Bildinformation im on-board Speicher abgelegt und aufsummiert wird- fertig ist die "Bildverarbeitung". Für zusätzliche mehr leistungsfähige Elektronik zum echten Stacken ist in dem Gehäuse kein Platz mehr. So gesehen ist mein Blick in die Glaskugel ebenso gut oder schlecht wie deiner [:D]


    Gruß

  • Hallo Stefan,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ja, aber Bildsignal aufsummieren ist nicht gleich Bildinhalt stacken- sollte bis zu dir schon durchgedrungen sein. Die einfache Summenbildung führt schnell zum Füllen der Pixel und damit auch schnell zum Ausbrennen, das zeigen die so erstellten Bilder und/oder Videos sehr deutlich.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    wenn du mal schaust welche Belichtungszeiten bei klassischer digitaler DS Fotografie üblich sind sollte dir aufgefallen sein das hier auch Einzel Belichtungszeiten von deutlich mehr als 30s üblich sind und da brennt noch nichts aus.
    Falls die Bilder im Revolution Imager also tatsächlich nur aufsummiert werden wie du behauptest sollten die sich dann ergebenden 30s gesamt Zeit also noch nicht das Problem sein.
    Wenn hier der Dynamikumfang zu wünschen lässt dann liegt das eher am Sensor und am Bildprozessor und nicht an den 30s gesamt Belichtungszeit.
    Hier sollte man halt auf ein modernes Modul zurückgreifen wie man es zb. in aktuellen Actioncams findet.
    Dann hätte man auch gleich WLAN mit dabei und vielleicht ließe sich ja auch das WDR das der Bildprozessor von ordentlichen Actioncams beherrscht für unserer Zwecke bezüglich Belichtungszeiten aufbohren.


    Grüße Gerd

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!