Gibts mit niedrigere Auflösung rundere Sterne?

  • Moin Leute


    Ein Astrokumpel mailte mir folgende Bilder.


    Beide 5 Minuten ungeguidet bei 200mm auf einer GPDX.
    Kamera Canon 400D.



    Hier Bild 1 (JPG) bei hoher Auflösung:



    Hier Bild 2 mit mittlerer Auflösung:



    Definitiv sind die Sterne bei der mittleren Auflösung runder.



    Woran liegts?


    So richtig erklären kann ich dieses Phänomen nicht.


    Wer weiss es besser wie ich?


    Danke im Vorraus , und


    CS


    Jürgen

  • Hallo Jürgen,


    kann es vielleicht an der Nachführung der Montierung liegen? Vielleicht sollte man mehrere Aufnahmen mit den zwei Auflösungen machen.


    Ich könnte mir schon vorstellen, dass der Fehler der Nachführung durch das Getriebe ensteht.


    Hat dein Freund das mit mehreren Bilder probiert? Wenn ja, und wenn das Ergebnis wirklich immer das Selbe war, weiß ich auch nicht weiter.


    Gruß Thomas


    Edit: Vielleicht wurde die Monti auch beim höher aufgelösten Bild erschüttert (Wind?).


    Edit Edit: Das die Sterne bei geringerer Auflösung runder erscheinen könnte ich mir schon erklären, aber wenn man beide Bilder, auf gleiche Größe skaliert sollte die Abbildung schon gleich sein, denke ich

  • Hi Juergen,


    ich wuerde auf Zufall tippen. Mach mal mehrere Schuesse in einem Zehnminutenzeitraum (eine Schneckenumdrehung), dies in einer gleichbleibenden Kameraeinstellung. Ich bin sicher, dass die Wurst-Ausbeute vergleichbar sein wird, auch wenn Du das Experiment mit geringerer "Aufloesung" (s.u.) wiederholst. Modulo Wind, Stativrempeleien und Erdbeben [:)] .


    Ich habe selbst eine GPDX, und weiss, wie launisch die Schnecke sein kann. Je nach Drehstellung kann ich einmal bei 660 mm Brennweite 3 min lang nachfuehren, ein andermal habe ich nach 1 min schon Wuerstchen. Ist halt der periodische Restfehler der Montierung.


    Ich gehe mal davon aus, dass Deine Fotos direkt hintereinander in der gleichen Richtung stattfanden und die Montierung gut eingenordet war. Die Sterne im ersten Bild sind schon ziemliche Wuerstchen ... eine GPDX sollte mehr koennen. Ich hatte an meiner zunaechst 36 Bogensekunden periodischen Fehler gemessen (schlimmer als meine EQ6 und EQ5 !), dann aber die Schnecken von RA und DEC getauscht. Jetzt habe ich 10 Bogensekunden.


    Vielleicht hilft das bei der GPDX Deines Bekannten auch weiter ?


    Ach ja, nochmal zur Aufloesung. Die Ortsaufloesung bleibt ja gleich, nur die Kompression ist hoeher - es findet also kein Binning statt. Auch von daher wuerde ich keine Glaettung von Nachfuehrartefakten erwarten.

  • Hallo Jürgen


    Glaube nicht das es an der Auflösung liegt.
    Eher ist des erste Bild mehr verwackelt, evtl. dagegen gestoßen oder vielleicht Wind. Aber mit der Auflösung sollte das eigentlich nichts zu tun haben.


    CS, Hannes

  • Hallo Jürgen (Schmoll),


    bei der Canon 400d werden die Pixel bei niedrigere Auflösung nicht zusammengeschalten?


    Warum eigentlich nicht?


    Gruß Thomas

  • Hi Thomas,


    ich habe eine 300D, und wenn ich Bilder mit niedriger Aufloesung mache, haben die das gleiche Format (ca. 2000 x 3000 Pixel). Anders als bei meiner Casio (furchtbares Teil uebrigens), wo ich z.B. 640x480 einstellen kann. Es wird halt mehr komprimiert, und das sieht man dann an Abstufungen an Helligkeitsgradienten, eben den typischen Artefakten.


    Deswegen kann ich ja auch mit geringster Bildqualitaet Fokusreihen machen, um dann mit RAW die eigentlichen Bilder aufzunehmen.


    Solch ein Pixelbinning waere so manches Mal wuenschenswert, um die Empfindlichkeit zu erhoehen.

  • Hallo Jürgen,


    deshalb frag ich mich ja warum das solche Kameras nicht können. Ist das technisch so schwer zum Umsetzten? Könnte man das nicht mittels Software auch realisieren?


    Gruß Thomas

  • Hi Thomas,


    das mag mit der Struktur eines CMOS-Chips zusammenhaengen.


    Ich bin ein Toelpel in Elektronik, aber hier mal mein Halbwissen dazu (Fachmenschen moegen mich korrigieren):


    Beim CCD werden alle Ladungen beim Auslesen ueber x/y "geclockt" und dann ueber einen gemeinsamen Verstaerker geschickt. Hier laesst sich durch die Wahl eines passenden "Clockings" Binning realisieren. So wird beim Seitenregister (dem 1D-Array, das Spalte fuer Spalte in den Ausleseverstaerker schiebt) einfach nur jedes zweite Mal ausgelesen --> Binning 2x1. Wenn man dann dasselbe beim Auslesen dieses 1D-Arrays in den Verstaerker macht, bekommt man das Binning in der anderen Richtung.


    Beim CMOS erfolgt die Verstaerkung bereits im Pixel. Das ist der Grund, warum man nicht solche "Auslese-Rampen" bekommt wie beim CCD, sondern ein eher gleichmaessiges Rauschen. Das Signal ist bereits verstaerkt und das Ausleserauschen dagegen vernachlaessigbar. Dafuer hat man durch die Variation der Verstaerkung von Pixel zu Pixel ein verstaerktes Grundrauschen, und die geringere Empfindlichkeit der Pixel, da ein Teil der Flaeche fuer den Verstaerker benoetigt wird.


    Vielleicht ist es einfach ein Mangel an Motivation, kein Binning einzufuehren, da das Binning das Signalrauschverhaeltnis beim CMOS nicht positiv beeinflusst. Sinn ist ja, dass man eine groessere Ladung (z.B. 2x2=4 Pixel statt einem) gemeinsam durch den Verstaerker jagt und damit das Rauschen des Verstaerkers in den Hintergrund draengt. Beim CMOS ist jedes Pixel schon verstaerkt, man gewinnt also nichts.


    Dennoch waere das fuer eine Empfindlichkeitssteigerung toll ... okay, man kann diesen Effekt aber auch durch Umrechnen des Bildes erzeugen, da man ja eh keinen Signalrauschvorteil hat. Demnach ist das spaetere Konvertieren des Bildes beim CMOS mit einem On-Chip-Binning vergleichbar, beim CCD dagegen nicht.


    So wide my mustard ... ob es reiner Senf war, wird sich zeigen.
    [;)]

  • Hallo Jürgen,


    danke für die Antwort. Für mich klingt sie schon plausibel (ok das sagt jetzt nicht viel aus [:D])


    Also beim CCD werden die Pixelwerte in einem Signal hintereinader übertragen?
    Muss das nicht beim CMOS ähnlich passiern (da wird wohl kaum für jeden Pixel eine Leitung weggehen)?


    Vielleicht hängt es auch mit dem Ausleserauschen zusammen, dass ein direktes Binning mehr bringt als ein Binning nach dem Auslesen (immerhin kommt dann wenn 4 Pixel zusammengeschlossen werden, nur einmal das Ausleserauschen dazu nicht 4-mal).


    Bin auch schon gespannt auf weitere Antworten.


    Gruß Thomas


    Edit: Irgendwie stell ich mir eine seperate Verstärkung jedes Pixels auch schwieriger vor als die eines gesammten Signals

  • Hi Thomas,


    Du hast Verstaerkerrauschen und Ausleserauschen. Das Ausleserauschen entsteht, wenn die Ladung beim Auslesen von Pixel zu Pixel geschoben wird. Hierbei kann Ladung verloren gehen, oder ein Uebersprechen stattfinden. Das Verstaerkerrauschen ist einfach die Ungenauigkeit, mit der ein Signal reproduzierbar verstaerkt wird.


    ( <font color="orange">EDIT - danke an Thomas Walt, s.u.: Das Ausleserauschen entsteht beim Verstaerken, und das beschriebene Phaenomen ist die Ladungstransfereffizienz. </font id="orange"> )


    Beim CCD gibts nur einen Verstaerker, ueber den jede Pixelladung gefuehrt wird. Dafuer kann man mehrere Pixelwerte vorm Verstaerken addieren. Man muss aber erstmal "vom Acker", muss also die schwachen Signale auslesen vorm Verstaerken. Das Binning findet im Ausleseregister (dem seitlichen 1D-Array) und dem Verstaerker statt, nicht vorher auf dem Chip - man kann nicht jedes Pixel einzeln addressieren und so verschiedene Ladungen aufeinander huepfen lassen, weil man dann wirklich eine Leitung pro Pixel braeuchte. Jeder Pixelwert bringt daher sein Ausleserauschen mit, aber das Verstaerkerrauschen ist immer gleich - egal ob ein Pixelwert oder 4 oder 9 gebinnte dort durchgeschoben werden. Hier liegt der Vorteil des CCD beim Binnen, der beim CMOS flachfaellt.


    Also beim CCD mit nxn-Binning: Summiertes Signal S = n^2 * s, s Einzelpixelwert, hier fuer jedes Pixel mal der Einfachheit halber als gleich angenommen.


    Rauschen: n^2 * a + v


    mit a = Ausleserauschen pro Pixel, v = Verstaerkerrauschen.


    Also Signal/Rausch = S / (n^2*a + v)


    Beim CMOS hat jedes Pixel einen Verstaerker. Ausleserauschen faellt so gut wie flach, da die Signale beim Auslesen bereits verstaerkt sind, aber das Rauschen durch die unterschiedlichen Verstaerker dominiert. Damit geht der Signalrauschvorteil durch Binning verloren, und vielleicht wird es deswegen selten angewendet.


    Hier bei Binning:


    Signal n^2 * s = S
    Rauschen n^2 * (a+v)


    S/N = S / (n^2 * (a+v))


    Das Ausleserauschen a ist sehr klein, da das Signal vorm Auslesen verstaerkt wurde. Aber man bekommt ein n^2-mal groesseres Verstaerkerrauschen, und das macht den Binningvorteil kaputt.


    Man koennte also gleich spaeter am PC nachtraeglich das Bild umrechnen.

  • Hallo,


    hab ich das jetzt richtig verstanden: beim cmos wird das Signal jedes Pixels auf jedenfall verstärkt, da ein CMOS-Fototransistor eben so aufgebaut ist (da lässt sich also nichts dran machen)!?


    Aber wird bei Transistoren egal welcher Art nicht immer ein Signal was an der Basis anliegt, verstärkt?


    Wird das Signal beim CCD nicht auch direkt verstärkt, oder muss man beim CCD keine Spannung zwischen Emittor und Collector anlegen?


    Erhält man beim CCD also wirklich die Spannung die durch das "Rausschießen" der Elektronen durch die Photonen ensteht?


    Ist das jetzt der Untersschied zwischen CMOS und CCD (CMOS muss verstärkt werden CCD nicht)?


    Gruß Thomas


    Edit: Bei Wikipedia seh ich grade, dass ccd sensoren ja garkeine Phototransistoren sind, sondern in Reihe geschaltene Kondensatoren. Hätte ich wohl vorher nachschaun sollen

  • Hi Thomas,


    genau das ist es. Die CCD-Pixel sammeln die durch den Fotoeffekt gebildeten Elektronen. Die pro Photon gebildete Anzahl von Elektronen nennt man auch Konversionsfaktor. Verstaerkt wird im Pixel nix.


    ( <font color="orange"> EDIT: Hier habe ich wieder Mist verzapft, siehe Kommentar von Thomas Walt weiter unten im Thread. Der Konversionsfaktor besagt, wieviele ADU ("Counts") pro Elektron anfallen - ich beschreibe oben die Quanteneffizienz. </font id="orange"> )


    Beim CMOS ist die Verstaerkung im Pixel eingebaut und laesst sich nicht umgehen. Das ist der prinzipielle Unterschied zum CCD. Ist wahrscheinlich historisch bedingt, denn urspruenglich waren die CMOS ja als Speicherbausteine (Stichwort EPROM) entwickelt worden.


    Naja obwohl, CCDs waren seinerzeit auch "versehentlich" erfunden worden, als man auf dem Gebiet der Speicherbausteine forschte ...

  • Hi Jürgen,


    das geht aber ganz schön durcheinander.
    Das kann so nicht stehenbleiben.


    Fang mer mal von hinten an:


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Die pro Photon gebildete Anzahl von Elektronen nennt man auch Konversionsfaktor<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Nein, das nennt man Quanteneffizienz!


    Der Konversionsfaktor gibt an, wieviel ADU pro Elektron gebildet werden,
    und umfasst also die ganze Schaltungskette vom Ausleseverstärker
    des CCD- oder CMOS-Chips, über den Zwischenverstärker bis zum A/D-Wandler.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Beim CMOS ist die Verstaerkung im Pixel eingebaut und laesst sich nicht umgehen.
    Das ist der prinzipielle Unterschied zum CCD.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Verstärkt wird überall, im CMOS und im CCD.


    Die von den Pixeln gelieferten Ladungen müssen zur Weiterverarbeitung
    ja erstmal in eine Spannung umgewandelt werden.
    Dies übernimmt der Ausleseverstärker, der dementsprechend als
    sog. Ladungsempfindlicher Verstärker ausgeführt ist.


    Nur hat der CCD einen für alle Pixel, und beim CMOS hat jeder Pixel seinen eigenen.
    Da natürlich keine zwei Verstärker exakt identisch sind,
    ist dies eine Quelle zusätzlichen Rauschens bei CMOS-Chips (FPN, Fixed Pattern Noise).
    Andererseits haben die separaten Ausleseverstärker den Vorteil,
    dass auf jedes Pixel direkt zugegriffen werden kann.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das Ausleserauschen entsteht, wenn die Ladung beim Auslesen von Pixel zu Pixel geschoben wird.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Nein, das Ausleserauschen entsteht im Ausleseverstärker.
    Sowohl beim CCD, als auch beim CMOS.


    Das Verschieben der Ladungen erfolgt äusserst effektiv,
    und trägt deshalb nicht zum Rauschen bei.
    Das läuft unter dem Namen Transfer Efficiency,
    und erreicht Werte von besser als 0,99999.
    Also, nur ein Elektron von 100000 ginge bei dem genannten Wert verloren.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Demnach ist das spaetere Konvertieren des Bildes beim CMOS mit einem On-Chip-Binning vergleichbar, beim CCD dagegen nicht.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Beim CCD ist echtes On-Chip-Binning möglich (mit den von Dir schon beschriebenen Vorteilen),
    beim CMOS eben nicht.


    Gruss,
    Thomas

  • Hallo Thomas,


    danke fuer Deine Richtigstellungen ... und Du hast mit Deinen Eingaben ueber Ausleserauschen und Konversionsfaktor voellig recht. Ist halt schon ne Weile her, als ich mich damit beschaeftigt hatte (genaugenommen 11 Jahre [|)] ).


    <font color="orange"> Ich habe die falschen Angaben in meinen Beitraegen oben mit orangen Kommentaren versehen, die auf Deinen Beitrag verweisen. Nicht dass jemand meinen falschen Ausfuehrungen Glauben schenkt. [;)] </font id="orange">


    Aber im Prinzip ists schon richtig, dass On-Chip-Binning auf dem CMOS zwar moeglich waere, aber nichts bringen wuerde, da jedes Pixelsignal bereits verstaerkt worden ist. Und das koennte dann wohl der Grund dafuer sein, dass Binning bei den CMOS-DSLRs nicht unterstuetzt wird.

  • Noch ein kleiner Kommentar zum Thema Binning:
    Das geht bei Farb-Bildsensoren mit Mosaikfilter natürlich nicht einfach so!
    Es würden dann Pixel mit unterschiedlichen Filtern gebinnt. Beim verbreitetsten Pattern mit je 2x grün und je 1x rot und blau bekäme man ein S/W-Bild - die Farbinformation ginge vollständig verloren.
    Nachträglich kann man die Auflösung natürlich schon herunter rechnen und dadurch das Rauschen etwas reduzieren.


    Bei den Kameras mit S/W-Bildsensor und separatem Filterrad wird ja das Binning regelmäßig erfolgreich angewendet, und zwar zur Reduzierung der Belichtungszeit bei den Farbauszügen von LRGB-Aufnahmen.
    Wär ja auch schlimm, wenn die schönen teuren Spezialkameras gegenüber den DSLRs keinen Vorteil brächten[;)].


    Gruß,
    Martin

  • Hi Martin,


    ich habe der Einfachheit halber SW-Sensoren vorausgesetzt.


    Wie das bei Farbversionen geht, weiss ich nicht. Entweder muessen die Farbpixel separat ausgelesen werden (sozusagen mehrere Chipflaechen uebereinander) oder am Ausleseregister wird sortiert. Sigma hatte mal eine DSLR mit der ersten Technologie (hat auch nen Namen - "Foveon"), ansonsten muesste es Variante 2 sein, da sich meherere Farbpixel ja nicht topologisch so anorden lassen, dass man an Untergruppen vorbeigehend auslesen koennte. In dieser "Sortiervariante" findet dann grundsaetzlich das Gleiche statt wie im SW-Sensor, nur eben nach Farben sortiert.

  • Moin Leute


    Erst mal vielen Dank bis hierhin.


    So ähnlich dachte ich es mir.


    Für 200mm ist es schlecht.Das kann ne Purus sogar besser.


    Habe dem Kollegen empfohlen , den Polsucher zu kontrollieren und ggf. zu justieren.
    Ferner sollte er mal die Beschreibung seiner SDI-Steuerung nach PEC durchforsten.


    Er meint , ohne eine Extrabox könnte man die Steuerung nicht an seinen Laptop anschliessen.


    Das mag zwar sein , aber mit einem Fadenkreuzokular , oder einer Webcam müsste man auch so
    den Schneckenfehler feststellen , und in einer PEC-Tabelle abspeichern können.


    Danach sollte der Schneckenfehler gut auszugleichen sein.


    Danke , und


    CS


    Jürgen

  • Hi Juergen,


    mit der SDI ist der Schneckenfehler auch ohne Rechnerunterstuetzung auszugleichen. Deswegen hatte ich mir meine naemlich fuer die EQ6 gekauft. Allerdings habe ich es dann nie ausprobiert, da ich feststellte, dass der Schneckenfehler der EQ6 hoechst unperiodisch ist.


    Anstelle Deines Freundes wuerde ich den PE erstmal mit Fadenkreuz vermessen. Dann versuchen, durch Schneckenjustierung was zu erreichen.


    Klappt das nicht, kann es sein dass die Schnecke eine Gurke ist --&gt; Austausch RA-Dec. So kann er sich dann die bessere Schnecke fuer RA raussuchen.


    Alles natuerlich unter der Voraussetzung, dass die Einnordung stimmt. Eine falsche Einnordung kann aber nicht die Unterschiede in den beiden Bildern erklaeren.


    Auch sollte er pruefen, ob die Stirnraeder, die den Uebergang vom Motorgetriebe auf die Schneckenwelle bewerkstelligen, sauber aufeinander ablaufen.

  • Moin "Engländer"


    Der Kumpel ist übrigens AchimL aus Neuenkirchen.


    Ihr kennt euch übrigens.


    Neulich waren wir bei ihm , und er zeigte uns seine chemischen Resultate.


    Sehr gut gelungene Dias wurden uns präsentiert.


    Jetzt , mit der 400D gibts kaum brauchbare Resultete.
    Bei 200mm wohlgemerkt.


    Du hast auch ne SDI?


    Hättest du nicht Lust , dem Achim ein Wenig per Mail unter die Arme zu greifen?


    Irgendwie scheint es schwer zu sein , zu wissen , was man bei der SDI eingestellt hat.
    Vielleicht hat er ja eine Funktion falsch eingestellt.

    Fadenkreuzoku haben wir beide nicht , aber meine Toucam könnte ich ihm leihen.


    Ich merke schon , wie angefressen der Kollege ist.


    Vielleicht kann sich der Achim hier doch mal anmelden.


    Dann ginge einiges leichter.


    Achim=&gt; Wenn du mitliesst , melde dich doch hier auch an.


    Schaden täte es nicht........


    CS


    Jürgen

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!