Pixelgröße/Brennweite bei Farbsensoren

  • Moin,


    ich hätte da mal eine Verständnisfrage. Die stelle ich zwar nicht zum ersten Mal, habe aber bisher noch keine Antwort bekommen - jedenfalls keine, die ich verstanden hätte[8D]


    Man sollte ja die Pixelgröße der Kamera auf die Brennweite - oder umgekehrt - auslegen. Dazu gibt es dann solche schicken Näherungsformeln:


    Pixelgröße p [µm] = f * tan( FWHM ["] / 3600) x 500


    Der Hintergrund ist, dass man bei zu großen Pixeln viereckige Sterne bekommt, die keinen sanften (gaußschen) Übergang in den Hintergrund haben = Undersampling
    Oder man hat zu kleine Pixel und bekommt dadurch keinen Auflösungsgewinn mehr, sondern leidet unnötig an den Nachteilen kleiner Pixel (QE/FWC) = Oversampling


    Oft liest man, dass S/W-Sensoren eine höhere Auflösung als Farbsensoren bieten, was ja auch irgendwie auf der Hand liegt.


    Wie sieht es mit dem Umkehrschluss aus?


    Beispiel:


    Mein 8" RC hat eine Brennweite von 1624mm, was bei einem Seeing von 2" laut o.g. Formel mit einer Pixelgröße von 7,87µm perfekt bedient würde. Zumindest bei einer S/W-Kamera...


    Wenn ich nun meine ASI1600 (Farbe) daran hänge, die mit 3,8µm nur die halbe Pixelgröße besitzt - bin ich dann im Oversampling, kann ich die 2x2-Pixel (die ein Farbpixel ergeben) als ein Pixel ansehen und bin damit im perfekten Bereich, oder liegt die Wahrheit zumindest irgendwo dazwischen?


    Und wenn ich meine 6D mit 6,6µm Pixeln nehme - bin ich dann schon im Undersampling?


    Gruß
    Klaus

  • Morgen Klaus,


    ich habe für mich die ganze Diskussion auf folgendes reduziert; die Ergebnisse sind kein zwingend präzise einzuhaltendes "Dogma", die Unschärfen sind bewusst:


    Große Brennweite => große Pixel, kleine Brennweite => kleine Pixel
    Anzustrebendes Öffnungsverhältnis bei Farbe: Pixelgröße * 5; bei SW: Pixelgröße * 3



    Gut ausprobieren kann man das mit unterschiedlichen Parametern beim CCD Suitability Calculator, der auch noch brauchbare Interpretationen liefert:
    http://astronomy.tools/calculators/ccd_suitability


    CX (Clear XMAS...)!

  • Ja - schon klar...


    Ich will es mal noch drastischer formulieren: Nyquist war (oder ist?) ein im Ausland lebender Skandinavier. Das sagt alles - denn was sind im Ausland lebende Skandinavier eigentlich immer?


    Genau! Sternhagelvoll[:D]


    Prost
    Klaus

  • Hallo Klaus,


    ganz dünnes Eis!
    Bei dem rass....n Sch... den du gerade schreibst, hoffe ich inständig, dass du selbst gerade nur besoffen bist,
    und das nicht ernst meinst (Smilie hin oder her, es ist beleidigend)


    Du weist schon, dass es hier im Forum auch Skandinavier gibt, die in Deutschland leben?!


    Trotzdem frohe Weihnachten von der Skandinavischen Grenze.


    Gruß
    SVEND (Der z.B. überhaupt keinen Alkohol trinkt.)

  • Hallo Leute,


    ist die Dauerbewölkung in Kombination mit dem emotionalsten Fest des Jahres wirklich so schlimm, dass das Trinkverhalten unserer schwedischen Nachbarn für fast 6 Stunden das einzige Thema im Astrotreff ist? [:(]
    Allen die das Thema interessanter als Astronomie finden, empfehle ich am 26.12. um 13:40 'Michel bringt die Welt in Ordnung' im ZDF. [8D]


    Frohes Fest und munter bleiben
    Heinz

  • Hallo Klaus,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"> Sorry...<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    dafür gibt es leider nur 1 Ei.[:D]

  • Hallo Klaus,


    passt schon; alles gut.


    (==&gt;) Heinz: Ziel war eigentlich; das Klaus nun in seiner Sternwarte sitzt und eine Holzfigur schnitzt. [:o)]


    Gruß & CS
    Svend

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">nur 1 Ei<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">und eine Holzfigur schnitzt<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Sobald ich den Kopf wieder aus der Schüssel raushabe, schaue ich, was ich sonst noch für euch tun kann...

  • Hallo, Klaus,


    Dir und Deiner Familie Frohe Weihnachtsfeiertage!
    Vielleicht hilft Dir der folgende link wenigstens ein klein wenig weiter: ... da geht es bei der DSLR auch um eine Farbkamera..


    http://forum.astronomie.de/php…e_Pixelgro_e_zu_Brennweit


    ...oder diesen link: schau mal, was tommy nawratil bei etwa 1/3 der Seite dazu schreibt (hohe Brennweite: mehr Details: trotz nicht optimalen Seeings)... ich glaube, mit dem ganzen oversampled undersampled-Kram machst Du Dir zu viele Gedanken [:)].


    http://www.astronomieforum.at/viewtopic.php?t=2226


    viele Grüße und endlich cs
    Andreas

  • Ojemine...


    Zuerst als Rassist entlarvt und dann auch noch ein Link ins schwarze Forum. Ich fühle schon jetzt die Stigmata, wo ich demnächst (zum Glück nur virtuell) ans Kreuz genagelt werde[8)]


    Aber zum Glück scheint die Debatte zurück zum Thema zu kommen. Allerdings sind die Aussagen doch noch etwas dürftig. Peter hat zwar völlig recht, dass man die Sache nicht allzu dogmatisch, sondern mehr tendenziell nehmen sollte...


    Aber wenn man über den Unterschied zwischen Farb- und S/W-Kamera mit identischer Pixelgröße spricht und man bei einer Farbkamera tatsächlich ein "2x2 Superpixel" betrachten muss - dann reden wir hier tatsächlich über einen Faktor 2 in der sinnvollen Brennweite. Das macht wohl schon einen deutlichen Unterschied.


    In dem von dir verlinkten Beitrag setzt der Fragesteller (Ernie - offensichtlich ebenso ahnungslos wie ich) den Punkt (2x2=1) einfach mal so voraus und Tommy relativiert das ganze etwas.


    Vermutlich ist es so, wie ich eingangs vermutet habe - die Wahrheit liegt irgendwo dazwischen.


    Gruß
    Klaus

  • Hallo,


    die Formel <b>Öffnungszahl = Pixelgrösse * 5 bzw. 3</b> hatte ich mal empirisch fürs Lucky Imaging, also Videoaufnahmen mit der Webcam, entwickelt. Seeing wird dabei nicht berücksichtigt. Ich gehe mal davon aus, dass bei Langzeitbelichtungen eine eher kleinere Öffnungszahl sinnvoll ist.


    Gruss Heinz


    EDIT: Autom. Rechtschreibkorrektur korrigiert [:0].

  • Hallo Andreas,


    der Link im Link (Vaterstetten.de) scheint mir ziemlich fundiert und ich glaube, das soweit nachvollziehen zu können. Damit ist meine Frage beantwortet und bei Faktor 1,3 kann man die Sache auch tatsächlich etwas lockerer sehen...


    Gruß
    Klaus

  • Hallo Klaus,
    ich denke bei Farbkameras mit Farbfilterarrays gibt es einige Dinge zu betrachten, wenn man die Auflösung mit den Schwarzweißen vergleichen möchte. Wie relevant das Ganze ist, sei erstmal dahingestellt. Wenn man die einzelnen Farben bertrachtet hat Grün die höchste Auflösung, da der Superpixel ja RGGB, also jeweils zwei Grüne hat. Die Schwarzweißen wären hier also 1,5 mal so hochauflösend. Bei Rot und Blau ist der Faktor jeweils 2. Prinzipiell erfolgt aber eine Demosaicingberechnung, dh. mit einem Interpolatiosalgorithmus wird aus den 4 farbigen Pixeln ein Superpixel berechnet. Algorithmen gibts zeimlich viele (AHD, AMAZE, usw.) und jeder generiert eine etwas andere Bildqualität, vor allem hinsichtlich Auflösung und Artefakten.
    Wer sich ganz genau interessiert: https://hal.inria.fr/hal-00683233/PDF/AEIP_SOUMIS.pdf
    Praktisch wird die Auflösung aber besser, sodass das daraus generierte Farbbild auflösungstechnisch nur um etwa Faktor 1,3 bis 1,5 schlechter ist, als das des Schwarzweißsensors. Bei den Farbsensoren sind halt auch die Interpolationsartefakte von Relevanz, sodass wenn das Bild undersampled ist, also eigentlich zu scharf, Farbartefakte auftreten können und nicht nur das die Sterne nicht schön rund, sondern blockig sind. Der Blockeffekt kommt im übrigen dadurch, daß das Sampling und die Auflösung diagonal zu den quadratischen Pixeln gesehen um den Faktor 1,4 schlechter ist.
    Gruß Tino

  • Hallo,
    ich arbeite sowohl bei Planeten als auch bei DeepSky mit den beiden Kameras ASI178MM und MC, also parallel SW und Farbe.
    Im DeepSky Bereich bin ich, wie praktisch jeder, oversampled. Da macht es schon mal keinen Unterschied ob Farbe oder SW. bei Planeten habe ich aber auch absolut keinen Unterschied in der Auflösung erkennen können, und das bei f/10 bis f/11 also ganz knapp an Nyquist. Es ist sogar so, dass ich mit der Farbcam die besseren (schärferen) Planetenbilder machen kann, wenn ich einen ADC verwende, da die Auflösung im Grünen etwas besser ist, nicht, weil es doppelt so viele Pixel gibt, sondern weil die Wellenlänge kürzer ist und das theor. Auflösungsvermögen besser ist, und (vermutlich) weil die Optiken auf Grün besser abgestimmt sind.
    ABER: ich arbeite seit vielen Jahren mit SW-Cams und Farb-Cams parallel und bei den DMKs war das z.B. nicht so.
    Es scheint also wirklich auf die Verrechnung schon innerhalb des Chips anzukommen. Grundsätzlich ist ja eine 1 zu 1 Auflösung ja auch möglich, denn jeder Sensorpixel wird ja einzeln ausgelesen. Die Farbauflösung, wird dann aber um den Faktor ungefähr 2 schlechter sein. Das kann man aber normalerweise sowieso nicht erkennen.
    Ich weiß, dass allgemein von einer schlechteren Auflösung der Farbcams ausgegangen wird. Aber so sind nun mal meine Erfahrungen.
    Viele Grüße,
    ralf

  • Hallo Tino,


    beschreibt der Artikel nicht "nur" der Vergleich zwischen sw und color Aufnahmen eines <b>Einzelbildes</b>?


    Bei der Astrofotografie werden ja in der Regel mehrere Bilder mit einem gewollten / ungewollten Versatz miteinander verrechnet. Eine Farbkamera unterscheidet sich ja nur anhand der aufgebrachten Farbfilter aber nicht von der Pixelgrösse. Wenn ich jetzt 3 bzw. 4 Fotos belichte und jeweils einen Versatz entsprechend der Bayer-Matrix tätige müsste ich doch eine äquivalente Auflösung wie bei einer s/w Kamera erzielen können?


    Gruss
    Jürg

  • Hallo Jürg


    dazu müßten die Programme anderst geschrieben werden. Man müßte zuerst nur die grüne Pixel zusammen setzten und danach die roten und blauen dazurechnen zum jeweiligen ausgerichteten Bild. Ähnlich wie bei Mono Astroccd Kameras Luminaz volle Auflösung und RGB Binning 2x2 ist dann auch nur dazugerechnet.
    Bei DSLR Kameras hatte man früher mit den Moire Effekt zu kämpfen und hat dafür eine leichte Streuscheibe eingebaut die diesen Effekt verhinderte. Neue Kameras sind so hoch auflösend das die Objektive da kaum noch diese Schärfe erreichen können und somit man kein Fiberglaselement mehr einbaut werden muß.


    Gruß Rolf

  • Hallo Jürg,


    da hast Du recht, manche Programme nutzen das auch schon, wie z.B. Autostakkert und ich glaube auch PI. Stichwort ist hier Bayer-Drizzle.


    Dabei werden die durch die Bayer Matrix fehlenden Pixel aus anderen Aufnahmen ergänzt, die etwas verschoben sind.


    D.h. der frühere Auflösungsverlust von Farbkameras ist damit hinfällig. Allerdings dürften Aufnahmen mit Monochrom-Kameras bei gleicher Framezahl im Vergleich ein besseres Rauschverhältnis besitzen.


    CS
    Volker

  • Hallo Jürg, hallo Volker,
    das Drizzeln funktioniert aber auch für monochrome Bilder, sodass hier auch wieder die nominelle Auflösung gesteigert werden kann. Somit sollte der Abstand zu den Farbsensoren wieder hergestellt sein und bei jeder Art von "Superresolution-Processing" tauscht man halt Signal-Rauschverhältnis gegen Auflösung. Was ich mit dem oben angeführten Artikel eigentlich sagen wollte, ist dass es ziemlich feiner Qualitätskriterien bedarf, um die Auflösung und die Bildqualität von Farb- und Monochromsensoren wirklich sinnvoll zu vergleichen. Der empfohlene Faktor 1,3 ist daher nur als Daumenregel zu sehen, ohne übermäßige Relevanz. Praktisch gibt es noch viele andere Einflussfaktoren, wie etwa die Mikrolinsen zur QE-Steigerung, welche die generische Auflösung der Sensoren beeinflussen, bspw. durch Übersprechen. Prinzipiell kann man den Sensoren eine Modulations-Transfer-Funktion, ähnlich der für das Teleskop zuordnen und somit die optische Leistungsfähigkeit des Gesamtsystems bestimmen. Trotzdem sind die Unterschiede zwischen Farb- und Monochromsensoren bezüglich Auflösung eher Marginal und vermutlich nur höchstauflösende Planetenfotografie relevant. Das größere Problem ist wohl eher die relative Unempfindlichkeit der Farbsensoren im Bezug auf die Monochromen.
    Gruß Tino

  • Hallo,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das größere Problem ist wohl eher die relative Unempfindlichkeit der Farbsensoren im Bezug auf die Monochromen. <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    gibt es für die modernen CMOS-Chips dafür einen (ungefähren) Wert?

  • Hallo Hans,
    bezogen auf ein reines Luminanzbild (für reine photografische Tiefe) mit einem monochromen Sensor bleibt von den 60-70% QE nur noch etwa 1/3 übrig, also vlt. absolut 20%. Wenn man den monochromen Sensor mit Farbfilter betreibt, siehts wieder ausgeglichener aus, bis auf dass ein gutes Interferenzfilter eine noch etwas bessere Transmission hat.
    Gruß Tino

  • Just my two cents ...


    Unterscheidet Pixelabstand und Pixelgröße. Das spielt bei Farbkameras eine Rolle, wo die Pixel der einzelnen Farbkanäle sich den Platz teilen und man bei der Bildbearbeitung die Farbkanäle einzeln optimieren kann.


    Achtet darauf, ob z.B. ein großer Vollformat-Chip am Bildrand nicht schon so viele Abbildungsfehler einfängt, dass man eher von "Brei" sprechen möchte.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!