Einfluss der Pixelgröße von CMOS- Kameras bei Deep Sky

  • Hallo Deep Sky Foto Freunde,


    die aktuellen Deep Sky Bilder Abell 39 Kurzbelichtet von Markus, Planetarische Nebel Abell 2 von Bianka und andere Deep Sky Bilder mit kleinpixeligen Kameras werfen bei mir mal wieder eine Grundsatzdiskussion auf: Welche Rolle spielt die Pixelgröße bei der Deep Sky Fotografie mit CMOS Kameras? Mit CMOS Kameras meine ich alle mit dieser Sensor Technik, egal ob dedizierte Astrokameras, DSLR oder DSLM. Ich lese immer wieder, dass große Pixel nicht nur bei CCD, sondern auch bei CMOS Sensoren von Vorteil sind. Rauschen große Pixel weniger und sind effektiver als kleine Pixel? Wenn ja warum?


    1. Ausleserauschen: Nach meiner Vorstellung müssten sich große Pixel günstiger auf das Ausleserauschen auswirken, da das Ausleserauschen pro Pixel und pro Einzelbelichtung anfällt. Größere Pixel sammeln durch ihre größere Fläche mehr Photonen, somit müsste das Signal- zu Ausleserausch - Verhältnis höher sein. Kann man das so sagen? Andererseits ist bei den heutigen CMOS Kameras das Ausleserauschen sehr gering, sodass ich diesen Effekt bei Langzeitbelichtung als gering einschätzen würde, erst recht nicht, wenn man aus lichtverschmutzter Umgebung fotografiert, wo das Himmelsrauschen ohnehin alles andere bei weitem überwiegt.


    2. Thermisches Rauschen: Das thermische Rauschen hängt - wie der Name schon sagt - in großem Maße von der Sensortemperatur ab. Spielt die Pixelgröße auch eine Rolle?


    3. Quanteneffizienz: Hier tue ich mich schwer, die Angaben der Hersteller zu deuten, da sie meist relative Kurven angeben, die z.T. wohl auch noch geschönt sind. Noch undurchsichtiger wird es bei Farbkameras.


    4. Geometrische Effekte /Beugungseffekte: Ich stelle mir das naiv so vor, dass mit größer werdenden Pixeln die tote Sensorfläche durch die Stege/Leiterbahnen zwischen den Pixeln anteilig geringer wird und die Gesamtausbeute steigt. Spielt das bei den heutigen "Back Iluminated" Chips auch noch eine Rolle? Welchen Einfluss haben die Mikrolinsen vor den Pixeln? Welche Rolle könnten Beugungseffekte an den Pixelrändern spielen bei immer kleiner werdenden Pixeln?


    Ich freue mich über eure Kommentare

  • also ich kann nur von DSLR Kameras sprechen:

    zuerst habe ich mit einer Canon 1100da fotografiert, Pixelgröße 5,2µm. Dann habe ich später mit anderen Canon Kameras, alle mit 3,77 µm großen Pixeln aufgenommen. Vor allem mit der wesentlich neueren Canon 77da, 3,77 µm . Beide Kameras (1100da; 77da) häufig mit gleicher ISO 3200 Einstellung und gleichem uv_ir-Filter zur gleichen Jahreszeit verwendet. Was mir sofort auffiel: die viel ältere Canon 1100da rauscht viel weniger als die neuere Canon 77da. Damit meine ich: das Rohbild sah glatter und relativ rauscharm aus, trotz ISO 3200. Daher habe ich weiterhin bei ISO 3200 fotografiert. Also sage ich mal: die größeren Pixel rauschen weniger, aber natürlich geht die Auflösung verloren.

    Tommy Nawratil im Forum hat das zufällig gelesen und meinte, das könne nicht sein, denn die 77da wäre viel besser. Ich habe mich dann nicht mehr dazu geäußert, denn ich wollte ihn nicht verärgern. :whistling:

    Ich war schon kurz davor, die 1100da weiterhin zu verwenden, trotz des Schmutzes auf dem Sensor, aber die kleineren Pixel haben mich dann doch mehr gereizt. ;)

    Aber die 1100da habe ich noch behalten, wegen der großen Pixel.


    viele Grüße

    Andreas

  • Hallo Stathis,

    aus meiner Sicht gibt es hauptsächlich einen Vorteil bei großen Sensorpixeln und das ist die höhere Full-Well-Kapazität. Also, ab wann ein Zentrum einer Galaxie etc. ausbrennt. Sicher gibt es da noch weitere technische Vorteile, die aber vermutlich nicht soooo sehr ins Gewicht fallen.

    Die kleinen Sensorpixel haben den Vorteil, dass man mit kleineren Brennweiten arbeiten kann. Ich kann also mit einem 200 mm Teleobjektiv Bilder machen wie andere mit einem "richtigen" Teleskop.

    Mit anderen Worten, es muss mal wieder alles aufeinander abgestimmt werden, dann wirds gut. Und die weichen Faktoren spielen hier, wie oben gesagt, wohl sehr deutlich rein.

    Dass die Pixel der Kameras überhaupt immer kleiner werden, hat vermutlich gar nicht viel mit Astro zu tun, sondern die allgemeine Miniaturisierung (Handy) ist das Fundament auf dem Astrokameras aufbauen.

    Gerade eben habe ich die ASI715MC getestet, mit 1,45 µm Pixeln. Im Methanband bei 890 nm passen nicht einmal mehr 2 Photonen nebeneinander auf deie Sensoreinheit. Die FW-Kapazität bei max. Gain beträgt 12. Nicht 12 K oder so, nein 12 Photonen entscheiden zwischen Schwarz oder Weiß. Ich denke, da ist dann eine Grenze erreicht.

    VG ralf

  • Hallo Stathis,


    interessante Fragestellungen... zu einem, wie ich finde, ganz schön komplexen Thema.


    Bei all diesen Dingen spielt doch aber immer auch die Pixel-Scale eine Rolle, oder?. D.h. bei unterschiedlichen Brennweiten und Öffnungsverhältnissen müssten ja die von dir beschriebenen 4 Fälle mal stärker und mal schwächer ins Gewicht fallen. Ralf hat das ja bereits angesprochen.


    Ich denke, man muss eigentlich das Gesamtsystem, also Optik und Sensor betrachten. Von daher denke ich wird es da vermutlich keine allgemein für alle Systeme gültigen Antworten geben.


    LG & CS, Nick

  • Größere Pixel sammeln durch ihre größere Fläche mehr Photonen, somit müsste das Signal- zu Ausleserausch - Verhältnis höher sein. Kann man das so sagen?

    Das kann man ganz bestimmt sagen. Für ein gegebenes Objektiv kommt vom Photonenstrom auf einem größeren Pixel einfach geometrisch mehr an, so dass sich die SNR erhöht. Das ist auch der Grund, warum Uralt-Sensoren wir der einer EOS 6D oder ein moderner Sensor IMX410 mit fast 6x6 um Pixeln so schöne rauscharme Bilder liefern. Das geht natürlich auf Kosten der Auflösung.


    CS Erik

  • Hallo

    Wir werden mit unseren Wetterlagen bei der Astrofotografie niemals in der Lage sein, diese Pixeleigenschaften wirklich voll auszutesten, um zu einem objektiven Ergebnis zu kommen. Das wir nur messtechnisch möglich sein. Alle Gegenüberstellungen und der Vergleich von Bildern können nicht objektiv sein, weil jedes Bild an einem anderen Ort und unter anderen atmosphärischen Bedingungen gemacht wurde. Auch ich bin ein Perfektionist und will immer das Maximale herausholen. Aber ich musste nach 40 Jahren Astronomie erkennen, dass das gerade in der Astrofotografie ein sehr hartes Brett ist, welches wir da bohren wollen.


    Vielleicht bringt der Link zu folgender Webseite ein wenig Aufhellung in das Thema:


    astroinformatics.de



    Viele Grüße Horst-Dieter

  • Hallo Zusammen,


    Zu Punkt 1 muss man die Vergleichsbedingungen definieren. Am C14 wirst Du mit 1.45 µ Pixeln nicht glücklich, und am 135mm Objektiv willst Du keine 20µm Pixel haben. Wenn der große Pixel ins Undersampling führt, sind die Bilder nicht vergleichbar, S/N hin oder her.

    Ist man im Oversampling, hilft der größere Pixel bezüglich des Ausleserauschens, aber wie groß der Effekt ist, hängt eben vom Gesamtrauschen ab. Hätte man die Wahl, könnte man einfach sagen, der Pixel sollte so groß wie möglich und gleichzeitig so klein wie nötig sein. (wie klein, lass ich lieber mal außen vor)

    Dann gilt es noch das Argument zu beachten, dass bei kleinen Pixeln ja das Binning zur Anpassung an große Optiken verwendet werden kann. Das Rauschen pro Superpixel geht dann theoretisch mit der Wurzel der Pixelzahl und somit einfach mit dem Verhältnis der Kantenlängen der Pixel nach oben, also ein 2.5µ pixel mit 2 e- Ausleserauschen liefert bei Softwarebinning 4x4 eben 8 e- Ausleserauschen für den entstandenen , virtuellen 10 µm Pixel.

    Das ist unter vielen Umständen eben immer noch sehr wenig, aber in Einzelfällen auch nicht.

    Punkt 2 und 3 sind nur bedingt zu kommentieren, weil die Sensorarchitektur gerade bei CMOS so im Wandel ist, dass man kaum identische Chips findet, die sich nur durch die Pixelgröße unterscheiden. Auf der anderen Seite findet man relativ ähnliche Sensoren, die sich stark im Dunkelstrom unterscheiden. Ohne echtes Detailwissen kommt da m.E. nicht weiter.

    Punkt 4 würde mich auch interessieren, aber da kann ich leider nichts zu beitragen.


    Grüße

    Norbert

  • Guten Morgen Zusammen


    Gerne würde ich den Fokus wieder gerne aufs Thema lenken, alles andere ist hier fehl am Platz.


    Die Pixelgrösse ist wohl einer der Punkte die selten Diskutiert werden, daher danke Stathis fürs einbringen. Wenn überhaupt, dann diskutiert man meist im Zusammenhang mit Sampling, also eher die Abstimmung von Pixelgrösse zum verwendeten Teleskop.


    Mangels Vergleichsmöglichkeiten, kann ich selbst leider wenig dazu beitragen, und ich denke es geht vielen hier so. In solchen Themen findet sich immer viel Meinung, basierend auf Erfahrung, also anekdotische Evidenz. Aber auch das ist Wertvoll, manchmal auch wertvoller (für die Praxis) als Laborversuche. Nur wer versucht seine aus Erfahrung erzielten Erkenntnisse zu begründen, kann Wissen aufbauen. Daher sind für mich solche Diskussionen auch so spannend.

    Man darf einfach nicht vergessen, es sind Erfahrungen die in "freier Wildbahn" gemacht werden unter real Bedingungen mit ganz vielen Faktoren. Oft machen wir auch Dinge aus Erfahrung falsch, weil wir mal die falschen Schlüsse gemacht haben.

    Mit anekdotischer Evidenz hat man nicht automatisch Recht, wenn hier aber viele erfahrene Fotografen die selben Erfahrungen gemacht haben und mehr oder weniger die selben Schlüsse daraus ziehen, dann ergibt das ein Bild welchem man "glauben" und berücksichtigen kann. Genau das ist in meinen Augen eine grosse Aufgabe eines Forums.


    CS, Seraphin

  • Das Thema Pixelgröße hat zwei Aspekte.


    Zum einen das Sampling, die Abstimmung auf Objektiv-Öffnung und Brennweite.


    Zum anderen die Technologie. Also wie werden Photonen in elektrische Signale umgewandelt. Mit Details zur sog. Quanten-Effizienz, zur Wellenlängenabhängigkeit, zur Kapazität (Full-Well, Ausbrennen), Auslesegeschwindigkeit, Rauschen und noch einiges mehr (insb. Fehlerbehebung).


    Fair gesagt, ich bin da nicht mehr auf dem Laufenden. Das ist wie die neuen Multikern-CPUs von heute, die man mit einem alten Motorola 68000 (da programmierte ich noch Assembler) nicht mehr vergleichen kann.


    Die Technik wird ja laufend fortentwickelt. Immer mehr Funktionen werden auf dem Sensorchip integriert. Letztens las ich, dass es Kamerachips gibt, die Bilddaten intern in einem Zug auslesen und nicht mehr seriell Pixel für Pixel bzw. Zeile für Zeile. Interessant für Videoanwendungen, weil dies eine "echte" Shutterfunktion darstellt (im Unterschied zu bisher, als Zeile für Zeile ausgelesen werde, was wie ein Rolling-Shutter wirkt). Das mag für Astrofotografen jetzt nicht relevant sein, zeigt aber, wohin die Reise geht. Es geht nicht mehr nur um das Pixel selbst, sondern auch, wie sie noch auf dem Sensorchip ausgelesen und vor verarbeitet werden. Das ist ein ganzes Hardware-Paket, dass sich mit älteren Sensoren gar nicht mehr vergleichen lässt.


    Wenn die Sensorpixel immer kleiner werden, heißt das ja nicht, dass die Nettofläche des Sensors kleiner wird. Da werden auch die Abstände zwischen den Pixeln kleiner. Schließlich forschen die Ingenieure im Rahmen der Miniaturisierung auch an der Optimierung der Lichtempfindlichkeit. Treiber sind schließlich die Massenprodukte, sprich Smartphones/Webcams und ihr Anspruch unter widrigen Lichtverhältnissen ein "gutes" (rauscharmes) Bild zu machen. Je kleiner der Chip, desto mehr kann man an der Optik im Platzbedarf und auch kostentechnisch einsparen. Und für die Chiphersteller gilt: Je besser die Qualität ihrer Produktionsverfahren, desto mehr Ausbeute haben sie im Herstellungsprozess. Große Chips mit kleinen Pixeln sind dann quasi ein Nebenprodukt dieses Fortschritts.

    Für die Astrofotografie kommt noch hinzu, dass die Bildnachbearbeitung immer "schlauer" wird. Die Software trennt Einzelsterne und sonst. Objekte und beides wird inzwischen getrennt nachbearbeitet bevor es zu einem fertigen Bild wieder zusammenkommt.


    Ein Thema für sich ist auch die Farbtrennung bei RGB-Sensoren. Also die Frage, was da eigentlich unmittelbar vor den Pixeln auf dem Sensor passiert.

    • Offizieller Beitrag

    Wie einige Forenteilnehmer bemerkt haben, ist dieser Thread ein paar Tage lang durch das Moderatorenteam deaktiviert worden, nachdem einige Posts keinen Bezug mehr zum fachlichen Inhalt hatten.

    Nachdem es aber einige Nachfragen zu dem Thema gegeben hat, haben wir uns entschlossen, den Thread bereinigt wieder zu aktivieren.

    Wir bitten darum, nur themenspezifisch zu diskutieren und unsachliche Bemerkungen zu unterlassen. Beiträge die nicht zum Thema des Threads passen, werden von uns umgehend gelöscht.


    Wir bitten um euer Verständnis und hoffen auf weitere Diskussionen zu diesem spannenden Thema!


    Bis dann:

    Marcus

    16" f/4 Dobson, 6" f/5 Dobson, C8, 60/360 Apo, 70/700 PST-Mod "Sunlux"


    Zeige mir einen Dobson und ich zeige Dir eine Baustelle

  • Hi Sternfreunde,


    komplexes Thema: ich selbst verwende nach wie vor eine mono-CCD-Kamera mit dem ICX694 Chip. Der Vorteil für mich in der Langzeitfotografie liegt daran, dass mit der CCD echtes Binning möglich ist, d.h. im 2x2 Binning habe ich nur 1x das Ausleserauschen drinnen, und.. ich kann die Pixelgröße an das Teleskop "anpassen". An unseren Teleskopen sehe ich zwischen den beiden Modis schon gewaltige Unterschiede wie z.B. ist die Galaxie im 1x1bin gerade zu erahnen, so ist sie im 2x2bin klar erkennbar und im 6x6bin ausgebrannt :D

    Bei 1500mm Brennweite bildet mein Chip wie folgt ab:


    1x1bin 4,54x4,54um 0,62"/Pixel

    2x2bin 9,08x9,08um 1,24"/Pixel

    3x3bin 13,62x13,62um 1,87"/Pixel


    Das Seeing an meinem Standort liegt in der Regel zwischen 2 und 3 Bogensekunden mit Tendenz eher Richtung 3". Natürlich könnte der 400er Newton höher auflösen, aber das Seeing sagt einfach nein bei Langzeitbelichtungen!!


    Dann die Bildverarbeitung: Deconvolution oder BlurXT....... egal - für mich Fakt: je kleiner der Sterndurchmesser am finalen Stack, desto besser greifen diese Algorithmen. Deswegen versuche ich die Pixelgröße bei unseren Geräten immer so anzupassen, dass ich im Bereich 1 - 1,5" pro Pixel zu liegen komme, was natürlich auch seine Grenzen hat, besonders bei kurzbrennweitigen Optiken.


    Aber Achtung: das gilt nicht für unsere Kurzzeitbelichter, die haben ja ganz was anderes im Sinn.


    Mein persönliches Fazit: mit kleinen Pixeln (bei gleicher Brennweite) verschenke ich Gesamtbelichtungszeit will heißen: mit größeren Pixeln erreiche ich dasselbe in kürzerer Zeit.


    Noch ein kleines Wort zur Quanteneffizienz:

    Christian Buil (Astrosurf) hat mehrere Sensoren auf das vermessen, u.a. auch meinen ICX694 aber auch den neueren IMX571mono. Eigentlich kam bei mir auch das "haben wollen" zum Vorschein, da ja die Werbung nicht untätig war. Dann habe ich aber mal beide Kurven übereinandergelegt (die rundliche ist von einer ATIK460exm) und meine Schlüsse daraus gezogen... dabei ist mein Chip schon 13 Jahre alt....




    bin gespannt, ob sich mal ne runde Diskussion darüber entwickeln kann :?: :?:


    lg

    tom

  • Hallo Beisammen,


    Zum Dunkelrauschen (thermisches Rauschen) kann ich was zur CCD Herstellung sagen (sollte bei CMOS aber auch zutreffen)


    Bei der Chip Herstellung werden Bereiche n-dotiert / p-dotiert, um da die elektrische Leitfähigkeit des Siliziums einzustellen. Da wird ziemlich rabiat mit Ionenimplanation auf das Material geschossen. Speziell an den Grenzen der Bereiche gibt es dann Möglichkeiten, dass ein Atom nicht im Kristallgitter eingeordnet ist, oder eine Kristallgitterebene einen Sprung macht. An solchen Stellen gibt es neue Zustände im Energieband, die schon durch thermisch Energie angeregt werden können. (Dunkelrauschen). Ganz grob genähert ist das Rauschen dann proportional zur Länge der Grenzregion, also Umfang des Pixels. Es kommt auf das Verhältnis Umfang/Fläche an. Ein Pixel mit 1um Größe hat 4um Umfang (Verhältnis 4:1), eins mit 2um hat 8um (2:1). Also ist der Rauschanteil im SNR reduziert.


    Nun hat Sony die Herstellung so gut im Griff, dass selbst die Kristallstrukturen an diesen Grenzen sehr sauber sind. Also ist auch da das Dunkelrauschen eigentlich kein Problem. Nur die Full-Well Kapazität macht dann noch was aus also der Signalanteil im SNR. Also sind super kleine Pixel doch nicht so gut.

    Beste Grüße,

    Gert

  • Ja ist sehr interessant wie sich Einfluss der Pixelgröße von CMOS- Kameras bei Deep Sky auswirkt: Wie schon in einem anderem Beitrag erwähnt, hatte ich letztes Jahr die Canon R 7 Systemkamera ohne Spiegel gekauft. Die Sensorgröße wird mit 14,8 x 22,3 Millimetern und 32 Megapixeln angegeben. In dieser Kamera ist ein Sensor eingebaut die auf den Sensoren der beiden Modelle - Canon EOS M6 Mark II und Canon EOS 90D basiert, wobei der Prozessor in dieser Kamera und der Sensor noch mal überarbeitet wurde: d.h. mit einem deutlich schnelleren Prozessor DIGIC X, mit viel Technik und Geschwindigkeit der Canon R3 geerbt hat. Dies sorgt für deutlich detailreichere Aufnahmen. Auch das Bildrauschen bei höheren ISO-Werten hält sich noch sehr in Grenzen, oder ist kaum zu bemerken.


    Habe schon einige Astroaufnahmen mit dieser Kamera gemacht, wobei das Ergebnis mich zufrieden stellte. Zwar habe ich die Kamera noch nicht ganz voll ausgeschöpft, wird aber in der nächsten Zeit erfolgen, wobei man dann auch beurteilen kann, was sie noch kann. Klar wäre eine Vollformatkamera mit dieser gleichen Sensorgröße besser, aber deutlich viel teurer.

    Wenn uns Außerirdische aus der Ferne im All  beobachten, dann merken Sie dass was auf der Erde hier faul ist.
    :telescope: 150/750 mm Skywatcher Newton | :camera: Canon EOS 600d, Canon R7 + 14 mm Walimex, 24 mm Weitwinkel, 80 - 300 mm Tele, 16 - 55 mm Zoomobjektiv | Skywatcher Montierung HEQ-5 Pro SynScan GoTo

    Aktuelle Wetterdaten aus Wetterstation und Homepage

    »»»»»» Wetterseite Allmendingen ««««««« | »»»»»» Sternwarte Ehingen ««««««« |


    Gruß Manfred

  • Hallo zusammen,

    die immer kleiner werdenden Sensorpixel haben indirekt noch einen weiteren Nachteil. Die Optik muss auch entsprecht gut sein und auf die 2 oder 3 µm hin gerechnet worden sein und so gut abbilden können, ansonsten verliert man ja Schärfe. Ich habe das gestern wieder mal an meinem so hochgelobten Samyang gesehen. Bei 5 oder 6 µm ist alles in bester Ordnung. Bei meinen 2,45 µm haben Rot und Grün aber schon andere Fokuspunkte. Ich denke da vor allem an die Hyperstars. Zumindest die ersten Generationen (wie es heute ist, weiß ich nicht) haben ganz einfach die Auflösung nicht gebracht.

    VG ralf

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!