Beiträge von m.haardt im Thema „Erfahrungsbericht: Kamera- und Bildauflösung in der Videoastronomie“

    03sec Die Sensor-MTF ist abhängig von der Wellenlänge. In der Tat ist eine deutlich sinkende MTF im NIR-Bereich durchaus üblich. Weiterhin geben die Hersteller normalerweise den chief ray angle (CRA) an, für den die Mikrolinsen der Pixel gebaut sind. Es gibt einige Sensoren, die hier durchaus anspruchsvoll sind und ein eher spitzes Strahlenbündel sehen wollen. Bei schnelleren Öffnungsverhältnissen bekommt man teilweise einen Effekt wie Vignettierung und zudem sinkt die Sensor-MTF, weil Licht in Nachbarpixel gebrochen wird. Sensor und Optik müssen halbwegs zueinander passen, aber da die Hersteller immer sparsamer mit öffentlichen Datenblättern werden, wird das im Amateurbereich oft ignoriert.


    Die Bildentstehung ist kein einfaches Thema, weil viele Dinge zusammenspielen. Wenn man sich auf Praxisvergleiche beschränkt und nicht alle Parameter kennt, kann man leicht falsche Schlüsse ziehen.


    Michael

    Du übersiehst im dritten Punkt, dass eine optimale Dekonvolution ein optimales SNR braucht. Die kleineren Pixel bieten mehr Auflösung, aber weniger Photonen und damit proportional mehr Photonenrauschen. Damit kommt man zu der Erkenntnis, dass es verschiedene Wege gibt, aber die Auflösung im Rahmen der Optik, wozu auch das Seeing gehört, letztlich SNR- und damit photonenlimitiert ist. Das sieht man schon am Sensor: Lücken zwischen den Pixeln verursachen einen Nachteil in der Quanteneffizienz, aber erhöhen die Sensor-MTF durch weniger Konvolution.


    Wenn die Dekonvolution nicht optimal ist, bieten kleinere Pixel einen Vorteil, weil sie unterhalb der Grenzfrequenz mehr Kontrast liefern. Kommt die MTF allerdings in der Gegend von 0,8-0,9 an, ist durch weitere Verkleinerung der Pixel so gut wie nichts mehr zu gewinnen. Darum hängt es sehr von der Kamera (bzw. der Sensor-MTF) und nicht nur von der Pixelgröße ab, wieviel mehr Sampling noch einen Vorteil liefert.


    Sony baut z.B. einige Sensoren, deren QE in Ordnung, aber nicht berauschend ist, aber die sehr hohe Sensor-MTF-Werte erreichen. Offenbar können sie sehr effiziente Pixel bauen und tauschen etwas QE gegen mehr MTF. Damit sind Rohbilder bei ausreichend Licht besser als bei anderen Sensoren und es gibt viele Anwendungen, wo es so gut wie kein Postprocessing gibt.


    Michael

    Das Nyquist-Kriterium gibt die Grenzfrequenz an, aber Pixel machen kein Sampling wie im Nyquist-Shannen-Theorem beschrieben, sondern das Sampling einer Konvolution:


    Image sensors: Modulation transfer function


    Mit mehr Sampling kann man also die MTF unterhalb des Nyquist-Kriteriums erhöhen. Die MTFs von Bildsensoren unterscheiden sich erheblich, was man berücksichtigen muss. Bei Farbe wird die Sache komplizierter: Die Pixelabstände sind zwar größer, was die Grenzfrequenz herabsetzt, dafür ist die Konvolution (ohne low pass Filter) viel geringer, was die MTF erhöht.


    Wenn die Praktiker also sagen, dass mehr Sampling in Grenzen auch mehr bringt, dann ist das nicht der Unterschied zwischen Theorie und Praxis, sondern eine falsche Anwendung der Theorie. Man bekommt keine höhere Grenzfrequenz, aber mehr Kontrast bis zur Grenzfrequenz.


    Michael