Du übersiehst im dritten Punkt, dass eine optimale Dekonvolution ein optimales SNR braucht. Die kleineren Pixel bieten mehr Auflösung, aber weniger Photonen und damit proportional mehr Photonenrauschen. Damit kommt man zu der Erkenntnis, dass es verschiedene Wege gibt, aber die Auflösung im Rahmen der Optik, wozu auch das Seeing gehört, letztlich SNR- und damit photonenlimitiert ist. Das sieht man schon am Sensor: Lücken zwischen den Pixeln verursachen einen Nachteil in der Quanteneffizienz, aber erhöhen die Sensor-MTF durch weniger Konvolution.
Wenn die Dekonvolution nicht optimal ist, bieten kleinere Pixel einen Vorteil, weil sie unterhalb der Grenzfrequenz mehr Kontrast liefern. Kommt die MTF allerdings in der Gegend von 0,8-0,9 an, ist durch weitere Verkleinerung der Pixel so gut wie nichts mehr zu gewinnen. Darum hängt es sehr von der Kamera (bzw. der Sensor-MTF) und nicht nur von der Pixelgröße ab, wieviel mehr Sampling noch einen Vorteil liefert.
Sony baut z.B. einige Sensoren, deren QE in Ordnung, aber nicht berauschend ist, aber die sehr hohe Sensor-MTF-Werte erreichen. Offenbar können sie sehr effiziente Pixel bauen und tauschen etwas QE gegen mehr MTF. Damit sind Rohbilder bei ausreichend Licht besser als bei anderen Sensoren und es gibt viele Anwendungen, wo es so gut wie kein Postprocessing gibt.
Michael