Hallo Gerd,
ja, ich stimme dir zu. Du hast jetzt mit gleich großen Sensorpixeln gerechnet, und dann hast du tatsächlich recht. Das mehr an Licht wird auf eine größere Fläche verteilt. Du argumentierst jetzt, dass die Brennweite dafür verantwortlich ist. Die höhere Brennweite ist aber nach meiner Argumentation eine Folge dessen, dass wir auf die selbe Blendenzahl kommen müssen, weil die Öffnung ja größer ist. Ist jetzt die Öffnung die Ursache oder die Brennweite? Die Brennweite verteilt in meinen Augen aber nur das, was überhaupt erst einmal da ist. Also ist die Öffnung die Ursache für das, was mehr an Photonen da ist. Mache ich den Deckel drauf, dann hat sich die Brennweite nicht geändert, aber der Photonenfluss ist 0. Man kann jetzt in gewisser Weise über das Huhn und das Ei philosophieren. Ich stelle die Öffnung aber als ursächlich hin, weil sie die reale physische Grundlage für ein Abbild gibt, nämlich die Photonen.
In unserer Praxis gilt aber:
Die Kamera muss möglichst sinnvoll an das System angepasst werden.
Ich formuliere das bewusst sehr relativ. Bei der Planetenfotografie nutzt man das System, um an die theor. Auflösungsgrenze zu kommen. Hier ist es vergleichsweise einfach, denn die größere Öffnung bildet schärfer ab.
Anders bei der Deep-Sky-Fotografie. Hier sind wir seeingmäßig begrenzt. Beim einen sind es 3" beim anderen ist´s 1", aber egal mit welchem Gerät man fotografiert, die "Schallmauer" bleibt bestehen.
Jetzt kommt das "möglichst sinnvoll" ins Spiel. Leere Vergrößerung macht keinen Sinn, also können wir größere Pixel wählen. Dabei haben wir keinen Verlust an Schärfe, aber gemäß Beispiel oben, 4-mal so viel Licht. Wir kommen also 2-mal so tief (wegen der Wurzelfunktion der Rauschreduktion, nicht 4-mal). Also: größere Öffnung = tieferes Bild. Die Schärfe bleibt gleich und wenn wir die Anzahl der Pixel beibehalten (dann wird der Chip größer) ist sogar das Bildfeld gleich.
Statt größerer Pixel kann man tatsächlich auch Binning betreiben. Bei CCDs wird nur 1-mal ausgelesen anstatt z.B. 4-mal. CCDs haben ein recht hohes Ausleserauschen und das kann man so reduzieren. Das ist das Hardware-Binning. Hinzu kommt der rein geometrische oder statistische Effekt. 4 versch. Pixel, die gemittelt werden, sind anderen 4 Pixeln, die auch gemittelt werden, ähnlicher als das hellste der 4 Pixel im Verhältnis zum dunkelsten der 4 Pixel. Das Rauschen wird reduziert, das ist das Software-Binning. Bei Cmos-Sensoren kann man nur das nutzen. Es ist allerdings sinnlos, das bei der Aufnahme zu machen. Wenn wir unser fertiges Bild verkleinern (und dabei keinen "sinnvollen" Algorithmus verwenden, in Photoshop heißt das dann reine Pixelwiederholung), dann machen wir genau dasselbe.
Das ist auch der Grund, warum ich beim Stammtisch oder in einer Galerie immer die 100 % Version sehen will. Reduziere ich es auf z.B. 25 %, dann ist das Rauschen oft fast weg. Oft genug habe ich so ein kleines Vorschaubild hier gesehen und dachte, das sei ein tolles Bild. Klickt man es an und es wird vergrößert, das zerfällt es in Rauschen und Artefakte. In der Bildbearbeitung wird das z.T. exzessiv genutzt und ich mag das gar nicht. Da wird mit 20 x 20 Pixeln "entrauscht", also ein 20 x 20 Binning angesetzt und dann wieder auf das 20-fache vergrößert, mit weichen Übergängen, und am Ende hat man lauter kleine, weiche diffuse Nebel, deren kleinste Details alle etwa 20 Pixel groß sind.
Viele Grüße
ralf