Einfluss Öffnung/Öffnungsverhältnis/Brennweite bei Deep Sky

  • Hallo Leute,

    einen hab ich noch, aber dann können wir enden.


    So sieht die vereinfachte Vorstellung mit Flächenhelligkeiten aus. Gerd hat 16000 Photonen auf 16000 Pixel verteilt. Im Mittel ist das 1 pro Pixel, aber eben nur im Mittel.



    So sieht die Simulation als Photonenstrom aus.



    Wenn man über die Fläche argumentiert, erhält man ein besseres SNR, als wenn man über die Photonenzahl argumentiert. Dann wären 20 cm Öffnung bei 1 Meter Brennweite, so gut wie 40 cm bei 2 m.

    Ist es aber nicht, da der "Photonenkontrast" geringer ist, als die rein rechnerische Flächenhelligkeit.


    So Leute, ich habe mein Pulver verschossen. Nein, ich will niemanden abschießen, ich habe meine Argumente auf den Weg geschickt. Ihr könnt euch ducken und sie vorbeirauschen lassen, das ist mir nicht so wichtig. Mir ist wichtig, dass das hier ein Beweis ist und keine Theorie. (es sei denn ihr stellt so Dinge wie Photonenrauschen infrage)

    Und in der Praxis ist das alles längst bestätigt.


    Viele Grüße

    ralf


    Nachtrag: und jetzt können wir über die anderen Faktoren sprechen. Ich bin da auf Tinos Infos gespannt.

  • Servus Zusammen,


    ich möchte noch einmal auf die MTF eingehen.


    Durch den schlechteren "Wirkungsgrad" der kleineren Öffnung kommt im oben genannten Beispiel nur 50% des ursprünglichen Kontrasts (tatsächlicher Objektkontrast am Himmel) am Kamerasensor an, wobei bei der größeren Öffnung 80% des ursprünglichen Kontrasts am Kamerasensor an kommen.

    Siehe Skizze oben.


    Das heißt, dass bei einer Skalierung der Pixel auf das doppelte der Kantenlänge (vierfache Fläche) bei der 16" F4 Öffnung gegenüber der 8" f4 Öffnung das Bild:


    1. Beider Öffnungen den gleichen Abbildungsmaßstab haben

    2. Das Bild von der 16" F4 Öffnung tiefer ist, da es 80% vom ursprünglichen Kontrast erhalten konnte

    3. Das Bild von der 8" F4 Öffnung weniger tief ist, da es nur 50% vom ursprünglichen Kontrast erhalten konnte


    Die Kontrastübertragung sinkt, je näher man der gerätespezifischen Auflösung kommt.


    Da ich durch die Pixelgrößenänderung den selben Abbildungsmaßstab habe, arbeitet die größere Öffnung weniger nah an seiner maximalen Auflösungsgrenze, als die kleinere Optik. Die MTF ist also noch nicht so weit in den Keller getauscht.


    Gruß Markus


    Korrektur: siehe weiter unten

    Skywatcher FT 16" f4.4 :dizzy:

    ... immer für ein Tuningvorhaben zu begeistern

    Einmal editiert, zuletzt von Markus85 () aus folgendem Grund: x

  • Hallo Ralf,


    all das was du da schreibst ist mir nicht neu und es beweist eben nicht das die größere Öffnung bei gleicher Photonenzahl / Pixel im Vorteil ist.

    Ja mehr Photonen bringen etwas beim S/R aber es müssen eben mehr Photonen / Pixel sein.

    Was du da mit dem Mitteln der 4 Bilder zeigst funktioniert, weil Rauschen ein dynamischer Prozess ist also einem permanenten Wandel unterliegt und nicht statisch immer gleich ist.

    Mit dem Mitteln der Bilder mittelt sich das Rauschen das in jedem Bild anders ist zunehmend raus.


    Und das ist dann auch die Erklärung wurmen Mitteln von Kopien eines Bildes mit einem immer gleichen Rauschen natürlich nichts bringen kann.

    Denn wenn das Rauschen in jedem Bild gleich ist kann es sich nicht rausmitteln.


    Das erklärt also warum längere Belichtungszeiten oder eben, dass Mitteln mehrerer kurz belichteter Bilder das S/R verbessern.

    Es erklärt aber nicht warum eine größere Öffnung welche exakt die gleiche Anzahl von Photonen/ Pixel bringt wie die kleinere irgendeinen Vorteil beim S/R haben soll.


    Dein großer Irrtum ist das du nur die absolute Anzahl der Photonen betrachtest aber entscheidend sind letztlich die Photonen/ Pixel denn es geht bei dem S/R nun mal um Rauschen auf Pixelebene.

    Deshalb bringt ja auch das von dir gerade beschriebene Mitteln der Pixel etwas.

    Du mittelst bei den 4 Bildern schließlich ja auch immer jeden einzelnen Pixel.

    Die Werte der Nachbarpixel sind dabei uninteressant und haben keinerlei Einfluss auf den Mittelwert des betrachteten Pixels.

    Gemittelt werden, wenn die Auflösung gleich bleiben soll immer nur Pixeln der jeweils gleichen Position in den 4 Bildern.


    Und darum ist es völlig Wurst wie viele Photonen sonst noch so in der Bildebene verteilt werden.

    Für das S/R zählen ausschließlich die Photonen die ein Pixel treffen.


    Oder mal anders erklärt.

    Ein Nebel wird bei 200mm Öffnung auf 100x 100 also 10000 Pixel abgebildet und bei 100mm Öffnung dann dementsprechend 50x 50 also 2500 Pixel.

    Was passiert, wenn der Sensor nur 50x 50 also 2500 Pixel hat?

    Dann gehen beim 200er die Photonen von dem Nebel die nicht mehr auf den Sensor fallen verloren und es werden nur die genutzt die auf die 50x50 Pixel fallen.

    Der Nebel wird also beschnitten und es werden nur noch 1/ 4 der Photonen die vom ganzen Nebel ausgehen genutzt.

    Aber ändert das etwas am S/R des 200er ?

    Nee es ändert sich lediglich etwas am Bildausschnitt.

    Es zählen also immer nur die Photonen/Pixel und nicht die die irgendwo anders im Feld verteilt sind.


    Grüße Gerd

  • In diesem Zusammenhang kann ich diese Lektüre hier empfehlen. Das zweite Kapitel "Signal and Noise" liefert einen anschaulichen und guten Einsteig in die Photonenstatistik.


    CS - Oliver

  • Hallo Nobby,


    gleiche Flächenhelligkeit, links ohne noise , rechts mit synthetischem Noise, gleiches S/R pro Pixel

    Flächenhelligkeit und Signal sind in beiden Bildern gleich aber nicht das S/R .

    Wie kommst du zu der Behauptung das das S/R für jedes Pixel in beiden Bildern gleich wäre?

    Ein Bild ohne Rauschen und eines mit synthetischem Rauschen aber das S/R soll bei gleicher Signalstärke gleich sein?

    Wie soll das gehen wenn im 2. Bild Rauschen dazugekommen ist?


    nur anderer Abbildungsmasstab.


    Der Abbildungsmaßstab kann unmöglich unterschiedlich sein denn die Schrift wird in beiden Bildern exakt gleich groß dargestellt.


    Grüße Gerd

  • Servus Gerd,


    wenn die Werte der Nachbarpixel uninteressant bis egal sind, dann müsstest du in Nobbis Beispiele beide Schtiften gleich gut lesen können. Natürlich ist der Mittelwert des einen Pixels unabhängig von anderen im Bild. Wenn es aber um die SNR geht, dann spielen natürlich auch die Nachbarpixel eine Rolle, wie man hier schön sehen kann.


    Wie kannst du Signal vom Rauschen unterscheiden, wenn Nachbarpixel (also das Rauschen) nicht betrachtet werden. Ich habe da rein formallogische Probleme, die Aussage nachzuvollziehen.


    Geht es bei "Tiefe einer Aufnahme" nicht darum, dass sich das Signal vom Rauschen abhebt? Sprich das Abbild des Objekts heller erscheint als das Rauschen der Nachbarpixel im Bereich um das Abbild? Dass die Schrift also bei Nobbis rechtem Bild lesbar sein müsste und nicht im Rauschen untergeht? Wie soll das gehen, wenn es egal ist, wie hell die Nachbarpixel sind?


    Liebe Grüße,

    Christoph

    Mein Verein: Astronomische Gesellschaft Buchloe e.V.

    Meine Ausrüstung:

    Teleskope: 22" (560 mm)  f/3.5 Dobson (Martini / Oldham Optical)  –  Omegon Ritchey-Chretien Pro RC 203/1624; Montierung: iOptron CEM40G  –  Ferngläser (8 x 42, 20 x 60)

    Kamera: Canon EOS 6D Mark II (Vollformat, unmodifiziert); Kameraobjektiv: meist Canon EF-200 mm f/2.8 Teleobjektiv

  • Wie kommst du zu der Behauptung das das S/R für jedes Pixel in beiden Bildern gleich wäre?

    Servus Gerd, servus Nobbi (korrigiere mich, wenn ich falsch liege),


    ich dachte, das sei ein Scherz von Nobbi. Wie kann man für ein einziges Pixel ein Signal/Rausch-Verhältnis berechnen? Das Rauschen ist auf viele Pixel verstreut, das Signal ebenso (auf weniger, aber doch mehr als nur ein Pixel). Und hier kann man dann berechnen, wie sehr sich das Signal vom Rauschen abhebt.


    Das mit dem "SNR eines einzigen Pixels" in sich kam von dir, Gerd und ich vermute, Nobbi wollte dir zeigen, dass die Aussage – nun ja – etwas schräg ist.


    Liebe Grüße,

    Christoph

    Mein Verein: Astronomische Gesellschaft Buchloe e.V.

    Meine Ausrüstung:

    Teleskope: 22" (560 mm)  f/3.5 Dobson (Martini / Oldham Optical)  –  Omegon Ritchey-Chretien Pro RC 203/1624; Montierung: iOptron CEM40G  –  Ferngläser (8 x 42, 20 x 60)

    Kamera: Canon EOS 6D Mark II (Vollformat, unmodifiziert); Kameraobjektiv: meist Canon EF-200 mm f/2.8 Teleobjektiv

  • diesen Text habe ich geschrieben, während die obigen dazu kamen. Ich habe hier ein Objekt eingeführt, um den Abstand des Objektes vom Hintergrund zu verstehen. Das bekommt bei obigen Posts eine noch größere Bedeutung


    Hallo Gerd,

    ich verstehe deine Argumentation.

    100 Photonen auf 100 Pixel verteilt, ergibt 1 pro Pixel.

    1000 Photonen auf 1000 Pixel verteilt ergib auch 1 pro Pixel.

    Dabei muss natürlich der Abbildungsmaßstab berücksichtigt werden.

    Das passt so weit.

    Die Photonen rauschen aber, das heißt, es kommt im Schnitt eines an. Mal keins, mal 2 usw.

    Aber auch das wäre für beide Szenen gleich.

    Auch hier bin ich noch immer deiner Meinung.

    Was du aber vergessen hast, ist, ein Objekt einzuführen, das sich vom Hintergrund abhebt. Es gibt sozusagen ein oberes Level und ein unteres Level.

    Sagen wir, unten bleibt es bei (im Schnitt!) 1, unser Objekt hat 4 (im Durchschnitt) , das kommt auf den Hintergrund obendrauf, hat also den Wert 5

    Auch das bleibt in beiden Fällen gleich, der Abstand ist durchschnittlich 4

    Nun vervierfachen wir die Anzahl der Photonen, indem wir länger belichten.

    Das untere Level wird zu 4, das obere zu 20. (durchschnittlich) Beide Level rauschen nach wie vor, aber jetzt weniger.

    Wie viel weniger? Halb so viel. Nicht 1/4 so viel, weil es eben verrauschte Level sind.

    Wir haben also 4-mal so viel Licht darauf gegeben und es rauscht halb so viel. Der Abstand von Objekt zu Hintergrund hat sich verbessert. Nun 8 statt 4.

    Nicht etwa 16 zu 4. Würden wir mit Flächenhelligkeiten arbeiten, dann wäre der Abstand 16 zu 4. Das wird so in der Tageslichtfotografie gerechnet. Oder besser gesagt in der "Viel-Licht-Fotografie". Hier interessiert man sich wenig für ein verbessertes SNR. OK, wenn man 4-mal das selbe Objekt fotografiert, dann rauscht es weniger, (ich mache das tatsächlich oft so) aber wir strecken unsere Tageslichtbilder ja in der Regel nicht und irgendwann ist das so rauscharm, dass ein "Noch-weniger-rauschen" nicht mehr sichtbar wäre.

    In der Planetenfotografie haben wir i.d.R. auch viel Licht.(pro Flächeneinheit) Hier ist das gute SNR aber wieder sinnvoll, da wir unsere Bilder damit schärfen können.

    Zurück zu unserem Beispiel:

    100 zu 100 bei einer Signalhöhe von 4 und 1000 zu 1000 bei einer Höhe von 40. Kann man die jetzt ineinander überführen, indem wir die Öffnung und Brennweite entsprechend anpassen? (gleiches Öffnungsverhältnis) Geteilt durch 10, also fertig? ? Die Flächenhelligkeit ändert sich nicht. Wir haben zwar 10 mal so viel Licht, aber ja auch durch 10 geteilt. Die Auflösung am Himmel bleibt auch gleich, die ist begrenzt durch das Seeing. Das war ja immer die Voraussetzung. Die Abtastung ist auch gleich, die hat sich zwar verringert, aber die war ja auch vorher viel höher. Also, haben wir keinen Verlust an Detailschärfe oder Flächenhelligkeit.

    Und doch haben wir einen Verlust an Tiefe, weil die nur mit der Wurzel der Photonenanzahl zunimmt und nicht linear.

    Oben im Beispiel wurde das SNR nur um die Hälfte verbessert bei 4-facher Belichtung.

    Hier wären es jetzt, bei 10-facher Photonenzahl, 3,16.


    Jeder Astrofotograf kennt das: Irgendwann ergibt es keinen Sinn mehr, noch länger zu belichten. Es wird immer mühsamer. Hab ich schon 10 Stunden im Kasten, dann bringen 10 obendrauf auch nicht mehr soooo viel. Bei 10 zu 40, ja, das kann man gut sehen. Haue ich auf die 40 jetzt noch mal 10 (oder auch 40) drauf, dann bringt das so gut wie nichts mehr, oder, wie oben, nicht mehr soooo viel bei 40 obendrauf. Ich müsste 160 Std. belichten, um denselben Gewinn zu haben wie zwischen 10 und 40.


    Dieses nicht lineare Verhältnis, ist im Grunde auf die Quantenphysik zurückzuführen. Dem Rauschen des Lichtes.


    Viele Grüße

    ralf

  • Das heißt, dass bei einer Skalierung der Pixel auf das doppelte der Kantenlänge (vierfache Fläche) bei der 16" F4 Öffnung gegenüber der 8" f4 Öffnung das Bild:


    1. Beider Öffnungen den gleichen Abbildungsmaßstab haben

    2. Das Bild von der 16" F4 Öffnung tiefer ist, da es 80% vom ursprünglichen Kontrast erhalten konnte

    3. Das Bild von der 8" F4 Öffnung weniger tief ist, da es nur 50% vom ursprünglichen Kontrast erhalten konnte

    Ich habe ein bisschen mit unserem künstlichen Knecht gechattet und muss mich selbst - wenn ich ihm glauben mag - korrigieren:


    Richtig sollte es heißen:


    Dass bei einer Vergrößerung der Pixel darauf zu achten ist, dass ein Gewinn an Auflösung gegenüber der 8" Öffnung statt findet, denn nur mit mehr Auflösung lässt sich der Vorteil der besseren Kontrastübertragung der größeren Optik auf den Chip übertragen.


    Heißt also, dass eine "fast Verdoppelung" der Pixelkantenlänge zu mehr Auflösung und mehr Kontrast führt und zu einem dunkleren Bild. Wird die Pixelgröße weiter und weiter reduziert, wird das "mehr" an Kontrast und Auflösung von der Abnahme der Bildhelligkeit begleitet.


    Detektierter Kontrast = Tiefe


    Ist das Seeing der limitierende Faktor für die Auflösung, ist über den Ansatz der MTF kein zusätzlicher Kontrast zu holen.


    Gruß Markus

  • Wie kann man für ein einziges Pixel ein Signal/Rausch-Verhältnis berechnen?

    Hallo Christoph,


    doch, das genau ist der zentrale Grund, warum wir lange belichten und ein kleines Öffnungsverhältnis verwenden, um eine möglichst hohe Photonenanzahl pro Pixel zu detektieren. Photonen aus klassichen Quellen sind Poisson-verteilt und die Standardabreichung entspricht der Quadratwuzel der detektieren Photoananzahl. Demsentsprechend seigt das SNR des Signals auf einem Pixel mit Quadratwutzel (Photonenzahl pro Pixel).


    CS - Oliver

  • Hallo Zusammen,


    Gerd: Das S/R eines bestimmten Einzelpixels kann man streng genommen natürlich nur an diesem Pixel über die Zeit messen. Dann könnte man aber auch sagen, kein einziges Einzelbild rauscht

    (ist physikalisch völlig richtig, ich brauche eine Seqzuenz von Bildern um Rauschen vorurteilsfrei bewerten zu können ) . Die Standardabweichung über die Fläche hilft da auch nicht weiter, mein Objekt könnte ja so grisselig aussehen wie z.B. ein grau melierter Teppichboden, dessen Struktur die Standardabweichung nach oebn treibt.

    Aber: in meinem Beisoiel kenne ich das Signal und seine räumliche Verteilung. Und ich weiß auch, dass der Himmelshintergrund nicht wie eine Teppichfliese gemustert ist. Ich habe einen hohen Hintergrund von ca. 2000 ADU simuliert, und der Schrift ein paar wenige ADU mehr verpasst.

    Der Befehl "Add Noise" in Maxim erlaubt die Vorgabe einer Amplitude und einer Verteilungscharakteristik (hier Gauss) die jedem Pixel einen Zufallswert innerhalb dieser Amplituide um seine ursprüngliche Intensität zuordnet.

    Das Rauschen an der Stelle mit Signal ist zwar geringfügig höher als im Hintergrund , aber das spielt hier wirklich keine Rolle.
    Wenn du beliebig viele dieser Bilder erstellst, würde beim Stacken wieder eine Annäherung ans Original stattfinden.

    Ich habe extra dasselbe Bild genommen, und nur die Schriftgröße geändert. Das Rauschen und die Intensität sind somit überall nahezu gleich, und es gibt keine Zoom bzw. Binning Problematik.

    Was ich zeigen will, ist das was Christoph schon formulierte: Es gibt mehr Information aus der räumlichen Verteilung des Signals, es ist nicht nur das S/R.


    In der Praxis messen wir natürlich das S/N durch Differenzbildung zweier Bilder und betrachten die Statistik über Flächen möglichst homogener Intensität. In dem Fall spiegelt diese räumliche Standardabweichung das S/N für Pixel halbwegs gleicher Intensiät sehr gut wieder (vorausgesetzt das Bild ist ordentlich kalibriert)


    Ralf: Ja Fehlerbalken ist richtig, aber schwer darstellbar. Vielleicht müsste man tatsächlich eine Sequenz als kurzes AVI simulieren, aber da hab ich jetzt keine Lust und nicht die richtig komfortablen Programme dazu...


    Vielleicht noch eine Analogie dazu: Die älteren erinnern sich vielleicht ans analoge Fernsehen und den Versuch mit Herumtragen der Zimmerantenne z.B. in Frankfurt das dritte SWF Priogramm zu empfangen, weil da irgendein Fußballspiel läuft. Eigentlich rauscht alles gleich , die Spieler kannst du erahnen, den Ball oft nicht.


    Viele Grüße

    Norbert

  • Ich habe ein bisschen mit unserem künstlichen Knecht gechattet und muss mich selbst - wenn ich ihm glauben mag - korrigieren:

    Hallo Markus,

    herzlichen Glückwunsch. Du bist in der Lage deine Meinung zu ändern aufgrund neuer Informationen.

    (Diese Aussage ist definitiv nicht gegen einzelne Personen gerichtet, sie ist gegen einen "Zeitgeist" gerichtet, der auch mich einschließt.)


    Was die MTF angeht, so kenne ich mich da nicht wirklich gut aus. Über die MTF zu argumentieren, ist auch sehr ungewöhnlich. Deshalb fand ich das ja auch so witzig.

    Wenn man aber eine Korrelation zwischen MTF und Photonenzahl findet, so könnte man eben doch so argumentieren.

    Das Teleskop wird nicht schärfer, wenn mehr Photonen hineinfallen. Oder doch? Nein, aber das System wird schon schärfer. Wir müssen die Photonen ja „messen“. Und beim Messen, also dem Fotografieren, ist das schon der Fall. Wir messen ja nicht die MTF, sondern das Objekt, das durch eine MTF verändert wurde.

    Ich bin Planetenfotograf, da kann ich sagen, das Bild wird schärfer, wenn viele Photonen durch die immer gleiche Optik hineingefallen sind, denn aufgrund der Menge kann ich versch. stark schärfen.

    Wie gesagt, nur so eine verdrehte Argumentation.

    Viele Grüße

    ralf

  • Hallo in die Runde,

    ich hatte leider wenig Zeit mich um das Thema zu kümmern, aber habe nun es endlich mal geschafft mit Phosim ein paar Simulationen anzuwerfen.

    Diese sollten hoffentlich etwas Aufklärung bringen:


    Es wurden 8 ideale Teleskope simuliert:


    Gif-Serie #1

    Apertur: 1cm, 2cm, 4cm, 10cm, 20cm, 40cm, 100cm, 200cm

    F-Zahl: konstant 4

    Seeing: konstant 2asec (rms)

    Sampling: konstant, 2µm/Pixel, also die Spotgröße aufgrund der F-Zahl wird ordentlich gasampled

    Belichtungszeit: 150s

    Darstellung:

    1. Links oben >>> künstliche variable Galaxie, 15Mag Gesamthelligkeit, Ausdehnung ~1 x 1.5 arcmin

    2. Rechts oben >>> Stern Mag18

    3. Links unten >>> schwacher Stern Mag22

    4. Rechts unten >>> künstliche fixe Galaxie, 15Mag Gesamthelligkeit, Ausdehnung ~1 x 1.5 arcmin

    Guter Himmel: ~22Mag/arcsec^2

    Bildgröße konstant, also das was auf dem Sensor ankommt.

    Helligkeitsskalierung der Einzelbilder 40Elektronen für 255 Graustufen.



    Gif-Serie #2

    Alles gleich nur GrößenSkalierung bezogen auf die Größe am Himmel angepasst.



    Ich glaube hier ist sehr deutlich zu sehen, was passiert, wenn man die Apertur hochzieht, bei gleichbleibender F-Zahl.


    Die Einzelpixel haben wirklich etwa die gleiche Helligkeit, also die selbe Menge Photonen (etwa 30-40) aufgefangen. Nur ist die komplette Helligkeit der Galaxie bei 1cm Apertur auf wenigen Pixeln gelandet und beim 200cm Teleskop besteht das Bild der Galaxie aus mehreren 100000Pixeln, welche jeweils einzeln auch die 30-40 Photonen beinhalten. Also wenn man das Bild des 200cm Teleskops auf die grottige Auflösung des 1cm Teleskops zusammenbinnt, kommt der Faktor der größeren Teleskopöffnungen 200^2 also 40000 heraus. Also landen eine Unmenge mehr Photonen auf dem Sensor.


    Also zählt die Apertur, ohne wenn und aber. Wäre auch wirklich witzig, wenn nicht.


    Jetzt nochmal ein kleines Rechenbeispiel:

    Ich habe 2 Teleskope:

    Teleskop 1: 200mm Apertur, F-Zahl 4, also Brennweite 800mm

    Teleskop 2: 100mm Apertur, F-Zahl 2, also Brennweite 200mm

    Kommt bei beiden das gleiche heraus, was ja anscheinend die F-Zahl skalierung propagiert?

    Randbedingungen: Ich habe eine kleine Struktur am Himmel, welche eine Ausdehnung von beispielsweise 10Bogensekunden hat.

    Die Kamera ist bei beiden Teleskopen gleich und bei dem schnelleren Teleskop beträgt das Sampling 5Bogensekunden/Pixel. Also die Struktur beleuchtet 2x2 also 4Pixel beim schnellen Teleskop. Beim langsamen Teleskop werden von der gleichen Struktur aufgrund der 4-fach längeren Brennweite aber 8x8 also 64Pixel (16mal soviele, wie beim schnellen Teleskop) mit einem 4tel der jeweiligen Helligkeit beleuchtet (aufgrund der F-Zahlen). Dh. mit dem langsameren aber größeren Teleskop bleibt immernoch der Faktor 4 mehr Photonen für die 10asec-Struktur übrig, also exakt der Faktor von der größeren Apertur.

    Tja.


    Lg Tino

  • Hallo Tino,


    interessante Simulation! Bei dem Vergleich 200 mm Apertur f/4 vs. 100 mm Apertur f/2 hast Du ja anders als im oberen Beispiel eine kleine Struktur mit 10 Bogensekunden Ausdehnung angenommen.

    Was kommt heraus, wenn man die 1' x 1.5' Galaxie annimmt?


    Was weiter oben ja schon diskutiert wurde, wie sieht es aus bei gleicher Apertur und unterschiedlichen f-Zahlen, also z.B. 100 mm Apertur f/2 vs. 100 mm Apertur f/4 für die 10" Struktur und die 1' x 1.5' Galaxie?

    Clear skies


    Robin

  • Hallo Robin,


    ich hab schon ein paar Sachen vorbereitet, hab aber heute auch noch keine richtige Zeit, eine vernünftige Struktur reinzubringen. Ab morgen hab ich Urlaub und dann nehme ich mir ein paar Sachen vor.

    Ich könnte auch für alle Interessierten mal schauen, ob ich die installierte Phosim-Software (https://www.phosim.org/) als lauffähiges Linux-VirtualBox Image vorkonfiguriere und man müsste es dann nur herunterladen. Ich bin aber leider etwas dumm, wenns um Linux geht. Die erforderliche Neuinstallation auf meinem neuen Laptop war schon etwas umständlich, aber hat letztendlich geklappt. Jetzt funktioniert auch die aktuelle Phosim-Version.


    Lg Tino

  • Was weiter oben ja schon diskutiert wurde, wie sieht es aus bei gleicher Apertur und unterschiedlichen f-Zahlen, also z.B. 100 mm Apertur f/2 vs. 100 mm Apertur f/4

    Hallo Robin,

    ich antworte mal für Tino, damit er mehr Zeit hat mit dieser tollen Software.

    Bei gleicher Öffnung gibt es bei den meisten kein wirkliches Verständnisproblem. Das Bild wird heller, aber kleiner.

    Zu klein darf es nicht werden, sonst verlieren wir Details, wir müssen also immer noch über dem Seeing bleiben.

    Da die meisten Astrofotos sowieso stark oversampled sind, ist das ein echter Gewinn. (Bei 8" und f2,8 wirds aber langsam knapp). Deshalb gibt es den Run auf lichtstarke Systeme, auch, weil die Kamerapixel immer kleiner werden.

    Nun stellt sich aber die Frage, um wie viel das Bild dann besser wird. Mit "besser" meine ich tiefer.

    Beim Händler steht oft: das Bild wird 4-mal besser. Rechnung: Von f/4 auf f/2 ist der doppelte Durchmesser, da kommt 4-mal so viel Licht durch, also 4-mal so gut, so scheint es. Es kann durchaus sein, dass die Leute, die die Texte geschrieben haben, es nicht besser wissen, oder das Teleskop wie ein Teleobjektiv betrachten.

    Ich habe oben mal irgendwo geschrieben, dass die Hälfte der Leute ihre Teleskope gekauft haben und dabei von falschen Voraussetzungen ausgegangen sind. Ich glaube, es sind sogar noch mehr.

    Denn: 4-mal so viel Licht ist richtig, aber das ergibt nur doppelt so tief.

    Wenn du also denkst: oh, ich bin zu langsam, habe 8" f/5, und du viel Geld ausgibst für 8" f/4, dann musst du trotzdem 80 % belichten und brennweitenmäßig kommst du mit 800 mm schon in knappe Bereiche, wenn du große Sensorpixel hast.

    Viele Grüße

    ralf

  • Hallo Ralf,

    wie schon zum x ten mal gesagt das ist selbstverständlich so aber es zählt nun mal die Lichtmenge die auf ein Pixel trifft und die ist bei gleicher Öffnungszahl und Pixelgröße nun mal für die große Öffnung genau die gleiche wie die für die kleine Öffnung.

    Solange du nicht verstehst das eben die Lichtmenge / Pixel entscheidend ist kommen wir nie aus dieser Endlosschleife.


    Aber vielleicht hilft dir ja die Simulation von Tino weiter.

    Das S/R in Tinos Simulation ist für alle Öffnungen das gleichen nur die Auflösung unterscheidet sich natürlich dramatisch.

    Damit zeigt Tinos Simulation exakt das was ich von Anfang an gesagt hatte.

    Und sie widerlegt glasklar die Behauptung das sich mit einer größeren Öffnung bei gleicher Öffnungszahl und Pixelgröße ein besseres S/R ergeben würde.


    https://www.astrotreff.de/index.php?attachment/64463-2asecseeing-8bit-gif/

    Der Abstand von Objekt zu Hintergrund hat sich verbessert. Nun 8 statt 4.

    Nicht etwa 16 zu 4. Würden wir mit Flächenhelligkeiten arbeiten, dann wäre der Abstand 16 zu 4. Das wird so in der Tageslichtfotografie gerechnet


    Du kannst es drehen und wenden wie du willst.

    In beiden Fällen kommt es auf die Lichtmenge / Pixel an und wenn die gleich ist dann ist auch das S/R gleich.

    Und wenn die größer wird dann verbessert sich das S/R

    Ganz egal ob man mit dem Quadrat oder linear rechnest, ein Unterschied besteht hier natürlich in Größenordnung der Verbesserung aber nicht in der grundsätzlichen Tendenz.


    Oder besser gesagt in der "Viel-Licht-Fotografie". Hier interessiert man sich wenig für ein verbessertes SNR.


    Was heißt hier "Viel-Licht-Fotografie" es kommt bei der Lichtmenge die der Sensor sammelt ja letztlich immer auch auf die Belichtungszeit an und die ist bei Tageslichtfotografie dann üblicherweise sehr kurz.

    Wenn man bei guten Lichtverhältnissen vielleicht 1/100s belichtet und bei Astro vielleicht

    1 h dann besteht hier bei der Zeit ein Unterschied von 1 zu 360 000. :huh:

    Also auch wenn bei Astro von dem betreffende Objekt 360000 mal weniger Licht ankommt so ist die Lichtmenge für dieses Beispiel unter Berücksichtigung der Belichtungszeit in beiden Fällen gleich.

    Einen enormen Unterschied zwischen der vom Sensor gesammelten Lichtmenge bei Tageslicht und bei Astro würde man nur feststellen, wenn die Belichtungszeit die gleiche ist.

    Aber wer belichtet bei Astro schon einen Nebel mit 1/100s.


    Jeder Astrofotograf kennt das: Irgendwann ergibt es keinen Sinn mehr, noch länger zu belichten. Es wird immer mühsamer. Hab ich schon 10 Stunden im Kasten, dann bringen 10 obendrauf auch nicht mehr soooo viel. Bei 10 zu 40, ja, das kann man gut sehen. Haue ich auf die 40 jetzt noch mal 10 (oder auch 40) drauf, dann bringt das so gut wie nichts mehr, oder, wie oben, nicht mehr soooo viel bei 40 obendrauf. Ich müsste 160 Std. belichten, um denselben Gewinn zu haben wie zwischen 10 und 40.


    Dieses nicht lineare Verhältnis, ist im Grunde auf die Quantenphysik zurückzuführen. Dem Rauschen des Lichtes.

    Völlig richtig aber auch da hat eine größere Öffnung bei gleicher Lichtmenge/Pixel keinen Vorteil.

    Wie gesagt versuche bitte zu verstehen das es auf die Lichtmenge/Pixel ankommt.

    Solange du das nicht anerkennst kommen wir aus der Schleife nicht raus und ich würde sagen eine weitere Schleife sollten wir uns ersparen.


    Grüße Gerd

  • Hallo, Ralf, und auch Gerd (der sich so um seinen f-Wert sorgt :) )


    Ralf: das klingt ja Alles einleuchtend, was Du in Beitrag #294 so schreibst, aber warum kommt der sehr erfahrene Kollege aus dem Forum CN in meinem Beitrag #252 zu der Feststellung, dass er mit einem 10" f/8 tiefer kommt als mit einem 10" f/5? Trotz des starken Oversampling. Hat er hier größere Kamerapixel verwendet (darüber schreibt er zwar nichts; er weiß aber, dass er immer möglichst auf eine Auflösung von ca. 1"/Pixel kommen will), ist das die Lösung?

    Wie tief er kommt, kannst Du ja in seinen veröffentlichten 1600 Bildern im Forum CN sehen. Das widerspricht allen Theorien, die hier so dargelegt werden. 8o :evil:

    Der Kollege Tino hat seine Daten mal in seinem SNR-tool eingegeben und festgestellt, dass die vorgegebene Tiefe von Richard mit Tino's Ergebnissen übereinstimmt. :)

    In der Tabelle die Zeilen 22 und 23; Ergebnis der Tiefe in der Spalte BO:

    SNR-Berechnung.xlsx

    Das Ergebnis gilt für sein Meade 14" bei 3650 mm Brennweite. Richard arbeitet immer mit langen 10 min Einzelbelichtungen, keine Kurzzeitbelichtung.

    Und seine Pixel sind 18 µm groß (9 µm + 2x2 binning).

    Kollegen, schaut Euch die Bilder an (und das meistens nur mit 100 min Gesamtbelichtungszeit!) und schickt mir Bilder, die für den Bildausschnitt tiefer gehen. :D


    Mantrap Skies Catalog


    Der Kollege Richard Johnson hat für Euch doch sicher Alles falsch gemacht, oder? :P viel zu hohe Brennweite und langsames f/10. Wie kann man bloss so arbeiten? :) Damit kann man doch kein tiefes Bild erzeugen ....


    Da behaupte ich mal: das Seeing, die Himmelshelligkeit und die Öffnung sind viel wichtiger als der f-Wert. ;)

    Vielleicht kann uns Tino hier anhand seiner Tabelle helfen und uns mitteilen, welche Parameter in der Praxis wirklich für eine große Tiefe sorgen. :/


    viele Grüße

    Andreas

  • Hallo Andreas,


    Hat er hier größere Kamerapixel verwendet (darüber schreibt er zwar nichts; er weiß aber, dass er immer möglichst auf eine Auflösung von ca. 1"/Pixel kommen will), ist das die Lösung?

    Wenn er in beiden Fällen den gleichen Abbildungsmaßstab/Pixel, in dem Fall von 1“/Pixel verwendet dann ist auch die Lichtmenge/ Pixel und damit die mögliche Tiefe identisch.


    Wenn er hier einen Unterschied beim S/R feststellt was ja offensichtlich bei ihm so ist dann muss das andere Gründe haben.

    Wie du ja selber schon geschrieben hast wäre ein möglicher Grund das Seeing.


    Ich vermute allerdings einen anderen und das ist die Optik.

    Leider ein Aspekt der immer wieder ignoriert wird.

    Tendenziell ist es wesentlich schwieriger eine schnelle Optik mit exzellenter Abbildung zu designen und zu fertigen wie eine langsame

    Nicht ohne Grund sind schelle Optiken meist deutlich teurer.


    In der Praxis müssten wir die PSF bzw. die Energieverteilung betrachten welche die betreffende Optik auch tatsächlich erreicht.

    Nehmen wir mal die EE80, das ist der Radius in dem 80% der von einer Punklichtquelle empfangenen Energie eingeschlossenen wird.


    Theoretisch müsste die EE80 bei F5 exakt halb so groß sein wie bei F10.

    Praktisch kann es gut möglich sein das schon vom Design her die F5 Optik einen deutlich schlechteren Wert als theoretisch möglich erreicht während die F10 Optik sehr nah am theoretisch möglichen Wert dran ist.

    Und das hat natürlich dann wiederum Auswirkung auf die Lichtmenge die ein Pixel trifft und damit auf das erreichte S/R.


    Wir müssen also bei Experimenten gut aufpassen das sich nicht mehrere Einflussfaktoren gleichzeitig ändern denn sonst vergleicht man Äpfel mit Birnen.


    Grüße Gerd

  • Hallo Tino,

    Also wenn man das Bild des 200cm Teleskops auf die grottige Auflösung des 1cm Teleskops zusammenbinnt, kommt der Faktor der größeren Teleskopöffnungen 200^2 also 40000 heraus. Also landen eine Unmenge mehr Photonen auf dem Sensor.


    Also zählt die Apertur, ohne wenn und aber. Wäre auch wirklich witzig, wenn nicht.


    deine Simulation ergibt also exakt das von mir von Anfang an beschriebenes Ergebnis.

    Hätte mich auch sehr gewundert, wenn es anders wäre.

    Nur braucht man um zu dieser Erkenntnis zu gelangen wirklich eine Computersimulation?

    Es sind doch wirklich einfache geometrische Zusammenhänge und diese sollte eigentlich jeder auch ohne Computersimulation verstehen können.


    Also wenn man das Bild des 200cm Teleskops auf die grottige Auflösung des 1cm Teleskops zusammenbinnt, kommt der Faktor der größeren Teleskopöffnungen 200^2 also 40000 heraus. Also landen eine Unmenge mehr Photonen auf dem Sensor.


    Ja natürlich, aber was nicht unterschlagen werden darf ist das wenn man das Bild mit der 200cm Öffnung auf die Auflösung bei 1cm zusammenstampft zwar die Lichtmenge / Pixel 40000 mal größer ist aber eben auch die Auflösung 200 mal kleiner.


    Und auch hier sind wir wieder bei dem Antagonismus zwischen Auflösung und Tiefe und du hast hier nichts anderes gemacht als die Auflösung der 200cm Optik gegen Tiefe zu tauschen und der Preis für diesen Tausch ist die 200 mal geringere Auflösung.


    Das alles habe ich von Anfang an so gesagt und es ist traurig das gestandene Astrofotografen 12 Seiten Diskussion und eine Computersimulation benötigen um diesen wie ich finde doch recht einfachen Zusammenhang der sich einem eigentlich schon mit einfacher Logik und ganz ohne Computersimulation erschließen sollte zu verstehen.


    Ich kann bei gegebener Öffnung über den Abbildungsmaßstab/Pixel also Auflösung gegen Tiefe tauschen oder umgeht.


    Natürlich kann ich bei gegebener Brennweite und Pixelgröße mit einer größeren Öffnung die Öffnungszahl verkleinern und so die Tiefe bei gleicher Auflösung verbessern.

    Das ändert aber nichts an der Tatsache das für die Tiefe ausschließlich die Öffnungszahl und die Pixelgröße relevant sind und nicht die Öffnung.


    Also zählt die Apertur, ohne wenn und aber. Wäre auch wirklich witzig, wenn nicht.

    Vorsicht!

    Du erreichst die größere Tiefe nur wenn du Auflösung gegen Tiefe tauschst!!!

    Möchtest du den Auflösungsvorteil der größeren Öffnung nutzen dann hat die größere Öffnung keinen Vorteilbei bei der Tiefe.

    Und das war hier ja die Frage um die es ging.

    Also Auflösungsvorteil ja aber größere Tiefe nein.

    Immer schön beide Seiten der Medaille betrachten und nicht einseitig etwas rauspicken.


    Grüße Gerd

  • Hallo Andreas,

    die Diskussion hier ging ja um idealisierte Werte und Kameras. Es ging darum, ein Prinzip zu erkennen, zwischen Öffnung und Tiefe.

    In der Praxis wird das alles etwas anders. Nehmen wir das Seeing. Wenn ein Lichtpunkt auf 25 Pixel (5x5) verteilt wird, so bekommt jedes Pixel eben nur sehr wenig Licht ab. Wird das Licht auf 4 Pixel verteilt (2x2) ist es 6,25-mal so hell. Das Bild wird 2,5-mal so tief. Dh, bei gutem Seeing wird quasi, wenn man nur die Flächenhelligkeit betrachtet, aus f/10 zu unter f/5. Gleiche Kamera, gleiche Öffnung, nur das Seeing ändert sich.

    Der Faktor ist tatsächlich enorm. Tino hatte da auch schon mal einer Tabelle herumgeschickt. Das ist auch der Grund, warum ich bei Kurzbelichtung nicht viel an Tiefe verliere. Dadurch, dass ich schärfer werde, habe ich mehr Tiefe, da ich so noch kürzer belichten kann, werde ich noch schärfer, also noch mehr Tiefe usw.

    Was jetzt wichtiger ist, Seeing oder Öffnung, das hängt von Fall zu Fall ab.

    Der 2. weiche Faktor ist die Kamera. Eben dann, wenn sie nicht idealisiert ist. Eine mit winzigen Pixeln hat mehr "Probleme" als eine mit sehr großen. Die Profis arbeiten alle mit sehr großen Sensorpixeln. Quanteneffizienz, Ausleserauschen etc.

    Der Kollege aus CN hat eine sehr große Öffnung, um DS zu machen. Er hat ein sehr gutes Sampling. Bei 2x2 Binning hat er bei einer CCD auch wirklich einen Gewinn und er schreibt selbst, dass das ein Ausnahmeseeing war, das er so die letzten 2 Jahre noch nie hatte.

    Und er schreibt auch, dass er die 25,xxx mag irgendwie hergeleitet hat, da man die Sterne nicht mehr in Karten vergleichen kann. In welcher Farbe hat er die 25 mag erreicht? Es gibt da komplizierte Rechenmethoden, um aus 3 oder 5 Kanälen die visuelle Helligkeit zu errechnen. Aber auch, wenn er nur 23 oder 24 mag erreicht hat, es hat eben alles zueinander gepasst.

    VG ralf

  • Ja seh ich auch so,

    Das müsste sogar visuell Auswirkungen haben, eben kein Kontrast mehr,

    Man kann da zwar mit größerer AP das hat aber Grenzen.

    Die Zeiten wo man mit Weichzeichnen aus 5 Pixeln zum Hantelnebel kommt sind wohl vorbei.


    Gruß Frank

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!