Beiträge von Gerd-2 im Thema „Erfahrungsbericht: Kamera- und Bildauflösung in der Videoastronomie“

    Hallo Tino,


    ob das Multipointalignment was bei einer Uranusaufnahme bringt, oder das Undersampling problematisch ist, ist ein klassisches Problem der Astronomie/Astrophotografie. Es kommt einfach auf die Helligkeit an. Wenn ich die Sonne oder den Mond aufnehme, kann ich das letzte Quentchen Auflösung herausholen,

    nun ja Belichtungszeit und Auflösungsvermögen bzw. Abbildungsmaßstab / Pixel sind nun mal Antagonisten.

    Das ist ja nichts Neues und das sage ich schon seit Jahren.

    Besonders bei DS Fotografie ist das ja relevant denn hier verzichtet man ja ganz bewusst auf Auflösungsvermögen um im Gegenzug kürzere Belichtungszeiten zu erhalten.

    Mond und Planeten sind aber hell genug so das man hier dieses Zugeständnis bei der Auflösung nicht machen muss.

    Es sei denn man möchte extrem kurze Belichtungszeiten dann, könnte es bei den Planeten mit geringerer Flächenhelligkeit eventuell Sinn machen.

    Das Saturn einfach aufgrund seiner großen Entfernung zur Sonne entsprechend weniger Licht abbekommt und allein deshalb schon eine geringere Flächenhelligkeit aufweist ist mir nicht neu und das merke ich bei meinen eigenen Aufnahmen.

    Daher hatte ich das hier ja schon angesprochen.


    Mit modernen Sensoren erreicht man am Planbeten normalerweise locker 1/20 bis 1/60s wenn man mit F = 3,6 x Pixel arbeitet.

    Natürlich kommt das auch auf den Planeten und dessen Flächenhelligkeit an.

    Saturn ist schon etwas dunkler und erfordert etwas längere Belichtungszeiten als zb. Jupiter.


    extrem kurze Aufnahmen und das Seeing hat keine Chance mehr (oder eher fast, schlechtes Seeing ist durch die hochfrequnten Anteile und den Defokus nicht wirklich korrigerbar).

    Na ja den ersten Teil halte ich doch für sehr optimistisch, realistisch ist doch eher der 2.Teil des Satzes.

    Nicht ohne Grund betreibt man den Aufwand einer adaptiven Optik oder befördert Teleskope ins All.

    Den Aufwand könnte man sich sparen wenn das Seeing mit Multipoint-Alignment und extrem kurzen Belichtungszeiten kein Thema mehr wäre.

    Und inwieweit extrem kurze Belichtungszeiten etwas bringen müsste man halt mal praktisch ausprobieren.

    Ich halte es für wenig sinnvoll mit irgendwelchen Simulationen und kleinen GIF Animationen irgendetwas beweisen zu wollen so wie Jan das hier versucht.

    Letztlich sind die Schlüsse die man daraus zieht pure Spekulation und sagen nicht wirklich etwas darüber aus ob und wenn ja wie sich extrem kurze Belichtungszeiten nun auf das Endergebnis auswirken.

    Wenn man etwas mehr als reine Mutmaßungen möchte dann muss man das eben einfach mal ausprobieren und nicht nur Mutmaßungen aufgrund irgendwelcher Animationen anstellen.

    Und die praktischen Ergebnisse die ich bisher gesehen habe legen den Schluss nahe das Belichtungszeiten unter 30ms zumindest bei 10“ Öffnung keinen Vorteil mehr bringen.


    Mars-Studie mit 2,8 m Brennweite
    Ich habe übrigens mit f/23,5 gerbeitet und in der Software 2x vergrössert ;-) Habe eben mal in das Datenblatt des Micron MT9M001 Schwarzweiss-CMOS-Chips…
    forum.astronomie.de


    Grüße Gerd

    Hallo Tino,


    5. Wenn man will kann man auch nach Qualität aussortieren, oder die Wichtung anpassen.

    Dh. auch bei Uranus und bspw nur 4 Patches wird das Bild wohl besser werden, beim Mond und bei Jupiter definitiv.

    und wie sieht es aus wenn man Uranus im Undersampling bei F = 2,1x Pixel aufgenommen hat so wie es Jan propagiert und dann selbst mit 16“ Öffnung Uranuns gerade mal 15 Pixel im Durchmesser hat so das der komplette Uranus deutlich kleiner ist als ein einziger Patch bei dem von Ralf oben gezeigten Jupiter?


    Grüße Gerd

    Hallo Ralf,


    stimmt es wird auch aussortiert.

    Nur wundere dich bitte nicht das ich wenn du vorher ausdrücklich geschrieben hattest das nicht aussortiert wird dann auch von dieser Aussage ausgegangen war.

    Das Multipoint-Alignment ist in der Tat eine sehr interessante Sache.


    Ich denke da für jeden Ausrichtpunkt eben eine gewisse Anzahl von Pixeln notwendig sind spricht das ja eher dafür das man bei der Aufnahme besser in das Oversampling gehen sollte.

    Und es zeigt das die Simulation mit dem hin und her vergrößern die Jan uns hier vorführt umso praxisfremder ist.

    Ich denke es macht einen gewaltigen Unterschied ob ein Einzelbild im Undersampling mit vergleichsweise wenigen Pixeln zur Verfügung steht und man dann auf dieses mini Bildchen das Multipoint-Alignment anwendet oder ob es bei vernünftigem Sampling oder im Oversampling zur Verfügung steht und darauf dann das Multipoint-Alignment angewendet wird.

    Ein nachträgliches hin und her vergrößern des fertigen Summenbildes wird diesen Unterschied natürlich nicht zeigen können.


    Grüße Gerd

    Beim Multipoint-Alignment wird das komplette Einzelbild zum Stapeln verwendet und nicht nur Teile davon wie von Stefan beschrieben.


    Hallo Gerd,

    es soll ja Leute geben, die nie Unrecht haben.

    Vielleicht solltest du dich mal mit der Software beschäftigen.

    Auf Wiedersehen


    In der Tat werden die Deformationen nicht aussortiert, sondern zurechtgerückt.

    Hallo Ralf,


    Ich finde es ziemlich frech von dir eine Aussage von mir als falsch hinzustellen die du selber zuvor schon so ähnlich gemacht hattest.


    Wie du schon geschrieben hattest werden die Deformationen eben nicht aussortiert und wenn nichts aussortiert wird heißt das nichts anderes als das das komplette Einzelbild verwendet wird.

    Ich denke dieser Logik solltest du folgen können.

    Und nichts Anderes hatte ich ja geschrieben


    Aber anscheinend hast du nicht mitbekommen was Stefan geschrieben hatte.

    Der meinte ja das etwas aussortiert wird, vielleicht befasst du dich doch erst mal mit seiner Aussage.

    Sonst reden wir noch ewig aneinander vorbei.


    Oder stellst du dich hier absichtlich dumm und tust so als sei dir der Unterschied zwischen aussortieren und zurechtrücken aber weiterverwenden nicht klar nur um mir ein falsches Verständnis andichten zu können.


    Grüße Gerd

    Gesagt, getan ...


    Je besser das Material ist, umso geringer fällt der Unterschied aus. Eine geringe Verwendungsrate zeigt den Effekt ebenso etwas deutlicher.

    Gruß

    ralf

    Hallo Ralf,


    danke erst mal für das Zeigen.

    Und ja ein deutlicher Unterschied ist sichtbar.

    Aber als erstes muss gesagt werden das du dich auf Ausrichtpunkte für das Stapeln beziehst.

    Stefan bezog sich aber nicht auf Ausrichtpunkte sondern ein selektieren guter Bildausschnitte und nur die guten Ausschnitte sollten dann gestapelt werden.

    Das hat mit dem Multipoint-Alignment dessen Wirkung du gerade demonstriert hast aber nicht das Geringste zu tun.

    Beim Multipoint-Alignment wird das komplette Einzelbild zum Stapeln verwendet und nicht nur Teile davon wie von Stefan beschrieben.


    Meine Antwort an Stefan bezog sich also nicht auf das Multipoint-Alignment.

    Insofern kannst du mir mit der Demonstration des Multipoint-Alignment auch nicht beweisen das meine Aussage in Bezug zum Selektieren einzelner Bilderreiche nicht korrekt wäre.


    Dennoch ist meine Aussage in gewissen Grenzen in ihrem Kern sogar auf das Multipoint-Alignment zutreffend.

    Der Kern der Aussage lautet das es schon einer gewissen Bildgröße bedarf damit entsprechende Maßnahmen Sinn machen.

    Diese sinvolle Bildgröße ist in deinem Fall für das Multipoint-Alignment eindeutig gegeben.

    Dein Jupiter hat etwa 500 Bildpunkte im Durchmesser

    Mit 400 Ausrichtpunkten käme also wenn wir mal der Einfachheit halber mit einem Quadrat mit 500x 500 Bildpunkten rechnen ein Ausrichtpunkt auf rund 25 x 25 Pixel.

    Nun stell dir aber mal vor du hättest nicht den großen Jupiter sondern den Uranus aufgenommen.

    Dessen scheinbare Größe ist mit etwa 3,8“ etwa 12 mal kleiner als Jupiter in Opposition.

    Das Planetenbild wäre unter exakt gleichen Aufnahmeparametern also 12 mal kleiner und damit nicht 500 sondern nur rund 42 Pixel im Durchmesser. Wenn wir wieder pro Ausrichtpunkt 25x25 Pixel verwenden könnte man also nicht mal 4 Ausrichtpunkte komplett auf dem Planetenscheibchen unterbringen

    geschweige denn 400 wie bei deinem Jupiter.

    Der Unterschied zwischen Singlepoint und Multipoint-Alignment mit lediglich 4 Ausrichtpunkten wäre dann sicherlich auch bedeutend kleiner wie zwischen Singlepoint und 400 Ausrichtpunkte wie in deiner Demonstration.


    Und nun nehmen wir mal an du hättest auf Jan gehört und Uranus im Undersampling also nicht mit F = 5,1 x Pixel sondern mit F= 2,1 x Pixel wie er es ja mit unglaublicher Penetranz predigt aufgenommen.

    Dann wäre Uranus tatsächlich kleiner als ein einziger Ausrichtpunkt mit 25x25 Pixeln und zwischen Single und Multipoint-Alignment gäbe es dann garantiert keinen Unterschied mehr da in beiden Fällen ja nur 1 Ausrichtpunkt verwendet wird.


    Grüße Gerd

    Hallo Stefan,


    ja bei Sonnen oder Mondaufnahmen ist mir das von dir beschriebene Verfahren bekannt.

    Beide Objekte sind von ihrer scheinbaren Größe her aber gigantisch im Vergleich zu Planeten.

    Bei so großflächigen Objekten die im Fokus bei den hier diskutierten Öffnungen und vernünftigem Sampling Sensorfüllend abgebildet werden bzw. bei kleinem Sensor sogar dessen Größe deutlich übersteigen macht das ja auch Sinn.

    Nicht aber bei den wesentlich kleineren Planeten

    Die Einzelnen Bilderreiche die AviStack bei der Sonne selektiert dürften deutlich größer sein als der Durchmesser des kompletten Jupiter.

    Kleinere Bereiche machen auch gar keinen Sinn da die Seeing Zellen nun mal nicht kleiner sind.


    Grüße Gerd

    Hallo Jan,


    Andererseits habe ich das wesentliche Merkmal der Videoastronomie im Blick, welches ja darin besteht, dass man mit kurzen Belichtungszeiten die aus dem Seeing resultierende Bewegungsunschärfe von Astrobildern möglichst weitgehend eliminiert.

    leider lässt sich eine aus dem Seeing resultierende hochfrequente „ Bewegungsunschärfe“ oder treffender Deformationsunschärfe nicht eliminieren, auch nicht weitgehend.

    Du vergisst hier das du mehrere Bilder stapelst und auch wenn du im Einzelbild das „Gezappel“ einfrieren kannst so hast du es im Summenbild natürlich als Unschärfe wieder mit drin.

    Seeing ist nun mal nicht mit einer Bewegung vergleichbar und die Unschärfe entsteht hier durch über die Zeit unterschiedlich deformierte Wellenfronten und nicht durch die Bewegung des Objekts selbst. Auch wenn durch unterschiedliche Deformationen heftig „Gezappel“ entsteht.


    Man sollte diese Unschärfe daher auch nicht als Bewegungsunschärfe bezeichnen sondern treffender als Deformationsunscharfe.

    Jedes einzelne Bild ist anders deformiert und du wirst im ganzen Video kein einziges Bild finden das genau gleich deformiert ist.

    Sobald du auch nur 2 Bilder stapelst hast du eine durch unterschiedliche Deformation bedingte Unschärfe im Summenbild und wenn du ein paar hundert oder tausend Bilder stapelst wird diese natürlich nicht kleiner denn jedes einzelne Bild ist anders deformiert.


    Die Seeing bedingte Deformation und die dadurch dann bedingte Deformationsunschärfe im Summenbild lässt sich leider auch durch eine noch so kurze Belichtungszeit nicht vermeiden.

    Das unterscheidet Seeing eben von Bewegung.

    Bei einer Bewegung ist die Wellenfront nicht deformiert und eine durch Bewegung verursachte Unschärfe kann daher eingefroren werden wenn man nur kurz genug belichtet.

    Auch im Summenbild würde eine Bewegungsunschärfe nicht wieder auftauchen.


    Es geht bei der Videoastronomie und dem Lucky Image nicht darum die hochfrequenten Anteile der Deformationsunschärfe zu vermeiden sondern darum gute Momente mit geringer Deformation raus zu picken.

    Diese Momente sind aber bei weitem nicht so hochfrequent wie das permanente „Gezappel“ das man sieht und das du im GIF animiert hast.

    Um nur die guten Momente zu erwischen ist es daher völlig ausreichend mit Belichtungszeiten nicht länger als etwa 1/60 s zu arbeiten.

    Kürzere Belichtungszeiten bringen keinerlei Vorteil mehr weil die guten Momente ebnen auch nicht kürzer als 1/60s sind.


    Daran ändert auch dein kleines GIF vom Mars nichts.

    Auch hier theoretisierst du wieder nur denn dein GIF mit 5ms Einzelbildern zeigt natürlich nicht die durch eine unterschiedliche Deformation jedes einzelnen Bildes bedingte unvermeidliche Deformationsunschärfe im Summenbild.

    Wenn du wissen willst wie sich kürzere Belichtungszeiten auf das fertige Summenbild auswirken dann musst du das eben mal ganz praktisch ausprobieren.

    Da helfen keine GIFs mit Einzelbildern und anschließendes ewiges rum theoretisieren darüber wie sich das dann auf das Ergebnis deiner Meinung nach auswirken könnte.


    Tommy hat den praktischen Bewies angetreten das es zwischen 7 und 30ms Belichtungszeit keinen Nennwerten Unterschied im Summenbild gibt.


    Mars-Studie mit 2,8 m Brennweite
    Ich habe übrigens mit f/23,5 gerbeitet und in der Software 2x vergrössert ;-) Habe eben mal in das Datenblatt des Micron MT9M001 Schwarzweiss-CMOS-Chips…
    forum.astronomie.de


    http://www.vibes.co.at/images/Mars_20120316_685_AlCCD_30ms.jpg

    http://www.vibes.co.at/images/Mars_20120316_685_AlCCD_7ms.jpg


    Dieser praktische Beweis ist für mich wesentlich überzeugender als dein ewiges rum theoretisieren mit Einzelbildern und diversen Behauptungen die du einfach so in den Raum stellest weil du denkst das es so wäre..


    Tommy behauptet nicht nur etwas sondern beweist das auch ganz konkret mit echten Summenbildern.


    Grüße Gerd

    Hallo Jan,


    Mir geht es aber eigentlich - zunächst mal gänzlich ohne theoretischen Anspruch! - allein um die Frage, ob Ralf im vorliegenden Fall seinen Saturn nicht auch ohne 2x Barlow in gleichwertig hoher Qualität hätte präsentieren können.

    nun dann solltest du das einfach mal praktisch mit tatsächlich im entsprechendem Undersampling aufgenommenen Bildern ausprobieren und nicht so ewig rum theoretisieren und simulieren.


    Ob nun das von Ralf fertig ausgearbeitete Bild nach einer Zwischenverkleinerung auf 40% linear bzw. auf 16% inhaltlich oder ein unter einem relativ nah an der Beugungsgrenze des Teleskops ohne Balow gewonnenes Bild als Ausgangsmaterial für die 2,5-fache Nachvergrößerung dienen, sollte doch völlig unerheblich sein.

    Nöö das ist es eben nicht, es ist lediglich deine unzutreffende Annahme dass es unerheblich wäre.

    Doch nur weil du dir das so denkst heißt das noch lange nicht das es so ist.

    Ich hatte ja nun schon mehrfach auf den Kontrast verwiesen.

    Nachgeschärfte Summenbilder unterliegen immer einer extremen Bildbearbeitung.

    Das mit extrem EBV traktierte Bild gibt längst nicht die natürlichen Kontraste wieder wie sie auf dem Sensor erscheinen.

    Ob ein Detail noch erkannt werden kann ist neben seiner Größen eben auch von seinem Kontrast abhängig.

    Der Bildkontrast eines bearbeiteten und mit gut oder oversampling aufgenommenen Summenbildes ist wesentlich größer als der Bildkontrast des Bildes das die Optik auf den Sensor Projiziert.

    Du kannst daher nicht so tun als wenn ein massiv Kontrast verstärktes Bild runtergerechnet auf Undersamplig mit einem nativ im Undersampling aufgenommenem Bild vergleichbar wäre.


    Grüße Gerd

    Hallo Tino,


    es ging ja schon wieder heiß her. Ich habe daher auch meine Milchmädchen zum durchrechnen geschickt. Mglw. ist auch alles schonmal gesagt, aber wenn ich mir die ideale MTF eines Teleskops mit f/8 anschaue, liegt die Grenzfrequenz bei 225 Linienpaaren/mm.

    Siehe hier: https://www.bobatkins.com/phot…y/technical/mtf/mtf2.html

    Ja ich bin hier schon auf die Grenzfrequenz der MTF eingegangen und habe gezeigt wie der Faktor F= 3,6 x Pixel zustande kommt.


    Man kann sich das Auflösungsvermögen in l/mm wie dort gezeigt also sehr einfach ausrechnen.


    SL = 1/(F x Lambda)

    Wenn du es für F8 und 555nm Wellenlänge wissen willst rechnest du also.

    SL = 1/(8x0,000555mm) = 225,2 l/mm.


    Und genau das hattest du ja auch aus der MTF abgelesen.

    Es ist also wirklich eine ehr entfache Rechnung die Jeder nachvollziehen kann.

    Eine Linie ist damit 1mm/225 = 0,0044mm = 4,44ym breit.


    Man kann die Linienbreite daher auch gleich mit F x Lambda ermitteln.

    Bei F8 und 555nm Wellenlänge rechnet man am einfachsten gleich mit 0,555ym also 8 x 0,555ym = 4,44ym.


    Und wie du schon schreibst sollten mindestens 2 Pixel auf die Linienbreite kommen und damit 4,44/2 = 2,22ym groß sein.

    Das Verhältnis Pixelgröße zur Öffnungszahl beträgt also 8/ 2,22 = 3,6.

    Oder eben anders rum F = 3,6 x Pixelgröße.


    Grüße Gerd

    in Deinen zitierten Stellungnahmen verweist Du auf eigene Untersuchungen an Siemenssternen und auf "Aus der Theorie ergibt sich".

    Nöö mein Test ist ein echter Test mit echten Aufnahmen in der Praxis und das Ergebnis ist daher erst einmal unabhängig von irgendwelcher Theorie und steht für sich.

    Es ist nur so das sich das Ergebnis meines Praxistests sehr gut mit der Theorie deckt.


    Was mich aber interessiert, wäre eine Antwort auf die Frage, warum im oben gezeigten Blinkvergleich kein Unterschied erkennbar ist zwischen der Originalfassung des aktuellen Saturnbilds von Ralf und demselben auf 40% zwischenverkleinerten Bild, in welchem lediglich 16% der Pixel des Originalbilds verarbeitet wurden.

    Das hatte ich einen Beitrag vor deinem ausführlich.

    Im Falle des Saturnbildes von Ralf sei noch erwähnt das es von Ralf nachvergrößert wurde und vermutlich auch nicht das maximal mit 16 Zoll Öffnung mögliche zeigt weil es vermutlich Seeing und nicht Öffnungslimitiert ist.


    Grüße Gerd

    Hallo Gerd,


    ich möchte mich hier nicht weiter von Dir in unübersichtliche und von persönlichen Angriffen begleitete Detaildiskussionen über Jahre zurückliegende Bildergebnisse hineinziehen lassen. Allerdings wäre ich Dir und anderen Diskussionsteilnehmern dankbar, wenn hier einmal zu meinem aktuellen Zwischenverkleinerungstest kritisch und klar Stellung genommen wird.


    CS Jan


    Das hatte ich bereits ausführlich.




    Aber gut ich kann die Sache ja noch etwas vertiefen.


    Auch ein Sensor hat eine MTF und es ist bei einer MTF nun mal so das der Kontrast abnimmt je kleiner die Details werden.

    Die Grenzfrequenz ist dann erreicht wenn der Kontrast gegen Null geht.

    Nimmst du ein Bild nativ mit F = 2,1 x Pixel auf ist die Grenzfrequenz des Sensors schlechter als die des Teleskops und es geht dadurch der Kontrast für Details vollständig verloren welche das Teleskop eigentlich noch auflösen kann.

    Ein Nachvergrößern kann den verloren gegangenen Kontrast nicht wieder herstellen, auch nicht mit weiterer Bildbearbeitung.


    Anders ist es bei einem mit F= 3,6 x Pixel gewonnenen Bild.

    Da bei F = 2,1 x Pixel das Sampling der Flaschenhals war haben hier kleinere Details auch im Bild noch einen Kontrast.

    Ein nachträgliches moderates verkleinern des Bildes kann diesen Kontrast nicht vollständig auslöschen.

    Das verkleinerte Bild enthält also noch von dem Bild mit der guten Auflösung einen Restkontrast für Details die ein nativ mit diesem Sampling aufgenommenes Bild nicht enthält.


    Durch nachträgliches Vergrößern und etwas EBV können daher in der Simulation Details zumindest teilweise wieder hergestellt werden die bei einem nativ mit F= 2,1 x Pixel aufgenommenen Bild nicht erfasst wurden und damit auch nicht wieder hergestellt werden können.

    Es ist nun mal ein Unterschied ob ein Detail von einem Algorithmus auf weniger Pixel interpoliert wird und anschließend vom gleichen Algorithmus wieder auf die ursprüngliche Pixelzahl extrapoliert wird oder ob das Detail nativ mit der geringeren Auflösung aufgenommen wurde.


    Ps.:

    Was ich auch noch mal erwähnen wollte.

    Für deine Bilder mit Barlow rechnest du mit dem vom Hersteller angegebenen Faktor.

    Dieser gilt aber nur bei exakt eingehaltenem Arbeitsabstand!

    Üblicherweise muss der Sekundärfokus dafür am Gehäuse Ende der Barlow liegen, denn das ist der Punkt wo bei einem Okular üblicherweise die Feldblende zu liegen kommt.

    Eine Cam hat aber einen gewissen Weg vom Auflagemaß bis zum Sensor.

    Bei Mond und Planeten Cams meist so um die 25mm.

    Wenn du die CAM also in die Barlow steckst dürfte der Arbeitsabstand um etwa 25mm größer sein als vom Hersteller vorgesehen.

    Der tatsächliche Verlängerungsfaktor der Barlow dürfte daher deutlich großer sein als die Herstellerangabe.

    Vor allem bei einer so kurzbrennweitigen Barlow die der Klee.

    Dementsprechend könnten deine Angaben zum Sampling auch nicht korrekt sein.


    Grüße Gerd

    Hallo Jan,


    ich möchte mich hier nicht weiter von Dir in unübersichtliche und von persönlichen Angriffen begleitete Detaildiskussionen über Jahre zurückliegende Bildergebnisse hineinziehen lassen.

    mit den alten Bildergebnissen hast ja schließlich du angefangen.

    Ich bin dann lediglich auf von dir verlinke alte Diskussionen zu alten Bildern von dir eingegangen und habe dort von dir gemachte Fehler bei der Interpretation aufgezeigt.

    Ich kann im Aufzeigen von Fehlern keinen Persönlichen Angriff erkennen.


    Anscheinend hast du aber eine merkwürdige Realitätswahrnehmung.

    In dem einen Link verweist du auf eine angebliche Studie welche deine Sichtweise belegen soll.

    Ich dachte im ersten Moment wow da gibt es eine Studie.

    Von welchem wissenschaftlichen Institut oder welcher Universität ist die denn?

    Dann stellt sich raus das die angebliche Studie lediglich das von dir vor Jahren gezeigte GIF sein soll wo du ein scharfes Summenbild mit einem weniger scharfen Summenbild vergleichst und oh Wunder das weniger scharfe zeigt auch weniger Details.

    Schärft man aber beide Bilder auf das gleiche Level zeigen beide Bilder nicht nur gleiche Schärfe sondern auch gleich viele Details.


    Du drehst die Dinge also ganz bewusst so das sie die Aussage bringen die du gerne haben möchtest.

    Das finde ich problematisch da Leute die deine Herangehensweise nicht hinterfragen von den von dir in deinem Sinn verdrehtem Ergebnis in die Irre geführt werden.


    Ähnlich ist es auch bei deinem sogenannten Test mit dem hin und her vergrößern.

    Was du da gemacht hast ist kein echter Test mit echten Aufnahmen bei F= 2,1 x Pixel sondern lediglich eine rein theoretische Überlegung welche nicht alle Aspekte berücksichtigt.


    Deine Merkwürdige Realitätswahrnehmung zeigt sich auch in der Bezeichnung dessen was du gemacht haben willst und dessen was Andere deiner Meinung nach gemacht haben.

    Während deine rein theoretische Überlegung mit etwas hin und her vergrößern ein echter Test sein soll und dein kleines GIF mit unterschiedlichen Belichtungszeiten sogar eine Studie soll zb. mein echter Test mit Bildern die auch echt bei F = 2,05 x Pixel und F= 3,6 x Pixel aufgenommen wurden lediglich eine Simulation sein.

    Anscheinend verwechselst du hier Test und Simulation.


    Grüße Gerrd

    Hallo Jan,


    (1) Wie war denn der Kontrast bzw. die MTF Deines damaligen Zoomobjektivs an der Beugungsgrenze?


    ich denke ich habe mit Spots und Polystrehl eindrucksvoll bewiesen das selbst ein simpler 2 Linser mit 3mm Öffnung für das im Experiment verwendeten Feld im Rahmen seiner Beugungsbegrenzten Möglichkeiten praktisch perfekt abbildet.

    Wem das wundert der muss sich im Klaren sein das die Winkelauflösung bei 3mm Öffnung lediglich 38“ beträgt ( Grenzfrequenz) nach Rayleigh wären es sogar nur 46“.

    Und das Beugungsscheibchen ist 92“ groß!!! :huh:

    Es ist daher aus optischer Sicht keine Kunst die Aberrationen klein genug zu halten.

    Es ist lächerlich wenn du nach derart eindrucksvollem Bewies immer noch daran zweifelst das mein auf lediglich 3mm Öffnung abgeblendetes Objektiv bei F8 nicht beugungsbegrenzt wäre.


    (2) Du findest den Bildvergleich hier unter #17, siehe auch hier unter #38.

    Ich denke Tommy hat dazu schon alles gesagt.


    Zitat

    Wenn man das eine Bild etwas weiter schärft kommts ziemlich auf das andere raus, meinst nicht? Die Schärfe ausgenommen, sehe ich da keine Unterschiede.

    Es gibt also gar keinen Unterschied, das Bild mit 25ms ist lediglich etwas unschärfer, warum auch immer und es lässt sich problemlos nachschärfen.

    Deine Gegenargumentation.


    Zitat

    das ist gewiss zutreffend. Wenn wir aber vergleichen, dann sollten wir dieselbe Vorbehandlung zugrundelegen. Gutes Ausgangsmaterial kommt meistens auch zu einem besseren Endergebnis. Mit 5 ms Belichtungszeit können wir innerhalb einer vorgegebenen Zeit ein Vielfaches an Bildern auf die Platte schreiben als mit 25 ms. Damit würde das Rauschen eingedämmt, und wir hätten ein Bild, welches ebenfalls noch mehr Schärfung verträgt.


    Ist in Bezug zum Rauschen Quatsch.

    Es stimmt zwar dass man mit kurzen Belichtungszeiten mehr Bilder in der gleichen Zeit zum Stapeln erhält und so das Rauschen im Summenbild stärker gemindert wird.

    Was du aber außer Acht lässt ist das das Rauschen des Einzelbildes dafür bei kurzen Belichtungszeiten stärker ist.

    Unterm Strich kommt daher das Gleiche raus als wenn du länger belichtest und so Einzelbilder mit weniger Rauschen erhältst.

    Dann hast du zwar weniger Bilder zum Stapeln aber da hier schon die Einzelbilder weniger Rauchen haben ist das Rauschen im Summenbild nicht schlechter als bei kurzen Belichtungszeiten mit mehr Bildern.


    Zitat

    Der Versuch zeigt mir, dass die kürzere Belichtung durchaus Potential zur Erzeugung schärferer Bilder bietet. Der Versuch ist aber m.E. erst dann konsequent zu Ende geführt, wenn man ihn mit einer schnelleren Kamera wiederholt, und dann die Ergebnisse vergleicht.


    Wie gerade erklärt ist das Falsch.


    Tommy hat es dir auch praktisch beweisen.


    Zitat

    Fazit: Die Belichtungszeit scheint überraschend wenig Einfluss zu haben!


    Die Aussage von Tommy bezieht sich wohlgemerkt auf Belichtungszeiten von 30 versus 7 ms.

    Bei noch längeren Belichtungszeiten würde es schon einen Unterschied geben.

    Wie ich schon schrieb.

    Meine Persönliche Erfahrung ist das man möglichst unter 1/20s bleiben soll aber spätestens bei 1/60s bringen noch kürzere Zeiten keinen Gewinn und sind daher sinnlos.


    Das deckt sich also auch mit dem was Tommy zeigt.


    (3) Offenbar hast Du nicht bemerkt, dass die von Dir zitierten, ganz aktuellen Vergleichsbilder mit Mitteln erzielt wurden, die mir bei meinen damaligen Jupiterbildern nicht zur Verfügung standen.

    So So und welche Mittel sollen das denn sein?

    Ich sehe sogar das Gegenteil.

    Oskar hat die guten Jupiterbilder sogar mit einem Farbsensor erreicht.

    Du hast einen SW Sensor und mit RGB Filter gearbeitet. Erfahrungsgemäß sind so gewonnene Ergebnisse besser als Ergebnisse mit Farbsensor.

    Nicht ohne Grund tut man sich ja den erheblichen Mehraufwand mit RGB Filtern und SW Sensor an.

    Von den verwendeten Mitteln her müsste deine Ergebnisse also besser sein.


    Grüße Gerd

    Hallo Gerd,


    sollen wir jetzt hier über Deine alten Simulationsexperimente mit Fotooptik und Siemenssternen sprechen? Erscheint Dir ein Blick auf meinen oben präsentierten Zwischenverkleinerungstest mit einer aktuellen Astroaufnahme nicht naheliegender?


    LG Jan

    Nun die Gesetzte der Physik sind weder vom Alter des Experiments noch von der Öffnung abhängig.

    Ein Experiment mit 3mm Öffnung ist daher genauso aussagefähig wie deine Aufnahmen mit 250mm Öffnung.

    Auch die Relativierung "Fotooptik" zählt nicht da ich schon erklärt hatte das die Optik in meinem Experiment mit Sicherheit Beugungsbegrenzt war.

    Der Siemensstern hatte 20cm Durchmesser und war 10m von der Kamera entfernt.

    Das ergibt einen Feldwinkel von rund 0,6° ( 1,2° im Durchmesser).


    Zur Verdeutlichung noch mal ein simpler FH 3mm F8 bei einem Feldwinkel von 0,6°




    Polystrehl 0,994 bis zum Feldrand für 486,546,656nm bei Gewichtung 1. :huh:


    Wenn also ein simpler 3mm F8 FH für das in meinem Experiment verwendete Feld Polystrehl 0,994 aufweist also inklusive Farbfehler ist davon auszugehen das mein Objektiv nicht schlechter ist.

    Ich halte mein Experiment sogar für aussagefähiger da durch die kleine Öffnung und damit geringe Beugungsbegrenzte Auflösung ein Seeingeinfluss ausgeschlossen werden kann.

    Dein Zwischenverkleinerungstest ist kein Praxistest und wie ich dir schon erklärt hatte aufgrund des besseren Kontrastes des Ausgangsmaterials unbrauchbar.

    Mache mal echte Aufnahmen mit F = 2,1 x Pixel und du wirst sehen das hier das Ergebnis ein Anderes ist.


    (5) Ich habe an anderer Stelle anhand von Marsaufnahmen nachgewiesen, dass man mit 5 ms erkennbar schärfer abbilden kann als mit 15 ms.

    Ich weiß nicht wo du das nachgewiesen haben willst aber wenn deine Herangehensweise so optimal wäre wie du uns weißmachen willst warum sind denn deine Ergebnisse dann wesentlich schlechter als Andere mit F= 5 x Pixel.

    Kann doch gar nicht sein wo du doch auch das Seeing dank deiner extrem kurzen Belichtungszeiten angeblich so gut im Griff hast. :/

    Wo sind denn deine Ergebnisse die hier mithalten können?


    oskar


    Grüße Gerd

    Hallo Gerd,


    das trifft in besonderem Maße vor allem auf Deine eigenen Experimente zu, die Du ja mit einer handelsüblichen SLR-Kamera und Zoom-Objektiv (!) gemacht hast, das im Gegensatz zu den hier diskutierten Optiken gewiss bei keiner Blende beuggungsbegrenzt abbildet.


    CS Jan

    Hallo Jan,


    Die Anforderungen an eine Optik sind abhängig von der Öffnungszahl und der Öffnung.

    Leider scheinen letzteres viele zu vergessen.

    Sehr schön zb. am Newton mit Sphäre zu sehen.

    Ein 114F8 ist locker Beugungsbegrenzt auch mit Sphäre.

    Ein 150 F8 ist da hart an der Grenze und ein 200F8 wäre mit Sphäre nicht mehr zu gebrauchen.

    Man erkennt hier also sehr schön das nicht nur die Öffnungszahl sondern auch die Öffnung von entscheidender Bedeutung ist.


    Wer Ahnung von Optik hat der weiß daher das es bei kleiner Öffnung kein Problem ist eine Beugungsbegrenzte Abbildung zu erreichen.

    Ich habe bei meinem Experiment mit 3mm gearbeitet.

    Die 3mm F8 könnte man mit 30 F80 vergleichen. :huh:

    Wer ernsthaft glaubt das es ein Problem sei bei 30 F80 oder eben 3 F8 eine Beugungsbegrenzte Abbildung zu erreichen der hat offensichtlich keine Ahnung von Optik.

    Es kann als absolut sicher angesehen werde das mein Zoomobjektiv auf 3mm abgeblendet bei F6 und höher wie im Experiment eine Beugungsbegrenzte Abbildung zeigt und daher die Qualität der Optik keinerlei Einfluss auf das Ergebnis des Experiments hat.


    Grüße Gerd

    Hallo Jan,


    was du völlig außer auch lässt ist der Kontrast.

    Dieser ist eben auch vom Sampling abhängig.

    Wenn du ein Bild verkleinerst hießt das nicht das der gute Kontrast in dem Maße verlorengeht wie du es verkleinert hast.

    Durch rückvergrößern erhältst du daher einen besseren Kontrast als wenn du ein Bild mit geringerem Sampling Faktor das von Haus aus für Details bestimmter Größe einen schlechteren Kontrast bietet.

    Auf die gleiche Größe aufbläst.


    Grüße Gerd

    Hallo Jan,


    Eine auf der Basis theoretischer Überlegungen empfohlene Brennweitenankopplung der Kamera mit f/D > 5p/µm steht da einer durch praktische Bildergebnisse belegten Empfehlung mit f/D > 2p/µm gegenüber.

    das stimmt nicht.

    Aus der Theorie ergibt sich Faktor 3,6 und nicht 5 wie du behauptest

    Hier habe ich das vorgerechnet.



    Der Faktor 5 ist hingegen ein Erfahrungswert bei Farbsensoren die wegen der Bayer Matrix einen etwas größeren Faktor benötigen.

    Da du ja mit SW Sensor arbeitest trifft für dich Faktor 3,6 zu.

    Deine Ergebnisse machen daher auch keine Aussage zu Farbsensoren.

    Eine möglichst kurze Brennweitenankopplung ist von prinzipieller Bedeutung für die Videoastronomie, die ja das Ziel hat, fotografische Bildunschärfen aufgrund der atmosphärischen Luftunruhe, also des atmosphärischen Seeings, durch kurze Belichtungszeiten möglichst weitgehend einzuschränken. Nun ist ja aus der Alltagsfotografie bekannt, dass man für eine bestimmte Bildausleuchtung bei Blende 5 rund 6x länger belichten muss als bei Blende 2. Lange Belichtungszeiten sollte man also im Hinblick auf die Vorteile der Videoastronomie nach Möglichkeit vermeiden.

    Es gilt hier keinesfalls jee kürzer desto besser wie du es darstellst.

    Ich habe den Eindruck das dir die Natur des Seesings nicht klar ist.

    Du erweckst den Eindruck das man Seeing mit sehr kurzen Belichtungszeiten eliminieren könnte.

    Ähnlich wie man Bewegungsunschärfe vermeiden kann wenn man nur kurz genug belichtet.

    Seeing ist aber nicht mit Bewegungsunschärfe zu vergleichen!!!

    Seeing kennzeichnet eine permanent gestörte Wellenfront.

    Die Intensität der Störung ändert sich zwar auch permanent und es gibt immer wieder mal auch gute Momente aber eine Störung der Wellenfront besteht praktisch immer.


    Natürlich kann man sich die guten Momente raus picken und es ist daher von Vorteil nicht unnötig lange zu belichten aber das sinnvolle hat doch Grenzen.

    So extrem kurz sin die guten Momente nun auch nicht.

    Meine Persönliche Erfahrung ist das man möglichst unter 1/20s bleiben soll aber spätestens bei 1/60s bringen noch kürzere Zeiten keinen Gewinn und sind daher sinnlos.


    Mit modernen Sensoren erreicht man am Planbeten normalerweise locker 1/20 bis 1/60s wenn man mit F = 3,6 x Pixel arbeitet.

    Natürlich kommt das auch auf den Planeten und dessen Flächenhelligkeit an.

    Saturn ist schon etwas dunkler und erfordert etwas längere Belichtungszeiten als zb. Jupiter.


    Grüße Gerd

    Hallo Jan,


    dein Experiment ist schlicht irreführend und bringt keinerlei Aussage zur Situation in der Praxis.

    Ich habe das Spaßeshalber mal mit den Bildern vom Siebenstern mit denen ich ja schon beweisen hatte das man bis F = 3,6x Pixelgröße etwa einen linearen Anstiegt der Auflösung mit dem Sampling erreicht.


    Auflösungsvermögen und Sampling
    Hallo, da gerade heftig über das sinnvollste bzw. nötige Verhältnis von Pixelgröße und Öffnungszahl diskutiert wird und sich da auf theoretischer Basis nur…
    forum.astronomie.de



    Links ist das Bild mit F8 das ich um Faktor 1,75 und damit die Größe bei F14 nachvergrößert habe.

    Rechts ist das Bild mit F14 das ich auf Faktor 0,57 verkleinert und anschließend wieder um Faktor 1,75 vergrößert habe.

    Die Pixelgröße beträgt 3,9ym, die Öffnung in beiden Fällen 3mm.

    Es ist zweifelsfrei zu erkennen das die Auflösung des mit F8 und damit F= 2,05 x Pixelgröße gewonnenen Bildes deutlich schlechter ist als die Auflösung des mit F14 und damit F= 3,59 x Pixelgröße gewonnenen Bildes.


    Du kannst mit deinem Experiment also nicht beweisen das die Auflösung bei einer nativ mit F= 2,1x Pixel gewonnenen Aufnahme mir Aufnahmen bei größerem Faktor vergleichbar wäre.

    Ich habe dir ja gerade anhand deines eigenen Experimentes das Gegenteil beweisen.


    Grüße Gerd