Überlegung zu Planetenfotos

  • Hallo Leute


    Ich habe mir folgende Gedanken gemacht


    Nehmen wir an Jupiter hat eine scheinbare Grösse von 44"(Bogensekunden).
    Und ich habe ein Telskop ( so 6 Zoll ) was eine optische Auflösung
    von einer Bogensekunde erreicht.
    Und das Seeing wäre optimal


    Und ich mache dann ein Bild vom Jupiter,
    dann könnte die Auflösung des Jupiters doch höchstens 44*44 Pixel sein ?
    Jedes grössere Bild vom Jupiter müste doch schon eine tote Vergrösserung sein, stimmt das ?


    Selbst wenn ich einen 12 Zöller hätte womit ich 0,5 Bogen-
    sekunden Auflösung erreiche.
    (Unter optimalen Seeing bei Anwendung einer Bilderfolge kurze Belichtungszeiten u.s.w. )
    könnte dieser Jupiter doch höchsten 88*88 Pixel Auflösung besitzen.
    Andererseits wundere ich mich wie meinche Fotos von den Planeten wirklich ausschauen, als wäre die Auflösung viel höher.
    kann mir das jemand erklären.


    tschüss
    - peter -

  • Hallo Peter,


    die Größe und Qualität ensteht duch die astronomische Bildbearbeitung mit Photoshop, Giotto oder ähnlichem. (und natürlich der Brennweite, mit der man aufnimmt). Hier mal am Bsp. eines Saturnbildes, bei 2m Brennweite mit einem Vixen 102M aufgenommen:



    Oben links das bearbeitete Bild, darunter ein Orginalbild aus dem aufgenommen Video.


    Daneben eine Vergrösserung ohne Bildbearbeitung, also mit einfacher leerer Vergrößerung.


    Gruss
    Micha

  • Hallo Peter,
    du bringst da einiges durcheinander.
    Sicherlich ist ein hohes Auflösungsvermögen für die Detaildarstellung wichtig. Aber die Größe des Planeten erreichst du, bedingt durch die Brennweite.
    Somit sind die von dir erwähnten Aufnahmen, keine hoch aufgelösten Aufnahmen, sondern groß aufgenommenen Aufnahmen, mit einem Auflösungsvermögen abhängig vom einzelnen verwendeten Teleskop.


    Gruß

  • Hallo HoO Germany


    Was du sagst, ist doch was ich meine !
    klar kann man durch längere Brennweiten ( grössere Vergrösserungen ) grössere Jupiterbilder erzielen, trotzdem dürfte ihre wahre Auflösung bei 6 Zoll nur
    bei 44*44 oder 88*88 Pixel (12 Zoll ) auflösung liegen.
    wenn ich durch brennweitenverlängerung oder wie auch immer ein grössres Abbild des planeten bekomme müsste es schon eine tote Vergrösserung sein.


    danke für die veranschaulichung mit hilfe deiner Bilder Mikel


    tschüss
    -peter -

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Andora02</i>
    <br />
    wenn ich durch brennweitenverlängerung oder wie auch immer ein grössres Abbild des planeten bekomme müsste es schon eine tote Vergrösserung sein.
    tschüss
    -peter -
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Hallo Peter,
    wenn dem so wäre wie du es auslegst, dürften ALLE teleskope bei sofortigem Einsatz von Okularen, tote Vergrößerung produzieren.
    Das tun sie aber nicht. Eine tote vergrößerung erreicht man, wenn man über die durch die Optikgröße begrenzte Vergrößerung vergrößert.
    Eine Optik erlaubt eine Vergrößerung X eines Objekts. Die erreichbare max. Vergrößerung ist von vielen Faktoren abhängig wie:
    Optikgröße
    optische Qualität der Optik
    verwendetes Okular und dessen Eingenschaften


    Gruß

  • Hallo HoO



    ?????????????????????


    wenn mein Teleskop ne Auflösung von einer Bogesekunde besitzt und Jupiter ne scheinbare Grösse
    von 44 Bogensekunden wie kann ich da mehr rausholen als 44 * 44 Pixel auflösung an den Planeten ?


    was hat das mit Okulare Brennweiten und sonst mit zu tuhen ???


    tschüss
    -- Peter --

  • Hallo Peter,
    rauche mal ne HB.
    Du bringst die Auflösung im falschen Zusammenhang zusammen, das hat es mit den Okularen und der Brennweite zu tun.
    Die Auflösung ist da (zwar Optikabhängig), aber wie auch immer vorhanden.
    WIE GROß NUN EIN OBJEKT ERSCHEINT, HAT NUR MIT DER VERGRÖßERUNG ZU TUN.


    Und ausserdem geht deine Fragestellung völlig falsch los. Du würfelst die 44bog.sec. mit den 44*44 Pixel zusammen, was so gar nicht miteinander zu sehen ist.
    Die Größe des Planeten (44 bog.sec) ist eine Bezugsgröße, die Auskunft gibt wie groß der scheinbare Durchmesser des Planeten ist, gesehen von der Erde aus.
    Welche Auflösung du wieder beim fotografieren bekommst ist von der Optik abhängig, wie diese Auflösung als Größe auf dein Foto erscheint ist von der Vergrößerung abhängig.


    Wenn du das jetzt verstanden hast, ok, ansonsten du hast Recht und ich meine Ruhe.


    Schönen Gruß

  • Hi Peter,
    puh...
    also es ist folgendes.
    Die 44*44 Pix haben erstmal zu der Auflösung und zu der Größe deines Bildes nichts zu sagen.
    Die Details (Auflösung) erreichst du wie ich bereits oben erklärt habe, durch die Optikgröße und dessen Qualität. Die Vergrößerung erreichst du mit dem Faktor X, welche die Optik mitbringt und mit dem Faktor, welchen du zusätzlich benutzt (Barlow, Okular).


    Jetzt kommen die Pixel.
    Die Größe der Pixel ist nun selbst Ausschlag gebend, auf die Wiedergabe deiner Bilder. Die bestimmen die Auflösungswiedergabe und Detailreichtum. Desweiteren musst du bedenken, daß 1 Pixel nicht nur 1 Bog.sec. abbildet sondern bei einer Größe von 5my (Fachleute bitte um Hilfe) etliche mehr.
    Ergo erhälst du bei Aufnahme eines Planeten (von mir aus mit Brennweite 1m) nicht nur 44 Bog.sec. sondern das was die Optik bei der Brennweite abbildet (bei 1m ist der Jupiter glaube ich ganze 0,4mm im Durchmesser), einschliesslich der Auflösung die die Optik hergibt, (digital)abgebildet auf von mir aus auf 44*44 Pixel.


    Gruß

  • Hi zusammen,


    so ganz verstehe ich das auch nicht... folgender Gedankengang:


    Mein Gerät hat ein max. Auflösungsvermögen von 1 Bogensekunde. Und nehmen wir einmal an, Jupiter hat einen Durchmesser von 44 Bogensekunden. Daneben würden sich auf Jupiter 44 Wolkenbänder mit einem Durchmesser von je 1 Bogensekunde befinden. Das bedeutet, dass ich jedes Wolkenband gerade so sehen, fotografieren... kann. Das bedeutet, dass das kleinste Detail, das ein Pixel der CCD-Kamera empfangen kann, auch maximal 1 Bogensekunde groß ist. Ob nun ein Wolkenband eine Pixelreihe oder 5 beansprucht wäre egal, denn selbst die 5 zusammen könnten keine kleineren Details zeigen. Uns selbst wenn ich auf 5000fach gehe und ein Wolkenband über den gesamten Chip verteile, wäre nicht mehr drin. Dann würde es aber auch keinen Unterschied machen, das Bild hinterher digital zu vergrößern.


    Also: 44 Wolkenbänder auf 44 Pixelreihen zeigen so viel wie 44 Wolkenbänder auf 88 Pixelreihen. Denn bei 88 Pixelreihen könnte trotzdem keine Pixelreihe ein Detail von 0,5 Bogensekunden zeigen.



    Oooooooooooder?

  • Hallo Ihr beiden,


    Also ich muss eigentlich Peter Recht geben. Die obere Grenze der Auflösung eines Teleskopes ist einfach begrenzt (unabhängig von der Qualität der Optik) Bei 6" ist das ~1". D.h. wenn ich diese maximale Auflösung auf zwei nebeneinanderliegende Pixel abbilde (0.5" pro Pixel) werden diese statistisch gesehen dieselbe Information tragen. Das ist dann das was Peter mit 'toter Vergrößerung' meint.
    Aus praktischen gründen wird das zwar gemacht (Rauschunterdrückung und sonstiges) aber mehr Information gibts da nicht.
    Das einzige was hilft, mehr Details zu bekommen ist mehr Öffnung.


    Gruß Jens

  • Hallo,


    könnte es sein, dass das Auflösungsvermögen von 1" nur für annähnernd gleich helle Komponenten eines Doppelstern gilt? Ich hab mal ebend in das Buch "Fernrohr Führerschein" geguckt und folgendes gelesen:


    Auflösungsvermögen nach dem Rayleigh-Kreterium: Auflösung in Bogensekunden = 138/Öffnung in mm


    Allerdings geht es Hier ja um Planeten und da steht dann in dem Buch folgendes:


    Auflösung für einen Punkt in Sekunden = 39/Öffnung in mm(ca. 0,26" für einen 6 Zöller)
    Auflösung für Linien in Sekunden = 23/Öffnung in mm(ca. 0,15" für einen 6 Zöller)
    Auflösung für Doppellinien in Sekunden = 174/Öffnung in mm (ca. 1,16" für einen 6 Zöller)


    Damit könnten also Bilder von Planeten wesendlich mehr Details zeigen als das Rayleigh-Kriterium zulässt.
    Ich hoffe ich konnte ein wenig helfen.


    Gruß
    Markus

  • Hallo Horal


    Ich glaube Du hast die Antwort auf meine Frage geliefert.
    Du wo du es sagst kann ich mich auch daran erinnern das die Angaben der Auflösung in Bogensekunden immer auf einen zu trennenden Doppelstern sich beziehen.


    tschüss
    -- Peter --

  • Hallo Peter,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Und ich mache dann ein Bild vom Jupiter, dann könnte die Auflösung
    des Jupiters doch höchstens 44*44 Pixel sein ? Jedes grössere Bild
    vom Jupiter müste doch schon eine tote Vergrösserung sein, stimmt das?
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Ja, fast richtig! Die Einwürfe von HoO_Germany treffen den Kern
    Deiner Frage nciht so ganz, und Markus ist schön dicht dran.


    Ich versuch's auch noch mal mit anderen Worten: Doppelt hält
    besser [:)]



    Zunächst mal unter weitgehender Vermeidung von Fachbegriffen aus der
    Bildverarbeitung, nur eine Einstiegsdefinition sei erlaubt.


    Ein <font color="orange">Tiefpaßfilter</font id="orange"> ist ein Filter der aus einem Bild ein anderes
    macht, in dem er für jeden Punkt (x,y) im Bild mehrere benachbarte
    Pixel zusammenfaßt und einen neuen Wert an der Stelle (x,y) draus
    macht. Also z.B. ein 3x3 Rechteckfilter nimmt den Mittelwert aller
    neun Pixel (den Wert selbst und seine 8 Nachbarn) als neuen Wert.
    Es gibt auch 5x5 Filter, Kreis- oder gaußglockenförmige Filter etc.


    Stell Dir ein unendlich gutes Bild vom Jupiter vor. [:)] Nun betrachtest
    Du dieses Bild durch Dein Teleskop. Das Teleskop funktioniert wie
    ein Tiefpaßfilter. D.h. das Bild wird "verschmiert". Die Größe /
    Ausdehnung dieses "Verschmierfilterkerns" ist abhängig von der Öffnung
    Deines Teleskops: Je größer die Öffnung desto kleiner der örtliche
    Bereich der "verschmiert" wird. Die "Verschmierungsfunktion" ist
    hierbei nur annähernd gaußförmig, und hat noch ein paar Ringe
    drumherum. Hast Du bestimmt schon mal gesehen (Airy-Scheibchen).
    Hier ein Java-Spielzeug wie die Airy-Scheibe variiert, wenn Du Wellenlänge,
    Abstand oder Teleskopöffnung variierst. (Airy-Scheibe bitte nicht
    verwechseln mit der Airy-Funktion, das ist was ganz anderes.)


    So nun hast Du Deinen mit einem Filterkern von etwa 1" verschmierten
    Jupiter. Sagen wir, Du fotografierst digital: Je nach eingestellter
    Kameraauflösung kannst Du dieses Tiefpaßbild nun durch die Aufnahme
    in ein Pixelbild mit mehr oder weniger Pixeln verwandeln. Dabei
    nimmst Du quasi eine mehr oder weniger genaue Abtastung des
    "verschmierten" Jupiters vor. Klar, was weggeschmiert/weggemittelt
    ist, bekommst Du auch durch höher eingestellte Auflösung an der
    Kamera nicht wieder! Trotzdem macht es jetzt keinen Sinn den Jupiter
    einfach nur mit 44x44 Pixeln abzubilden, weil Dir dann Information
    verloren geht (Shannon'sches Abtasttheorem). Das Bild sollte, je
    nachdem was Du noch an Nachbearbeitung mit ihm vorhast, so zwischen
    2x und 5x höher abgetastet sein, um dann besser Schärfefilter,
    Binning zur Rauschunterdrückung o.a. darüber laufen zu lassen.



    Und z.B. eine dünnere als 1" schwarze Linie auf hellem Grund ist
    dennoch sichtbar, weil durch die Verschmierung die Linie nur breiter
    wird und an Kontrast verliert. (Deswegen kann man z.B. die Cassini-
    Teilung mit kleinen Teleskopen "sehen", oder die Encke-Teilung schon
    mit 8-10" Teleskopen, wenn die Bedingungen extrem gut sind).
    Und wenn Du z.B. den Mond Callisto (ca. 1.6" Durchmesser) als
    Scheibchen in einem 6" siehst, dann ist das eine ca. 2.6" große,
    verschmierte Scheibe, auf der man daher noch keine Oberflächendetails
    sehen kann.


    Was nun die Grenzen genau sind ist trotz der Zahlenangaben
    von Markus nicht immer so eindeutig, da es sehr von dem
    Originalkontrast der einzelnen abgebildeten Details abhängt, ob
    nach der "Verschmierung" noch etwas übrig bleibt. Ebenso haben auch
    die Details auf Deinem Jupiter natürlich Auswirkungen auf das
    verschmierte Bild. Aber was durch die begrenzte Öffnung
    des Teleskops weggemittelt wurde ist weg!


    BTW: Die "Verschmierfunktion" heißt auch PSF (point spread function) und
    ist im Falle eines idealen Teleskops (ohne Abbildungsfehler) über
    die Fouriertransformation zu berechnen. Ein 2D-Teleskop hätte
    einen Spalt als Öffnung und als Fouriertransformation eine sog.
    sinc-Funktion (sin(x)/x). Im 3D Fall kommt etwas analoges heraus,
    allerdings mit einer Besselfunktion J1 (erster Ordnung) statt des
    Sinus. Schaust Du hier oder einfach mal googlen....


    Hoffe es war nciht zu lang und unverständlich,
    Oliver

  • also jetzt ruft ihr mich aber auch auf den Plan [:D]
    Dass man eine dunkle Linie wie Cassini auf mit kleinen scopes sieht ist ja schön und auch gut so, hab ich auch wenigstens was zu spechteln[;)] aber ob ich dann den Jupiter nun auf 44 oder auf 500 Pixel aufnehme (sagen wir am Äquator, denn 44x44 pix geht schlecht bei der Abplattung [8D]) sollte doch bis auf die Kamerafehler keinen Unterschied machen. Ein Fleck mit 0,5" wird halt verschmiert auf eine größere Fläche von mindestens 1,5" bei 6 Zoll. Und das verschmierte Ergebnis nehm ich mit beiden Auflösungen auf. Das einzig positive von toter Vergrößerung ist doch dass ich eine Unschärfemaske über das Ergebnisbild laufen lassen kann die auf die "Verschmierungsfunktion" meines Teleskops angepasst ist und das Bild schärfer macht, sozusagen die Entschmierungsfunktion der Verschmierungsfunktion.[^] Mehr Details kann man dann zwar nicht rausholen, nur mehr Schärfe - ist doch aber schonmal was[:p]


    Wobei sich mir immernoch die Frage stellt: Wenn ich die perfekte Kamera mit dem perfekten Teleskop unter perfektem Himmel mit perfekter Luftruhe annehme - ja ich studier Physik [:o)] aber das wird doch wohl erlaubt sein - also kann ich dann nicht ein perfektes Bild vom Jupiter aufnehmen und hinterher eine perfekt angepasste Maske drüberlaufen lasse die aus der Helligkeitsverteilung rückwärts das ursprüngliche Bild rausrechnet? Die also sagt ahh ich hab hier keinen perfekten Kreis sondern das ist elliptisch, ich rechne mal schnell die Helligkeitsverteilung aus, hmmm nee das Teleskop kann nicht aus ner elliptischen Lichtquelle diese Helligkeitsverteilung verschmieren also müssen das zwei verschiedene Sterne gewesen sein...[?]




    (==&gt;)mikel at night: das nehm ich dir nicht ab, dass du aus genau dem Video das Summenbild bebastelt hast... weder auf dem kleinen noch auf dem großen Bild ist Cassini nur ansatzweise so gut zu erkennen wie auf dem Summenbild, und das hat komischerweise noch ne andere Größe[B)]

  • Hallo Oliver und FU
    Danke fuer euere Antwort.
    Kann man gut nachvollziehen.



    Oliver du sagtest


    Zitat
    "Und z.B. eine dünnere als 1" schwarze Linie auf hellem Grund ist
    dennoch sichtbar, weil durch die Verschmierung die Linie nur breiter
    wird und an Kontrast verliert. (Deswegen kann man z.B. die Cassini-
    Teilung mit kleinen Teleskopen "sehen", "


    Das hieße ja, das die Cassiniteilung im kleinen Teleskop im falschen Masstab zum überigen Saturn gesehen würde, meine die Lücke zwischen den Ringen "Cassiniteilung" wäre grösser als sie in wirklichkeit ist.
    Stimmt das ? oder gleicht sich das wieder aus weil ja der ganze Saturn "verschmiert" dargestellt wird.


    Wenn ich meinche große Amateurfotos vom Saturn sehe
    sind die zwar meinchmal knacke scharf kein rauschen und nichts, ( bei 1000- 2000 Einzelfotos
    und grosser Filterwirkung warscheinlich ) sehen aber dann sehr plakativ !! aus, kommt das daher,
    dass es schon leere oder tote Vergrösserungen sind ?


    tschüss
    -- peter --

  • Hallo,


    Dein Einwand ist zunächst völlig korrekt.


    das Problem ist allerdings folgendes:
    Das "Auflösungsvermögen" ist etwas willkürlich festgelegt durch die Forderung, daß der Mittelpunkt eines Beugungsscheibchen auf dem ersten Minimum eines anderen Beugungsscheibchen zu liegen kommt. Aber auch enger liegende Punkte liefern noch eine schwache Helligkeitsvariation, die immer geringer wird, je näher die beiden Punkte zusammenrücken. Würde man mit "einem Pixel pro Auflösung" aufnehmen, dann gingen diese Informationen verloren. Daher nimmt man mit mehr Pixeln auf, vielleicht drei- bis viermal so vielen, um diese sehr schwachen Schwankungen noch einzufangen. Das Auge vermag diese vielleicht gar nicht mehr zu erkennen. Die sehr schwachen Schwankungen kann man durch geschickte Bildbearbeitung verstärken.


    Weitere Anmerkungen:
    - Webcams mit einer Auflösung von z.B 640 x 480 Pixeln haben diese Auflösung eigentlich gar nicht! Ein Pixel ist hier nämlich nur entweder rot, grün oder blau. Erst das Verschmieren liefert das RGB Bild, und die "echte" Auflösung ist geringer. Daher sind gute Videokameras immer mit drei Chips ausgerüstet.


    - Das "perfekte" Ursprungsbild wird durch die Optik mit der Beugungsfunktion "gefaltet". "Falten" ist eine mathematische Operation, die man theoretisch auch rückgängig machen kann. Hätte man also ein Bild ohne den allergeringsten Fehler und mathematisch ideal in die Kamera übertragen, d.h.: ohne Seeing, mit unendlicher Auflösung, beliebigem Kontrastumfang und idealer Optik, dann könnte man daraus das perfekte, ungestörte Bild zurückberechnen. Natürlich hat man Störungen, die das vereiteln - aber ein bischen was geht schon, und das erklärt die anscheinend "zu scharfen" Bilder.


    Fazit : Man nehme mit drei- bis fünffach so hoher Auflösung auf und versuche mit Gain etc. so zu spielen, daß schwache Schwankungen im Kontrastumfang (nur 8 bit) enthalten sind.


    Hoffe, ich konnte etwas zur Verwirrung beitragen [:D]


    Gruß
    Moriarty

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    - Das "perfekte" Ursprungsbild wird durch die Optik mit der
    Beugungsfunktion "gefaltet". "Falten" ist eine mathematische
    Operation, die man theoretisch auch rückgängig machen kann. [...]
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Kleine Ergänzung: Auch praktisch versucht man diesen Prozess
    rückgängig zu machen. Entweder modellbasiert (wenn man in etwa weiß,
    welche Art von Beugungsfunktion vorgelegen haben könnte) oder aber
    auch "blind". [:D] Stichwort zum googlen: "blind deconvolution".


    Der Erfolg von Dekonvolutions-Ansätzen ist im Einzelfall durchaus
    manchmal sehr erstaunlich. Aber im allgemeinen würde ich mich Moriarty
    anschließen: das Rauschen und die realen Aufnahmebedingungen
    begrenzen den Erfolg normalerweise recht stark.


    ==&gt; Peter
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Das hieße ja, das die Cassiniteilung im kleinen Teleskop im falschen
    Masstab zum überigen Saturn gesehen würde, meine die Lücke zwischen
    den Ringen "Cassiniteilung" wäre grösser als sie in wirklichkeit ist.
    Stimmt das ? oder gleicht sich das wieder aus weil ja der ganze Saturn
    "verschmiert" dargestellt wird.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Ja. Wenn Du den Effekt qualitativ mal sehen willst: Nimm Dir ein
    Hubble-Bild vom Saturn (das sei für den Moment mal unser perfektes
    Bild). Mess aus wieviele Pixel etwa eine Bogensekunde sind. Lade das
    Bild dann in Photoshop, Gimp, oder was immer auch und mache eine
    Glättung mit dem Gaußfilter (im Moment mal unsere Näherung für das
    Airy-Teil). Filterbreite etwa so groß setzen wie Airy-Scheibchen
    Deines Teleskops. Mit 7cm Öffnung z.B. wird Cassini ganz schön
    matschig (Um den visuellen Eindruck im Teleskop besser zu entsprechen,
    mußt Du dann die Ansicht vom Saturn in Deinem Bildbearbeitungsprogramm
    entsprechend verkleinern. Und siehe da, das Auge ergänzt ganz prima,
    manchmal sogar umlaufend, eine schöne Cassini-Teilung [:D][:D][:D]).


    Auch auf Hubblebildern ist die Encke-Teilung zu breit...


    <font color="pink">
    Kleiner Nachtrag: Habe mal eben zur Veranschaulichung mit der heißen
    Nadel ein Beispiel gestrickt.
    Habe ein Saturn Ringprofil von der NASA (aus den Voyagerdaten
    berechnet und derzeit im peer-review) hergenommen und es mit einem
    dem Hubble-Teleskop (2.4m Durchmesser) entsprechenden "Airy-Kern"
    gefaltet.

    Also auch Hubble schaut nicht bis auf den Grund der Teilung.
    </font id="pink">


    CS,
    Oliver

  • hey Oliver, das interessiert mich jetzt mal[8D] was hast du genau gemacht? Verstehe das gefaltet nicht...
    Also du hast Voyagerdaten (blau) auf helligkeit gescannt und die Hubbledaten (pink) auch gescannt und drübergelegt? Ist es der gesamte Ring?
    Oder hast du die Verwischfunktion vom Hubble über die Daten gejagt? dann könnten wir ja nochmal wenn die genaue Stelle des Rings bekannt ist ein reales Hubblebild durchscannen [:D]


    Dann ist doch auf jeden Fall mal ne klasse Idee

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    hey Oliver, das interessiert mich jetzt mal was hast du genau gemacht?
    [...]Also du hast Voyagerdaten (blau) auf helligkeit gescannt [...]
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> Nein.
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    Oder hast du die Verwischfunktion vom Hubble über die Daten gejagt?
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote"> Ja. [:)]


    1) Aus den Voyagerbildern (aus unterschiedlichen Entfernungen
    aufgenommen) hat die NASA ein einziges "Standard" Ringprofil
    berechnet. Das habe ich hergenommen.


    2) Wenn Du Dir ein ideales Teleskop mit dem Durchmesser des Hubble-
    teleskop vorstellst, dann kann man die oben schon erwähnte "wellige"
    PSF/Beugungsfunktion für dieses Teleskop mathematisch berechnen.


    3) Mit der Faltung kann ich Dir leider nciht weiterhelfen. Das ist
    etwas mühsam über dieses Medium zu vermitteln. Google mal nach
    "Faltung" bzw. "convolution", da müßtest Du reichlich finden.
    Stell es Dir aber grob so vor: Ich habe dann die Profildaten mit der
    PSF (auf math. definierte Weise) "geglättet" (rote Linie), gerade so,
    als ob sie (die Daten) durch ein solches Teleskop beobachtet würden.


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">
    [...]dann könnten wir ja nochmal wenn die genaue Stelle des Rings bekannt ist ein reales Hubblebild durchscannen[...]
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Kannst Du machen. Ein Problem ist, das die Hubblebilder, die ich so
    kenne viel "pixeliger" sind. Ein Beispielausschnitt an der
    Encke-Teilung (stark vergrößert) hier:

    Die Pixel sind so bummelig 40-50km groß.


    Die Profile jedoch haben eine Auflösung/"Pixelkantenlänge"
    vom ca. 2km! (Der Wert an der x-Achse der Vergleichsgrafik gibt die
    Entfernung in km vom Saturn an).


    Alle Klarheiten beseitigt?
    Oliver

  • Also ich finde Peters Gedankengang ist richtig.
    Um das zu hinterlegen habe ich mir einen Hubble-Saturn vorgenommen und in verschiederer Aufloesung abgespeichert und grob aber prinzipiell eingeordnet:
    44 Pixel (Aufloesung 1 Bogensekunde, visuell 4 Zoll Refraktor):

    59 Pixel (visuell 5 Zoll Refraktor):

    118 Pixel (visuell 10 Zoll):

    235 Pixel (visuell 20 Zoll):


    Man kann jetzt hingehen und die Bilder Vergroessern. Natuerlich wird eine Vergroesserung keine weitern Details zeigen d.h. man wird "leer" vergroessern.
    Und man kann natuerlich darueber streiten mit welchem Skope man 1 Bogensekunde aufloest, und ich denke, dass 4 Zoll dafuer ausreichen (beim Refraktor zumindest). Natuerlich spielen auch Bearbeitungstechniken eine Rolle (Stacken, Mittelwerte etc), dass heisst, mit einem Summenbild loese ich mehr auf als mit einem Einzelbild. Ausserdem gehen andererseits beim "Herunterpixeln" natuerlich Daten verloren, und weiterhin bietet das eigentliche Bild durchs Okular sicherlich ein wenig mehr (oder weniger) je nach Seeing und Qualitaet der Optik.


    Bessere Vergleichswerte bietet die eigens fuer diesen Zweck entwickelte Aberrator-Software: http://aberrator.astronomy.net/

  • <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Tomsk</i>
    <br />
    Natuerlich spielen auch Bearbeitungstechniken eine Rolle (Stacken, Mittelwerte etc), dass heisst, mit einem Summenbild loese ich mehr auf als mit einem Einzelbild.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Das war ja die Sache... zusätzliche Infos kommen eigentlich auch mit der besten Bildbearbeitung rüber aaaaaber [:D] oliver hat da einen Fetzen in den Raum geworfen von dem was ich vorher schonmal verfolgt hatte... deconvolution bringt anscheinend ne ganze Menge aber erst festhalten
    Oder was uns mehr interessiert:
    theoretisch arbeitet da die Physik doch für mich mit der Wahrscheinlichkeit[8D] Kann man also mit dieser Technik das Auflösungsvermögen einer Öffnung in gewisser Weise austricksen?


    Bleibt die Frage: Wer schreibt ein Giotto3 mit deconvolution, dann Überlagerung und dann Glättungsfunktion die die durch die vorm stacken entfalteten Bilder mitgeschleiften Fehler dann noch ausbügelt. &lt;-- Scheiss Satz aber ist halt spät, das zahl ich dir heim Oliver, einen armen Menschen nachts so zu beschäftigen[;)]



    <hr noshade size="1">
    Nachtrag mitlerweile ist die Zeit schon wieder menschlich [:p] Also anscheinend ist Hubble noch schlechter als wir alle dachten, denn schaut euch mal das an: Habe das bestaufgelöste Hubblebild was ich finden konnte im Bereich er Encke-Gap mal analysiert

    ist zwar etwas pixelig und nicht so cool, aber die Struktur der theoretischen Hubbleaufnahme von Oliver ist auch hier wieder zu finden denke ich, nur ist die Encke-Gap nichtmal so tief wie berechnet[:0] Was für eine Verwischfunktion hast du denn genommen Oliver? sin(x)/x oder komfortabel dieBessel J1[?][:)]
    Nichtsdestotrotz hätt ich trotzdem gerne diesen Spiegel[:D]

  • Hallo,


    da habe ich wohl eine Entfaltungs-Lawine ausgelöst [:D] ...
    die Anwort ist: "Im Prinzip" kann man die Öffnung austricksen, aber in der Praxis geht es aus folgenden Gründen nur ein Stück weit:
    Jede Information, die man mit irgendeiner Technik aus dem Bild rekonstruiert, muß in diesem vorhanden sein.


    Das hört sich zwar trivial an, ist es aber nicht. Wie ich schon schrieb, werden zwei Punkte unterhalb des Auflösungsvermögens über mehrere Pixel verschmiert, und die Information steckt dann in winzigsten Helligkeitsschwankungen vieler Pixel auf einmal. (Die Frage war ja, warum mehr als ein Pixel pro "Auflösung" gut ist). Diese Schwankungen werden umso geringer, je näher die Punkte zusammen sind.


    Auch die besten, rauscharmen CCDs haben a) eine begrenzte Raumauflösung und b) eine begrenzte Helligkeitsauflösung. Selbst bei 16 Bit Intensitäts-Tiefe habe ich nur ca. 65000 Helligkeitsabstufungen. Dazu kommen andere Rauschquellen wie eben das Seeing, thermische Schwankungen, Verstärker, Sampling-Effekte, Blooming, uneinheitliche Faltungsfunktionen über das Bildfeld etc, etc.


    Die kleinen, informationstragenden Helligkeitsdifferenzen gehen in Schwankungen unter, und die Deconvolution (Entfaltung) liefert dann nur eben Rauschen: Ein grieseliges Bild statt der Details.


    Wir erinnern uns an die Anfangszeiten des Hubble. Der Hauptspiegel war falsch geschliffen, die Bilder unscharf. Dennoch gelang es nach einiger Zeit, brauchbare Bilder von hellen Objekten (!) zu generieren, und zwar durch besagte Deconvolution-Techniken. Dennoch war das keine endgültige Lösung. Ein Stern verteilte seine Photonen über eine zu große Sensor-Fläche, ein schwacher Stern war aus dem Rausch-Untergrund nicht zu rekonstruieren.


    Gruß
    Moriarty


    P.S.
    Auch wenn wir einen mathematisch idealen Bildsensor hätten, hätten wir wieder ein Problem, nämlich Seeing. Das kann man reduzieren (und macht man ja schon jetzt), wenn man kurze Belichtungszeiten wählt. Bei einer kleinen Öffnung kommen dann aber so wenig Photonen auf ein Pixel, daß man vermutlich tausende Aufnahmen stacken müßte, und man weiß leider nicht, welche man auswählt, weil das Einzelbild zu wenig Informationen dafür enthält (ist die Lichtquelle hell genug, kann man das Seeing evtl selbst herausrechnen, Stichwort Speckle-Interferometrie). Die Quantenphysik spielt gegen uns. Auch werden CCDs mit kleineren Pixeln anfälliger gegen Störeffekte. Wie man es dreht und wendet, es ist schwierig, wenngleich ich glaube, daß das Ende der Fahnenstange noch nicht erreicht ist - ein bischen was geht noch.


    Kleiner Exkurs Ende [:D]

  • Ja da hast du allerdings was losgetreten [:D] Also zuerst: Seeingeinflüsse sind uns ganz egal beim Entfalten! Wir kennen unser scope so gut von den Abmessungen dass wir die perfekte Entfaltungsfunktion errechnen können - ja ich habe heute damit angefangen und ein Porg geschrieben [8D]. Wir können also das ursprüngliche Bild ohne Beugung rekonstruieren, dieses ist dann möglicherweise seeingverwischt oder gut das stimmt schon... aber sollte die Quali bis dahin schonmal besser werden!
    Einfluss von Pixelrauschen: das Entfalten ist doch auch nur eine Art von Verwischen - halt in umgekehrter Richtung... Falten: wende eine Maske an wie
    1 2 1
    2 4 2
    1 2 1
    und errechne daraus den neuen Pixel... Entfalten: das ganze rüchwärts, dieser Vorgang sollte wie mir heute im Laufe des Tages klarwurde sogar eher noch als Rauschminderung wirken! und wir reden hier ja nicht über sooo extrem weitreichende Beugungsmuster um das klarzumachen habe ich mal das Beugungsmuster von meinem 6Zoll bei 1650 mm Brennweite für die drei Farben der ToUCam geplottet:

    die x-Achse sind dabei die Pixel der cam - Was allerdings noch fehlt ist der Einfluss der Obstruktion[xx(] kennt da zufällig jemand nen Algorithmus für?
    Gute Nacht[8D]

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!