Selektive Wellenfrontauswertung machbar ?

  • Halöle miteinander,
    als Greenhorn in diesem Forum möchte ich mir mal erlauben eine evtl. dumme Frage zu stellen.
    Mir geht seit einiger Zeit eine Idee im Kopf herum und ich würde gerne mal die Meinung der Experten dazu hören.
    Wenn ich ein reales Teleskop mit einer CCD-Kamera austatte und diese Anordnung nicht nachführe, so wandert doch das Bild durch den CCD-Chip. Nun habe ich gelernt, dass ein Bildpunkt mehrfach abgebildet wird und eben Diffraktion eine unumgängliche Tatsache ist.
    Wenn ich nun einen sehr schmalbandigen Filter verwende und alle Werte meiner Apertur kenne, ist es dann möglich nicht die Nebenmaxima meiner Diffraktion für jeden Bildpunkt (in diesem Fall = Pixel) auszurechnen und sodann zu korrigieren ? Ich hätte es doch hier dann nur mit fast einer Wellenlänge zu tuen und ich könnte doch ein äquidistantes Zeitraster erstellen nach dem ich dann die Auswertung in Echtzeit vornehme oder?
    Würde das nicht die Auflösung erheblich anheben ?
    Wenn diese Frage bei Euch Schenkelklopfen auslöst, habt Mitleid mit einem Newbie [xx(]

  • Hmm - meinst Du einen Wellenfrontanalysator?


    Oder etwas anderes?


    Das Problem ist immer die atmosphärische Szintillation, die zeitlich und räumlich stark variabel ist. Die Zeitkonstanten liegen zwischen 1/100 s und 1/10s, und dabei ist die Wellenfront noch stark deformiert. Weshalb man selten eine ideale Beugungsfigur sehen kann. Außerdem müßte der CCD-Chip deutlich besser auflösen als die Beugungsgrenze des Teleskops. Dazu brauch man aber sehr lange Öffnungsverhältnisse oder extrem kleinpixelige und damit unempfindliche CCDs.


    Gruß


    ullrich

  • hmmm,
    also eigentlich hatte ich im Hinterkopf, das man mit einfachen Mitteln die Leistung eines Teleskops erhöhen kann indem man die Beugungscheibchen zurückrechnet.
    Ich verstehe leider nicht warum ein CCD deutlich höher auflösen muss als das Teleskop. Genau das wollte ich doch damit erreichen.
    Ich versuche es mal anders.
    Zum Zeitpunkt T1 habe ich einen Bildpunkt A(t1) im Pixel 1, meine 'gewünschte' Auflösung ist bekannt und ich kann hier bereits sagen, das bei gegebener Auflösung der Punkt A(t1) zu einem bestimmbaren Anteil im Pixel 2, Pixel 3 etc vorhanden ist, da ich die Abstände der Wellenmaxima ja schon vorher berechnet habe. Nun könnte ich doch in meinem festgelegten Zeitraster diese Nebenwerte speichern und für den Zeitpunkt T2 (A ist jetzt auf Pixel 2) korrigieren.
    Die Auflösung ist eigentlich 'infinitesimal' da ich das Zeitraster beliebig klein wählen kann.
    D.h. alle zwischen zwei Pixeln liegenden Werte kann ich ebenfalls berechnen.
    Hätte ich in Analysis doch besser aufgepasst [:D]
    Ist das verständlicher ?

  • Nein Ullrich,
    ich glaube Du hast mich verstanden yeahh [:D]. Die Informationen im 'toten Bereich' zwischen den Pixeln kenne ich ja (theroretisch).
    Ich brauche die Informationen dann ja nicht. Wenn ich die Geometrie meines CCD einbeziehe kann ich doch dann theoretisch korrekte Bilder rechnen. Liege ich da falsch ?
    Meine Frage zielt eher darauf ab, ob es möglich ist, zu jedem Zeitpunkt T eine Korrektur K(t) zu bestimmen. Wir können dabei ruhig annehmen, das die Auflösung meines CCD unendlich ist. Ich will nicht den gemessenen Wert eines Pixels zur Berechnung benutzen sondern den theoretischen Wert.
    Man könnte es mal umdrehen und auf die Spitze treiben mit der Annahme ich habe nur zwei Pixel!
    Wenn nun alle Bildpunkte (die ich ja im Zeitbereich aufgelösst habe) durch meine beiden Pixel wandern, könnte ich dann nicht durch die Vorzeichenrichtige Addition aus meinen Annahmen und realen Messwerten ein Bild erzeugen ? (Immer vorausgesetzt ich habe alle Informationen zu meiner Apertur).
    Die Transformation von physischen Bildpunkten zu 'Peterschen'-Bildpunkten [:D] wäre dann doch nur eine Funktion von T,Lambda und Intensität.
    Wäre das so einfach, hätte man es wahrscheinlich schon gemacht oder ?
    Danke für Deine Infos.

  • das hört sich nach dem Verfahren an, dass bei Spot5 (Firma Spotimage) benutzt wird. Ich habe leider die CD von der diesjährigen Weltraumoptik Konferenz (ICSO . Aber sobal ich sie wiederhabe werde ich den entsprechenden Artikel mal raussuchen. Es handelt sich zwar um eine Erdbeobachtungskamera mit einem Zeilensensor aber die optischen Überlegungen für eine gestaggerten (versetze Bildaufnehmer, in diesem Fall zwei um je 1/2 Pixel seitlich verschobene Zeilen) Bildaufnahme die gleiche sein

  • Ahaaaa,
    da findet ein blindes Huhn mal ein Korn und dann gibts das schon :(
    Ich habe allerdings nicht vor, ein Pixelshift zu machen, das wäre wiederum begrenzt durch die physische Auflösung der Optik.
    Ich möchte Faunhofer eigentlich nur 'rückwärts' :)

  • vielleicht ist das ja für dich interessant:
    wenn man die Bildinformation als Fourier transformiert dann sind alle Bildfehler multiplikativ miteinander verknüpft. Die Rasterung durch den CCD ebenso wie das Atmosphärische Seeing, rauschen, abbertionen der Optik usw. Deshalb ist es möglich bei kenntnis der PSF einer Punktlichtquelle das Bild rückwärts zu berechnen. Dafür gibt es mathematische Verfahren allerding kennen ich das auch nur vom Hörensagen und der theoretische Background ist mir bisher verschlossen geblieben [:D]
    Zum thema verknüpfung der MTF (modulationstransferfunktion) hilft dir vielleicht das hier
    click mich

  • Hallo Melchior,
    exakt das habe ich gemeint! Schitt! Wäre ja auch zu schön gewesen. Aber vielleicht laesst sich daraus was ableiten....für den Amateurbereich meine ich. Genau diese MTF habe ich gemeint, obgleich ich zugeben muß das ich den Artikel bestimmt noch zweimal lesen muß, bis ich alles vollends verstanden habe. Die packen ja gleich alles rein. Soweit bin ich noch nicht und ich habe immer noch ein Problem mit der Sensorauflösung. In meinen einfachen Hirnwindungen brauche ich die nicht, aber ich werde schon hinter meinen Gedankefehler kommen. Bei FFT 'verliert' man auch Informationen, zumindest wenn man nicht beide, Zeit- und Frequenzbereich einbezieht bzw. kombiniert.
    Die Jungs haben überigens auch den riesen Vorteil, das sie 'meine Zeitline' [:D] in nur einer Richtung nutzen müssen. Ich hätte leider zwei, von der eine ziiiiiiehmlich fest steht.


    Schön das mich hier jemand versteht mit meinen naiven Anfänger-Denkergüssen [:)]


    Ich habe durch Deinen Artikel wieder neue Anstöße bekommen und muss jetzt erst mal wieder lernen. Meine Intuition sagt mir aber, das die Einführung der CCD in die Amateurastronomie nicht der letzte Schritt war. Ich bleibe am Ball und wenn es auch nur dazu dient mir zu Beweisen das ich Wunschdenken betreibe [:D]
    Danke Melchior für Deine Infos!
    Ein wiederspenstiger, quängelnder Anfänger (Your limit is the sky, daran halte ich erst mal fest )[:p]

  • hi peter, hi melchior,


    die multiplikative verknüpfung der information und der fehler nennt man faltung.
    kennt man einen der beiträge also z.b. einen der fehler so kann man in theoretisch herausrechnen.
    das macht man dann mit einer entfaltung.
    das problem dabei ist das man dabei um die multiplikative verknüpfung rückgängig zu machen dividieren muss. jetzt liegt es in der natur der sache das die PSF (point spread funktion) des intrumentes nur begrenzt genau bekannt ist und manche ihrer FFT terme vor allem jene höherer ordnung klein sind, kleiner als die genauigkeit mit der sie bekannt sind. manche dieser terme mitsamt ihrer ungenauigkeit kommen so sehr nahe an null zu liegen, dividiert man durch die nahe null gelegegnen terme entstehen leider riesige ergebnisse bei der division die nur aus der ungenauigkeit der kenntniss der PSF stammen. mit anderen worten exakte entfaltung ist praktisch nicht möglich. näherungsweise entfaltung wird gemacht und liefert in der tat verbesserungen. ich glaube beim huble hat man so was gemacht (der fehler war hier gut bekannt) bevor es eine brille bekommen hat.


    grüsse robert

  • Hi Robert,
    würdest Du eine Möglichkeit sehen mit Hilfe von Referenzmodellen die Fehler für ein reales System nummerisch zu ermitteln und die Koeffizienten heraus zu arbeiten?
    Es müßte doch machbar sein ein Konvergenzkriterium für ein reales System zu bestimmen und dann die Arbeit einen Rechner in Nachtschicht machen zu lassen.
    Sind die Auswirkungen eines Fehlers nicht proportional zu seiner Ordnung? Wenn ja, müßte sich das doch serialisieren lassen sofern das Gesamtsystem konvergiert.
    Bin ich da zu optimistisch? Sagen wir, ich stimuliere mein System mit Rechtecksignalen mit einer bestimmten Frequenz, so müßte ich doch hierfür eine einfache MTF bekommen (zumindest als Lunineszenskurve). Die Frequenz könnte ich doch dann schrittweise erhöhen (sozusagen Durchwobbeln) und die Koeffizienten ermitteln.
    Klingt irgendwie alles wie ein Ronchitest mit unterschiedlichen Gittern [:D], hmmm....grübel grübel.

  • Nachtrag:
    Die ESA hat es auch schon gemacht und es geht [:D]


    Point source intensity fractions:


    The intensity fractions, or psf, of a point source passing through a given filter/aperture combination of PHT-P or filter/pixel combination of PHT-C has been calculated using a simplified model of the point spread function. This model assumes a uniformly illuminated round mirror of 30 cm radius with a f/15 focal length and a central obscuration of 10 cm radius. The sizes of the apertures and detectors as determined on ground together with the central wavelength of the filters have been used to determine PSF.


    For C200 the fraction of light falling on the whole array is significantly different from the fraction calculated for the model described above in which the physical dimension of the detector arrays have been included. This is probably due to losses and diffraction at the inter-pixel gaps of order 100um when the point spread function is centred on the C200 array and not on one of the pixels. Empirical correction factors obtained from calibration observations have been determined to correct for this effect (Laureijs 1999, [32]).


    The resulting values for are stored in a Cal-G file, see Section 14.18.
    ......

  • Und noch ein kleines Problemchen: Der CCD-Sensor verliert beim Wellenfronten-Abtasten leider die Phaseninformation. Unschön. Da haben es Radio-Astronomie-Antennen besser...

  • Hi Tom,
    kannst Du mir das erklären ? Hab nur zwei Gehirnzellen und eine ist schon mit Brüsten belegt [:D]
    Meinst Du Zuordnung der Zeit beim Abtasten ?

  • Nun ja, ein CCD-Sensor ist integrativ. Die Wellenfront bräuchte man idealerweise ja in Phase und Amplitude. Phase ist gewissermassen der Zeitunterschied der Wellenanteile (Frequenzen). Und den macht die CCD zu Null.

  • Ja, das ist doch ok, ich hätte doch ohnehin integriert. Gewissermaßen bin ich sogar dankbar, das die CCD-Zelle das übernimmt. Es geht mir doch um die Summe == Energie zu einem bestimmten Zeitpunkt. Wofür benötige ich die Phase ?

  • N'Abend Peter,
    doch doch, die Rückfaltung funktioniert schon innerhalb einiger Grenzen.


    Eines der prinzipiellen Probleme ist übrigens das Rauschen im Bild. Daher müssen alle Versuche die PSF
    aus dem Bild herauszurechnen über statistische Ansätze laufen. Der Bekannteste ist,
    wohl wegen seines Einsatzes am Hubble, der Lucy-Richardson Algorithmus. Google mal etwas dazu herum.
    Wenn ich mich recht entsinne, kann z.B. Astro Art über eine LR-deconvolution Bilder schärfen.
    Das bringt z.B. etwas, wenn man Nachführfehler aus dem Bild rechnen will.
    Überhaupt lassen sich alle Fehler, die zu einer Gauß/Lorentzförmigen Verbreiterung der PSF
    führen, so einigermaßen in den Griff bekommen, darunter fallen z.B. neben den Nachführfehlern auch
    das gemittelte atmosphärische Seeing.
    Die Beugungsfigur selber herauszuziehen ist allerdings wesentlich kniffeliger, weil, wie der Tom Licha
    schon sagt, einerseits Phaseninformationen und auch das Vorzeichen der PSF geschluckt werden und zweitens
    das unvermeidliche Rauschen der Chips jeder Bildschärfung eine statistische Untergrenze verpaßt.
    Weiterhin kann man aus einem Bild die beugungsbegrenzte PSF auch deshalb nicht so einfach herausziehen,
    weil sie für fast alle verwendeten Teleskoptypen übers Bildfeld ortabhängig ist (Ein Newton hat im zentrum
    kein Koma, abseits der Achse schon, entsprechend ändert sich die PSF).


    Falls dich das Thema wirklich interessiert, setz dich mit dem Michael König (http://astro.schmid-koenig.de)
    in Verbindung, der hat sich mit sowas intensiver beschäftigt.


    Gruss,
    Mario

  • Hallo Mario,
    ich verstehe. Das Rauschen ist auch klar, ein gewisser maximaler Rauschabstand muß gegeben sein. Ich habe noch immer Probleme mit der Phasenlage-Information.
    Ich erkenne noch nicht deren Wichtigkeit. Mein Gedanke war ja eben der statistische Ansatz aber mit Hilfe einer Zeitreferenz, welche mir dann die nötigen Informationen liefern müßte (einschließlich Vorzeichen). Ich wollte doch nicht einen einzelnen Frame zur Berechnung verwenden sondern die Spalten vieler Frames zeitlich synchron zu einer NICHT nachgeführten Kamera. Wenn man so will einen einspaltigen Scanner mit der Erdrotation als Taktgeber. Auch wenn die PSF (bleiben wir ruhig bei der Airydisk) für jeden Punkt in der Bildebene anders ist, so ist sie doch für ein gegebenes System konstant. Richtig ? Davon ausgehend kann ich doch bereits vorhersagen zu welchem Zeitpunkt welcher Objektpunkt in meiner Bildebene (CCD) an einem bestimmten Ort vorhanden sein müßte, einschließlich der Positionen seiner Nebenmaxima. Der Grundgedanke soll darin liegen die Bewegung auszunutzen um Vorhersagen zu machen.
    Vielleicht habe ich auch irgendwo noch einen Denkfehler [:D]


    Ich habe Michael König mal angeschrieben....schauen wir mal.
    Vielen Dank für Deine sehr wertvollen Informationen Mario.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!