Venus mit Rotfilter

  • Hallo Jan und Robert,

    ich sehe das - zumindest z.T.- anders.

    Einfache Wellenfronten lassen sich entzerren und einfrieren, rechts im Bild.

    Die sinnvollste Einzelbelichtungszeit korreliert mit der Geschwindigkeit der Wellen.



    Links im Bild hat man mehrfach überlagerte Wellenfronten. Hier kannst du kein vernünftiges Bild generieren, auch mit der kürzesten Belichtungszeit nicht. Und wenn du Millionen Bilder stackst, so bekommst du zwar einen statistischen Mittelwert, die Bodenfliesen sind dann vermutlich gerade, aber die Kanten werden immer unscharf bleiben.

    Viele Grüße

    ralf

  • Links im Bild hat man mehrfach überlagerte Wellenfronten. Hier kannst du kein vernünftiges Bild generieren, auch mit der kürzesten Belichtungszeit nicht.

    Das ist ja unbestritten. Wenn Du aber kürzer belichtest, z.B. nach Herausnahme einer 2x Barlow 4x kürzer, dann hast Du eine mindestens 4x höhere Chance überlagerungsfreie Bilder aus einer im wesentlichen ungeknickten Wellenfront im Stack zu finden. Wenn es keine ungeknickten Wellefrontsituationen gäbe, könnte man ja niemals das Auflösungsvermögen eines größeren Teleskops realisieren ...


    CS Jan

  • Hallo Jan,

    das sehe ich anders und das Schwimmbad-Beispiel gibt das sogar ganz gut wieder.

    Wenn du in derselben Zeitspanne mehr Bilder generierst (linkes Beispiel), dann hast du m.M.n. nichts gewonnen. Auch, wenn du unzählig Bilder hättest, dann wäre kein gutes dabei. Die gestörten Wellenfronten verschwinden nicht für kurze Zeit und kommen dann wieder.

    Auf einer größeren Zeitskala kann sich das Wasser im Mittel aber beruhigen, wenn z.B. ein Schwimmer das Becken verlässt.

    Aus diesem Grunde ist meine Gesamtbelichtungszeit immer sehr lang, und zwar in der Hoffnung einen ruhigen Moment innerhalb des Materials zu finden. Meine Einzelbelichtungszeit orientiert sich dabei an der Wellen-Geschwindigkeit, (bei der es evtl. auch noch so etwas, wie eine Hebelwirkung gibt und Details sich möglicherweise schneller bewegen als die Welle selber).


    Noch ein Beispiel:

    Wenn ich die ISS filme, dann benötige ich ungefähr 0,5 bis 1,0 ms, um sie scharf abzubilden. Ist die Zeit länger, dann bekomme ich Bewegunsunschärfe ins Bild. Sie bewegt sich mit ca. 27000 km/h auf 400 km Höhe. Auf 10 km Höhe (dem Jetstream), entspräche das 675 km/h. So schnell ist kein Wind auf der Erde. Die Geschwindigkeiten bewegen sich am oberen Ende eher so um die 100 km/h (Extremwetter mal ausgeschlossen), das macht grob 3,5 bis 7 ms. Bei moderaten Höhenwinden (15 m/s) wären das grob 7 bis 14 ms. Das entspricht den Werten der DIMM Analyse und meinen eigenen Tests.

    VG ralf

  • Hallo Ralf,


    danke, ich glaube, jetzt hab ich auch kapiert, was Du meinst:


    In den Momenten guten Seeings sind die Störungen so großskalig, dass man auch lange belichten kann. Typische Zeitskala sowas wie Teleskopöffnung / Windgeschwindigkeit.

    Wenn das Seeing schlecht ist und die Störungen kleinskalig, verschmieren sie bei kurzer Belichtung weniger. Ist dann aber auch egal, an den Bildern ist man eh nicht interessiert.


    Klingt logisch für mich.


    Herzliche Grüße, Holger

  • Hallo Holger,

    ja, zumindest dann, wenn mein Vergleich mit den Wellen im Schwimmbad stimmt, ist ja auch nur ein Modell.

    Man könnte sich auch noch andere Einflüsse vorstellen, bei denen dann kürzere Einzelbelichtungen womöglich sinnvoll sind, z.B. Vibrationen durch die Motoren. Kleinskalige Vibrationen durch Winde. ...

    VG ralf

  • Hallo in die Runde,


    ich glaube Ralf hat es ziemlich gut erklärt, aber ich hab auch noch ein bisschen Senf im Angebot. ;)

    Die Profis weisen den Seeingparametern eine Zeitkonstante zu, welche sich aus der relativen Geschwindigkeit der Seeingzellen aufgrund der Windgeschwindigkeit in der jeweiligen Turbulenzschicht ergibt. Die eigentliche Änderungsgeschwindigkeit der Turbulenzzellen ist thermodynamisch begrenzt und noch viel langsamer. Relevant ist also nur, wie schnell die Warmluft-/Kaltluftblasen durchs Bildfeld huschen. Also je besser das Seeing ist, umso größer ist die Zelle und für gewöhnlich ist sie dann auch langsamer und somit wird die Zeitkonstante recht groß, für gewöhnlich mehrere 10ms (hatte mal einen Artikel dazu gefunden, ich schaue mal ob ich den nochmal wiederfinde). Bei schlechten Seeing sind die Seeingzellen klein (bei 2arcsec (rms) ist die Seeingzelle vllt. etwa 70mm groß) was einerseits bewirkt, dass die Zeitkonstante geringer wird, also die Änderungsgeschwindigkeit wird höher. Außerdem verteilen sich gleichzeitig mehrere in der virtuellen Apertur des Teleskops (je größer, desto mehr), was dazu führt, dass der Spot eines Sterns oä, in einzelne Unterspots (Speckles) zerfällt. Auch wenn man diese mit superschnellen Belichtungen einfriert, kommt in Summe ein unscharfes Bild heraus, da jeweils immer ein sich schnell ändernder zerfaserter Spot entsteht. (Außer man macht für jedes Einzelbild eine Deconvolution mit dem jeweiligen aktuellen Spot)

    Solange man aber nicht zuviel Signal verschenkt, da man sich bspw. an der Detektionsgrenze des Sensors befindet (Ausleserauschen dominiert) oder das Auslesen des Sensors im Vergleich zur Belichtungszeit relevant wird, sollte man auch möglichst kurz belichten. Aber kürzer als bspw. 2ms ist wahrscheinlich nicht sinnvoll.


    Vg Tino


    Ps. Das Verhältnis Teleskopapertur zu mittlerer Seeingzellengröße (D/r0) wird übrigens auch gerne zur Beschreibung der Seeingverhältnisse, sowie für die Berechnung der Wahrscheinlichkeit für das Auftreten eines Lucky-Imaging Ereignisses genutzt. Ab einer bestimmten Aperturgröße ist es sehr, sehr unwahrscheinlich, dass sich nur eine Seeinzelle in der Apertur befindet und das Teleskop beugungsbegrenzt funktioniert. https://www.telescope-optics.net/seeing_and_aperture.htm

  • das Schwimmbad-Beispiel gibt das sogar ganz gut wieder.

    Der Schwimmbadvergleich trifft wohl eher auf Großteleskope zu, deren Öffnung deuticht größer ist als der Fried-Parameter, der im Übergangsbereich zum IR typischerweise bei r0 = 0,3 m liegt. Bei Teleskopen der von uns verwendeten Größenordnung sehen die Störungen durch Mehrfachüberlagerung eher so aus wie in dieser Animation.


    video0005 09-03-18 17-38-36_f101-123_fps2_cr240x200.gif


    Das heißt, es gibt genügend störungsfreie Bilder zwischendurch. Anderenfalls - d.h. "unter Schwimmbadbedingungen" - könntest Du ja niemals das Auflösungsvermögen Deines Teleskops ausreizen. Bei zunehmend schlechtem Seeing werden die störungsfreien Intervalle seltener und enger, d.h. man muss kürzer belichten, um störungsfreie Bilder einzusammeln.


    CS Jan

  • Hallo Jan,


    wie kommst du denn auf r0=30cm. Bei normalen 2asec Seeing ist r0 für 550nm etwa 7cm. Und das skaliert mit ^6/5, also landen wir bei 800nm eher bei 12cm. Also ist Ralfs 16Zoller schon längst im Schwimmbadmodus. Dann sind störungsfreie Bilder eher die Seltenheit. Und selbst wenn man unendlich kurz belichtet, sind fast immer mehrere Seeingzellen in der Aperture und der Spot sieht nicht so dolle aus.


    Vg Tino

  • (1) wie kommst du denn auf r0=30cm.

    (2) Also ist Ralfs 16Zoller schon längst im Schwimmbadmodus.

    Hallo Tino:


    (1) In der Tabelle auf Seite 34 des von mir oben verlinkten SuW-Artikels steht 0,3 m.

    (2) Dann wären seine Bilder stets seeingbegrenzt und niemels beugungsbegrenzt. Das halte ich bei 16" auch hierzulande für wenig wahrscheinlich, und insbesondere sprechen die hervorragenden Ergebnisse von Ralf klar gegen diese Annahme.


    CS Jan

  • Hallo Jan,


    das mag zwar sein, aber da steht auch dahinter, dass das für eine FWHM von 0,7asec gilt. Ich denke mal, dass das für die VLT-Site in der Atacama in etwa hinkommt. Für das gewöhnliche Seeing bei uns, ist wohl eher die 2asec anzunehmen, wobei wir wieder bei den realistischen r0=10cm wären. By the way, der Artikel ist zwar etwas älter, aber gut erklärt.

    Aber auch hier kann man es auch nochmal nachlesen und nachvollziehen, dass Ralfs Aufnahmen wohl eher nicht beugungsbegrenzt sind:

    Seeing and aperture

    Ich finde die Bilder von Ralf und Robert übrigens auch Klasse, aber geschärfte Bilder taugen leider nicht dazu, die Beugungsbegrenztheit nachzuprüfen.


    Mir ist noch was Interessantes auf der von mir verlinkten Seite aufgefallen, da steht unter der Bilderreihe "Figure 79" nochmal ein interessanter Absatz, worin auch anhand der Bilderreihe erklärt wird, dass es unter Umständen von Vorteil für die Auflösung sein kann, wenn das Verhältnis Apertur/Seeingzellgröße sich im Bereich 1.5<(D/r0)<2.5 befindet. Dann "speckelt" es noch nicht so dolle, sondern das zentrale Maximum bleibt die meiste Zeit erhalten. Dann kann die Auflösung sogar besser sein, als das mittlere Seeing erwarten lässt und man kann anscheinend auch viel größere Teleskope abhängen (außer die tricksen mit adaptiver Optik). Bei eher seltenen 1asec Seeing mit r0~20cm wäre der 16-Zoller hier in etwa im Optimum. Mit 12" ist man aber wahrscheinlich auch schon gut unterwegs.


    Vg Tino

  • Möchte nachmal zum Grundthema zurück: Venus mit Rotfilter


    Wenn man die Spektrums der Sonne gegen Venus von Pellier anschaut (Venus Spektrum), dann gibt es da die auffälligen Löcher bei insbesondere 380nm (UV), eventuell 430nm (dunkelblau) und eventuell im IR bei Ha, wenn das nicht von der Sonne kommt.


    Sinnvollerweise verwendet man da dann am besten Schmalbandfilter, weil alles sonstige Licht nur den Kontrast schwächt und den Himmel bzw. Venus aufhellt.


    Damit sind wir dann beim Photonenthema:

    - Kontraste sind selbst in diesen Fenstern nicht hoch

    - alles außerhalb dieser Fenster stört Signal und trägt nur zur Kontrastabschwächung bei

    - noise aus gain spielt da keine Rolle (????????), da sich der wieder unterdrücken läßt durch viele selektierte Bilder

    - hohe Bildanzahl hebt Kontrast generell

    - die chips selber haben fixe Bittiefe beim Kontrast und beinflussen Ergebniss nur durch Empfindlichkeit im entsprechenden Licht


    Was braucht man also für optimale Photonenausbeute? Nur sinnvolle Photonen oder (???????)?


    In Praxis würde das bedeuten:

    - Schmalbandfilter im interessanten Bereich (da genau Frequenz nicht bekannt, vorsichtshalber nicht zu schmal)

    - Sensoren mit ausreichend hoher Empfindlichkeit im interessanten Spektralbereich (für Photonenausbeite)

    - guten Durchlaß der gesamten Optik im interessanten Bereich


    Wenn man genügend Photonen bekommt, dann ist nur noch das Rausch zu Siganlverhältnis zu optimieren, d.h. Belichtung so wählen, dass man möglichst viele Bilder mit möglichst wenig Noise (Rauschen, sinnloses Hintergrundlicht) erhält. Da gibt es für jede Kamera sicher ein Optimum. Da Venus hell und langsam drehend, kann man auch länger aufnehmen und auch derotieren, falls nötig. Zeitfenster mit optimal dunklem Hintergrund und Höhe über Horizont ist aber klein, im IR nicht ganz so kritisch.



    Das müßte dazu führen:

    - Histogramm nur so wählen, dass Terminator gerade ausreichend beleuchtet ist, keinesfalls länger (gibt nur aufgehellten Himmelshintergrund = Noise)

    - so viele gute Bilder als möglich für maximalen Kontrast nötig (Steigerung log, d.h Zehnerpotenzen 100.000-1.000,000 - 10.000.000 - bei ASI290 wären das 2 Minuten - 20 Minuten - 3,2 h) => das geht nicht unendlich lang, so dass fps nicht kampfentscheident, da Faktor zwei fast egal

    - gain so tief als sinnvoll (künstliches Absenken nicht sinnvoll, wenn alternativ Belichtungszeit gesenkt werden kann)

    Daraus ergibt sich dann optimale Belichtungszeit. Verlängerung der Belichtungszeit zu Gunsten des gain bringt keine Vorteile (wenn, dann welche????).

    Meine Vorschläge für Optimierung Ergebnisse:

    - Schmalbandfilter anstelle Passfilter sowohl im IR als auch im UV

    - rauscharme, lichtempfindliche und schnelle Kamera in den Spektralbereichen (ASI290MM ist superschnell, aber im UV und IR nicht superempfindlich, für Ha sollte es reichen, geht aber auch besser)

    - ADK raus aus Strahlengang (wegen Schmalband nicht nötig)

    - wenn genügend Brennweite da ist: keine Linsen (Barlow, etc)


    Bei den Filtern wäre das:

    - im UV nicht Chroma U-Bessel oder Astrodon UV-Venus (sind UV-Passfilter und bringen dann Störlicht im niedrigen UV bzw. nicht mehr im 380nm UV)

    - eher Schüler (380nm max) oder Baader UV-Bessel (365nm) - beides sind schlanke Bandfilter

    - keine "UV-Venus"-Fiter, da primär max bei 350nm und damit im interessanten Bereich blind

    - im IR breites Ha oder ein IR Bandfilter (z.B. Pro-Planet 642, https://www.astronomik.com/de/…642-bp-ir-passfilter.html) : startet bei 642nm (H-alpha Line bei 656nm voll offen) und endet bei 842nm -von Astronomik fälschlich als Passfilter bezeichnet)

    - keinen Astronomik 807 oder ZWO 850 nehmen


    UV erst nach Sonnenuntergang aufnehmen wegen Himmelsaufhellung durch Sonne im UV (verstärkt dann Kontrast?????).


    Ist da nun ein Denkfehler drin? Entspricht nicht ganz dem Mainstream der Venus-Spezialisten...


    LG

    Robert

  • Hallo,


    Euer Thema finde ich sehr sehr interessant!


    Da ich leider die gleichen Probleme habe..


    Kann es sein das ich im 4 Zöller Apo , bei 200 fache Vergrößerung, bessere Auflösung habe, als im C11 bei 200 Fach?

    Und das alles auf Grund der Luftunruhe...


    Ich hatte bisher einmal in 30 Jahren im C11 die Encke-Teilung bei Saturn mit 550 Fach klar und deutlich sehen können...


    CS


    Jörg M.

  • Hallo zusammen,

    ich nutze die Gelegenheit, mein Vorgehen nochmal zusammenzufassen:

    Venus wird gerne im UV belichtet, weil dort der Kontrast am höchsten ist. Leider ist das Seeing dort generell schlechter und die Optiken / Kameras haben im UV u.U. Probleme.

    Klassisch wird ein UV-Bild mit einem IR-Bild kombiniert, so erhält man,- über einen künstlichen Grünkanal-, ein Farbbild, das dem visuellen Eindruck sogar nahekommt. Das IR-Bild zeigt (vermeintlich) weniger Strukturen, da es deutlich kontrastärmer ist.

    Die Planetenszene ist klein und Traditionen halten sich u.U. sehr lange.

    Ein kontrastarmer IR-Kanal bedeutet aber nicht, dass dort nichts zu holen ist. Das Seeing ist im IR oft deutlich besser. Den geringen Kontrast kann man kompensieren, wenn man sehr viele Bilder macht und stark schärft. Hierbei gibt es aber gewisse Probleme, es entstehen Randartefakte und je nach Schärfungsmethode kann es zu unschönen Ergebnissen kommen, deshalb geben hier vermutlich einige Leute auch auf.

    Ich habe nun statt IR den roten Bereich gewählt. Der Grund ist derselbe, den ich auch bei Jupiter und Co. habe. Im R habe ich deutlich mehr Signal, weil die Kameras da empfindlicher sind. Im R habe ich (aus welchen Gründen auch immer) weniger starke Beugungserscheinungen und aufgrund der kürzeren Wellenlänge ist die theor. Auflösung besser.

    Es gibt aus spektralen Gründen auch keinen Grund im IR zu filmen. Zwar dringen wir mit längerer Wellenlänge immer tiefer in die Venuswolken ein, aber grundsätzlich unterscheiden sich R, G, B und IR nicht wesentlich. Wirklich anders sieht hingegen der UV-Kanal aus, dieser zeigt sehr hohe Wolken.

    In der Kombination meiner Kanäle habe ich genau andersherum gewichtet, wie es klassisch gemacht wird. Nicht der kontrastreiche UV-Kanal steht im Vordergrund, sondern der detailreiche Rotkanal. Der UV-Kanal ist dennoch wichtig, um die Farbe der Venus einigermaßen (ganz grob) realistisch wiederzugeben. Die Farbe ist denn auch klassisch entstanden. UV=blau, R=R und Grün ist 50/50. Meine Luminanz entstand aber zu 4/5 aus dem Rotbild.

    Im Grunde ist das alles also überhaupt nichts Besonderes. Einzig dem "Instinkt" bin ich nicht gefolgt, R oder IR zu unterschätzen, weil der Kontrast dort nicht sonderlich hoch ist. Und, man muss diese enorm starke Schärfung (= Kontrastanhebung auf kleinen Skalen) irgendwie ohne Artefakte hinbekommen, damit das Bild noch ansehnlich bleibt.

    Viele Grüße

    ralf

  • Hallo zusammen.


    Die angeregte Diskussion hier hat Erinnerungen an die Arbeit von Emil Kraaikamp wachgerufen.

    Er hat im Jahr 2010 Aufnahmen der Venus gewonnen, die auch Abseits des UV-Bereiches Wolkendetail dokumentierten. Vielleicht sind die Aufnahmen für manche interessant. Öffnung und Kamera sind vergleichbar mit dem, was mittlerweile vielen von uns zur Verfügung steht.

    Link:

    Webcam Astrophotography by Emil Kraaikamp - images


    Bitte besonders die Aufnahmen vom 22. Mai beachten.



    Viele Grüße,

    Guntram

  • Hallo Robert.



    Beim Lesen Deiner durchdachten Liste fiel mir

    Zitat

    - ADK raus aus Strahlengang (wegen Schmalband nicht nötig)

    auf.

    Ich habe das bis vor zwei Wochen auch so gesehen. Doch ein kurzer Gedankenaustausch mit Martin Lewis hat meine Meinung geändert.

    Er rät eindringlich dazu, den ADK zu verwenden, zumal mit größerer Öffnung. Auch wenn das spektrale Band, das moderne Filter durchlassen, auf den ersten Blick eng wirkt, sollte man nicht ausser Acht lassen, dass die Dispersion im UV sehr stark ansteigt. Zudem steht die Venus ja nicht gerade nahe dem Zenit.


    Ob ein ADK etwas bringt, dürfte vom Einzelfall abhängen. Wenn jemand ein großes ( ca 300mm) Instrument und einen komfortablen ADK (Gutekunst, GreatStar ...) hat, sollte man den ADK zumindest ausprobieren. Versuch macht kluch!


    Wenn der ADK im UV eine schlechte Transmission hat, dürfte sich die Frage von selbst erledigen. Zumindest der Pierro Astro ADK hat Prismen aus Quarz, die eine exzellente UV Transmission ermöglichen.


    Viele Grüße,

    Guntram

  • Hallo Guntram,

    Wahnsinn, dass die Aufnahmen von Emil schon wieder so lange her sind. Die Kombi aus RG39 und W47 gibt es schon länger. Er hat noch traditionell IR mit Astronomik 807 aufgenommen. Ich bin bei Ralf, dass man aus Spektrum vermutlich eher Ha mitnehmen soll. Die Wolken müssen sich im Spektrum abbilden, da Venus ja sonst nur das Sonnenlicht zurückwirft. Alles, was da nicht so aussieht wie das Sonnenspektrum, könnte hilfreich sein. Bei den R und IR Filtern bin ich umfangreich bestückt und kann auch Mittel- und Engpass darstellen, in Wellenlängen von 610nm weg bis 1000nm, Als ADK hab ich den Greatstar 2. Der ist im IR sicher kein Problem. Muss das alles demnächst probieren. Bei mir ist die Aufbauerei halt immer etwas Theater. Das mach ich nicht für Wolkenlücken, bei einem Himmel voller Zirren und/oder Südwind wie jetzt gerade- das funktionerte nicht am Berg. Noch haben wir ja Zeit. Und ich erwarte mir persönlich mehr in der Morgensichtbarkeit im September - da ist das Seeing meist erheblich besser und ich hab mit der Auskühlung der Teleskope weniger Stress..... Da darf dann vielleicht auch mal der 14" ran.


    Bin jedenfalls gut motiviert, da jetzt mal selber was aufzunehmen und nicht nur altes Material zu kneten.


    LG

    Robert

  • Hallo zusammen,

    nach einer gefühlten Ewigkeit konnte ich gestern endlich mal wieder die Venus filmen. Natürlich auch wieder vornehmlich in Rot, bzw. durch einen 20 nm H(alpha)-Filter. Nur zum Verständnis, ich habe aus den letzten 9 "Sitzungen" 8 Bilder erstellen können. Nur einmal habe ich wegen schlechter Schärfe darauf verzichtet. Dieses Mal verbesserte sich das Seeing aber nicht so schlagartig wie an den anderen Tagen, es war auch im Schnitt schlechter. Dennoch gab es schöne und ruhige Momente. In diesen konnte ich auch 10 min. lang im UV belichten. Normalerweise lege ich die UV-Zeit eher ans Ende, wo das Seeing oft schon nicht mehr so gut ist. Das vergleichsweise detaillierte UV-Bild zeigt nun doch eine recht schöne Korrelation mit dem R-Bild, besonders im unteren Teil.



    Interessant ist, dass sich diese Strukturen nicht exakt zur Deckung bringen lassen. Da wir im UV sehr hohe Wolken sehen und im R deutlich niedrigere, könnte es sein, dass die Wolken "schräg" in der Venus-Atmosphäre ausgebildet sind. Zumindest ist das gerade meine Vorstellung. Ich habe auch die Rot-Bilder in 2 Gruppen geteilt und eine Bewegung festgestellt. Leider reichte die Zeitdifferenz aber nicht, um quantitative Aussagen machen zu können.

    Ich hoffe, ich kann bald weitermachen.

    Viele Grüße

    ralf

  • wenn mein Vergleich mit den Wellen im Schwimmbad stimmt, ist ja auch nur ein Modell.

    Wenn man von extremen Wellenamplituden absieht, hat man im Schwimmbad nur eine wesentliche Grenzfläche, die das Licht ablenkt. Das ist qualitativ sehr einfach zu entzerren, wenn man schnell genug mitbelichtet und Bild auf Bild matcht.


    Bei through-air sind die unterschiedlichsten Strömungen beteiligt. Da gibt es keine allgemeine Lösung für. Man nur probieren, Teilbilder mit den Folgebildern zu matchen und dann, wenn sich für einen kleinen Bereich eine weitgehende Dekcung mit monotoner Verzerrung ergibt, diese in ein partielles Konvolut zu schieben und die Verzerrung auf Dauer zurückzurechnen, weil die Mitte des Voxels im zeitlichen Mittel entspannt ist.

  • Hallo Jürgen,

    klar, das Modell deckt nur eine Ebene ab und in der Luft haben wir ja Schichten.

    Du scheinst vom Fach zu sein, deshalb mal eine Frage: Wir reden hier immer von Lichtbrechung. Aber keine Brechung ohne Beugung. Ist es nicht vielleicht so, dass der Effekt der Beugung oder Streuung ab einem gewissen Grad dominiert?

    Wenn ich durch eine Streuscheibe fotografiere, dann kann die beste SW das nicht zurückrechnen, durch ein gewelltes Glas aber schon.

    Übrigens, kennst du die SW PHOSIM?

    Viele Grüße

    ralf

  • dass der Effekt der Beugung oder Streuung ab einem gewissen Grad dominiert?

    Je nach Situation ganz sicher, würde ich sagen. Ich muss aber einwerfen, dass ich in dem Punkt kein Fachmann bin. Da müsste man mal bei den Kollegen vom DLR nachhören - angewendet habe ich es freilich schon (Laser durch Luftschichten auf lange Distanz verfolgen und orten). Hauptsächlich kenne ich mich mit der Signalverarbeitung aus, die es braucht, um Effekte raus- und rückzurechnen. Streuungen kann man z.B. durch mehrere Ansätze und Gleichungen lösen. Beim Röntgen und DVT, wo auch Strahlung aus unterschiedlichen Schichten auf Sensoren fällt und verfälschende Redundanz bildet, habe ich das schon gemacht. Da gibt es die unterschiedlichsten Ansätze.

    PHOSIM kenne ich nicht. Den Namen meine ich aber wiederzuerkennen. Wurde wohl mal in einem Projekt verwendet, bei dem ich involviert war. Allerdings nutzen sowas - wie auch die Optiksimulationsprogramme - meistens die Physiker in den Firmen, für die ich arbeite. Ich kriege da halt immer die Oberfläche der Problemstellungen und der Forschung mit. Ich bin da ja der, der die Elektronik baut, damit das Gerät am Ende das tut, was das von den Physikern erdachte Prinzip leisten soll.

  • Hallo Jürgen,

    hört sich spannend an. Eine gute Deconvolution könnten wir in der Planetenfotografie noch gebrauchen. Und einen Strahlenteiler, der uns einen Stern ins Bildfeld holt, die dann anhand seiner Verzerrung das Planetenscheibchen zurückrechnet. Nur so als Idee, falls du gerade nichts zu tun hast. ;)

    Hier ein neues Bild.

    Das Seeing war wechselhaft gestern, aber nach 200 Filmen a 30 s, war doch etwas dabei. Der UV-Kanal war unterirdisch. Alles andere wie gehabt.



    Viele Grüße


    ralf

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!