Beiträge von galaxsea

    Hallo Michael,


    Experimente in denen man den Übergang zwischen Welle und Teilchen untersucht, nennt man auch "Wheeler's delayed choice experiment".
    Da du konkret nach der technischen Realisierung gefragt hast: Man kann zum Beispiel die beiden Arme eines Mach-Zehnder-Interferometers als die 2 Spalte nehmen. In die Arme werden dann Polarisatoren und Phasenschieber eingebracht und das Interferenzmuster gemessen.


    Leider sind die Artikel großteils auf Englisch: https://de.wikipedia.org/wiki/Mach-Zehnder-Interferometer , https://en.wikipedia.org/wiki/…delayed_choice_experiment


    Ich kenne jetzt deinen physikalischen Wissensstand nicht, aber in folgendem Artikel stehen viele interessante Sachen über solche Experimente. Könnte sein, dass es ein bisschen schwere Kost ist, aber etwas wirklich einfach verständliches habe ich auf die Schnelle nicht gefunden.


    Ma, Xiao-song et al., Delayed-choice gedanken experiments and their realizations, arXiv:1407.2930v2 [quant-ph] 3 Aug 2015
    http://arxiv.org/pdf/1407.2930.pdf


    Schönen Sonntag


    Lukas

    Hallo Tobi,


    ich hab keine Ahnung von Astrofotografie und von analoger gleich garnicht. Aber mal so als Frage: Müssen es unbedingt gleich Emissionsnebel sein? Du könntest ja zum Anfang mal mit ein paar offenen Sternhaufen üben. Die emittieren breitbandig, da müsste also auch mit ganz normalem Schwarz-Weiß-Film was zu reißen sein. Die sind problemlos zu bekommen, billig von der Chemie her und du könntest die auch leicht zu Hause selbst entwickeln.


    Bis vor paar Jahren gab es noch die Website (www).zellix.de von Herbert Zellhuber. Leider scheint es die nicht mehr zu geben. Der hatte auch Analogfotos hauptsächlich von offenen Sternhaufen und Kugelsternhaufen drauf gezeigt. Soweit ich mich erinnere war der Tipp normalempfindlichen (evtl ISO 200?) SW-Film zu nehmen und dann lange zu belichten. So 30min waren das wohl immer. Die Ergebnisse fand ich immer recht ansehnlich.


    Grüße Lukas


    Edit: Link entfernt

    Hallo Micha,


    du kannst das Objektiv an eine Canon Kamera anschließen, Blende 4 wählen, die Abblendtaste drücken und das Objektiv bei gedrückter Taste von der Kamera trennen. Die Blende bleibt dann bei 4. Wenn du das Objektiv danach wieder an die Kamera anschließt, springt die Blende wieder auf den richtigen Wert zurück.


    Funktioniert mit meiner EOS 5d mit allen Objektiven, mit meiner Olympus E-M10 mit allen Objektiven und mit meiner alten Sony ging das auch. Trotzdem übernehme ich natürlich keine Garantie, dass nichts kaputt geht.


    Mit Masken würde ich nicht arbeiten. Die Position der Blende ist im Optikdesign des Objektives berücksichtigt. Wenn du einfach eine Maske vors Objektiv setzt, verschlechterst du die Bildqualität.


    Grüße

    Hallo Leute,


    das Wetter hat mir tatsächlich eine Wolkenlücke gegönnt und ich konnte mal kurz auf den Mond halten.
    Das Bild ist schon Vorgestern entstanden, da haben die letzten Ausläufer vom Sturmtief Heini meine tapfere EQ-1 bedenklich wackeln lassen [:D]. Die optimale Schärfe und Auflösung ist es halt nicht, aber für die schlechten Bedingungen bin ich recht zufrieden.


    Olympus E-M10 an Celestron C5 auf EQ-1: 127mm f/10 , 1/60s, ISO 400


    Grüße

    Hi Georg,


    was hast du denn für eine Java- Version installiert? Oder benutzt du noch das OpenJDK was vorinstalliert ist? Das macht bei mir nämlich oftmals komische Dinge,
    weil die Bibliotheken bisschen anders sind als bei Oracle Java.


    Ich hab übrigens immer Autostakkert unter WINE benutzt. Funktioniert problemlos, ist aber natürlich nicht die eleganteste Methode.


    Grüße
    Lukas

    Tja die Sache mit dem C-AF ist halt, dass das von Vielem abhängen kann. Hast du zum Beispiel ein Objektiv wie das 45mm f/1.8, dann ist die Schärfentiefe viel kleiner als mit dem Kitobjektiv bei 42mm f/5.6. Da sind dann auch die C-AF Ergebnisse schlechter. Bei längerer Brennweite wird es dann auch immer schwieriger oder wenns am Licht oder Kontrast fehlt(Ist dein Hund schwarz?). Außerdem hab ich auch immer so Gefühl, dass das bisschen vom eigenen Können abhängt und ich bin da wohl nicht so gut im bewegte Dinge fotografieren.


    Bei der E-M10 hat man halt die Wahl: Da der Autofokus generell sehr schnell ist, kann man den "Sequentiell H" Modus nutzen, dann hat man 8FPS aber kein C-AF und mit etwas Glück sind ein paar scharfe Bilder dabei. Oder man benutzt den "Sequentiell L", dann hat man nurnoch 3,5FPS aber C-AF. Meine Rate an scharfen Bildern ist dabei eher so zwischen 10% und 30%. Also wennn sich die Katze vom Nachbarn so an mich ranschleicht, dann bekomme ich so 10 Bilder und davon sind dann eher so 1 bis 3 scharf. Für mich ist das okey. Wenn mal garkeins scharf ist, dann ärgere ich mich auch nicht so sehr. Aber da ist die Frustgrenze bei jedem auch anders.


    Hunde sind halt schon reletiv schnell unterwegs (wenn man keinen 12 Jahre alten Schäferhund mit Hüftschaden hat [;)]), da hätte ich schon etwas bedenken.
    Kannst du nicht deinen Hund mal mit zum Fotoladen nehmen und einfach mal probieren?


    Ansonsten werfe ich jetzt mal noch die Sony Alpha 6000 ins Rennen. Die ist auch noch recht klein, halbwegs günstig und der C-AF soll gut sein. Habe ich aber keine eigene Erfahrung mit.


    Grüße
    Lukas

    Hallo Marcus,


    ich hatte die E-M5 und benutze momentan die E-M10. Ich bin sehr zufrieden mit beiden. Die E-M10 gefällt mir aber besser, weil sie WLAN hat, die Tasten nicht so einen komischen Druckpunkt haben und sie kleiner ist. Unterschiede in der Bildqualität zwischen beiden kann ich nicht erkennen.
    Ich würde sie an deiner Stelle mal in die Hand nehmen, der Griff ist nicht für jeden angenehm. Mit der Bildqualität kann ich gut leben, Ergebnisse wie von KB Kameras kann man nicht erwarten. Negativ nennen würde ich die kurze Batterielaufzeit und den Continous-AF. Alternativ kannst du ja mal nach der Sony RX100 Serie schauen. Wenn du Fragen hast, dann immer her damit. [;)]


    Grüße
    Lukas

    Hallo,


    danke Bruno, also scheint es mir doch eher Gewohnheit zu sein, dass viele im Astrobereich noch auf die Canon- Modelle setzten.
    Modifikation scheint ja auch kein Problem zu sein.


    Vielleicht sehe ich ja in Zukunft mehr Fotos von Sonys. [;)]


    Grüße

    Hallo zusammen,


    mich wundert ja, dass sich im Astrobereich die Sony A7s nicht verbreitet ist. Die hat eigentlich alles was hier gefordert wird: 12MP, Fullframe, Liveview, gut adaptierbar da kurzes Auflagemaß, kein Spiegelschlag.


    Und alle Programme die auf dcraw aufsetzten (DeepSkyStacker, Fitswork) unterstützen die Kamera auch. Nahezu alle Fremdobjektive sind adaptierbar und vom Rauschverhalten her dürfte die die EOS 6D geradezu verprügeln.


    Was dagegen spricht ist vielleicht der Preis, für den man auch eine gekühlte CCD bekommt. Aber das wäre bei einem Canon Modell auch nicht anders?


    Grüße

    Hallo Gert,


    Eigentlich ist bei deinem Code eher die Kreisscheibe, deine Mask, dass was die Beugung verursacht.
    Je größer du die wählst, desto kleiner wird die Airy-Disk. Bei r = 500 könnte die so klein sein, dass die Auflösung der FFT nicht mehr reicht, auf dem Gebiet der Kantenlänge
    s = 1000. Da bekommst du irgendwelche numerischen Probleme.


    Wähle mal s = 1000 und r = 50. Das sollt eher das sein, was du dir vorstellst.


    Ich hoffe ich habe nicht allzuviel Quatsch erzählt, habs mir nur schnell mal angesehen.


    Grüße

    Hallo Sabine,


    ich bin mir nicht sicher ob ich alles richtig verstanden habe, aber ich versuche es mal.


    Ich glaube du verwechselst Dispersion und Auflösung.


    Wenn ich deine Werte in den Calculator eintrage, dann erhalte ich die Meldung: 10. Dispersion 4.1 Anstroms / pixel -> Spectrum brightness could be improved by reducing grating distance.


    Wenn ich dann mal 10mm Grating to sensor distance eintrage erhalte ich: 10. Dispersion 31.5 Anstroms / pixel -> Resolution could be improved by increasing grating distance.


    Was auch kein Wunder ist. Wenn du so nah am Gitter bist hast du eine hohe Dispersion, aber wegen des geringen Abstandes wenig Auflösung.


    Du kannst jetzt entweder das Gitter weiter weg machen und erhöhst die Auflösung, verteilst aber das Licht auf eine größere Fläche auf dem Chip und hast daher weniger Intensität.
    Oder aber du benutzt eine Kamera mit kleinerem Pixelabstand um feiner Auflösen zu können.


    Edit:
    Bei gegebenem Gitter + Teleskop zeigt dir:


    -eine Kamera mit großen Pixeln und großem Chip einen größeren Wellenlängenbereich mit mehr Intensität aber wenig Auflösung


    -eine Kamer mit kleinen Pixeln und kleinen Chip einen kleinen
    Wellenlängenbereich mit wenig Intensität aber viel Auflösung


    Im Labor hat man meistens nur eine Kamera (bei uns z.B. backilluminated CCD, 20µm pixel size, stickstoffgekühlt, 1024x
    256 pixel) und man benutzt verschiedene Gitter um Auflösung und sichtbaren Spektralbereich einstellen zu können.


    Grüße

    Hallo alle zusammen.


    Neulich ist mir so ein Gedanke gekommen. Es gibt ja mittlerweile diese Metabones Speedbooster zu kaufen, zum Beispiel für 35mm KB auf MicroFourThirds.
    Wenn ich mir da den Speed Booster XL 0.64x kaufe und ein 50mm F/1.2 dranhänge, dann bekomme ich ein 32mm F/0.8 an MFT.
    Das hat ja schon fast die Lichtstärke des Zeiss Objektives [:D].


    Hat sowas jemand sowas schonmal probiert? Das wäre sicherlich lecker für Videos...
    Eine Olympus E-M10 habe ich rumliegen, aber der Adapter + Objektiv sind schon ganz schön teuer. Das würde ich erst ins Auge fassen, wenn ich weiß das es sich lohnt.


    Grüße

    Hallo Markus,


    dein Saturn ist der Beste den ich dieses Jahr gesehen habe.
    Aber auch die Venus braucht sich nicht zu verstecken. Haste sehr gut gemacht [:D].



    Grüße

    Hallo Torsten,


    herzlichen Glückwunsch zu deinen super Aufnahmen, sehr beeindruckend, wie immer.


    Eine Frage habe ich mal. Welche Farbe hat eigentlich dein C5? Meins ist schwarz und ich überlege seit Ewigkeiten es mal weiß zu bekleben, weil es bei Sonnenbeobachtunge schon sehr warm wird und ich denke das verursacht thermische Probleme. So richtig gute Bilder an der Sonne zeigt meines nämlich nicht.


    Hast du in der Hinsicht Probleme? Außerdem überlege ich es mit Velourfolie auszukleiden, ich bin aber unsicher ob das viel bringt, zumal das eine ziemliche Fummelei wird bei dem kleinen Tubus.


    Grüße

    Hallo,


    Sony hat echt eine krasse Entwicklung hingelegt in der letzten Zeit. Gerade wenn man die KB- Sensor Kameras anschaut.


    42MP, ISO bis 102400, 4k Video und ohne den Schwingspiegel hat man vielleicht bei derartig hohen Auflösungen noch die Chance auf scharfe Bilder - vorallem mit den guten Zeiss- Objektiven.


    Wenn man sich zum Vergleich mal anschaut was Canon so zu bieten hat, die 5Ds zum Beispiel: 50MP, ISO bis 12800(!), Video nur HD, kleinerer Sucher als die A7RII.
    Der Autofokus könnte vielleicht noch bisschen schneller sein, aber so wichtig ist der bei einer 50MP Kamera auch nicht. Damit mach sowieso keiner Action-Shots.
    Teuerer ist die EOS auch noch.


    Ich hab ja immernoch die 5D MkI, aber wenn ich dieses Jahr mitm Studium fertig bin und (hoffentlich) bisschen Geld verdiene, würde ich mir schon mal eine neue Kamera gönnen.
    Aber ob man da noch zu Canon greifen soll?


    Grüße

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Astrohardy</i>
    <br />An dem Zeit-Artikel finde ich erstaunlich, dass man bei der DPG automatisch als Mitglied das Recht hat, auf deren Konferenz einen 20-Minuten-Talk zu kriegen.
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Guten Morgen,


    hab dieses Jahr zur DPG- Tagung auch nen Vortrag halten dürfen.
    Einfach Abstract einreichen war da genug. Habe von Keinem mit dem ich dort gesprochen habe gehört, dass solche Abstracts (in großem Maße) abgelehnt werden.


    Redezeit waren aber 12min bei mir plus 3min Diskussion. Das waren so die üblichen Slots. Nur die Invited- Talks gehen dann länger. Wenn mich nicht alles täuscht, waren die Redezeiten der DPG-Mitglieder(bin keins) genauso lang.


    Also da kann man sich wirklich nicht beschweren.


    Grüße

    Hallo Jonas,


    Excel würde ich nicht nehmen. Da lassen sich Daten nur aufwendig manuell hinzufügen und nicht vollautomatisch.


    Außerdem: Mach mal ne Exceltabelle mit 70000 Zeilen und 20 Spalten auf und lass was berechnen. Damit zwingst du jeden PC in die Knie.



    Wenn du was einfaches suchst, nimm Microsoft Access oder Open Office Base.


    Ich meine mich erinnern zu können von dir schon Beiträge bzgl. MATLAB gelesen zu haben: Es gibt auch ein Datenbankmodul für MATLAB.


    Wenn du programmieren kannst, wäre Python + SQLite eine einfache Lösung. Ansonsten geht auch Java + JDBC oder C++ mit MySQL- Connector.


    Hier mal als Einstieg Python + SQLite: http://www.python-kurs.eu/sql_python.php


    Edit:


    Bilder würde ich nicht in die DB packen, die kannst du dort nur binär speichern und das mach die DB ziemlich groß und langsam.
    Üblicherweise speichert man den Link zu Bildern in der DB und die Bilder selbst auf der Festplatte.


    Wenn du allerdings wirklich nur 10 Proben hast mit nem Bild dazu, dann ist Excel vielleicht wirklich ausreichend.


    Grüße

    Ich hab zwar nicht genau verstanden was du tun willst, aber von Experimenten mit Sonne und Teleskop würde ich lieber die Finger lasser. Es sei dennman weiß wirklich was man tut! Sonst kann man sehr schnell sein Augenlicht verlieren!

    Naja diesen Widerspruch gibts ja nur wenn man die klassische Physik betrachtet. In der QM sehe ich den nicht. Da ist Licht ganz klar ein Teilchen, aber seine Aufenthaltswahrscheinlichkeit ist eine Welle.


    Dadurch das sich diese Quantenobjekte so verhalten, wie man es gerade in unserer makroskopischen Welt nicht erwartet, hat man halt nie das Gefühl das man das alles vollständig Verinnerlicht hat. Der Mensch braucht eben seine Anschauung und da schließen sich Welle und Teilchen aus. Das ist denke ich mal das, was dich "stört".


    Vielleicht geht das weg, wenn man mehr theoretische Physik macht [:D]

    Ich glaube wir haben keinen Disput (mehr).


    &lt;Y|Y&gt; = Integral über R³ Y(*) mal Y d³r (im Ortsraum!)


    Das hatte ich oben auch schonmal geschrieben und ich glaube Jonas war nur wegen meiner etwas unkorrekten Schreibweise verwirrt.


    Und um der Sachen mit den Basen aus dem Weg zu gehen (Irgendwie hab ich geahnt, dass das kommt.. [:D]), hatte ich oben "(im Ortsraum)" geschrieben und damit quasi eine Basis festgelegt. Damit war dann meine Bra- Ket- Schreibweise etwas inkonsistent gewählt- muss ich zugeben.


    Als Experimentalphysiker bin ich da doch oft zu ungenau bei sowas.

    Hallo Jonas,


    also unter &lt;Y|Y&gt; verstehe ich das Skalarprodukt. Ich bin mir nicht sicher, ob wir einfach nur unterschiedliche Notationen verwenden, aber für mich ist:
    &lt;Y|Y&gt; = Integral über R³ Y*Y d³r
    Da aber |Y&gt; eine komplexe Funktion ist, muss man das Betragsquadrat bilden, indem man mit dem komplex kunjugierten multipliziert, also |Y|² = |Y&gt;*|Y&gt;


    Vielleicht sollten wir das auch per PN weiterdiskutieren, das führt jetzt bisschen vom Thema weg.


    Wegen deinem Widerspruch: |Y&gt; ist ja erstmal nur die Lösung der DGL. Das muss keine physikalische Bedeutung haben (auch weil sie komplex ist). Du kannst ja auch aus einer quadratischen Gleichung eine negative Masse ausrechnen, die hat ja auch keine physikalische Bedeutung. Nur das Betragsquadrat hat eine Interpretation. Ich zitiere aus Wikipedia:
    "Dass die Wellenfunktion nicht reell, sondern komplexwertig ist, spiegelt u. a. wider, dass Y(r,t) nicht unbedingt eine reale physikalische Bedeutung zukommt. Sie ist in der Regel nicht messbar, sondern dient nur der mathematischen Beschreibung des quantenmechanischen Zustands eines physikalischen Systems. Aus ihr lässt sich jedoch das zu erwartende Ergebnis einer Messung durch komplexe Konjugation berechnen."
    [nach: http://de.wikipedia.org/wiki/Wellenfunktion]


    Grüße

    Hallo,


    danke für das Nature Paper, damit habt ihr mir sehr geholfen!


    Das Bild zeigt meiner Meinung nach nur indirekt Licht. Was man da sieht nennt sich Oberflächenplasmonpolariton oder auf Englisch surface plasmon polariton (spp).
    Dazu braucht man eine Metall( oder Halbleiter) - Isolator Grenzfläche. Das Licht welches durch den Draht propagiert kann man ja als elektromagnetische Welle auffassen. Diese hat einen elektrischen Feldanteil, welcher die Elektronen zu Schwingungen anregt. Diese Elektronenschwingungen kann man gemäß Welle- Teilchen- Dualismus auch als Quasiteilchen auffassen und man nennt sie Oberflächenplasmonen. Solche bewegten Ladungen erzeugen aber wieder ein elektromagnetisches Feld (Maxwell- Theorie), welches wiederum mit den Elektronen wechselwirkt (an die Plasmonen koppelt).


    Dieses ganze Konstrukt nennt man dann Oberflächenplasmonpolariton (ebenfalls ein Quasiteilchen). Der Witz ist, dass der ganze Spaß durch das im Nanodraht propagierende Lichtfeld angeregt wird, man hat also maximal indirekt das Lichtfeld abgebildet. Das ist aber nicht schlimm, der Welle- Teilchen- Dualismus wird schon am SPP deutlich.


    Wegen der Natur des Lichtes: Meistens sagt man, dass Welle und Teilchen 2 Seiten ein und derselben Medaille ist. Und die Medaille heißt Quantenobjekt. Die übliche physikalische Beschreibung dafür liefert die Quantenmechanik. Dazu hat Erwin Schrödinger einer Wellengleichung für Teilchen gesucht und gefunden. Das ist also und da muss ich Jonas recht geben, erstmal nur eine physikalische Theorie. Wie man die Ergebnisse physikalischen interpretieren soll, darüber hat man sich in der Kopenhagener- Deutung Gedanken gemacht. Die ist heute weitgehenend akzeptiert und wird auch so gelehrt, es gibt aber auch andere Deutungen und/oder Formulierungen der Quantenmechanik wie z.B. die De- Broglie- Bohm- Theorie (http://de.wikipedia.org/wiki/De-Broglie-Bohm-Theorie).


    Wenn man sich z.B. mal das Licht im Geiste der Kopenhagener- Deutung anschaut (im Ortsraum):
    Man beschreibt das Licht dann also als Photon (Teilchen) welches eine Wellenfunktion besitzt(|Y&gt; ). Diese Wellenfunktion ist eine Lösung der Schrödingergleichung (die fällt vom Himmel in der Quantenmechanik). Die Wellenfunktion selber ist komplex und hat keine physikalische Bedeutung, ihr komplex-konjugiertes ( |Y&gt;*|Y&gt; ) ist aber ein Maß für die Wahrscheinlichkeit, dass sich das Teilchen an einem Ort auffällt. Diese Aufenthaltswahrscheinlichkeit hat mathematisch die Form einer Welle (deswegen Wellenfunktion). Das hat man aber schon im Ansatz so gewollt! Genauso hat Erwin Schrödinger seine Gleichung auch aufgebaut. Er hat eine Formel gesucht, für die experimentelle Beobachtung das Licht sowohl Welle als auch Teilchen ist.


    Licht in diesem Sinne ist also ein Teilchen (Photon), was eine Aufenthaltswahrscheinlichkeit hat die wellenförmig ist.


    Vermutlich hat das alles schonmal irgendwo gestanden in diesem Thread. Ich hab nur ein bisschen den Überblick verloren [:D]


    Grüße

    Hallo Ralf,


    da haste aber einen rausgehauen, meine Güte [:D]


    Ich finde an der Planetenfotografie sieht man den enormen Fortschritt der letzten Jahre am Deutlichsten. Als ich mich hier angemeldet habe musste man für solche Jupiter schon auf die Website von Damian Peach. Und heute bekommen wir hier im Forum mehr oder weniger regelmäßig solche Hammerbilder zu sehen.
    Da hat die deutsche Scene mächtig aufgeholt. Bitte mehr davon [:P]


    Grüße