Beiträge von tbstein

    Hallo Ralf,
    eine kleine Frage - wäre für die Venus nicht ein ADC (atmospheric dispersion corrector) bei dem niedrigen Stand angebracht. Der Baader U-Filter hat ja eine FWHM von 80nm und im UV ist die atmosphärische Dispersion schon recht hoch. Im Vergleich bei 30° Höhe und im Blauen (100nm Bandbreite), sinds schon 1,5arcsec durch Dispersion und im UV vermutlich noch mehr.
    Siehe: http://www.skyinspector.co.uk/…ctor-ADC%282587060%29.htm
    Würde dem Jupiter vermutlich auch gut tun.
    Gruß Tino

    Hallo Torsten,
    ist sicherlich das Hecklicht, welches die Heckflosse weiß beleuchtet. Das Backboardflügellicht leuchtet rot.
    Siehe auch Wikipedia unter Positionslicht:
    "Gemeinsam ist Luft- und Wasserfahrzeugen, dass die Positionslichter drei verschiedene Sektoren mit jeweils unterschiedlichen Farben beleuchten:
    in Fahrt- bzw. Flugrichtung rechts vorne (steuerbord): grün
    in Fahrt- bzw. Flugrichtung links vorne (backbord): rot
    nach hinten (achteraus): weiß"
    Gruß
    Tino

    Hallo Carsten,
    danke für die Rückmeldung. Nachdem ich den Beitrag angefangen hatte, war mir schon recht schnell klar, dass die Diskussionsbreite des Themas doch recht gering ist. Vielleicht sollte ich die Diskussion doch eher von der Anwendungsseite her führen, oder u.U. zweigeteilt. Meine Hauptmotivation ist hierbei die Erhöhung der Auflösung mittels Speckle- oder LuckyImaging. Man sieht ja beispielsweise von der Jupiter-Fraktion reihenweise echt beeindruckende Aufnahmen, teilweise selbst bei >10" Apertur beugungsbegenzt. Da sind die 2,5arcsec FWHM bei meinen richtigen Deepsky-Versuchen doch nur Mittelmaß. Hier steckt aber auch der Teufel im Detail. Interessant an der EM-CCD Technik ist aber auch der didaktische Hintergrund. Man kann beispielsweise recht schön demonstrieren, welchen Einfluss das Ausleserauschen hat und welche Möglichkeiten sich durch niedriges Ausleserauschen, hauptsächlich bezüglich Kurzzeitbelichtungen, ergeben. Hier schließt sich wieder der Kreis zur rasanten Entwicklung der modernen CMOS-Kameratechnik, welche nidriges Ausleserauschen, bspw. 6e-(rms) selbst bei sehr hohen Framerates und für überschaubares Bargeld ermöglicht. Hier gibts ganz sicher noch Potential. Neueste consumer CMOS-Sensoren für HD-VideoCams demonstrieren bereits 1,3e- (rms), siehe http://harvestimaging.com/blog/?p=1400. Hiermit sind definitiv sub-Sekunden-Aufnahmen mit nachfolgenden Stacking ohne Verlust möglich. Hier zeigen auch die neueren DSLRs ungeahnte "LowLight"-Videoperformances.
    Bezugnehmend auf den "toten Pixel": Hier gibt es einige interessante Effekte, welche nur bei genauere Betrachtung auffallen. Ich habe diesbezüglich auch schon die komplette Clock-Timing-Palette durchprobiert, ohne durchschlagenden Erfolg. Selbst ohne Frametransfer ist der Defekt auffällig. Also ist der Defektpixel definitiv auf der aktiven Sensorfläche. Er ist aber nur bei bei sehr geringer Beleuchtungsstärke zu sehen, im normalen Flat ist dort fast nichts. Es handelt sich also vermutlich um eine Charge-Trap (Ladungsfalle), welche eine bestimmte zweistellige Anzahl von Elektronen aufnimmt und wenn sie voll ist, verhält sich der Pixel wieder normal. Diese Effekte sind photometrisch schon sehr problematisch, sodass für richtige Wissenschaft der Sensor parallel zur Aufnahme mit einer IR-LED und geringer Beleuchtungsstärke belichtet wird. Man hat dann zwar ein erhöhtes Grundrauschen, aber zumindest die nun gefüllten Traps verhalten sich definiert.
    Gruß Tino

    Hallo Ralf,
    ich habe noch einen Artikel im Internet gefunden, welcher die Transmission der XLT beschichteten Celestrons unterhalb 400nm abschätzt. Siehe: http://karmalimbo.com/aro/repo…0evaluation-AppendixA.pdf
    Anscheinend ist bei 350nm noch etwas Luft ~50% Transmission, es geht aber schon recht steil bergab. Wie verläßlich die Abschätzung ist und ob das C11 vergleichbar ist, ist noch fraglich.
    Andereseits ist alle Theorie grau.
    Gruß Tino

    Hallo,
    vielleicht noch was Interessantes. Die Bewegungsenergie der gesamten Teilchenpackete im Ring entspricht etwa der eines ICE bei 200km/h. Bei einer Abschaltung werden die Teilchen in 7m lange Graphitblöcke entsorgt, welche noch mit zig Tonnen Stahl ummantelt. Wird anscheinend ganz schön warm. Die Energie in den supraleitenden Magnetfeldspulen ist nochmal um den Faktor 50 größer. Also lokal ist das Ding schon gefährlich.
    Gruß Tino

    Hallo Dirk,
    den Sensor ohne Deckglas betreiben ist eigentlich kein Problem, die Staubkrümel setzen sich dann halt direkt auf den Sensor. Kann man dann nur noch mit Stickstoff oder sauberer Druckluft wegblasen. Was ein Problem sein kann sind die Polymer-Mikrolinsen (bei 80% QE sind definitiv welche drauf) auf den Pixeln. Da ist denke ich bei 350nm nicht mehr viel Luft bis zur Absorptionskante. Die Deckgläser auf dem Sensor und die Schmidtplatte sind normalerweise vergütet. Diese bestehen aus hoch- und niedrigbrechenden Materialien (SiO2, TiO2), wobei die hochbrechenden meist nicht sehr weit ins UV gehen. TiO2 absorbiert schon kräftig bei 370nm.
    BK7 hat übrigens 80% Transmission bei 330nm und 10mm Dicke und bei 290nm noch 5%. Borofloatglas ist aber auch etwa in diesem Bereich, also normalerweise auch noch kein Problem.
    Gruß Tino

    Hallo Ralf,
    bei den verwendeten Deckgläsern und auch den Schmidtplatten ist oft nicht das Glas das Problem, sondern die Entspiegelungsschicht. Diese ist meist für 400-700 optimiert und geht an den spektralen Rändern ziemlich schnell hoch. Auch sagt das Datenblatt nur bis 370nm aus, sodass wenn die Absorptionskante kommt, es ganz schnell vorbei ist mit der Transmission. 350nm wäre schon eher was für einen Sensor ohne Deckglas.
    Gruß Tino

    Hallo Jörg,
    einfach M96 suchen, dann das Fadenkreuz auf die in etwa Position des Asteroiden. Dann über Datei/Katalog laden/SkyBot auswählen. Dann bei EPOCH das Datum und die Zeit angeben: 28.2.2015 0:30. Voila.
    Gruß Tino

    Hallo Jo,
    nochmal eine kleine Korrektur zur Gegenüberstellung der 500ms und 60ms Belichtung. Die Skalierung war nicht gleich (da die Originaldaten ursprünglich 14bit sind). Nach BIAS-Abzug sind in der jpg jetzt linear die untersten Stufen 0-255 dargestellt. 256-16384 sind weggeschnitten.

    60ms

    500ms


    Gruß Tino

    Hallo FrankH, ;)
    sind dann mit der Canon etwa 500GB an Daten im raw-Format. Das Stacking brauch bestimmt auch einige Tage. Und alles für ne lumpige Grenzgröße von 20mag. Zumindest ist die Auflösung höher als 512x512 (wenn da das böse Seeing nicht wäre).
    Gruß Tino

    Hallo Leute,
    ich wollte dieses Thema starten, um praktische Erfahrungen und Anregungen bezüglich der Verwendung von EM-CCDs (Electron-Multiplying CCD) und anderen hochempfindlichen (und schnellen) Kameras auszutauschen und Besonderheiten und spezielle Anwendungsgebiete darzustellen.
    Vielleicht erstmal vorab eine stichpunktartige Erklärung zur allgemeinen Funktionsweise von EM-CCDs:
    - entsprechen "normalen" Frametransfer-CCDs (lichtempfindliche Detektorfläche + daneben angeordnete gleichgroße abgedunkelte Fläche)
    - lichtempfindliche Fläche wird belichtet und anschließend komplett in den abgedunkelten Bereich verschoben, von wo sie dann zeitlich parallel zur neuerlichen Belichtung ausgelesen werden kann
    - EM-CCD besitzen ein spezielles Verstärkungsregister (zur Elektronenvervielfachung), welches ~500-600stufig eine Avalanchevervielfachung der von der CCD kommenden Elektronen bewirkt, mit Verstärkungen bis beispielsweise mehrere 1000x
    - am Ende dieses Verstärkerregisters ist eine gewöhnliche CCD-Ausleseelektronik angeordnet, welche aber auch bis 20MHz schnell sein kann
    - die CCD kann aber auch normal ausgelesen werden, unter Umgehung des Verstärkerregisters


    Was bringt das?
    - das Ausleserauschen skaliert umgekehrt proportional mit der Verstärkung, dh. sub-Elektron-Ausleserauschen mit der Möglichkeit der Detektion von einzelnen Photonen (besser Photoelektronen) wird möglich
    - zusätzlich sind hohe Framerates möglich


    Warum ist das so teuer (>20k€)?
    - spezielle CCD-Chips mit speziellen Verstärkerregistern, derzeit nur für wissenschaftliche Anwendungen
    - besondere Anforderungen an Kühlung, Temperaturen <-60°C sind Pflicht (4-stufiges Peltier + Vakuum), da alle Elektronen, auch Thermische verstärkt werden
    - Temperaturen müssen auf 0,01K stabilisiert werden, da die Avalanchevervielfachung extrem temperaturabhängig ist
    - hohe Quanteneffizienz, am besten Backilluminated, denn die zusätzliche Verstärkung generiert ein zusätzliches Signalrauschen (ENF excess-noise-factor), ähnlich dem Schrotrauschen, welches die Quanteneffizienz virtuell halbiert
    - hohe Anforderung an die CCD-Steuersignalgenerierung, nicht optimierte Signalflanken generieren "spurious noise" oder CIC (clock induced charges), außerdem erfordert das Avalanche-Verstärkerregister recht hohe, sowie schnell und exakt getaktete Spannungen mit 40-50V


    Derzeitige Alternativen:
    - sCMOS (Scientific CMOS)
    - ICCD (Intensified CCD)
    - MCP (Multichannel Plates)


    Zukünftig:
    - Standard-CMOS ist auf dem besten Wege


    Warum das alles:
    - allerhöchste Emfindlichkeit für photonenarme Anwendungen (Spektroskopie)
    - ultrakurze Belichtungen (us - ms) für ultrakurze Phänomene (Pulsare, Aktive Galaxiekerne)
    - Kurzzeitbelichtungen (<100ms) mit hoher Kadenz (Bildwiederholrate) und hohem Duty-Cycle (Verhältnis Belichtungszeit zu Auslesezeit), beispielweise um das Seeing "einzufrieren", SpeckleImaging, LuckyImaging, für beugungsbegrenzte Auflösung, auch für Deepsky und ohne Paranal in der Nähe


    Fortsetung folgt!
    Gruß Tino

    Hallo,
    wird zwar schon etwas langweilig mit Stephans Quintett, aber hier ist noch ein anschauliches Beispiel, was das Stacking bewirkt.
    01.11.2014 Stephans Quintett, Meade 12ACF, EM-CCD 300x
    Einzelbild 60ms

    Stack 4086 x 60ms (4min)

    Stack 50000 x 60ms (50min)

    Gruß Tino

    Hallo,
    zur EM-CCD und zu dem was man in den Bildern sieht gibts schon recht viel zu sagen.
    Vielleicht nochmal kurz zu den gewählten Parametern und Einstellungen:
    512x512 Pixel a 16um
    Auslesegeschwindigkeit 5MHz
    EM-Verstärkung 300x
    Auflösung 14bit mit 12e-/DN
    Register-Ausleserauschen 32e-rms
    Quanteneffizienz(Backilluminated) im Maximum 90%
    Kühltemperatur -85°C
    Belichtungszeit 0,5s


    Vereinfacht:
    Das Register-Ausleserauschen von 32e- und 300x EM-Verstärkung ergeben nominell etwa 0,1e- rms Ausleserauschen auf den Sensor bezogen. Im Bild entspricht das einem Rauschen von 3digits rms. Jedes Elektron erzeugt einen Spike von 25digits. Es gibt hierbei aber einige parasitäre Effekte, welche die Elektronen parallel zu den Photonen generieren. Siehe auch: http://www.emccd.com/downloads/pdfs/Optimising%20EMCCDs.pdf
    1. CIC clock-induced charges, alle 200px (Korrektur) ein Elektron, dominant
    2. DunkelStrom, deshalb Kühlung auf -85°C, erst dann vernachlässigbar
    Dh. die Wahrscheinlichkeit, dass die Spikes jeweils einem Photoelektron entsprechen ist aber trotzdem relativ hoch.


    Hallo Norbert,
    dass das mit dem Lucky-Imaging nicht ganz so geschmeidig geht, habe ich schon bemerkt.
    Erstens sind die Datenmengen enorm. Dann muss für ein ordentliches Alignment ein Stern mit ordentlichem S/N vorhanden sein. Dann ist die Frage wie man Alignt (Centroid oder Brightest-Pixel). Dann ist der Quality-Auswahlalgorithmus (FFT, Kantendetektion, oder, oder) problematisch. Ich bin derzeit übrigens Programmtechnisch mit Astro-ImageJ unterwegs. Dort hat man relativ viel Kontrolle, über das was im Programm passiert. Das horizontale Blooming ist echt hartnäckig. Ist auch keine prinzipielle Frage des Timings, zumindest habe ich es nicht hinoptimiert bekommen. Dann gibts in der linken unteren Ecke einen einzelnen Pixel, welcher Elektronen fängt (Electron-Trap). Im Summenbild verschmiert, da das Alignment zuschlägt. Würde man bei ner gewöhnlichen CCD nicht bemerken, aber wenn nur einzelne Elektronen unterwegs sind.


    Gruß Tino

    Hallo Frank,
    Kamera ist neu so ziemlich unbezahlbar. Habe sie gebraucht als "Mikroskopkamera" auf eba erstanden. War nervenaufreibend aber ein echter Schnäpper. Bezüglich Lucky-Imaging mach ich am besten mal ein neues Thema auf. Hier gibts ganz schön was zu diskutieren. Man sieht aber, dass selbst das wildeste Rauschen Informationen birgt.
    Gruß Tino

    Hallo,
    vielleicht mal ein kleines Beispiel für ne relativ lange Kurzzeitbelichtung mit ner EM-CCD.
    Stephans-Quintett vom 18.10.2014


    Einzelbild 0,5s, Meade 12ACF(==>)f/10, Andor IxonEM+ 897D, EM-Gain 300x,
    LosmandyG11-Gemini, unguided


    Stack 10000 x 0,5s (83min), Meade 12ACF(==>)f/10, Andor IxonEM+ 897D, EM-Gain 300x, LosmandyG11-Gemini, unguided, Gamma-gestretcht


    Gruß Tino

    Hallo FrankH,
    der Vergleich mit der 30s Belichtung ist vielleicht etwas kurz gesprungen, da das Objektiv (5omm(==>)F/4) auch nur 12,5mm Öffnung hat, also 8fache Zeit auf keinen Fall. Richtig ist aber, dass die richtigen tiefen Kurzzeitbelichtungen sich wohl nicht mit mechanischen Verschluss machen lassen, wohl aber mit Rolling- oder Global-Shutter (Video-Modus).
    Dass die 5um Pixel beim Newton ausreichen, liegt aber eigentlich nicht an der Auflösung, sondern am Seeing (bei 3arcsec ~10um Spot). Zumndest Lucky-Imaging könnte hier was reissen.
    Gruß Tino


    ps. Wie war der Spruch nochmal: Die Praxis ist in der Theorie näher an der Theorie, als in der Praxis.

    Hallo Frank(H),
    die kleinen Pixel wären schon eine kleine Herausforderung an das Teleskop, aber für ein ordentliches Sampling (3x3 Pixel/Spot) wären wir bei 4-5um Spotdurchmesser. Ich glaube? dass die F-Zahl bei beugungsbegrenzt etwa dem Airy-Durchmesser entspricht, dh man ist mit F/2,8 oder F/4 schon gut dabei (gibts als Newton schon mit recht großer Öffnung). Außerdem ist die Diagonale des CMOS nur 15mm was wohl bezüglich der Aberrationen und Ausleuchtung noch ok ist.
    Dieser spiezielle CMOS-Chip ist auch eigentlich nur ein Beispiel, aber soll auch nur die technologische Entwicklung verdeutlichen.
    Gruß Tino

    Hallo Frank (frasax),
    ich bin in dieser Hinsicht komplett entspannt, aber es ist schon erstaunlich wie die Technologie rennt und welche Möglichkeiten sich ergeben. Ich glaube, dass wir mit der "normalen" Technologie keine 2-3 Jahre mehr von der Leistungsfähigkeit der derzeitigen sCMOS entfernt sind.
    Bezüglich Lucky-Imaging und Deepsky habe ich schon ein bisschen herumprobiert, denn ich nenne eine ausgewachsene EM-CCD mein eigen. Ich bin aber mit meinem 12er Meade-ACF nicht richtig zufrieden, stelle mich anscheinend zu Blöd beim Kollimieren an.
    Gruß Tino

    Hallo,
    es ist schon sehr erstaunlich, wie hauptsächlich der Consumer- und der Mobilphone-Bereich die optische Sensortechnlogie antreibt. Beispielsweise wurde auf der ISSCC2015 (siehe http://harvestimaging.com/blog/?p=1400) von Sony neue Informationen zu einem 20Mpx 1/1,7Zoll Sensor für 4K-Videokameras präsentiert, welcher jede Zeile mit 2 separaten Analog-Digitalwandlern ausliest (derzeit ist ein ADC pro Zeile Standard - siehe auch Sony-Pregius). Mit Double-Sampling kommt man so schon auf 1,3e- Ausleserauschen. Geht schon alles so in Richtung sCMOS. Der Sensor hat zwar nur 1,43um Pixel, aber unglaubliche 9700e- Fullwell und die neuesten Stacked-Sensor- und Backside-Illumination-Technologie. Die Quanteneffizienz ist wohl auch beinahe 100%. Es brauch zwar noch ein Weilche bis die Sensoren industriekameratauglich und Monochrom auftauchen, aber Sony konzentriert sich ja jetzt eh nur noch auf CMOS-Sensoren (http://www.alliedvisiontec.com…cd-sensor-production.html).
    Was kann ein besonders rauscharmer und schneller Sensor:
    - Kurzzeitbelichtungen von astronomischen Kurzzeitphänomenen (zB. Direktabbildung des Krebspulsarblinkens)
    - Lucky-Imaging für Deepsky, schlag dem Seeing ein Schnippchen


    Vielleicht nochmal eine Bemerkung zur Angst vor kleinen Pixeln. Aus meiner Sicht ist diese unbegründe, denn Sie kommt aus einer Zeit, in der die Sensoren in einer bestimmten Fab mit einer Strukturierungstechnologie, beispielsweise mit 500nm-Technologie, hergestellt werden. Dh. ein 6um Pixel hat mit der 500nm Verdrahtung flächenmäßig nicht so stark zu kämpfen, wie ein 1um Pixel. Die jetzige 90nm/65nm-Technologie ermöglicht halt 1,4um Pixel mit vergleichbaren Parametern, wie 6um Pixel mit 500nm-Verdrahtung. Die kleinen Pixel erfordern teleskopseitig halt nur ein anderes Sampling, kurze Brennweite mit großer Öffnung.
    Gruß Tino

    Hallo Norbert, hallo Bruciesheroes,
    ich nehme alles zurück und behaupte das Gegenteil, zumindest teilweise. Ich habe diesbezüglich nochmal recherchiert und siehe da, es gibt verschiedene Sonderfälle:
    Die Hauptgleichung ist:


    S/N = R * t / sqrt ( R * t + RSky * t + RN^2 + Dark * t)
    Signal ShotNoise SkyNoise ReadNoise DarkCurrentNoise


    Sonderfall 1: Eine helle Quelle >>> ShotNoise dominiert >>> übrig bleibt: S/N ~ R*t / sqrt(R*t) skaliert mit der Quadratwurzel der Zeit
    Sonderfall 2: Der Himmelshintergrund dominiert >>> Kriterium (RSky*t > 3*RN) >>> übrig bleibt: S/N ~ R*t / sqrt(RSky*t) skaliert auch mit Quadratwurzel der Zeit
    Sonderfall 3: Der ReadNoise dominiert >>> Kriterium (3 * sqrt(RSky*t) < RN) >>> übrig bleibt: S/N ~ R*t / sqrt(RN^2) skaliert linear der Zeit


    Siehe auch hier: http://www.astro.wisc.edu/~she…st500/AY500_lect5.ppt.pdf (Seite 4, 5)
    Sorry und Gruß
    Tino

    Hallo Bruciesheroes,
    das Signal einer Punktquelle oder eines einzelnen Pixels steigt aber linear mit der Belichtungszeit. Das SNR wird zu den umliegenden Pixeln bestimmt, welche im "nichthintergrundlimitierten" Bereich einen konstanten Noise (ReadNoise, DarkCurrent) aufweisen, oder zumindest ist der konstante Term dominierend. Erst wenn die umliegenden Pixel auch entsprechend belichtet werden (oder der Hintergrund über die anderen Rauschterme dominiert) ist der ShotNoise und die Quadratwurzel angesagt.
    Gruß Tino

    Hallo Frank,
    die 12s sind nur beispielhaft und für einen hellen Himmelshintergrund. Bei dunklem Himmel sind dann auch die besagten 20min drin. Aber wenn man bspw. anstatt der optimalen Belichtungszeit länger belichtet, können schon hellere Sterne oder Galaxienkerne in die Sättigung gehen oder "Ausbrennen". Ist halt nur ein Problem, wenn denn sehr helle und sehr dunkle Strukturen gleichzeitig da sind. Die 14, 15 oder 16bit sind erstmal irrelevant, es kommt auf die Pixel-Full-Well an, dh. wieviel Elektronen in den Pixel passen. Die Datenmenge ist natürlich schon ein Faktor, aber meistens nicht der Begrenzende.
    Mit dem dunklen Himmel als wichtigste Komponente hast du natürch zu 100% Recht, aber nur solange keine Wolken da sind ;).
    Gruß Tino