Welchen Vorteil haben lange Einzelbelichtungen?

  • Hallo zusammen,


    Ich habe immer noch nicht ganz verstanden welchen Vorteil lange Einzelbelichtungen gegenüber kürzeren Einzelbelichtungen haben? Durch das Stacken kann man die SNR ja auch mit kurzen Belichtungen ganz gut erhöhen, wie einige hier im Forum immer wieder schön beweisen!
    Ist es so, dass durch lange Belichtungen mehr Details im objekt sichtbar werden? Oder dass zB ganz Schwache Nebel nur durch längere Einzelbelichtungen erst sichtbar werden, weil sie sich sonst zu wenig vom Kamerarauschen "absetzen" können und es dann auch nicht hilft viele kurze Einzelframes zubstacken? Oder kann man diese Details auch, jetzt als extremes Beispiel, in Bildern à jeweils 5s darstellen wenn man denn nur genug davon macht? Falls ja, wieso nimmt man sich denn die Mühe und investiert in ein Guidingsystem um zB 5-minütige Aufnahmen zu ermöglichen?


    Wie Ihr seht, Fragen über Fragen [:D]


    Grüsse an alle und cs
    Chris

  • Hallo Chris,


    einen Punkt hast du bereits angesprochen: Sehr schwache Objekte schicken nur sehr wenige Photonen zu uns. Ist die Belichtungszeit extrem kurz, kommen evtl. keine oder nur sehr wenige Signale auf dem Chip an.
    Jetzt könnte man dagegenhalten, dass dafür das Rauschen durch den Dunkelstrom ja auch entsprechend geringer ist und sich rechnerisch kein Unterschied ergibt, vorausgesetzt man wählt als Stacking-Methode Mean/Mittelwert. Soweit stimmt das, aber…
    Der Knackpunkt ist das Ausleserauschen der Kamera, das bei jedem Einzelbild addiert wird und mit der Quadratwurzel steigt. In deinem Beispiel (5 sec Einzelbild statt 5 min) wäre das Auslesrauschen, wenn ich mich nicht verrechnet habe, im Endresultat etwa 7,7-fach höher!


    Mit Kurzzeitbelichtungen lassen sich zwar häufig bessere Auflösungen erreichen (Lucky Imaging), für einen hohen SNR-Wert, der die gleiche Tiefe im Bild ermöglicht, braucht’s aber deutlich mehr Zeit (nicht nur bei der Nachbearbeitung).


    Viele Grüße
    Marco

  • Hallo zusammen,


    Marco hat das sehr schön erklärt.
    Vielleicht noch eine Ergänzung: Welche Einzelbelichtungszeit optimal ist, hängt nicht nur vom Motiv und den Aufnahmebedingungen ab, sondern auch von der Kamera und dem Bildsensortyp. Größere Pixel, älterer Sensortyp und viel Kühlung sind Faktoren, die für längere Belichtungszeit sprechen. Kleinere Pixel, moderne CMOS- Sensoren und weniger Kühlung machen kürzere Einzelbelichtung sinnvoller.
    Früher auf chemischem Film hatten die Astrofotografen gar keine Wahl als sehr lange zu belichten.


    Erste Deepsky-geeignete CCD-Sensoren hatten relativ große Pixel und viel Ausleserauschen, da war die Wahl der Belichtungszeit oft eine Wahl zwischen zwei Übeln wegen des oft noch recht hohen Dunkelstroms.


    Moderne rauscharme CMOS-Sensoren haben teils sehr niedriges Ausleserauschen, aber kleine Pixel mit weniger Ladungskapzität. Hohen Dynamikumfang kann man bei solchen Sensoren nur durch Stacken vieler kurzer Einzelbelichtungen erreichen.


    Die Nachführgenauigkeit der Montierung sowie die Brennweite und das Öffnungsverhältnis müssen natürlich auch noch berücksichtigt werden.
    Dass das Öffnungsverhältnis des Teleskops mit der Pixelgröße der Kamera harmonieren sollte, ist ein weiterer zu berücksichtigender Faktor.


    Gruß,
    Martin

  • Nun,
    ergänzend ...
    Probieren macht klug.


    Manchmal lohnt es sich, wenn man ein oder zwei Nächte am gleichen Objekt opfert und gezielt Serien mit unterschiedlichen Belichtungszeiten anlegt und stackt. Dann sieht man, was am Ende besser ist. Gerade bei flächigen Objekten hängt das sehr vom Einzelobjekt ab. Ein Galaxienkern ist nun mal deutlich heller als der Bereich drum herum und unterschiedliche Belichtungszeiten liefern am Ende vielleicht für den Kernbereich oder den Umgebungsbereich dann jeweils bessere Resultate. Es gibt ja einen Trade-off zwischen Belichtungszeit einerseits und Anzahl der Frames, die man in einer Nacht machen kann.

  • Hallo Chris,
    ich gehöre seit Jahren zu der Fraktion der "Kurzen", dabei ist "30sec" schon lang.
    Der erste Schritt, den man machen sollte, ist zu ermitteln, wie hoch das Ausleserauschen der verwendeten Kamera ist. Hier, und nur hier, entscheidet sich, ob, und um wie viel, du länger belichten musst, um zum gleich tiefen Endergebnis zu kommen. Der zweite Schritt ist herauszufinden, ab wann du hintergrundlimitiert belichtest, also ab wann du im Hintergrund eine (ganz leichte) Zeichnung hast. Bei einem f/5 System und 5,5 mag Himmel sind das im Weißlicht z.B. nur 2-4 Sekunden. Danach ist alles gleich. Egal ob PN oder GX , egal ob schwach oder hell, egal ob flächig oder punktförmig. Der Betrag, den man eigentlich länger belichten müsste wird oft durch die höhere Schärfe wieder verringert. Ein Stern, der auf 3x3 Pixeln dargestellt ist, ist 4 mal so hell wie einer, der auf 6x6 PX dargestellt wird.
    Deine Frage lautet aber ja anders herum, was kann man NICHT. Da wären z.B. Schmalbandaufnahmen. Um diese Hintergrundlimitiert zu belichten braucht man schon Minuten. In guten Gegenden verschenkt man auch SNR, wenn man zu kurz belichtet. Und z.B. ganz profan, ohne Guiding wandert dein Objekt durchs Bild, du kannst kaum die Nacht belichten während du schläfst. Mit Guiding geht das.
    Viele Grüße,
    ralf

  • Hallo Chris,


    um mal ganz prakmatisch zu denken: Mit längeren Belichtungszeiten hat man weniger Bilder und spart sich Speicherplatz und Zeit beim stacken[:)].


    Gruß
    Stefan

  • Hallo allerseits,
    vielen Dank für die zahlreichen Rückmeldungen [:)]


    Ich habe mir schon gedacht, dass das Guiding einige Vorteile haben muss, sonst wäre es wohl nicht so verbreitet! [;)] und dass es, sobald man beginnt Schmalbandaufnahmen zu machen, eigentlich auch gar nicht mehr ohne geht.
    Spannend finde ich trotzdem, dass rein theoretisch auch mit kurzen Einzelbelichtungen sehr tiefe Aufnahmen möglich sind, wenn man denn nur genügend davon stackt! Wobe sich whs sehr schwache Nebel eben doch erst ab längeren Belichtungszeiten vom Hintergrund absetzten können...


    Gibt es denn eine gute Quelle wo das jeweilige Ausleserauschen verschiedener Kameras aufgeführt ist?


    Grüsse
    Chris

  • Hallo Chris,


    für DSLRs ist eine recht vertauenswürdige Seite http://photonstophotos.net/Charts/RN_e.htm (auch wenn man erst über die Datenpunkte mit der Maus drübergehen muss, um die eigentlichen e- rms Werte abzulesen)


    Für Astrokameras steht es in der Regel in den Datenblättern drin, aber auch hier wird manchmal nur der Bestwert bei hohem gain in den Vordergrund gestellt.


    Weils gerade so schön zum Thema passt, noch ein link:
    https://astrospace-page.blogsp…gellanic-cloud-chile.html
    Allerdings ist die Gesamtbelichtungszeit inklusive des 4x4 Mosaiks und aller 6 Filter zustande gekommen.


    Viele Grüße
    Norbert

  • Hallo Norbert, vielen Dank für den Link!


    Jetzt habe ich gerade noch gesehen dass Frank auf seinem youtubekanal (astrofotocologne) ein video genau zu diesem thema veröffentlicht hat! Ich finde es sehr informativ und ausführlich erklärt, vielen Dank an dieser Stelle nochmals!


    Grüsse chris

  • Chris, schaut aus, als hätte Frank nicht nur "ein video genau zu diesem thema veröffentlicht", sondern dir persönlich per Videobotschaft geantwortet!
    Cooooool!

  • Hallo,
    inhaltlich bin ich bei dem Tutorial aber in einem Punkt nicht glücklich. Richtig ist zwar, dass bei "Lucky Imaging" SNR fehlt, aber es gilt auch, wenn man 100% der Bilder verwendet ist das Bild trotzdem schärfer. Der Grund liegt im effektiveren Stacking. Man könnte das als eine "nachträgliche digitale aktive Optik bzw. Verarbeitung" bezeichnen. Allerdings gilt das bei sehr kurzen Belichtungszeiten , ich denke bei 30 s macht das keinen Unterschied.
    Schönen Abend,
    und Gruß,
    ralf

  • Hallo zusammen,


    tatsächlich habe ich diesen Thread zum Anlass genommen diese Video zu machen:

    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Ralf, das musst du mir genauer erklären, vielleicht habe ich da was nicht beachtet?


    CS Frank

  • Vielleicht hilft folgende (vereinfachte) Überlegung:


    Annahme: Einzelbilder einer Gesamtbelichtung seien von konstanter Qualität zueinander, kein lucky Imaging)


    a sei die Anzahl der Einzelbilder
    T die Gesamtbelichtungszeit
    t die Einzelbelichtungszeit mit T= a*t


    S sei das Gesamtsignal (s das Signal eines Einzelbildes mit S = a*s, bei gleichbleibender Qualität der Einzelbilder)
    R sei das Gesamtrauschen
    Die Bildqualität sei definiert als S/R (Signal-Rausch-Verhältnis im Gesamtbild)


    Annahme:
    Im Einzelbild setze sich das Rauschen r aus zwei Teilen zusammen:
    r-fix (z.B Ausleserauschen) als je Einzelbild feste Größe
    r-zeit sei ein Rauschparameter, der abhängig von der Belichtungszeit t ist (z.B. thermisches Rauschen, Seeing)
    r = r-fix + t*r-zeit


    Macht man nun ein einziges Bild so ist
    R = r-fix + T*r-zeit


    Macht man mehrere kürzere Bilder so ist
    R = Wurzel(a)*r-fix + Wurzel(a)*(t*r-zeit) oder umgestellt -> R = Wurzel(a)*r-fix + Wurzel(a)/a * (T*r-zeit)
    Der Anteil des fixen Rauschen steigt mit der Wurzel der Bildanzahl. Dagegen wird das zeitabhängige Rauschen kleiner.


    Fazit: Ist das zeitabhängige Rauschen höher (z.B. höhere Temperatur in einer Sommernacht vs. Winternacht) verkürzt man die Belichtungszeit und macht dafür mehr Bilder. Kennt man seine Rauschparameter, so gibt es eine optimale Belichtungszeit in die man eine geplante Gesamtbelichtung zerlegt.


    Außen vor gelassen habe ich Fragen zur Sättigung von Pixeln, zu nicht linearem Rauschverhalten (typ. bei Seeing-Fragen) usw.

  • Hallo Frank und alle,
    meine Beobachtung (s.o.)betrifft nicht das Rauschen, sondern bezieht sich auf die Schärfe des Bildes. Bei sehr kurzen Belichtungszeiten so bis max. 5 s hat jedes Sternchen seine eigene PSF, mal das Zentrum weiter rechts, mal weiter links, mal ist es ganz weich und mal schön scharf. Hinzu kommt, dass das ganze Sternchen sich manchmal in der Fläche deutlich bewegt, es springt zuweilen 5-10" hin und her. Ob das an der Montierung liegt oder am Seeing kann ich nicht 100%ig sagen. Beim Stacken nun werden diese Bewegungen zumindest z.T. ausgeglichen. Das eine Bild wird einen Pixel nach rechts versetzt das andere nach links usw. Das Bild wird in Summe schärfer. Theoretisch sollte/könnte das auch die Guidingsoftware machen, tut sie aber nur, wenn die Monti das auch so genau umsetzen kann. Dabei reicht es nicht auszulesen, was die SW "wollte" (oft bleiben die aufgezeichneten Korrekturen unter 1"), sondern, das, was auch wirklich "ankommt" und da scheinen die Werte deutlich schlechter.
    Mir ist es bisher nicht gelungen eine zuverlässige Qualitätsanayse der Bilder zu erhalten. Aber auch, wenn dass gelänge, würde ich sicher 90 oder 95% der Bilder stacken. Jedes neue Bild reduziert ja auch das Rauschen und bei weniger Rauschen kann man stärker schärfen, wenn, mal salopp gesagt, der Schärfungsalgorithmus weiß worauf er schärfen muss, und diesen "Kern" bilden die "guten" Bilder.
    Wie gesagt, das gilt bei "sehr kurz" bei "nur kurz" macht der Effekt sich nicht bemerkbar.
    Viele Grüße,
    ralf

  • Hallo Ralf,


    interessantes Thema!
    Eine PSF hat ja eigentlich jeder Stern in einer Aufnahme (oder sollte man sagen ist jeder Stern?). Soweit ich weiß ist es ja so, dass bei sehr kurzen Belichtungszeiten nicht die PSF sondern die Speckles in Erscheinung treten, die PSF ist ja dann die statistisch betrachtete Version des Sterns inkl. Nachführfehler und Seeing. Da begebe ich mich aber auf dünne Eis gebe ich zu.
    Der Effekt den du beschreibst, den kann ich bei einem einzeln betrachteten Stern sehr gut nachvollziehen, aber bei vielen hundert oder tausend übers Aufnahmefeld verteilt? Die Sterne bewegen sich ja nicht in einer Richtung alle zusammen, sondern vermutlich variieren ihre Positionen chaotisch. Ich kann mir schon vorstellen, dass Software daraus durch ein resampling eine Verbesserung errechnen kann, aber das tut sie eigentlich auch bei längeren Einzelbelichtungen (Resampling Kernel). Dazu gabs mal eine gute Seite von Mischa Schirmer, aber die ist offline.
    Eine andere Methode diese PSF für sich zu nutzen ist ja die Deconvolution, die ja quasi eine Seeing Restauration darstellt. Davon wird mein nächstes Video handeln. Dann sollte ich vielleicht auch mal etwas über das Thema Seeing machen, dazu muss ich dann aber wohl etwas recherchieren.


    Was wir in dieser Betrachtung ja völlig ausser Acht lassen ist die Größe der Teleskope. Ich glaube nämlich dass das alles erst ab einer gewissen Größe überhaupt eine signifikante Rolle spielt und bei kleineren Teleskopen mit Kanonen auf Spatzen geschossen ist.


    CS Frank

  • Liebe Diskutanten!
    Bin blutiger Einsteiger und das alles ist mir viel zu hoch.
    Ein Pixel links, ein Pixel rechts, Formel hier, Formel da.
    Klingt alles ziemlich akademisch, dabei sollts doch so einfach sein:


    Warum ladet ihr nicht mal 2 Bilder zum Vergleichen hoch. Mal viele kurze, mal weniger längere Belichtungszeiten gestackt.
    Und diskutiert dann das Ergebnis.
    <u>ABER:</u> bitte liebe "Hochlader" haltet euch zurück und sagt nicht, welches Bild wie zustande gekommen ist...


    Zum Prozedere:
    Vielleicht sollten die 2 Bilder jeweils in einem eigenen Thread hochgeladen werden (link aber auch hier), dass wir/IHR beim Diskutieren nicht durcheinanderkommen, auf welche Bilder grade Bezug genommen wird.


    Was meint ihr? Schafft ihr das? Ist das für euch auch eine interessante Challenge?


    Ich hoffe "ja",
    lGHeinz

  • Hallo Frank,



    zunächst einmal danke, dass du dich für meine Beobachtungen und Experimente interessierst. Du hast die Psychologie selbst angesprochen und es ist schön, wenn wir hier weiterhin ohne "Ideologie" diskutieren.
    Dein letzter Einwand ist natürlich richtig. Mein Beitrag zu dem ganzen Thema ist weniger theoretisch, sondern eher praktischer Natur und deshalb kann ich streng genommen nur Aussagen mit meiner Geräte-Kombination unter meinem Himmel mit meiner Belichtungszeit usw. machen. Ich mache das aber schon seit vielen, vielen Jahren, zunächst ´30sec´ mit DSLR, so konnte ich grundsätzlich aufs Guiding verzichten, büßte aber oft 20-30% der Bilder ein, dann später mit 5,7 s und versch. DMKs, hier gab es erste Erfolge in Sachen Schärfe und parallel zur Entwicklung der Kameras kann ich nun bei 2 s Einzelbelichtung einen deutlicheren Gewinn feststellen. (Edit, ergänzt: ich Schärfe und ganz besonders in der Tiefe) Interessant auch, bei sehr gutem Seeing bin ich um mind. 1 Größenklasse, (oft sogar 1,5-2) tiefer als bei schlechterem. Die Methode eignet sich also auch für Mondnächte, wenn ansonsten die Bedingungen super sind.
    Einige Beobachtungen aus der Zeit lassen sich sicher verallgemeinern.
    Bei meinem eher kleinen Chip (5 x 7,4 mm) ist die Verzerrung des Sternscheibchens über die Fläche überraschend gleich, oder zumindest sehr ähnlich. Denkbar ist, dass die Seeingzellen, die sich nahe am Boden befinden, das ganze Bildfeld beeinflussen. Ich habe deshalb auch kein signifikant besseres Ergebnis, wenn ich jedem Stern einen eigenen Ausrichtungspunkt widme.(Planetensoftware) Manchmal mache ich das zwar, aber nur aus dem Grunde, weil ich damit eine leichte Rotation im Bild ausgleichen kann.
    Die Speckles sind auch nach 2 s Belichtungen schon unsichtbar. In der Planetenfotografie im ms-Bereich, da erkennt man sie. Ein wirkliches Qualitätsmerkmal ist es, wenn man das Airy-Scheibchen und den ersten Beugungsring trennen kann. Das ist bei den relativ kurzen Brennweiten im DS-Bereich schon wirklich die Ausnahme. Mir ist das erst zwei mal gelungen.
    Das Thema Seeing ist nicht leicht abzuarbeiten weil sehr differenziert. Deutschsprachig gibt es so gut wie nichts. Für die Deep-Sky-Fotografie kann man sich zwar bei den Profiarbeiten umschauen, für die Planetenfotografen (und das ist definitiv nicht das selbe) gibt es aber praktisch keine glaubwürdige und aussagekräftige Quelle. Es gibt auch eine Arbeitsgruppe bei den Profis, die sich mit "Lucky Imaging" im DS-Bereich beschäftigt, aber ehrlich gesagt sind auch hier die Infos dünn gestreut und wenn ich sehe, dass die Jungs alte DMKs an ihre Teleskope schnallen...
    Also, das Thema Seeing mal richtig aufzuarbeiten wäre ein Gewinn für die ganze Amateur-Astro-Szene, ich würde mich freuen.
    viele Grüße,
    ralf

  • Hallo,


    ich bin hier bei Ralf. Ich bin zwar noch kein langjähriger Astrofotograf, aber wie ich im anderen Forum auch schon angemerkt habe, denke ich mir (mit meiner limitierten Erfahrung), daß sich das Licht, je länger ich belichte, umso mehr Zeit hat dahin zu gelangen, wo es nicht hin gehört - mal einfach ausgedrückt. Wenn das Rauschen also nicht erdrückend wird und man die Datenmenge handhaben kann, dann macht es meiner Meinung nach Sinn eher kürzer zu belichten.


    Gruß


    Heiko

  • Hallo Heinz,
    unsere Beiträge haben sich überschnitten.
    Tja, so einfach ist das leider nicht. Wie gesagt, die Kombination ist wichtig. Welche Kamera du nutzt ist z.B. von entscheidender Bedeutung (Ausleserauschen) Da hilft dir ein Vergleich wenig, wenn du z.B. mit DSLR knipst.
    Vielleicht hast du ja das Projekt "Gemeinschaftsbelichtung M64" gesehen. Ich habe dazu alle Bilder grob beurteilt und festgestellt dass fast alle "kurzen" Schäfer sind als die "langen" und da sind Leute dabei, die ihr erstes DS-Foto gemacht haben.
    Gruß,
    ralf

  • Man KANN natürlich die Bildgewinnung bis ins letzte DCetail wissenschaftlich zerlegen und optimieren. Aber das ist für den Einsteiger nicht förderlich, sondern im Gegenteil kontraproduktiv. So lange man sich an die Regel hält, die Einzelbelichtungen so zu wählen, dass der Hintergrund deutlich hervortritt, macht man IN ERSTER NÄHERUNG nichts grundsätzlich falsch. Später freilich kommen Wünsche und Begehrlichkeiten auf, aber dann hat man meist auch die Fähigkeiten erworben, selbst Belichtungs- und Messreihen aufzustellen. Es kommt dann ja auch noch auf das Ziel an. Schwächste Gravitationsschweife von Galaxien wird man nicht mit Unmengen
    kürzester Belichtungen darstellen können, ebensowenig wie feinste Strukturen in planetarischem Nebeln mit wenigen Langzeitaufnahmen. Informationen gibt es dazu im Netz genug, die hier nicht erschöpfend ausgebreitet werden können.

  • Hallo Ullrich,


    "Informationen gibt es dazu im Netz genug, die hier nicht erschöpfend ausgebreitet werden können".


    … und die Hälfte ist leider falsch oder unvollständig. Erstellt von Amateuren, die sich ihre "Wahrheiten" zusammenwünschen oder eben nur für ihr System so sind, wie sie sind.


    "Schwächste Gravitationsschweife von Galaxien wird man nicht mit Unmengen
    kürzester Belichtungen darstellen können"


    Antwort: doch!


    "ebensowenig wie feinste Strukturen in planetarischem Nebeln mit wenigen Langzeitaufnahmen"


    Antwort: doch, geht!


    Die Frage ist, WANN geht das eine besser, und WANN das andere?


    Die Aussage: Kurzzeitbelichtung ist gut für helle PN aber für tiefe GX Bilder braucht man lange Einzelbelichtungen ist die häufigste, die im Netz zu finden ist. Aus heutiger Sicht mit CMOS-Sensoren, die 1 bis 2 Elektronen Ausleserauschen haben, NEIN. Und genau das ist der Punkt, der oben mit "Psychologie" bezeichnet wurde. Traditionen halten länger als Informationen.
    Ich habe Kalles Formeln überlesen, verstehe sowieso nicht alles, aber es gibt Parameter, die in den Formeln eben nicht drin stecken. Wie gut ist das Guiding? Was kann die Stacking Software leisten? Welche Art von Seeing kann man so einfrieren? usw. Erstaunlicherweise verringert sich die Differenz in der Schärfe mit der Qualität der Montierung. Ist das nun ein weicher Faktor? So nach dem Motto, wer viel Geld für eine gute Monti ausgibt hat auch mehr Ahnung von Astrofotografie? Oder ist es vielleicht "grenzwertig" durch einen Sucher zu guiden, der seine Auflösungsgrenze bei 3 bis 4 Bogensekunden hat aber ein Diagramm auswirft, in dem er auf unter 1" genau korrigiert hat.(gehen tut das, das zeigt Kepler)aber hat die Monti das auch mit gemacht? Und es gibt noch andere "weiche" Faktoren. Wenn mich wirklich die Schärfe eines Objektes mehr interessiert als die Tiefe (z.B. bei PN, grins) dann wähle ich vielleicht eher die kurzen Belichtungszeiten und justiere mein Teleskop noch mal neu, weil im Einzelbild die Sternchen z.B. immer eine Fahne in die gleiche Richtung haben.
    Der eine möchte nicht über noch mehr Kabel stolpern, der andere hält es für bescheuert seine FP mit zig tausend Bildern "zuzumüllen" und das Stacken erst, grusel. Der eine mag die Bildbearbeitung, der andere ist froh, wenn er 10 Bilder gestackt bekommt um das Rauschen zu verringern. Wenn aber jemand die Bildbearbeitung mag, dann ist der evtl. auch besser im Parameter setzen bei der Schärfung. Und nicht zuletzt gibt es den "Scharf-Typen" und den "Tief-Typen" in der Astrofotoszene. Ich bin so ein "Scharfer-Typ" und belichte bei 1400 mm nur dann, wenn das Seeing überdurchschnittlich ist, deshalb würde ich meine Bilder hier auch nicht als Vergleich zeigen wollen.
    Ich denke wir haben hier eine gute Möglichkeit, gerade weil Frank diese Tutorials macht, das Thema hier von allen Seiten möglichst ideologiefrei und ohne Scheren im Kopf, zu betrachten.
    Gruß,
    ralf

  • Hallo Leute,


    Frank dir ein herzliches Danke für deine Videos! Ganz, ganz, ganz grosse Klasse!



    Mir geht das mit den Datenmengen bei Kurzbelichtungen nicht ganz ein...


    Ich hab vor kurzem auf M13 gehalten, Ziel waren so etwa 12 Stunden.
    Das waren so grob gerechnet 288 Einzelbilder zu je 150Sekunden = 12Stunden an Belichtungszeit und etwa 288x32MB =9,2GB an Daten bei meiner Kamera mit 27x22mm Sensorgrösse.


    Hätte ich das ganze in 5 Sekunden Einzelbildern aufgenommen dann wären das 8640 Einzelbilder zu je 32GB = ~276GB an Daten. Die müssen dann noch kalibriert(+552GB) und registriert(+276GB) werden. Die kalibrierten Einzelbilder sind bei mir 64MB gross. Was dann 276x4 = 1104GB macht.
    Das sind doch unhandhabbare Datenmengen? Das Wort "Datenreduktion" bekommt dann einen ganz anderern Stellenwert. Mein Rechner würde dafür wohl Stundenlang brauchen?
    Ich kann mir nicht vorstellen dass das so jemand bei einem "Vollbild" praktiziert. Bei der CCD wäre alleine schon die Downloadzeit zu lange.


    Von daher finde ich man könnte unterscheiden ob ich ein "Vollbild" will, oder auf Details aus bin bei einem eher kleinem Feld.


    Kleine Bildfelder mit kleinem Sensor und überschaubaren Datenmengen/Verabeitungszeit/Downloadzeit und sehr kurzen Belichtungszeiten und somit besserer Schärfe bei gutem Seeing würden mich auch irgendwann reizen, aber ich würde nicht die grossen Bildfelder mit mittleren/langen Belichtungszeiten (2min - 20min) aufgeben. Ich würde die Geräte wohl parallel laufen lassen.


    mfg.
    Thomas
    (Der jetzt wegen Wolken mal Equipment abbauen geht)

  • Hallo Thomas,
    das ist ein wichtiger Hinweis, ja, ich glaube für eine DSLR bzw. für einen großen Chip ist das wirklich nichts. Deine Berechnungen überraschen mich auch.
    Ich selber arbeite mit einer 6 MP Kamera. Im RAW bei 8 bit (mehr braucht man bei viele Einzelbelichtungen nicht) sind selbst Farbbilder nur 3 MB groß. Die Downloadzeit liegt im ms-Bereich. Das Stacken in einer Planetensoftware (AS!3) dauert mit SSD für 1000 Bilder nur wenige Minuten.
    Die Zeiten in denen ich mit DSLR "30 sec" Bilder gemacht habe sind schon eine Weile her, aber auf solche Datenmengen bin ich auch nicht gekommen (unter DSS), gedauert hat das aber schon, daran erinnere ich mich gut. Abends den Stack angeschoben und morgens vorm Frühstück geschaut ob alles geklappt hat.
    Grundsätzlich halte ich die modernen CMOS Sensoren z.B. in den ASI-Kameras für besser geeignet. Die haben oft sehr kleine Pixel und ein sehr kleines Feld. Von da her muss man dann sein ganzes System neu aufbauen, damit wieder alles zueinander passt und man nichts verschenkt.
    Gruß,
    ralf

  • Hallo Leute,
    da die Eingangsdiskussion sich ja um die Frage dreht, welchen Vorteil eigentlich lange Einzelbelichtungen haben, bleibt m.E. einzig und allein die Sparsamkeit an Daten und die geringere mechanische Beanspruchung eines mglw. vorhandenen mechanischen Shutters, zumindest wenn man sich bei der Anfertigung der kurzen Belichtungen an eine Regel hält. Diese Regel wäre, dass die Belichtungszeit zumindest so hoch gewählt wird, dass das Bild hintergrundlimitiert ist, dh. die Himmelshelligkeit liefert den Hauptanteil des Rauschbeitrags. Dann ists egal, ob man viele kurze oder wenige lange Belichtungen stackt, zumindest wenn die Belichtungszeit gleich ist. Natürlich ist die Verarbeitung vieler kurzer Belichtungen schon sehr Rechen- und Speicherintensiv, aber die Computertechnik bspw. entwickelt sich viel schneller als der Rest, allem voran die stagnierende Beobachtungszeit. Außerdem kann man die vielen Bilder günstig archivieren und ggfs. später nochmal mit besseren Algorithmen durchrechnen lassen.


    Um nochmal kurz die Vorteile der kurzen Belichtungen aufzuführen:
    - Dynamikumfang ist größer, weniger ausgebrannten Sterne, bessere Linearität
    - Schärfe ist besser, da jedes einzelne Bild alignt wird und weil man die besseren Seeingphasen sogar zusätzlich noch separieren und sortieren kann
    - weniger Anspruchsvoll an Montierung und Stabilität
    - weniger Ausschuss durch Satellitenbahnen, usw.


    Kurze Belichtungszeiten heißt in diesem Zusammenhang eher einige Sekunden, um dem Seeing dagegen wirklich ein Schnippchen zu schlagen, bedarf es aber sehr kurzer Belichtungszeiten im Zehntelsekundenbereich. Das ist aber nochmal ein anderes Thema, hier gibt es noch einige Pferdefüße zu beschlagen.

    Gruß Tino

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!