Erfahrungsbericht: Kamera- und Bildauflösung in der Videoastronomie

  • In einer aktuellen Diskussion über die Frage des Einsatzes einer Barlowlinse zur Steigerung der Kamerauflösung an einem f/10 Teleskop gehen die Ansichten und Empfehlungen weit auseinander. Eine auf der Basis theoretischer Überlegungen empfohlene Brennweitenankopplung der Kamera mit f/D > 5p/µm steht da einer durch praktische Bildergebnisse belegten Empfehlung mit f/D > 2p/µm gegenüber. Es bedeuten f/D die effektive “Blendenzahl“ des optischen Systems am Ort des Kamerachips und p die Rasterweite des Kamerachips in µm. Im Primärfokus eines f/10 Teleskops haben wir also f/D = 10, und mit nachgeschalteter 2x Barlow ergibt sich f/D = 20.


    Eine möglichst kurze Brennweitenankopplung ist von prinzipieller Bedeutung für die Videoastronomie, die ja das Ziel hat, fotografische Bildunschärfen aufgrund der atmosphärischen Luftunruhe, also des atmosphärischen Seeings, durch kurze Belichtungszeiten möglichst weitgehend einzuschränken. Nun ist ja aus der Alltagsfotografie bekannt, dass man für eine bestimmte Bildausleuchtung bei Blende 5 rund 6x länger belichten muss als bei Blende 2. Lange Belichtungszeiten sollte man also im Hinblick auf die Vorteile der Videoastronomie nach Möglichkeit vermeiden.


    Ohne jetzt an dieser Stelle erneut eine theoretische Diskussion anstoßen zu wollen, habe ich hier zur visuellen Orientierung und ohne weitere Kommentierung ein paar Bildbeispiele zusammengestellt, die ich mit meinem 10“ Spiegel bei Ankopplungsfaktoren f/D/p zwischen 2 und 3 gewonnen habe:


    Jupiter (2010): 2,9 (2,1)

    Plato (2011): 2,9

    Jupiter (2011): 2,5

    Theophilusgruppe (2019): 2,1

    M3 (2020): 2,1


    Die Bilder sind in dieser Reihenfolge am oberen Ende meiner Website zu sehen. Dort sind auch die Auflösungen der Bilddateien angegeben, die ich kürzlich schon einmal hier angesprochen hatte.


    CS Jan


  • Mehr gibt es dazu wohl nicht zu sagen

  • Jan,

    Genau, das war die von mir oben bereits zitierte Theorie mit f/D/p > 5 von Deiner Seite.

    Die Abtastrate von Signalen ist keine Theorie, das ist schlichtweg Physik und die Zusammenhänge und Folgen verschiedener Abtastraten sind auch sehr einfach nachweisbar.


    Was du ständig behauptest- du benutzt ein Sieb mit 2mm Maschenweite, wirfst Sand drauf, schüttelst kräftig und willst belegen, dass du anschließend Sandkörner von 1mm Größe im Sieb nachweisen kannst. Wenn du das nachweisbar und reproduzierbar schaffst, dann glaube ich dir auch, dass du mit zu niedriger Abtastrate gleich gute Bildergebnisse erreichst, wie jemand, der mit korrekter Abtastrate arbeitet.

  • Hallo Jan,

    ... für das man keine Gründe kennt ... man Traditionen nennt ...


    Von daher bin ich bei dir, wenn du die f/20-30 Tradition hinterfragst. Aber mit dieser Penetranz (das geht ja nun schon seit Jahren) finde ich das eher nervig.

    Grundsätzlich sollten auch nicht die eigenen Bilder als Referenz herhalten. Mach doch mal einen Versuchsaufbau mit Liniengitter usw.


    Inhaltlich: wenn du z.B. eine Sinuskurve abtastest, dann kannst du das Raster sehr klein machen, und du hast sie im maximalen Ausschlag abgebildet.

    Machst du das Raster nun aber sehr grob, dann schneidest du die Kalotten ab. Der "Kontrast" / SNR wird geringer und du benötigst mehr Belichtungszeit fürs selbe Ergebnis. Genau das habe ich festgestellt, als ich meine Brennweite reduziert habe.


    Ich bin aber bei dir, dass das Nyquist-Kriterium unterschritten werden kann, und man keinen Detailverlust erleiden muss. (nur etwas länger Belichten)

    Der Grund ist die Tatsache, dass wir unsere Bilder subpixelgenau Stacken, was ja eigentlich schon Drizzeln ist.

    Schaut man sich das Kriterium genauer an, dann geht es vornehmlich um die Diagonalen. Man kann also nicht sagen, 3 Pixel reichen, um ein Detail abzubilden. In der Diagonale passt das eben nicht mehr, weil die Abtastrate diagonal geringer ist. Das gilt auch für Linien pro Millimeter. Hier wird das Kriterium also hoch gesetzt. Und genau hier greift unser Stackingprozess. Wenn man so will, dann gibt es keine Diagonalen mehr, wenn das Bild subpixelgenau hin und her bewegt wurde. Von daher kann man bei gestackten Bilder das Nyquist-Kriterium moderat unterschreiten.


    Daraus aber eine Ideologie zu machen, ist nicht gut.

    Gruß

    ralf

  • Das Nyquist-Kriterium gibt die Grenzfrequenz an, aber Pixel machen kein Sampling wie im Nyquist-Shannen-Theorem beschrieben, sondern das Sampling einer Konvolution:


    Image sensors: Modulation transfer function


    Mit mehr Sampling kann man also die MTF unterhalb des Nyquist-Kriteriums erhöhen. Die MTFs von Bildsensoren unterscheiden sich erheblich, was man berücksichtigen muss. Bei Farbe wird die Sache komplizierter: Die Pixelabstände sind zwar größer, was die Grenzfrequenz herabsetzt, dafür ist die Konvolution (ohne low pass Filter) viel geringer, was die MTF erhöht.


    Wenn die Praktiker also sagen, dass mehr Sampling in Grenzen auch mehr bringt, dann ist das nicht der Unterschied zwischen Theorie und Praxis, sondern eine falsche Anwendung der Theorie. Man bekommt keine höhere Grenzfrequenz, aber mehr Kontrast bis zur Grenzfrequenz.


    Michael

  • Hallo miteinander,


    vielen Dank für Eure überwiegend nachvollziehbar begründeten Kommentare ! Was mir insgesamt noch etwas fehlt, ist der Gedanke, wieviel von dem theoretischen Verlust and Bildauflösung, den man bei f/D/p < 5 möglicherweise verliert, auf der anderen Seite zurückgewonnen wird durch die verbesserte Einengung der seeingbedingten Bildunschärfe bei kürzerer Belichtungzeit und die entsprechend erhöhte Anzahl der Einzelbelichtungen im Stack.


    CS Jan

  • Liebe Theoretiker,


    auch wenn ich durchaus kein Gegner theoretischer Überlegungen bin, empfinde ich es doch als unbefriedigend, wenn die daraus resultierenden Schlussfolgerungen nicht imstande sind, die Realität in angemessener Weise zu beschreiben. Besonders peinlich finde ich es, wenn - wie hier geschehen - ein Newcomer auf dem Gebiet der Planetenfotografie von "Experten" unseres Forums so beraten wird, als wolle er seine ohnehin schon nahezu perfekten Ergebnisse um eine allenfalls noch theoretisch begründbare Kleinigkeit verbessern wollen. Manchmal kann ich mich des Eindrucks nicht erwehren, als ginge es dem einen oder anderen Experten hier eher um die Zurschaustellung seines theoretischen Wissens als um eine angemessene Hilfestellung in praktischen Dingen.


    CS Jan

  • Grundsätzlich sollten auch nicht die eigenen Bilder als Referenz herhalten.

    Hallo Ralf,


    bis heute bin ich tatsächlich erst einem einzigen anderen Autor begegnet, der - im übrigen ganz unabsichtlich - mit einer so kurzen Brennweitenanpassung der Kamera, d.h. mit 4,7 µm bei f/10, hochaufgelöste Astrobilder gewonnen hat, und das war im Februar 2009 Stefan Schimpf mit einer Serie von bemerkenswerten Mondaufnahmen, siehe insbesondere Eingabe #12. Diese Aufnahmen waren überhaupt die erste Bestätigung dessen, was Du als meine "Ideologie" bezeichnest.


    CS Jan

  • Hallo Jan,

    die Links der 13 Jahre alten Beiträge laufen ins Leere.

    Was ich meine, ist Folgendes: Willst du der Gemeinschaft einen Input geben? >>Leute, testet doch mal bei f/xx5, ist interessant ... <<

    Oder willst du mit aller Macht "beweisen", dass du recht hast? Das habe ich als Ideologie bezeichnet. In diesem Fall willst du von der Gemeinschaft nämlich etwas bekommen, und nicht geben.

    Deine Überlegungen haben mich -indirekt- dazu bewegt, Tests zu machen, schon vor langer Zeit. Meine Überzeugung ist heute, dass in vielen Bereichen weniger Brennweite möglich ist. Auch in der Deep-Sky-Fotografie.

    Und? Jeder kann meine Daten lesen und sich fragen, ob das auch für ihn interessant wäre. Deswegen muss ich ja noch nicht zum Prediger werden.

    Mein Vorschlag: mache beeindruckende Bilder und zeige sie hier. Dann kommt jemand und sagt: >>was, das geht mit so kurzer Brennweite, da brauche ich ja gar keine Barlow mehr, das teste ich jetzt auch mal<< Wäre das nicht Erfolg genug?

    Gruß

    ralf

  • Danke Ralf, sehr gut auf den Punkt gebracht!


    Jan, ich denke den einen oder anderen könntest Du mit einer 1:1-Vergleichsstudie (gleicher Ort, gleiche Zeit, gleiche Öffnung, gleiche Kamera, verschiedene Öffnungszahl) überzeugen. Oder Deine jetzt oft genug wiederholte Aussage "meine Bilder sind aber auch gut" mit einer theoretischen Betrachtung unterfüttern.


    Wie Ralf schreibt: Du möchtest hier etwas, dann darfst Du nicht erwarten, dass die anderen Dir diese Arbeit abnehmen. Ist leider so, das Ungewohnte hat es immer schwer.


    Herzliche Grüße, Holger

    :milky_way: 10" f/5 Newton-Bino :comet: 120mm f/5 Achromaten-Bino :hammer_and_wrench: 8" f/8 Jones-Schiefspiegler-Bino

  • (1) die Links der 13 Jahre alten Beiträge laufen ins Leere.

    (2) Jeder kann meine Daten lesen und sich fragen, ob das auch für ihn interessant wäre.

    (3) Mein Vorschlag: mache beeindruckende Bilder und zeige sie hier.

    Hallo Ralf,


    erstmal danke für Deinen Kommentar. Hier meine Stellungnahme zu den oben zitierten Ausschnitten:


    (1) Das ist in der Tat bedauerlich, und so kann ich auch diesen Autor nicht mehr anhand von Original-Bildmaterial zitieren. Ich habe deshalb bewusst auf die dortige Eingabe #12 verwiesen, in der die Wirkung einer 2-fachen Nachvergrößerung an einem Bildausschnitt demonstriert wird: Es kommen deutlich mehr Bilddetails zum Vorschein als in der von Stefan Schimpf dargestellten Originaldatei. Denselben Gewinn an Bilddetails hätte der Autor auch mit Hilfe einer 2x Barlow erzielen können, hat er aber nicht gemacht. Im Hinblick auf die Wirkung der datentechnischen Nachvergrößerung im Vergeich zur optischen mittels Barlow ist aber die ganze nachfolgende Diskussion von besonderem Interesse.


    (2) Dazu habe ich soeben mal mit Deiner aktuellen Saturnaufnahme einen Zwischenverkleinerungstest auf 40% der von Dir gezeigten Fassung durchgeführt. Dabei gingen 84% der in Deinem Bild enthaltenen Pixel unwiderruflich verloren. Die auf diese Weise reduzierte Datei habe ich im BMP-Format abgespeichert und anschließend in Fitswork mittels des interpolierenden dSinc-Algorithmus wieder auf das Ausgangsformat zurückvergrößert. Im unmittelbaren Blinkvergleich mit Deinem Originalbild zeigt die zischenverkleinerte Version einen geringfügigen Kontrastverlust, der sich aber durch eine ebenso geringfügige Nachschärfung in Fitswork vollständig ausgleichen lässt. Aus meiner Sicht besagt dieses Testergebnis, dass Du ein gleichwertiges Bild auch ohne 2x Barlow hättest erzielen können. Es steht jedem frei den Zwischenverkleinerungstest in der beschriebenen Form selbst durchzuführen.


    (3) Inzwischen habe ich ja Bilder gezeigt, die bei f/5 ohne Barlow entstanden sind, und gar nicht mal primär mit der Absicht zu beeindrucken, sondern ausdrücklich, um die Notwendigkeit des Einsatzes einer Barlowlinse in einem konkreten Fall zu entkräften.


    CS Jan

  • Hallo Jan,

    solche Experimente habe ich auch schon gemacht. Es gab auch mal ein Rätsel: Welcher Promi ist das? Die Bilder hatten auch nur wenige Pixel und man konnte sie erstaunlicherweise gut identifizieren. Für uns ist das aber nur die halbe Miete, denn es gibt ja weitere Prozesse. Das Stacking läuft in so extremen Bereichen z.B. nicht mehr so gut ab, habe ich festgestellt, kontrastarme Bild-Bereiche verlieren mehr und nicht vergessen, ein Kontrastverlust ist auch ein Verlust. Das Nachschärfen kostet SNR.

    Gruß

    ralf

  • Hallo Holger,

    mehr 1:1 Vergleich als mit dem oben beschriebenen Zwischenverkleinerungstest ist wohl unter realistischen Bedingungen kaum machbar.

    CS Jan

    Hallo Jan,


    jein - Überzeugen ist nur zum Teil Fakten und zu einem guten Teil Psychologie. Da solltest Du die Wirkung, die ein Foto von zwei parallel aufgebauten Teleskopen hat, nicht unterschätzen.


    Zurück zu den Fakten, ich hab auch nochmal ein bisschen darüber nachgedacht, was für Kompromisse man eigentlich macht. Es hilft, die Effekte einzeln zu betrachten:

    • Bei konstanter Pixelgröße/Öffnungszahl und gleicher Zahl verwendeter Bilder: bei kürzerer Belichtungszeit wird der Seeingeinfluss geringer, dafür nimmt das Rauschen der Bilder zu. Bei hellen Objekten wie Planeten dürfte das vom Schrotrauschen dominiert sein. Das ist vermutlich der Kompromiss, den man meistens macht.
    • Interessant wird es bei gleicher Gesamtbelichtungszeit, aber unterschiedlicher Einzelbelichtungszeit und entsprechend höherer/niedrigerer Zahl der Bilder: der Effekt des Schrotrauschens mittelt sich gerade raus und es bleibt nur noch ein Kompromiss zwischen Seeing und Ausleserauschen der Kamera übrig. Ralf als Deep-Sky-Kurzbelichter dürfte das sehr gut kennen, bei Planeten frage ich mich, ob man sich realistischerweise überhaupt in diesen Bereich begibt, in dem das Ausleserauschen relevant wird.
    • Das führt zum dritten Punkt: bei gleicher Einzelbelichtungszeit, aber unterschiedlicher Pixelgröße hat man teleskopseitig die gleiche Informationsmenge, nimmt aber unterschiedlich viel davon mit in die Bearbeitung. Einen optimalen Bearbeitungsworkflow vorausgesetzt, müssen kleinere Pixel hier im Vorteil sein, da man weniger Information wegwirft und erst irgendwie wiederherstellen muss. Es sei denn, man hat mit den kleineren Pixeln so wenig Licht, dass der Nachteil des höheren Ausleserauschens (bei größerer Pixelzahl) den Nachteil des höheren Rauschens aufgrund der Informationsrekonstruktion überwiegt. Da würde mich mal interessieren, wie ihr das einschätzt.

    Jetzt kann man noch so wie Du Belichtungszeit und Pixelgröße gleichzeitig variieren, um die Kamera gleich auszusteuern, ich weiß aber gar nicht, ob das zielführend ist. So lange man vom Ausleserauschen weit weg ist, eher nicht, denke ich.


    Viele Grüße


    Holger

    :milky_way: 10" f/5 Newton-Bino :comet: 120mm f/5 Achromaten-Bino :hammer_and_wrench: 8" f/8 Jones-Schiefspiegler-Bino

    Einmal editiert, zuletzt von Cleo ()

  • Du übersiehst im dritten Punkt, dass eine optimale Dekonvolution ein optimales SNR braucht. Die kleineren Pixel bieten mehr Auflösung, aber weniger Photonen und damit proportional mehr Photonenrauschen. Damit kommt man zu der Erkenntnis, dass es verschiedene Wege gibt, aber die Auflösung im Rahmen der Optik, wozu auch das Seeing gehört, letztlich SNR- und damit photonenlimitiert ist. Das sieht man schon am Sensor: Lücken zwischen den Pixeln verursachen einen Nachteil in der Quanteneffizienz, aber erhöhen die Sensor-MTF durch weniger Konvolution.


    Wenn die Dekonvolution nicht optimal ist, bieten kleinere Pixel einen Vorteil, weil sie unterhalb der Grenzfrequenz mehr Kontrast liefern. Kommt die MTF allerdings in der Gegend von 0,8-0,9 an, ist durch weitere Verkleinerung der Pixel so gut wie nichts mehr zu gewinnen. Darum hängt es sehr von der Kamera (bzw. der Sensor-MTF) und nicht nur von der Pixelgröße ab, wieviel mehr Sampling noch einen Vorteil liefert.


    Sony baut z.B. einige Sensoren, deren QE in Ordnung, aber nicht berauschend ist, aber die sehr hohe Sensor-MTF-Werte erreichen. Offenbar können sie sehr effiziente Pixel bauen und tauschen etwas QE gegen mehr MTF. Damit sind Rohbilder bei ausreichend Licht besser als bei anderen Sensoren und es gibt viele Anwendungen, wo es so gut wie kein Postprocessing gibt.


    Michael

  • Nachdem jetzt hier wieder nur theoretische Einwände kommen, und Euch der Zwischenverkleinerungstest offenbar suspekt vorkommt, erlaube ich mir den Test an dieser Stelle selbst vorzuführen:


    1. Das auf 40% verkleinerte Saturnbild von Ralf:



    84% der im Originalbild enthaltenen Pixel wurden entfernt.


    2. Ausschnitt von 1. in 15-facher Lupendarstellung:



    In dieser Pixelauflösung würde die Bilddatei bei perfektem Seeing ohne Barlow direkt aus der Kamera kommen oder bei videografischer Aufnahmetechnik aus der Stackingsoftware.



    3. Vergleich Original mit auf 40% zwischenverkleinertem Bild:



    CS Jan

  • Jan,

    Besonders peinlich finde ich es, wenn - wie hier geschehen - ein Newcomer auf dem Gebiet der Planetenfotografie von "Experten" unseres Forums so beraten wird, als wolle er seine ohnehin schon nahezu perfekten Ergebnisse um eine allenfalls noch theoretisch begründbare Kleinigkeit verbessern wollen. Manchmal kann ich mich des Eindrucks nicht erwehren, als ginge es dem einen oder anderen Experten hier eher um die Zurschaustellung seines theoretischen Wissens als um eine angemessene Hilfestellung in praktischen Dingen.

    Du empfindst die Empfehlung, Mars statt mit f/10 doch mal mit f/20 abzulichten, also als peinlich. Sebatian ist mit seinem Ergenis noch nicht zufrieden und auch wenn du das als "nahezu perfekt" ansiehst, da fehlt schon noch deutlich was.


    Aber ok, du solltest doch mal Damian Peach kontaktieren und ihn über deine Erkenntnisse aufklären. Vielleicht freut er sich, wenn ihm endlich jemand auf die Sprünge hilft und er zukünftig keinen so großen Aufwand für seine Bilder treiben muss. Vielleicht fehlt ihm bisher schlichtweg die Erfahrung dazu.


    Damian empfielt ja, für hochauflösende Mond- und Planetenfotografie mit f/20-f/30 zu arbeiten und das explizit bis zu f/30 für Mars vorteilhaft wäre- Planetary photography requires a focal ratio of about f/20 to f/30, depending upon the target


    Das von Michael verlinkte Papier beschreibt auch, dass ein Faktor von 3,5-4 vorteilhaft ist, darüber hinausgehend dann keinen weiteren großen Gewinn bringen.

  • Hallo,

    3. Vergleich Original mit auf 40% zwischenverkleinertem Bild:

    Das Original sieht besser aus. Das nach bearbeitete Bild zeigt eine deutliche "körnigkeit" oder Rauschen.


    Viele Grüße

    Gerd

    Beobachtung der Sonne im Weißlicht und der H-alpha Linie. Beobachtungen am Nachthimmel mit verschiedenen Teleskopen.

  • Das nach bearbeitete Bild zeigt eine deutliche "körnigkeit" oder Rauschen.

    Hallo Gerd,


    an welcher Stelle empfindest Du denn die "deutliche Körnigkeit" als besonders störend ? Eine erhöhte Körnigkeit kann ich an meinem Bildschirm nur bei erheblichem Hineinzoomen erkennen. Im übrigen bitte ich zu beachten, dass mir für den Test nur die hier im Forum gepostete JPG-Datei zur Verfügung stand, während ja die Bearbeitung der Originaldatei seitens des Bildautors Ralf vermutlich bei Farbtiefen von 16 Bit durchgeführt wurde.


    CS Jan

  • ...dass er den Faktor 2 nur mit einer Barlow gewinnen kann.

    Jetzt machst du schon Fehler beim Lesen. Im vorliegenden Fall arbeitet Sebastian ohne Barlow mit einem Faktor von 2,3 und das ist bei einer Farbkamera nach allen gängigen Empfehlungen zu wenig. Meine Empfehlung war, eine 2x Barlow zu versuchen, damit käme Sebastian auf Faktor 4,6- oder nach Damian Peach sollte er es statt mit f/10 mal mit f/20 versuchen.


    Ob du meine Empfehlung als peinlich empfindest, ist mir ziemlich egal. Deine Penetranz, seit Jahren immer wieder deine eigenen Behauptungen als allein richtig hinzustellen, ist dagegen kläglich und wirkt schon längst nervend.


    Zu deinem "(Zwischen-)Verkleinern und Vergrößern" - jedes Verkleinern eines Bildes führt zwangsläufig zu Verlust an Bildinhalten, was das bringen soll, erschließt sich auch nur dir.

  • Hallo,

    an welcher Stelle empfindest Du denn die "deutliche Körnigkeit" als besonders störend ? Eine erhöhte Körnigkeit kann ich an meinem Bildschirm nur bei erheblichem Hineinzoomen erkennen.

    Ich sehe die Körnigkeit über das gesamte Bild, ohne in das Bild zoomen zu müssen. Das bearbeitete und für mich schlechtere Bild ist sofort zu sehen. Mir fällt das auf.


    Viele Grüße

    Gerd

    Beobachtung der Sonne im Weißlicht und der H-alpha Linie. Beobachtungen am Nachthimmel mit verschiedenen Teleskopen.

  • ... mir leider auch. Ich kenne das Bild ja nun in- und auswendig. Die Maxwell-Teilung verliert deutlich an Kontrast. Die Ecke-Teilung bekommt rote Flecken und in der Fläche entstehen Flecken, die genau so aussehen, als hätte ich mit großer Mühe einen Wirbel herausgekitzelt.

    Was ist mit dem Text? Warum ändert der sich um so vieles mehr?

    Das JPG und die 8 Bit erscheinen mir hier unerheblich.

    Und natürlich ist mein Bild hier nicht der Maßstab. Versuche das mal mit einem Raumsondenbild und den feinen "Schallplattenrillen" im Ring.

    Gruß

    ralf


    Ach so, Damian Peach kocht auch nur mit Wasser, und hat man erst einmal seinen Workflow, dann ändert man den so schnell nicht. Insofern lasse ich das Argument auch nicht gelten.

    Gruß

    ralf

  • (1) Was ist mit dem Text? Warum ändert der sich um so vieles mehr?

    (2) Das JPG und die 8 Bit erscheinen mir hier unerheblich.

    (1) Die Schrift enthält wesentlich höhere Ortsfrequenzen als das Bild, dessen Bandbreite ja durch das teleskopische Auflösungsvermögen begrenzt ist.


    (2) Bearbeitest Du Deine gestackten Bilder denn vorzugsweise im 8-Bit-Format und, wenn nein, warum nicht ? Ich werde gleich mal versuchen die 2,5-fache Nachvergrößerung mit 16-Bit auszuführen, das hatte ich vor Eurer negativen Rauschbewertung nicht für erforderlich gehalten ...


    Zu dem mit der GIF-Animation präsentierten Bildervergleich würde ich ganz gerne auch noch Bewertungen von weniger betroffenen Forumsteilnehmern sehen ...


    CS Jan

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!