Beiträge von Juerg_B

    Hallo
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Luzista</i><br />
    Die kipplige Marsachse hat sicher höheres Leben verhindert.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Vielleicht beschleunigt eine taumelnde Achse aber auch den evolutionären Vorgang.
    Es gibt ja auch eine These von der Schneeball-Erde vor ca. 600 Millionen Jahren welche die Bedingungen zur Entstehung von mehrzelligen Lebewesen begünstigte.


    Gruss
    Jürg

    Hallo Thomas,


    M31 ist riesig und relative kontrastarm. Ein klassisches Fernglasobjekt unter gutem Himmel. Da hast du wahrscheinlich nur der sehr helle Kern wahrgenommen.


    Bei M42 ist aber was grundsätzliches faul. Falscher Ort gesucht, falsche Erwartungen, massiver Hochnebel / Lichtverschmutzung? Kurz gesagt etwas stimmt nicht. Bevor du was kaufst, wäre ein Kontakt mit anderen Sternenfreunden 1000 mal hilfreicher.


    -&gt; Hotte
    Du meinst es sicher gut aber inwiefern ein sehr "hartes/farbenfrohes" bearbeitetes Bild dem Fragesteller hilfreich sein soll erschließt mir nicht. Auch die Empfehlung zu einem Kommakorrektor ist Unsinn. Die Justage kann auch nicht ganz grottenschecht sein, wenn Thomas wirklich das Trapez mit dem 25mm Okular gesehen hat.


    Gruss
    Jürg

    Danke für die Antworten und ein frohes Neues Jahr.


    Hört sich logisch an, dass auch bei Monochromaufnahmen bei entsprechender Anzahl an Bildern die Auflösung weiter gesteigert werden kann. Ich denke da vor allem, wenn die Pixel undersampled sind, ist die Wirkung wohl am größten. Das bessere s/n Verhältnis ist selbstredend.


    Hallo Hans,
    bei einem reinen Tiefenvergleich dürfte der Faktor 3 gut hinkommen, nur fehlt dir natürlich dabei die Farbinformation.


    Aus der Praxis (mache klassische lang belichtete Deepskyaufnahmen ca. 6mag Himmel) ohne Anspruch auf richtiges Vorgehen hat sich bei mir bewährt: Für die Luminanzaufnahme in etwa gleich viel Zeit zu investieren wie für die Farben. Also z.B. 3h Luminanz und je 1h RGB. Ich schätze die angenommenen 6h Gesamtbelichtungszeit entsprechen etwa 9h mit einer OSC - Kamera (Besitze SW und eine OSC-Variante, mit letztere habe ich aber zu wenig Daten gesammelt für einen aussagekräftiger Vergleich).


    Bei der Auflösung kann ich keinen Unterschied feststellen. Die Schwankungsbreite wie Seeing, Fokusdrift, dejustierung, Nachführfehler und vieles mehr ist da weit ausschlaggebender.


    Einen erheblichen noch nicht erwähnten Vorteil haben SW-Kameras allerdings gegenüber den Farbkameras bezüglich Schmalbandfiltern.


    Gruss
    Jürg

    Hallo Tino,


    beschreibt der Artikel nicht "nur" der Vergleich zwischen sw und color Aufnahmen eines <b>Einzelbildes</b>?


    Bei der Astrofotografie werden ja in der Regel mehrere Bilder mit einem gewollten / ungewollten Versatz miteinander verrechnet. Eine Farbkamera unterscheidet sich ja nur anhand der aufgebrachten Farbfilter aber nicht von der Pixelgrösse. Wenn ich jetzt 3 bzw. 4 Fotos belichte und jeweils einen Versatz entsprechend der Bayer-Matrix tätige müsste ich doch eine äquivalente Auflösung wie bei einer s/w Kamera erzielen können?


    Gruss
    Jürg

    Hi,


    Die Kamera auf der Polarie kannst du natürlich in beliebige Richtung schwenken. Wie du schon richtig festgestellt hast ändert sich natürlich der Winkel der Panoramaschiene mit der Zeit. Ich kann mir schon vorstellen, dass dies Zeitkritisch wird. Das Vally selbst wäre natürlich besser mit etwas Mondschein (Schattenwurf).


    Am besten du kontaktierst den User Rainmaker direkt. Der macht immer sehr professionelle Panos.
    http://www.astrotreff.de/topic.asp?TOPIC_ID=205464


    Die Vixen Polarie sollte eigentlich keine Probleme bereiten.
    Läuft schön zuverlässig.
    http://www.astrotreff.de/topic.asp?TOPIC_ID=173803


    Gruss
    Jürg

    Hallo Carsten,


    die ausgesuchten "Rohre" sind tendenziell bei deinen Vorschlägen immer eine Nummer zu gross.


    Ich würde etwa folgendes draufpacken:
    EQ6 -&gt; 200/1000 Newton
    HEQ5 -&gt; 150/750 Newton
    EQ5 -&gt; 80/460 APO


    Ein paar Ratschläge zielen hier (unbewusst) auf eine mobile Ausrüstung für DS-Fotografie was sich in deinem letzten Vorschlag widerspiegelt.


    Du solltest dir folgendes überlegen. Willst du die Sachen vorerst nur testen ob es dir das Hobby auch zusagt. Dann kannst du eine relativ günstige kleine Ausrüstung zulegen die du später wieder komplett veräusserst. Oder du willst etwas langfristiges. Dann kauf dir min. eine AzEQ6 und baue dir eine Schutzhütte. Das Teleskop ergibt danach und ist erst mal nicht so wichtig.


    Gruss
    Jürg

    Hi,
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Nochmal die Frage in die Runde. Was haltet ihr von dem SC C9,25 auf AVX oder EQ6 für meinen Erfahrungsstand und Anforderungen?<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    DS-Fotografie für Anfänger nicht geeignet. Langsames Öffnungsverhältnis, am interessantesten noch für kleine helle Objekte wie PN's.


    Für Planeten geeignet. Da gebe ich aber Stefan recht. Ein gleich grosser Newton, gleicher Qualität zeigt dir das Selbe.


    Für Hellikeitsmessung, weiss nicht? Könnte etwas kleines Feld haben für genügend Referenzsterne?


    Von der Bauform her ist ein SC parallaktisch Montiert angenehmer im Händling und Platzsparender. Gerade in einer Sternwarte ein Vorteil.


    Gruss
    Jürg

    Hallo Carsten,


    Für die Deep-Sky Fotografie ist das A und O eine stabile Montierung. Einen 10er auf der EQ-6 ist für einen Anfänger zu viel des Guten und ein Geübter Astrofotograf möchte sich nicht mit so einer Kombination abplagen.


    Mit einem kleinem Apo gelingen schnell sehr hübsche Bilder grossflächiger Strukturen.


    Wenn ich jetzt aber deine Prioritäten beachte liegst du mit einem Newton max. 10Zoll auf der EQ6 nicht so verkehrt.


    So was kann ich Dir nun raten?


    Wenn Du Handwerklich nicht ganz ungeschickt bist, bau Dir eine EQ-Platform. Mit dem 8er Dobson und der ASI plus eine entsprechende Barlow hast du schon annähernd die perfekte Ausrüstung für die Planetenfilmerei.


    Ansonsten würde ich mich an deiner Stelle nochmals genauer informieren über die Hellikeitsmessungen von Sternen. Da kenne ich mich nicht aus, aber ich denke da braucht es wiederum ein Anderes Equipment. Entscheidend dürfte hier wohl eher eine geeignete Kamera sein mit der sich sauber Kalibrierte Bilder erzeugen lassen.


    Bei deinem Preisrahmen und fixem Standort würde ich eher eine Klasse besser als eine EQ-6 nehmen und vorerst den Dobson darauf befestigen. Teleskope und Kamera werden sowieso im verlaufe des Hobbys getauscht / ergänzt. Eine richtig Montierung ist aber die Grundlage.


    Gruss
    Jürg

    Hatte früher einmal eine DMK21 noch mit dem altem Chip da funktionierte es noch zufriedenstellend.


    Von daher denke ich würde auch eine ASI-Kamera noch gehen. Dann hättest du zusätzlich noch eine super Planetenkamera.


    So auf 5sek. würde ich einmal erhöhen und schauen was dabei raus kommt.



    Gruss
    Jürg

    Hallo,


    mit einer Farbkamera funktioniert binning nicht.
    Mit OAG solltest du dir schon eine empfindliche Monochromkamera zulegen.


    Mit einem kleinem Leitrohr hast du mehr Sterne zur Verfügung dafür kann es andere Probleme geben (Leitrohrshifting) insbesondere bei einem Newton.


    Gruss
    Jürg

    Hallo,


    ich würde wie Gerald auch erst einmal bei der Optimierung mit der Bildaufnahme beginnen.


    Vorab aber meinen Respekt. Ein 300er Tele nachgeführt mit einer Barndoor ist schon ein ganz schönes Kaliber.


    In der Originalgrösse ist ein Nachführfehler ersichtlich. Könnte an einer ungenügenden Einnordung liegen. Da der Fehler parallel zur RA-Achse liegt würde ich aber eher auf eine nicht ganz passende Geschwindigkeit entsprechend der Barndoorarmlänge tippen. Wie ist den der Antrieb gelöst? Schrittmotor oder geregelt über ein PWM - Signal?
    Könnte auch sein, dass die Nachführung etwas ihn und her pendelt. Auf dem Einzelbild sieht es so aus als wäre die Nachführung einmal "gehüpft".
    Bei einer hellen Mondnacht könntest du einmal Testen ob oder wie ausgeprägt eine Pendelbewegung ersichtlich ist, indem du die Montierung absichtlich falsch einnordest und eine mehrminütige Aufnahme machst.


    Die beste Abbildung liegt auf der optischen Achse. M31 könnte man noch etwas besser zentrieren. Die Galaxie ist sehr gross und die feinen Ausläufer erstrecken sich schon nahe dem Bildrand.


    Weiter wirken die Sterne nicht ganz scharf. F5.6 gleich Offenblende? Mehr abblenden wäre halt sehr Lichtschwach. Da muss man einen Kompromiss finden.


    Kürzer Belichten? In dem Falle ja. Es bringt nichts (weder Auflösung noch Tiefe) wenn die Sterne über mehrere Pixel lang gezogen sind. Auf Dauer wirst du vermutlich so aber nur an M31 oder M42 wirklich glücklich.


    Als Alternative würde ich dir ein weniger starkes Tele empfehlen. Zwar sind 300mm Brennweite für die Andromedagalaxie eine gute Wahl aber wahrscheinlich etwas zu viel für die Barndoor.


    Hier mal ein Vergleich eines Einzelbild mit 135mm/f2.0 ebenfalls mit Offenblende, 4sek. Belichtungszeit. Etwas abgeblendet wäre die Auflösung wohl sogar einen Hauch besser als eine nicht perfekt Nachgeführte Aufnahme mit dem 300er Tele bei F5.6.


    Gruss
    Jürg

    Hallo Stefan, hallo Kalle,
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Wasserdampf die Durchsicht stört etc. sind angenehme Nebenaspekte<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Die feuchte Luft ist zumindest hierzulande das Hauptübel.


    Zur Illustration einmal zwei Fotos. Auf dem Ersten ist schön ersichtlich wie sich die Lichtverschmutzung auf den Wasserdampf auswirkt. Das verrückte ist nun, wenn du selbst in der braunen Suppe sitzt und noch oben schaust, denkst du was für ein geiler Himmel. Erst auf einer Langzeitaufnahme bleibt der Hintergrund nicht schön schwarz.


    Das zweite Foto ist vom selben Ort entstanden wie das vorherige, also doch eine ordentliche Portion Lichtverschmutzung. Dank der trockenen Luft aber nicht so gravierend. Bilddaten: Fotoobjektiv 135/f2.0, Belichtungszeit 4sek. iso6400, etwas verkleinert und zugeschnitten, ansonsten keine Kalibrierung oder Bildbearbeitung.


    Bei mir machen die gegenüber dem 800 Höhenmeter tieferen Tal etwa 1mag aus. Fahre ich hingegen nochmals 1000m ins Hochgebirge ist der Zugewinn nochmals etwa 0.5mag (Dort herrscht dann wirklich deutlich weniger Lichtverschmutzung)




    Gruss
    Jürg

    Hallo,


    zur EQ-Plattform<blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ist es eher ein visuelles Hilfsmittel oder ein fotografisches.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Es ist vor allem ein visuelles Hilfsmittel. Mit Besonderen Vorzügen bei zeichnerischen Tätigkeiten, spechteln mit Gruppen oder entspanntes Beobachten bei hohen Vergrößerungen. Was auch gut geht sind Aufnahmen von Planeten und Monddetails mittels entsprechender Filmkamera. Eine Nachführung mit der Plattform erzeugt natürlich <b>keine</b> Bildfelrotation. Vom Prinzip her also auch für Langzeitbelichtungen möglich.


    Aber es gibt da so einige Unannehmlichkeiten. Wenn das Hauptziel in Richtung Deepskyfotografie geht, würde ich auf jeden Fall eine klassische Parallaktische Montierung empfehlen. Wenn der Reiz insbesondere besteht eine EQ-Plattform fit für Fotografie selbst zu bauen oder ein Grosser Dobson vorhanden ist, wieso nicht eine Kamera daran befestigen und ausprobieren. So ab 16-Zoll macht es auch langsam Sinn.


    Zu den Unangenehmlichkeiten:
    Vorab aber ein häufiges Missverständnis von Anfängern. ("Ich will keine Hight End Profiaufnahmen machen"). Keine Sorge, dass wird es sowieso zu Beginn nicht geben. Was eine Aufnahme aber für die weitere Verwendung zwingend erfüllen muss: Die Sterne müssen punktförmig und scharf auf dem Chip abgebildet sein. Alles andere ist und bleibt Schrott. Aus guten Rohdaten kann man ohne Probleme ein schlechtes Bild machen aber niemals umgekehrt. Die Bildbearbeitung wird hier meistens völlig Überschätzt. <b>Es ist nur das Zaubermittel für gutes Ausgangsmaterial!</b>


    Die zwei Forderungen (punktförmig und scharf) haben es nun in sich. So Grosse Teleskope fotografisch zu nutzen stellen schon rechte mechanische Anforderungen egal welcher Montierungsart (Steiffigkeit, präziser OAZ, temperaturstabil u.s.w). Z.b auf der vorherigen verlinkten Seite mit den Beispielfotos eines aus GFK 400 Ninja-Dobson. Mit Komakorrektor sprechen wir da schon um einen Betrag gegen fünf Stellen. Nicht zu vergessen die Bilder sind in den Alpen entstanden. Die Transportfähigkeit mit Dobson und Plattform ist hier für einmal ein echter Vorteil. Aber wohl nicht "Mainstream".


    Ohne Guiding ist die Einzelbelichtungszeit stark eingeschränkt und der Vorteil zu belichten unter einem Berghimmel verschwenderisch. Zudem müsste man überlegen wie die Einnordung von statten gehen soll. Normalerweise gibt es keinen Polsucher bei einer EQ-Plattform. Und selbst mit Polsucher wäre die Aussrichtung bei dieser Brennweite zu ungenau. Die mechanische Fertigung der Plattform bedarf auch eine hohe Genauigkeit. Der Frikrationsantrieb ergibt zwar einen sehr langen Sinusförmigen periodischen Fehler dafür können andere Fehler wie "Schlupf" auftreten. Schliesslich Arbeitet der Antrieb einmal mit und einmal gegen die Schwerkraft. Bei einem herkömmlichen Getriebe (Schnekenrad und Schnecke) sind die Qualitätsansprüche ja bestens bekannt.


    Mit Guiding braucht es natürlich noch eine zweite motorische gesteuerte Achse. Die Ausrichtung genügt dann vermutlich nur mit Polsucher, gewisse Mechanische ungenauigkeiten können ausgeglichen werden so wie wir das im Rahmen von den herkömmlichen Montierungen zu genüge kennen. Der grösste Nachteil ergibt sich durch die beschränkte Laufzeit. Objekt suchen, guiding trainieren, Aufnehmen. Danach ist Schluss. Vielleicht denkt jetzt der Eine oder Andere einfach die Plattform zurücksetzten und weiterfahren. Nein die Kamera muss dann um die 15° oder was auch immer zurückgedreht werden dabei ist die kalibration vom Giuding auch futsch.


    In der Praxis bedeutet dies, dass man sich auf etwa eine halbe Stunde Gesamtbelichtungszeit pro Objekt beschränkt. Der Aufwand / Ertrag für einen zweiten Durchlauf rentiert kaum.


    Aus meiner Sicht ist so eine fotografische Platteform was für Experimentierfreudige, besonders Besitzer Grosser Geräte welche die Möglichkeit haben und den Aufwand nicht scheuen damit tief in die Pampa zu fahren.


    Vielleicht wird dies einmal anders mit der Kurzbelichtungstechnik oder der Nachführkontrolle mit AO und Dualchip (gibts wohl bislang nur von SBIG) dann entfällt auch die Neujustierung des Guidings.


    Gruss
    Jürg

    Hallo Andreas,


    ja die "Megapixel" macht sich besonders gut bei der Werbung.
    Für das Bild sind die immer kleineren Pixel ja nicht unbedingt förderlich, bzw. verschlechtern das Ergebnis sogar.


    Anderseits sind natürlich 18MP immer noch 18MP auch wenn ein Filter darüber ist. Es gibt wahrscheinlich auch Kameras die "so richtig" interpolieren ähnlich dem Digital Zoom[:(]


    Gruss Jürg

    Hallo,


    Alle Pixel sind Interpoliert.


    In der Praxis (Deepsky) ist die geringere Auflösung einer Farb- gegenüber Monochromkamera kaum oder gar nicht sichtbar. Bei den heutigen Pixelgrösse ist meistens das Seeing für die Auflösungsgrenze verantwortlich. Zudem verbessert sich die Auflösung zusätzlich, wenn mehrerer Bilder mit einem leichten Versatz kombiniert werden (Das Licht trifft dann auf die verschiedenen Filter). Manche machen auch eine künstliche Luminanz für die weitere Bildverarbeitung.


    Nun was ist dann der Vorteil einer sw Kamera?
    - Die erreichbare Tiefe ist bei gleicher Gesamtbelichtungszeit besser .
    - Bei der Color Variante ergibt sich ein grösseres Farbrauschen was störend wirkt (Leichte Empindlichkeitsunterschiede der einzelnen Pixel liegen immer auf demselben Farbfilter).
    - Vernünftige Anwendung mit Linienfilter
    - Leichtere Auswertung bei Wissenschaftlichen Zwecken.
    - Eher Vorteil bei der Bildverarbeitung.


    Nachteil sind:
    -Höherer Preis (Filter + Filterrad).
    -Aufwendigeres Händling, längerer optischer Weg.
    -Bessere Planung (sonst fehlt dir am Schluss eine Farbe)


    Hier noch ein Praxisbeispiel mit einer OSC- und Monochromkamera.
    Jeweils ein Ausschnitt eines 10min unkalibriertes Einzelbild.
    In dem Fall ist die Auflösungsgrenze nicht Seeingbegrentzt (F350 bei 9um Pixel)



    Gruss
    Jürg

    Hallo Stefan


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Hm, auch nicht ganz. Auch in dem Fall werkelt die Debayer-SW ein wenig am Bild herum und setzt an dem Übergang Graustufen ein. Du hast also auch da keinen harten Strich, ich hab mir vorhin extra mal verschiedene Fotos angeschaut und man sieht das sehr deutlich.<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Ja, nach dem Debayern schon.
    Ist wie mit der Unschärferelation in der Quantenphysik[:D]
    Vor dem Debayern ist ein "weisser" Doppelstern theoretisch auf drei nebeneinander stehenden Pixel trennbar, die tatsächliche Farbinformation fehlt aber ganz. Nach dem Debayern sinkt die Auflösung dafür nimmt der Gewinn der Farbinformation zu.


    Gruss
    Jürg

    Hallo Alex,


    Also ein Kamerachip hat z.B 1000x1000 Pixel.
    Jeder Pixel ist in dem Zusammenhang ein Sensor (Bauteil) welcher elektrische Ladung Speichern kann. Wenn nun Licht egal in welchem Farbspektrum auf den Sensor trifft entsteht eine elektrische Ladung. Je mehr Licht gesammelt wird desto größer die Ladung.


    Ein Kamerapixel kann also keine Farbe speichern nur die eingetroffene Energie. Ob SW oder Color Kamera ist erstmal Wurst.
    Eine ASI 120mm oder ASI 120mc hat die gleiche Anzahl Pixel.
    Bei der Farbkamera sitzt aber tatsächlich auf jedem Pixel ein einzelner Farbfilter. Jedes Pixel hat seinen eigenen Filter rot, blau oder grün in der Anordnung der "Bayern-Matrix" wie im gepostetn Bild.


    Jedes Pixel (Ausser die am Rand) grenzt an 8 Nachbarpixel. Die Farbe wird deshalb aus der Mischung der 9 Pixel berechnet (nicht zusammengefasst sondern jedes Pixel hat ja wieder Nachbarn).
    Die Bildpunktzahl verringert sich deshalb nicht.


    Die Megapixelzahl der Hersteller stimmt.
    Aufgefüllt wird nichts aber es entsteht natürlich eine Mischung siehe Bild von Stefan Grenzkante rot/grau = rosa


    Gruss Jürg

    Hallo Alex,


    Nein, es gibt keine Subpixel.
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Das bedeutet aber für mich, daß der r filter rot durchlässt , der grüne grün und der blaue blau<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Korrekt!


    Aus den drei Grundfarben lassen sich alle Farben mischen.
    Rot + Grün = Gelb
    https://de.wikipedia.org/wiki/Additive_Grundfarbe


    Gruss Jürg

    Hallo,


    klar die Farbberechnung geschieht durchs Debayern[:D]


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Ja, Jürg, jedes Farbpixel geht in mehrere Ausgabepixel ein ... und wenn ich noch so viele Linear- oder sogar Nichtlinearkombinationen bilde, erhöht das immer noch nicht den Informationsgehalt. Und wenn ich die vorhandene Information auch noch auf 3 Farbkanäle aufteile, dann hat jeder Kanal eben noch ein Drittel der Information, das reicht dann für 1 Drittel der Auflösung (s. mein Beispiel mit dem PNG).<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ja, die Antwort war an Alex zum Verständnis gerichtet, (100px sind nach dem "gängigen" Debayern immer noch 100px).


    Ja, die Auflösung verringert sich dementsprechend, aber nur die Farbinformationen! Die Helligkeitsverteilung ist annähernd der einer Monochromkamera. Zur Verdeutlichung, mache eine Aufnahme mit schwarzen und weissen Linien. Alle Pixel egal mit welchem Filter sprechen an auf die Weissen Linien und keines auf die Schwarzen.


    Gruss Jürg

    Hi Alex
    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Fast man 4 dieser Kästchen zusammen, erhält man eine Farbe<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Nein, es werden nicht 4 Pixel zu einem zusammengefasst, sondern <b>jedes</b> der Pixel berechnet die Farbinformation aus den Nachbarpixeln.


    Gruss Jürg

    Hi Alex,


    dem Herr Luc ging es wohl gleich wie Dir.
    Es gab Missverständnisse zwischen den Sprachen.


    Anfangsfrage war in Deutsch? gestellt.


    Herr Luc erklärt den Vergleich zwischen dem Durchschnitt und dem Median.


    Zusammengefasst:
    Addition entspricht dem Durchschnitt ist nicht gleich dem Median.


    Gruss Jürg

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: 19Dreas70</i>
    <br /><blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: Juerg_B</i>
    <br />Hi,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Da wäre es doch sinnvoll erst alles zusammenzurechnen , den Mittelwert bilden und dann auf das 32 oder 64 Bit System hochzurechenen<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Wenn schon andersherum wird ein Schuh daraus.
    Wie willst du den vorher alles Zusammenrechnen, wenn du die 400 in deinem Gedankenexperiment gar nicht abbilden kannst?
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    ... wenn die 400 die einzigste Information in jedem Pixel der Mittelwertbildung ist, lässt die sich die aber auch mit einem Bit darstellen. 400 = 1--&gt; nicht 400 =0!
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Richtig, ist jetzt aber schon sehr weit aus dem Zusammenhang gerissen.


    Ein Letzter Versuch.
    Es sind 10 3dl Gläser unterschiedlich mit Wasser gefüllt. Wenn du alles in ein Gefäss schüttest, muss dieses min. ein Fassungsvermögen von 3L haben sonst läuft's über. Deshalb nimmt man gleich einen Swimmingpool. Da hat es genug Platz[:D]


    Gruss
    Jürg

    Hi,


    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote">Da wäre es doch sinnvoll erst alles zusammenzurechnen , den Mittelwert bilden und dann auf das 32 oder 64 Bit System hochzurechenen<hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">
    Wenn schon andersherum wird ein Schuh daraus.
    Wie willst du den vorher alles Zusammenrechnen, wenn du die 400 in deinem Gedankenexperiment gar nicht abbilden kannst?