Beiträge von Hellstorm

    Natürlich, aber trotzdem sah es nach den mir bekannten Informationen bis vor etwa 8 Gyr doch so aus, als käme die Expansion irgendwann zum stillstand. Nur dann beschleunigte sich die Expansionsrate eben wieder. Wir hatten damit also keinen festen Wert wie z.B. etwa die 60 km/s / Mpc, sondern hierbei einen schrumpfenden Wert was dann wohl eher deinem linearen Wachsum gleichkäme.

    (==>)Hans: Soweit ich das verstanden habe, macht das die starke Wechselwirkung nicht mit, dass Materie schrumpft. Die Reichweite dieser Kraft ist ja extrem kurz und würde sich wohl beim Schrumpfen derart negativ auswirken, dass es wohl Auswirkungen auf unsere Materie hätte. Ebenso ist Energie ja gequantelt, wodurch sie ja die Relation der Häppchen in Bezug auf die Atommasse verändern würde, die z.B. ein Elektron beim Fall auf ein niedrigeres Energieniveau abgeben würde. Beim Elektromagnetismus haben wir wohl auch Probleme mit kleineren Atomen, und mit der Quantenmechanik, die stehende Wellen der Elektronen bestimmt. Wenn also alles Schrumpft müsste man wohl an den Grundkräften schrauben, was ich für etwas unwahrscheinlich halte. Und es ist ja nicht so, dass in der Physik alle Beobachtungen von einem Radius abhängig sind, so dürften sich dann die Kräfte auch nicht im selben Verhältnis ändern.


    (==>)Jemand: Soweit mir auch bekannt ist, schwankte die Expansionrate doch teils recht stark. Mittlerweile liegen da vielleicht schon wieder andere Berechnungen/Simulationen vor, aber meines Wissenstandes nach hatten wir bis vor ca. 8 Mrd. Jahren eine verlangsamte Expansion, sprich eine Expansion deren Geschwindigkeit immer weiter abnahm. Diese verlangsamte Expansion begann wohl auch kurz nach der inflationären Expansion. Nach diesem Zeitpunkt (vor 8Gyr) drehte sich das um und wir haben seitdem eine beschleunigte Expansion. So ist die Expansion wohl keineswegs wirklich konstant, sondern unterliegt wohl eher langzeitigen Schwankungen.


    Ich bin mit diesen Kenntnissen zwar nicht mehr auf dem aktuellen Stand, aber neueres ist mir da auch nicht bekannt.

    Sie Frage wäre hier auch eher, ist das die "Geschwindigkeit" zu der Zeit wo der Quasar das Licht aussandte oder ist die aktuell geschätzte/errechnete "Geschwindigkeit"...


    Ich denke aber mal, dass es wohl die damalige Geschwindigkeit war? Weil wenn ich 4Gpc*H0 rechne, komme ich auf 288.800 km/s bis 305.600 km/s, also höher als die angegebene "Geschwindigkeit".

    Mars ist selbst in Opposition wesentlich kleiner im Teleskop als Jupiter in seiner aktuellen Position. Den Mars zu beobachten, könnte man sagen, geht schon etwas mehr ins Auge. Mit einem kleinen Teleskop wird es da schwer, z.B. die schneebedeckte Polkappe zu sehen, wenn nicht gar unmöglich. Sogar Saturn ist meiner Meinung nach besser zu beobachten. Und dass obwohl er etwas kleiner ist als Jupiter und dazu noch weiter weg.

    Also Tycho 2 liefert gute Ergebnisse wenn man die Sterne bis etwa mag 12 nimmt. Generell brauch ich auch keine besonders dichte oder helle Textur. Sie muss nur einen Hintergrund dezent ausfüllen. Hier ist z.B. Tycho 2 bis mag 12 in galaktische Koordinaten umgerechnet und an den "Polen" entsprechend der sphärischen Projektion korrigiert: http://www.hellstorm.de/images/tyc2_3k_mag12.jpg


    Und da ich solche Texturen nur im Hintergrund benötige, ist diese natürlich schon viel zu hell. Also muss ich entweder am "Gain" drehen, was nicht immer optimale Ergebnisse bringt, oder ich zeichne nur bis mag 10 oder 11, damit die Sternendichte und damit sogesehen auch die Leuchtdichte abnimmt. Teilweise gibt es auch gute Resultate, wenn ich nur Sterne dunkler als mag 10.0 nehme... Es gab für mich also vielfältige Gründe, keinen Fotokatalog zu nehmen. Das Programm bietet einige Regler für die entgültige Farbgebung, inklusive reiner Farbverläufe oder B-V-Farbindex, Größe und Weichzeichnen von Sternen je nach Magnitude... Wird bei einem Fotokatalog, so denke ich, schwieriger zu realisieren sein. Zumal ich für eine 32000x16000 Pixel Textur dann auch wesentlich länger zum Erstellen brauche.


    (PS: Die Textur wird z.B. hier als Hintergrund verwendet:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
    )

    Ja, nen Sternkartenprogramm wollt ich da dann auch mal weiter draus basteln, aber in aller Regel schreib ich die Programme dann nur soweit, wie ich sie selbst brauche. Und ich benötigte nur eine hochauflösende sphärische Texture der Milchstraße :D

    Jupp, Tycho 2 lässt sich wunderbar verarbeiten. Das schöne an Tycho ist, dass dort auch die B-V-Magnituden enthalten sind. Die kann man wunderbar in die Schwarzkörperstrahlung umrechnen und kann dann sogar die Farben entsprechend plotten.


    Ich hatte dazu vor einer Weile mal ein kleines Programm in C++ und Qt unter VS2010 geschrieben. Das liest den Katalog aus und erstellt daraus eine komplette Karte (360°-Bild) des Katalogs. Wenn Du daran Interesse hast, sag bescheid. Evtl. lad ich das auch einfach mal bei mir hoch.

    Hast Du es schonmal mit Cyanacrylat versucht? Für Glas-Glas oder Plasik-Plastik hält er auf jeden Fall bombenfest. Wie es bei Glas-Plasik aussieht, hab ich jedoch noch nicht ausprobiert. Einziger Nachteil ist, dass dieser Kleber extrem flüssig ist, aber ich glaube, da gibt es mittlerweile auch etwas viskosere Varianten.

    <blockquote id="quote"><font size="1" face="Verdana, Arial, Helvetica" id="quote">Zitat:<hr height="1" noshade id="quote"><i>Original erstellt von: GünterD</i>
    Wie würdest du das entsprechend der Definition 'Inertialsystem' begründen?
    <hr height="1" noshade id="quote"></blockquote id="quote"></font id="quote">


    Ich will hier auf nichts spezielles hinaus. Ich betrachte im extrem vereinfachten Fall das Photon als kraftfreien Körper mit konstanter Geschwindigkeit so passt er gut in ein normales Inertialsystem. Ach wenn es hier um die SRT geht, sollte das Problem mit der Gleichzeitigkeit oder auch Relativgeschwindigkeit doch nicht komplizierter gemacht werden als es sowieso schon ist. Letztendlich müsste man dann (natürlich eben ohne die Gravitation zu beachten) die Lorentz-Transformation anwenden. Aber das ist zu einer schnellen Veranschaulichung wohl nicht mehr geeignet. :)

    Nun, dann wären wir wohl wieder bei Newton mit seinem Eimer. Aber letztendlich interessiert uns das von daher nicht, da jeder Beobachter für sich ein Inertialsystem hat. Dabei spielt es keine Rolle, wer bewegt ist und wer nicht. Das liegt im Auge des Betrachters, eine Rechnung mit den Vektoren fällt dabei trotzdem gleich aus. Ob nun Beobachter mit 5 km/h zu Aldi geht, oder Aldi mit 5 km/h auf den Beobachter zukommt, spielt keine Rolle. Beide Beobachter teilen sich ein Inertialsystem nur dann, wenn sie sich im gleichen Bewegungszustand befinden. Welches Inertialsystem vorliegt, kann man auf der Erde feststellen, aber nicht im leeren Raum. Unter Vorhandensein von nicht vernachlässigbarer gravitativer Unterschiede zwischen beiden Beobachtern muss man sowieso weiter differenzieren, denn die Zeit vergeht im Einfluss starker Gravitation langsamer als bei geringer Gravitation.


    Das Licht im übrigen, wenn wir uns ein einzelnes Photon betrachten, hat dann auch ein eigenes Inertialsystem. Lichtgeschwindigkeit ist ja nur eine Geschwindigkeit, hat aber mit Licht sonst nicht unbedingt viel zu tun... außer dass eben Licht vermutlich das einzige ist, was sich mit Lichtgeschwindigkeit bewegen kann.


    Mir ist auch klar, dass Einstein nicht der Erste oder Einzige war, der sich eine Raumzeit vorstellte - daher ist der Raum ja auch als Minkowski-Raum bekannt, aber das war für die Fragestellung nicht unbedingt erforderlich, dass man hier ganz genau darauf eingeht.

    Ich habe jetzt ehrlich gesagt nicht alles gelesen, aber ich gebe trotzdem mal meinen Senf dazu bei.


    Generell geht man ja davon aus, dass man sich bei einer Bewegung nur durch drei Dimensionen bewegt. Man hat also einen Ortsvektor, bzw. Bewegungsvektor (Translation) mit drei Elementen T=(x,y,z). Eine relative Bewegung zueinander liegt dabei genau dann vor, wenn die Bewegungsvektoren von zwei Beobachtern unterschiedlich sind, wenn also A-B!=(0,0,0) ist.


    Nun behauptet aber Einstein, wir leben nicht in einem Raum, sondern in der Raumzeit. So bekommen also alle Ortsvektoren und Bewegungsvektoren ein weiteres Element, nämlich die Zeit, T=(x,y,z,t). Und Einstein behauptet noch viel mehr. Er behauptet, wenn man sich in Ruhe befindet, also x,y,z=0 sind, dann bewegt man sich mit Lichtgeschwindigkeit durch die Zeit. In seinem Inertialsystem hätte also ein ruhender Beobachter folgenden Bewegungsvektor T=(0 m/s, 0 m/s, 0 m/s, 299.792.458 m/s). Und dann geht Einstein noch einen Schritt weiter. Er behauptet, der Betrag (also die "Länge") dieses Bewegungsvektors entspricht <b>immer</b> der Lichtgeschwindigkeit. Der Betrag berechnet sich dabei aus Wurzel(x²+y²+z²+t²).


    Und genau dadurch vergeht die Zeit von unterschiedlich bewegten Beobachtern unterschiedlich schnell. Wenn man sich nämlich durch den Raum bewegt, sagen wir ganz einfach mal, entlang der x-Achse mit 200.000 km/s, so muss man dann Geschwindigkeit von der Zeit abziehen, sonst wäre der Vektorbetrag ja größer als 299.792.458 m/s, nämlich ca. 360.382.000 m/s. Und das geht nicht. Also was muss passieren? Der Vektor muss weniger in Richtung Zeit zeigen. Genauer gesagt, die Gleichung für den Betrag muss so aufgehen, dass der Betrag konstant bleibt. Also t=Wurzel(v²-x²), bzw. 223.328.273 m/s = Wurzel(200.000.000²-299.792.458²). In Prozent ausgedrückt heißt das, dass die Zeit ca. 26% langsamer abläuft als für einen in Relation dazu unbewegten Beobachter. Das wir dabei immer zwei Beobachter brauchen ist klar, sonst hat man ja keinen Bezugspunkt für die Bewegung.


    Aber hier wird dann auch klar, was passiert, wenn man sich mit exakt Lichtgeschwindigkeit bewegen könnte. Es verginge gar keine Zeit mehr. Bei mehr als Lichtgeschwindigkeit müsste das Vektorelement für die Zeit sogar negativ werden, man sich also in der Zeit rückwärts bewegen. Das wäre dann interessant zu sehen, da dich dein ruhender Freund nach deinem Vorbeiflug zweimal sehen würde. Nämlich einmal wie Du dich von ihm weg bewegst, in die Richtung aus der Du gekommen bist und einmal wie Du dich von ihm in die entgegengesetzte Richtung wegbewegst.


    Mit der Zeit lässt sich also schön spielen, aber es ist natürlich alles sehr verwirrend. :)


    Und dann wird es witziger. Somit hat nämlich jeder seine persönliche Zeit. Denn es hat ja jeder seinen eigenen Ortsvektor, seinen Punkt an dem er gerade ist. Und darin ist auch die Zeit enthalten.

    Die Frage ist hier wohl auch, wo die Animationen laden sollen. Solls direkt ein Film werden oder eher ein animiertes Gif? Wobei ich auf letzteres tippe. Gif ist zwar ein Format, dass auch mit Kompression arbeitet, aber diese ist nicht stark, vorallem nicht bei Animationen. Maximale Kompression erreicht man bei einer Farbtiefe von 8 bit (256 Farben in Palette) oder weniger. Gif in 24 bit sind nicht komprimiert.


    Es macht dabei aber keinen Unterschied ob das Quellmaterial als JPG oder BMP vorliegt, da es sowieso in ein anderes Format gebracht wird. Jpg an sich ist aber ein sehr verlustbehaftetes Format, daher auch kleine Dateigrößen. Bei BMP werden die Bilddaten unkomprimiert gespeichert, daher ist hier die Dateigröße etwa Breite*Höhe*3, wenn als 24bit gespeichert.


    Fazit jedenfalls: Gif hat eine sehr schlechte Qualität und Komprimierung, aber es ist ein eigenständiges Format. Die Dateigröße hängt hierbei nicht von der Dateigröße des Quellmaterials ab, sondern lediglich von der Bildauflösung und Farbtiefe, evtl. noch von den Farbunterschieden der Einzelbilder.

    Das hört sich ja gut an! An den Rechenergebnissen hätte ich sogar interesse, wenn die irgendwie öffentlich kundgetan werden dürfen. :)
    Bis dahin wünsche ich euch auf jeden Fall viel Erfolg bei weiteren Impakten! :)

    Interessante Sache! Mir sind dazu aber ebenfalls ein paar Fragen in den Sinn gekommen:


    Bietet der Maisgries in Relation zu der Plasikkugel auch die richtigen ... "Dichteparameter"? Letztendlich ist das Material ja doch recht lose verzahnt im Gegensatz zur teils doch recht dichten Erdkruste mit ~ 3g/cm³? Allerdings bin ich natürlich vollkommen unbewandert auf diesem Gebiet.


    Ich habe mir auch noch die anderen Videos aus dem Impakt2013-Verzeichnis angesehen. Ist die Behälterwand teilweise nicht etwas zu dicht am "Krater"? Dies dürfte letztendlich doch auch Einfluss auf die Formgebung des Kraterrandes und die ballistische Bahn des Impaktmaterials nehmen.

    Also die Antwort von Holger überzeugt wirklich.


    Ich denke auch, dass man als Schüler nicht mit dem größten Geschoss aufwarten sollte. Ein Dobson Newton macht echt Spaß und für rein visuelle Beobachtungen. Aber natürlich sind selbst die 8"-Varianten schon recht klobig und ohne Auto echt schlecht zu transportieren. In Bus und Bahn stell ich mir das logistisch als Umschiffung des Kap Horn mit nem Dreimaster vor. Und für Deep-Sky-Fotografien sind sie nicht geeignet. Mond und etwas Planeten ja, aber mehr nicht.


    Von daher ist die Wahl eines Refraktor ab 70/700 wohl vorzuziehen und dazu eben noch eine passable Montierung. Es sei dabei aber trotzdem angemerkt, dass dies für Deep-Sky-Fotografien auch noch nicht ausreicht - aber man hat wohl bessere Grundlagen, als wenn man sich für 400 Euro gleich einen Newton holt, der wohl auf einer EQ-2 schon mehr als nur an seinen Grenzen ist.

    Nunja, ob das jeder begriffen hat, wage ich Erfahrungstechnisch zu bezweifeln. Für unterwegs habe ich meine Fujifilm Finepix HS10. Die hat "nur" 10MP - und selbst im Bekanntenkreis musste ich schon mehrmals erklären, warum diese 10MP-Kamera bessere Bilder macht als z.B. deren Kompaktkamera mit 16MP.


    Wer wenigstens Bridge-, System- oder EVIL-Kameras einsetzt, der hat den Zusammenhang von optischer Dichte und Rauschen, etc... sicherlich verstanden... wer aber immernoch durch den Laden rennt auf der Suche nach einer Kompaktkamera mit mindestens 16MP, der hat es nicht verstanden. Ich bin mit meinen Kindern oft im Zoo - und jedesmal begegnet man wieder Ablegern der Gattung Home Sapiens Neanderthalensis, die entweder versuchen im halbdunkeln eine Giraffe auf 100m Entfernung freistehend mit Blitz zu fotografieren oder eben durch Gitter und Scheiben mit Blitz. Und nicht gerade wenige!

    Nun es ist für die Industrie in aller Regel nur dann interessant, wenn Sie mit dem Produkt mehr verdienen können als mit dem vorherigen. Bei Dingen wie Computern (oder von mir aus Ei-Pad und Ei-Phone) muss man auch immer etwas neues, besseres rausbringen... aber bei CMOS-Sensoren?


    In der Regel interessiert die Leute nur die Auflösung. So bringt man eben Sensoren mit höherer Pixeldichte raus als die Empfindlichkeit zu steigern. Den Massen-Abnehmer interessiert es nicht, ob die Kamera etwas empfindlicher ist - der Massenabnehmer fotografiert ja auch gern mit Blitz durch eine Fensterscheibe und wundert sich, warum er auf dem Foto außer dem Blitz alles dunkel ist.


    So ist der Käuferkreis für empfindlichere CMOS-Sensoren einfach viel zu klein. Es lohnt nicht, dafür die Maschinen umzurüsten. Es kommt zu wenig Gewinn bei rum. Evtl. müsste man dann ja auch andere Produktionsmaschinen umrüsten, sodass die Kapazitätsgrenze für Billigsensoren sinkt. Und das ist schlecht (siehe Fixkostendegression). Die teuren Sensoren nehmen zu viel Kapazität weg. Der Gewinn sinkt letztendlich - obwohl man vielleicht genausoviel - oder gar etwas mehr - einnimmt. So ist das nunmal in der Wirtschaft. Normale CMOS-Sensoren für Kompaktkameras oder das Ei-Phone schmeißen einfach mehr Gewinn ab.

    Es ist hier doch das gleiche wie überall: Warum sollte man "kompliziertere" Dinge produzieren, die dann vermutlich auch höhere Selbstkosten haben. Das schmälert doch am Ende nur den Gewinn. Und solange sich die herkömmlichen Dinge verkaufen, die man mit Leichtigkeit produzieren kann, solange tut man das auch.


    Mit Sicherheit landet man bei neuen Dingen auch nicht an der Kapazitätsgrenze - also rentiert es sich nicht so gut.


    Am Ende ist es wie mit den Drei-Liter-Autos. Technisch hat jeder Hersteller dazu die Möglichkeit. Praktisch heulen aber zum einen die Ölkonzerne rum und zum anderen wollen sie jetzt eh alle ihre Hybridantriebe vorantreiben.

    Dein Zubehör legt nahe, dass Du wohl doch eher dort ausbauen solltest. Vorallem ein UHC/OIII-Filter bringt dir wesentlich mehr als ein Bino selbst mit 10" oder 12".
    Eine 1:10 Untersetzung sehe ich auch als sehr wünschenswert an, vorallem bei höheren Vergrößerungen, da sich wesentlich feinfühliger scharfstellen lässt. Statt einen 26er Erflé würde ich evtl. eher zu einem UWA raten. Die Erflé neigen ja am Rand doch leicht zu chromatischer Abberation oder Astigmatismus. Evtl. ist auch eines der TS Goldkanten-Okulare was für dich. Ein Telrad ist meiner Meinung nach Geschmackssache. Andere kommen auch mit einem 8x50 Sucher gut zurecht.


    Auf jeden Fall sehe ich hier mehr Bedarf als bei einem Bino. Zumal man ja dann ja auch jedes Okular und jeden Filter zweimal braucht - und Du hier scheinbar noch keine solide Grundausstattung hast.


    Und wie schon angemerkt gehört zu einem Bino wesentlich mehr als ein zweiter Dobson.

    Da kann ich mich nur anschließen. Sehr schön geworden. Es ist wirklich bemerkenswert, dass bis auf östlich von Tycho der Mond kaum überstrahlt ist und noch Bänder bei Jupiter zu erkennen sind. - Während unsereins hier dank der wochenlangen Wolken noch nicht mal den Mond ganz blaß sehen konnte.

    Ein Nachteil könnte evtl. sein, dass dieser Filter bei bei der Wasserstoff-Alpha-Linie keine Transmission aufweist (siehe http://www.astroamateur.de/filter/uhc.html), sondern wohl erst wieder bei ca. 710nm wieder "aufmacht". Da ist das Auge ja dann schon sehr unempfindlich.


    Normale UHC-Filter haben aber auch bei ca. 660nm (also bei der Ha-Linie) eine hohe Transmisivität. Jetzt ist da also die Frage, wieviel Licht von Nebeln verlorengeht, wenn man die Ha-Linie komplett wegfiltert. Aber das ist wohl auch die Ursache der bekannteren Filter, dass die Sterne rot wirken.

    Es ist ja schon angeklungen, dass Du immer irgendwo deine Probleme haben wirst, den Anfang zu erklären. Selbst wenn ich jetzt behaupte, wir haben nach der Big-Crunch-Theorie ein zyklisches Universum, so stellt sich da die Frage, ob die Materie schon immer da war, oder ob es doch irgendwann mal "plopp" gemacht hat.


    Da wird dir keine Theorie eine Antwort drauf liefern können.


    Nach der M-Theorie (oder Superstringtheorie) ist unser Universum eine Bran, also eine Art hauchdünnes Membran, dass in einem Hyperraum herumwedelt. Daneben schwingen noch andere Universen, angeordnet wie Brotscheiben in einem geschnittenen Brot. Wenn wir hier die Theorien weiter verfolgen, kann es passieren dass zwei solcher Brane beim Schwingen irgendwo kollidieren. Das hätte dann wohl einen enormen Energieausbruch zur Folge aus der ein neues Universum entstehen könnte. So ähnlich sieht es auch mit der einfacheren Multiversentheorie aus, bei der Universen wie Seifenblasen in einem Hyperraum herumtreiben. Dort können auch zwei Blasen kollidieren und so ein neues Universum erschaffen. Aber mal ehrlich: Wer will sowas beweisen? Und sowohl bei den Branen als auch bei den schillernden Seifenblasen bleibt wieder eine Frage offen: Woher kam das Ganze? Dehnt sich dann auch der Hyperraum aus? War er irgendwann auch mal klein?


    Und wenn ein schwarzes Loch ein ganzes Universum schluckt... es MUSS ja dann, wie schon gesagt, vorher existiert haben. Und wieder können wir nicht das Kap der Unendlichkeit umschiffen. Letzten Endes landen wir immer wieder bei der Frage nach dem Anfang und dem Ende.


    Und warum? Weil wir Menschen sind. Wir werden geboren, wir sterben. Wir könnten zwar unendlich oft einen Schritt vor den anderen setzen, aber letzten Endes holt uns doch der Sensenmann. So können wir nicht unendlich viele Schritte machen. Man meint vielleicht, die Unendlichkeit als solche zu verstehen, aber ist es wirklich so? Unsere Unendlichkeit hört doch da auf, wo wir unseren nächsten Schritt setzen. Denn irgendwann kommt das Unvermeidliche. Somit ist die Unendlichkeit für uns einfach nur verdammt weit weg. Aber ein Ende existiert - zumindest im Unterbewusstsein. Man sieht es doch allein schon daran, dass wir entweder nicht glauben, dass das Universum unendlich ist, oder wir können es uns nicht vorstellen. Und wenn es ein Ende hat, fragen wir, was danach kommt.


    Und so fragen wir auch, woraus das alles besteht. Wir kommen aus dem Bauch unserer Mutter. Geformt aus einer Eizelle, einer Samenzelle und dem Zeug was Mutti die neun Monate danach aß. Unsere Entstehungsgeschichte beruht also darauf, dass immer irgendetwas da war, was etwas anderes genährt hat. Aber können wir dadurch schon auf den Anfang allen Seins schließen? Man sollte hier dann vielleicht doch mal sagen, "es war halt so". Am Zeitpunkt Null war etwas, das expandierte. Vielleicht gibt es drum herum noch anderes, was expandiert. Aber man muss sich damit abfinden können, das der Ursprung von Allem nie geklärt werden kann.


    Und wenn Du das nicht kannst, dann macht alles keinen Sinn, dann kann ich nämlich auch fragen: Was wäre, wenn wir alle nur Gehirne in einem Wassertank sind? Dann existiert nichts von alledem und wir können unsere eigene Existenz noch nicht einmal beweisen. Ich denke, also bin ich? Falsch. Ich glaube zu denken, also glaube ich, dass ich bin.

    Moin,


    ich will versuchen auch mal noch ein paar Sachen zusammenzutragen.


    1.: Masse entsteht durch Higgs-Felder, bzw. DAS Higgs-Feld, dessen Botenteilchen ist das Higgs-Boson. Das funktioniert ganz grob so, wie wenn Du mit einem Löffel in einen Kartoffelstärke-Brei herumrührst. Wenn Du den Löffen plötzlich versuchst, schneller zu bewegen, wirst Du die ganze Schale mitreißen. Langsam kannst Du rühren. Je schneller Du das tust, umso mehr Widerstand erfährt der Löffel. Ein Higgs-Feld wirkt ähnlich. Allerdings wirkt es nur bei Beschleunigung, nicht bei gleichbleibender Geschwindigkeit. Wenn ich etwas beschleunigen will, kommt das Higgs-Feld ins Spiel und man muss dann eben Energie zum beschleunigen Aufbringen. Je mehr wir die Materie beschleunigen, umso mehr Masse haben wir. Wir müssen ja Energie in die Materie packen - und da Masse und Energie äquivalent sind, ist ein Objekt schwerer, je schneller es ist. Schon daher können wir nicht auf Lichtgeschwindigkeit beschleunigen. Da wir somit also Masse "erzeugt" haben, kommt die Gravitation ins Spiel. Nach der Quantentheorie wird diese über das Eichboson Gravition "übertragen". Da deren Spin evtl. 2 beträgt, ergibt sich daraus, dass sie sich anziehen. Der Rest ist ziemlich viel Quantentheorie, wo ich leider auch nicht wirklich durchsteige.
    Dennoch erzeugt Gravitation eine Krümmung der Raumzeit. Das führt dazu, dass, bildlich ausgedrückt, Massen eine Art Vertiefung bilden, in die andere Massen ebenfalls hineinrutschen. Je größer die Masse, desto größer die Vertiefung (wie bei einem Trampolin). Und wenn man auf das Trampolin dann eben ein schweres Objekt legt - und noch eine leichte Kugel dazu - dann ist klar, wohin die Kugel rollt.


    2. wie schon gesagt verbrennt eigentlich gar nichts. Der Vorgang der Verbrennung ist eine chemische Reaktion und benötigt z.B. Sauerstoff. Die Elemente im Universum entstanden allesamt aus Fusionsprozessen, vorallem alle schwereren Elemente als Eisen entstammen aus Supernovae. Mit Verbrennung erhält man keine neuen Elemente, sondern allenfalls andere Moleküle. Anfangs gab es nur Wasserstoff sowie etwas Helium, Lithium und Deuterium. Das wars aber auch schon. Der Rest kam später.


    3. Die genaue Größe eines schwarzen Loches kann man nicht messen. Höchstens herleiten. Aber hier kommen wir wohl auf Terra Incognito. Den Schwarzschild-Radius einer Masse, also der Radius ab dem Materie zu einem schwarzen Loch kollabiert, kann man leicht ausrechnen. Für die Erde ist er 9 mm. Unterhalb dieser Grenze kollabiert die Materie weiter, evtl. sogar mit Überlichtgeschwindigkeit, aber das wissen wir nicht wirklich. Es erreichen uns ja keine Informationen aus dem Inneren. Kein Licht, keine Strahlung. Lediglich die Gravitation vermag nach Außen zu dringen. Aber all dies lässt keine Rückschlüsse über das Innenleben zu. Da gibt es nur Spekulationen. Ich bezweifle aber, dass es da eine Singularität gibt. Die gab es höchstens, wenn überhaupt, genau am Zeitpunkt Null unseres Universums. Eine Singularität ist ja ein Punkt ohne Räumliche ausdehnung, an dem alle Koordinaten zusammenlaufen. Kann ich mir bei einem SL nicht vorstellen.


    4. Wieso sollte man ernsthaft an eine andere Theorie glauben? Es wurde bisher noch keine bessere gefunden, die all das erklärt, was wir beobachten können. Bis ca. 15 Sekunden nach dem Urknall kann man sogar noch fast alles im Labor erzeugen. Berechnungen kann man ab sekundenbruchteilen nach dem Urknall durchführen.
    Lediglich unterhalb der Planckzeit oder auch Plancklänge gerät man in Probleme, da die Naturgesetze hier ihre vertrauten Eigenschaften verlieren. Der Ort von Teilchen ist sprunghaft. Zwischen zwei Orten wo sich ein Teilchen aufhalten kann, gibt es keinen weiteren Ort, da wir unterhalb der Plancklänge nicht zwischen hier und dort unterscheiden können. Auch unsere vier Grundkräfte Gravitation, Elektromagnetismus, schwache und starke Wechselwirkung, gab es zu Zeiten des Urknalls nicht in ihrer bekannten Form. Wohl wird angenommen, dass sich diese Kräfte aus einer Art Superkraft nacheinander abspalteten.
    Aber dennoch liefert der Urknall die Lösung, wie überhaupt Galaxien entstehen konnten: Wenn ganz kurz nach dem Urknall alles einheitlich, gleichmäßig verteilt, also komplett homogen war, wie kann dann die Materie klumpen und Galaxien bilden? Dann kann es doch nicht einheitlich gewesen sein. Nach der Quantenmechanik hatten wir enorme Schwankungen der Eigenschaften der Teilchen. Das resultierte schon daraus, dass eben alles so klein war und sich nur sprunghaft verhalten konnte. Man hatte keine festen Wert für eine Eigenschaft, sondern nur einen Durchschnittlichen Wert um den herum alles schwankte. Gravitation kann unter Umständen auch abstoßend wirken. Sofern z.B. die Temperatur etc. hoch genug ist - was sie damals war. Das entstandene Inflaton-Feld drückte alles auseinander. Die Inflation des Raumes verlief mit einer derartigen, überlichtschnellen Geschwindigkeit, sodass sich der Raum in ca. 1x10^-35 Sekunden um den Faktor 1x10^50 bis 1x10^100 vergrößerte. Das entspricht in etwa der Vergrößerung eines DNS-Stranges auf die größe der Milchstraße!
    Bei dieser Vergrößerung wurden aber auch sämtliche Unschärfen, bzw. Schwankungen der Teilchen-Eigenschaften mitvergrößert. So gab es dann letztendlich Dichte-Unterschiede im post-inflationären Universum. Und dann konnten auch unsere Galaxien entstehen.


    Man sieht, dass der Urknall vieles erklärt. Und wie schon erwähnt, passiert das mit Hilfe der ART. Und ich kenne derzeit keine Theorie, die besser ist.



    PS: Natürlich ist jede Theorie nur eine Theorie. Es muss nicht so sein, wie wir uns alles denken. Theorien sind NIE richtig. Sie sind lediglich nicht falsch. Jede Theorie muss falsifizierbar sein. Das ist sowohl die ART als auch die Theorie über den Urknall. Bisher gelang aber noch kein Beweis, dass eine der beiden Theorien falsch ist.