Beiträge von starrookie im Thema „Higgs Boson - Warum dauert das so lange?“

    Slipknot,
    meine letzte Begegenung mit der Teilchenphysik ist zwar schon 20 Jahre her (am DESY), aber schon damals war es so:
    Um den relativ dünnen Speicherring herum, in dem die Teilchen mit nahezu Lichtgeschwindigkeit entgegengesetzt umlaufen wurde ein Detektor gebaut, der ungefähr so groß war wie ein Einfamilienhaus. Der Speicherring musste relativ dünn sein, weil man Teilchen mit sehr kurzer Lebensdauer beobachten wollte - das heißt die kommen nicht weit bevor sie zerfallen.
    Unmittelbar am Ring waren die ersten Detektoren für so kurzlebige Teilchen verbaut - und bei denen hat man bereits in der Auslese-Elektronik Filter verbaut, die die offensichtlich nicht brauchbaren Messungen (hohe zweistellige Prozentzahl) in Echtzeit unterdrückt - und gar nicht an die Auswertesysteme weiterleitet. In der ersten Stufe der Auswerteelektronik wurden dann weitere Filter tätig, die Ereignisse, die nicht auswertbar waren (z.B. Raektionen, die nur zu einem ungenügenden Teil detektiert wurden) ausgefiltert hatte - wieder ein hoher zweistelliger Prozentbetrag.
    Das was dann da rauskam, hat man auf Bänder geschrieben und mit dem LKW zum Rechenzentrum zur Auswertung gefahren.


    Andersrum - Im wikipedia Artikel steht was von 15 Millionen GB pro Jahr, rechnen wir mal schnell runter: Ein Prozessor, der mit Hypertransport angebunden ist kann theoretisch 25GB/s lesen, benötigt nur fürs Lesen der Daten also rund 600000 Sekunden oder fünfeinhalb Tage. Da hat er noch nichts gerechnet! Nehmen wir mal an, dass er für jedes Byte 100 Prozessor-Zyklen (200 Picosekunden) zur Auswertung braucht, das ist eher wenig (tiefstapel!) - dann sind das bei einer Prozessorgeschwindigkeit von 5.0 GHz (Power 6) dann sind das weitere 30 Millionen Sekunden - also weitere 275 Tage. Dummerweise entstehen die Daten aber nicht kontinuierlich, müssen also irgendwie zwischengespeichert werden - nehmen wir dazu mal ein Rechnersystem mit einer IO Bandbreite von 590GB/s (angeküngigte IBM Power 8 Systeme) - die Daten müssen rein und raus also zweimal 5 Stunden - vernachlässigbar.
    Stimmt, hast eigentlich recht, 300 Computer, in denen ALLE Komponenten mit ihrer theoretisch maximalen Leistung zusammenarbeiten KÖNNTEN die Ergebnisse eines Jahres innerhalb eines Tages auswerten, jedenfalls wenn sie mit 100 Zyklen pro Byte auskämen...was kann man in 100 Zyklen erreichen?
    Sagen wir mal wir organisieren die 15 Millionen GB in einem binären Baum, der uns erlaubt, zu jedem Eregnis, was wir anschauen in minimal möglicher Zeit ein passendes Ereignis zu finden - wenn jeder Datensatz 4kB hat, dann sindf das rd 4 Billiarden (Tera) Datensätze (ungefähr 2^42) - der Baum hätte also eine Tiefe von 42 - Warum nur hatte ich diese Zahl schon erahnt? Dann kann man günstig gerechnet in 100 Prozessorschritten den Baum einmal von der Wurzel bis zum Blatt ablaufen - also ein Ereignis finden oder einfügen. Es ist bis jetzt noch nicht ermittelt, WO das Ereignis eingefügt werden muss....naja egal...und auch noch NICHTS analysiert...


    Stimmt, hast eigentlich recht, 300 Computer, in denen ALLE Komponenten mit ihrer theoretisch maximalen Leistung zusammenarbeiten KÖNNTEN die Ergebnisse eines Jahres organisieren - jedenfalls wenn man jedem Ereignis unmittelbar ansähe, wo es einzusortieren ist...


    Kommt jetzt ungefähr rüber, warum das so lange dauert?


    DS, Holger