Mit Rechenkraft gegen Naturgesetze

Grids entwickeln sich schnell zu einem integralen Bestandteil der Forschung und Industrie. Das grösste der Welt rechnet für den 27 Kilometer langen Hadron-Beschleuniger in Genf. Das Cern zeigt die Zukunft des Internets.

Artikel erschienen in Swiss IT Reseller 2008/18

     

Mit dem Grid Fest in Genf wurde am Cern das weltweite LHC Computing Grid (WLCG) offiziell eröffnet. Wie der ­Large Hadron Collider (LHC) ist das WLCG ein Werk der Superlative. ­Eigens entwickelte Prozessoren sortieren an den LHC-Detektoren den grössten Teil der 40 Terabyte Daten pro Sekunde aus, bevor sie ins Datennetz eingespeist werden. «Wir sind bereit, die Daten zu verarbeiten», verkündete Wolfgang von Rüden, Vorsteher des Cern-Openlab und des Informatik-Departements, feierlich zum Start. Das WLCG verschiebt Daten, ­Berechnungen und Resultate über Kontinente als ein einziges virtuelles System und stellt das Forschungs­material für 7000 Physiker bereit.

Beispiel für weltweite Kollaboration

Der Cern-Generaldirektor Robert ­Aymar pries das Projekt als Beispiel für weltweite interdisziplinäre Zusammenarbeit. «Wir haben das Grid entwickelt, um die Physiker von den Gedanken über Computer zu befreien», sagte der Brite Les Robertson, der geis­tige Vater und frühere Leiter des WLCG-Projekts. Es ist Teil des Projekts «Grids for E-Science» (EGEE), einer weltweiten Organisation für Grid-Infrastruktur - von der Europäischen Kommission mitbegründet. Bei freien Kapazitäten wird das Grid für andere, ausdrücklich zivile Forschungszwecke von 10’000 Forschern eingesetzt: in den Bereichen Kernfusion, Erd- und Astrowissenschaften sowie in Lebenswissenschaften. Mit der Visualisierung ganzer Populationen will man rechzeitig auf Malaria oder Vogelgrippe reagieren.


Das WLCG ist eine einzige virtuelle Organisation von über 140 Rechenzentren, die in drei Stufen eingeteilt sind. Die erste Stufe (Tier-0) bildet das Cern-Rechenzentrum mit derzeit rund 15% der gesamten Rechenleistung. Dort lagern die 15 Petabyte-Archivdaten pro Jahr. Diese enthalten die rohen Daten, Analyse-Resultate und Simulationen. Die Stufe-2-Mitglieder (Tier-1) bewahren Backups der rohen Daten auf und führen datenintensive Analysen durch. Zum Tier-1 gehören 11 Rechenzentren rund um den Globus. Sie stehen unter anderem in Lyon, Taipei und Vancouver. Die dritte Stufe (Tier-2) bilden derzeit 130 Rechenzentren in 33 Ländern. Sie besorgen mit rund 50 Prozent der gesamten Rechenleis­tung die Endnutzer-Analyse der 7000 Forscher und die Simulationen. Jeder aus Tier-2 kann Daten von irgendeinem Tier-1 abfragen.

Cern-Labor treibt Entwicklung voran

Tier-0 (Cern) und die Tier-1-Rechenzentren sind über eine 10GB/s-Verbindung untereinander verbunden. Dies erlaubt im Vollbetrieb des LHC eine Datenrate zu allen Tier-1-Standorten mit derzeit 1GB/s. Dies sichern Exklusiv-Mietverträge mit Internet Service Providern für interkontinentale Kabelstränge. Ermöglicht haben dies Partner wie HP, Intel und Oracle, die alle drei für die sechs Jahre lange Zusammenarbeit mit dem Cern-Openlab ausgezeichnet wurden. Sie haben ab 2003 von Beginn weg am Aufbau des LHC-Grid mitgeholfen. IBM war 2003 bis 2005 als Partner dabei. Ab 2009 stösst Siemens dazu. Im Openlab werden die Hard- und Software-Technologien getestet und für das Rechenzentrum weiterentwickelt. Es liefert dem WLCG unter anderem offene Software, Compiler-Technologie und Updates. Laut Stephen Pawlowski, Intels CTO der Digital Enterprise Group, sind die Cern-Ansprüche dem Massenmarkt rund vier bis fünf Jahre voraus.

Large Hadron Collider auf Einsteins spuren

Die Physik-Forschung will mit Hilfe des LHC herausfinden, wie Energie in Masse transformiert wird. Dazu wird Masse in Energie verwandelt, um das letzte Puzzlestück des modernen Standard-Physik-Modells zu finden, das noch nie zu 100% nachgewiesen wurde: sogenannte Higgs-Teilchen. Der Beweis erfordert jene enorme Energie von einem Tera-Elektronvolt (10 hoch 12 Elektronvolt), die mit dem LHC erstmals mit Protonen erreicht werden kann.

Der 27 Kilometer lange Beschleuniger ist mit den vier Detektoren die bisher grösste je gebaute Maschine und produziert im Vollbetrieb ab Frühjahr 2009 rund 100 Millionen Kollisionen pro Sekunde. In den vier Detektoren des Beschleunigers werden kollidierte Beams von Hadronen (aus Protonen oder Blei-Ionen) aufgezeichnet.


Ein weiteres Ziel ist die Erforschung der Supersymmetrie (Susy). Von ihr erhoffen sich die Forscher offene Fragen der Teilchen- und Astrophysik - zum Beispiel zu dunkler Materie - beantwortet zu bekommen. Laut Cern-Sprecher Jim Virdee werden erste Resultate für Susy frühestens Ende 2009 erwartet, für die Higgs-Teilchen kann es frühestens 2012 etwas werden - falls die Natur gütig zu uns sei. (Marco Rohner, Genf)


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wieviele Zwerge traf Schneewittchen im Wald?
GOLD SPONSOREN
SPONSOREN & PARTNER