IBM pusht den Supercomputer

IBMs Botschaft lautet: Supercomputer sind kein Spielzeug der Wissenschaft. High Performance Computing ist ein wichtiges Werkzeug für die Wirtschaft.

Artikel erschienen in Swiss IT Reseller 2007/11

     

Ziemlich genau zehn Jahre ist es her, seit der amtierende Schachweltmeister Garry Kasparow vor Deep Blue kapitulieren musste. Seither hat sich High Performance Computing (HPC) rasant weiterentwickelt. 280,6 Tera-FLOPS - 280,6 mal 1012 Fliesskommaberechnungen pro Sekunde - leistet der derzeit schnellste Supercomputer Blue Gene/L am Lawrence Livermore National Laboratory.
In der Forschung bilden Supercomputer neben Theorie und Experiment das dritte Standbein. Sie ermöglichen Simulationen und neuerdings auch die Echtzeit-Visualisierung der Resultate. Damit werden Simulationen zunehmend nicht nur wissenschaftlich, sondern auch ökonomisch sinnvoll.

Neue Materialien

Die Halbleiterindustrie macht sich ­dies bereits zunutze. Sie sucht nach neuen Materialien, um die physikalischen Grenzen der Silizium-Technologie zu überwinden. Geeignet scheint Hafnium-Dioxid. Die Integration in bestehende Techniken führt jedoch zu komplexen Wechselwirkungen. Den Forschern des IBM-Labors Rüschlikon gelang hier, wie Alessandro Curioni, Supercomputerexperte im Forschungs­team der IBM-Labs, erklärt, ein Durchbruch: Mit Hilfe von Blue Gene konnten sie das Verhalten von Hafnium-Dioxid auf atomarer Ebene anhand von 50 Modellen simulieren. Die Berechnung beanspruchte 250 Tage. Ein Laptop hätte dafür 700 Jahre benötigt.

Die Wirtschaft steigt ein

Flugzeug- und Automobilindustrie setzen schon länger auf leistungsstarke Rechensysteme. Auch die Finanz- und Versicherungsbranche nutzt für ihre Risikoberechnungen zunehmend Hochleistungscomputer, und Energieversorgung, Wettervorhersagen und Umweltmanagement sind ohne HPC kaum noch denkbar.
Auch Pharma und Medizin bilden ein wichtiges Feld für Hochleistungsrech-ner: Alzheimer und die Creutzfeld-Jakob-Krankheit entstehen durch missgebildete Proteine. Um diesen Vorgang besser zu ver­stehen, wurde in
Computersimulationen die dreidimensionale Struk­tur des Proteins nach physikalischen Gesetzen berechnet, ohne dass Werte aus Experimenten beigezogen werden mussten.
Ein anderes Beispiel ist das Vogelgrippevirus, wo die Gefahr besteht, dass sich neue Virenstämme von Mensch zu Mensch übertragen. Bisher konnte eine Impfung erst entwickelt werden, wenn ein Virus auftrat. Mit Hilfe von Blue ­Gene lassen sich Muta­tionen des Virus simulieren und so möglicher­weise noch vor ­einer Epidemie Impfungen und Therapien entwickeln.

HPC in der Schweiz

In der Schweiz gibt es derzeit fünf ­Systeme, die auf der Liste der 500 leistungsstärksten Computer rangieren. Unser Land liegt damit weltweit etwa im Mittelfeld. Der Bund hat erkannt, dass Investitionen nötig sind, und für 2008-2011 Fördergelder in der Höhe von 150 Millionen Franken gesprochen.
«Das Bedürfnis nach immer mehr Rechenleistung ist ausgewiesen und auch zu realisieren», meint Curioni. «Die Systeme sind skalierbar.» Bis ­Ende 2008 werde IBM die Peta-FLOPS-Grenze (1015 Fliesskommaopera­tionen pro Sekunde) überschreiten.
Ein Grossteil der Supercomputer wird als Kooperationen zwischen Hochschulen, Staat und Industrie entwickelt und genutzt werden. Das IB-Forschungslabor arbeitet daher intensiv mit den Universitäten und den eidgenössischen Hochschulen in Zürich und Lausanne zusammen. Ein Beispiel ist das Projekt Blue Brain der EPF Lausanne. Damit soll bis 2011 das gesamte menschliche Gehirn am Computer simuliert werden.
Curioni ist überzeugt: «Supercomputing wird für Wissenschaft, Technologie und Wirtschaft immer wichtiger. Den CIOs muss klar werden, das HPC kein Spielzeug der Wissenschafter mehr ist, sondern ein wichtiges Werkzeug für die Wirtschaft.» (fis)

Der Supercomputer

Mit der Miniaturisierung steigt der Anteil an unproduktiver Energie in Form von Wärme. Ausserdem hat in den letzten Jahren die Taktfrequenz der Speicher nicht mit derjenigen der Prozessoren mitgehalten. Alessandro Curioni vom IBM-Forschungs­team definiert einen Supercomputer daher als ein skalierbares System mit einem optimalen Verhältnis von Verarbeitungskapazität und Energieverbrauch. «Ausschlaggebend für die Leistung ist Gesamtarchitektur und Skalierbarkeit. Für ein optimales Gleichgewicht ist es oft vorteilhafter, langsamere, dafür aber mehr Prozessoren einzusetzen.» Auf diesen Überlegungen basiert die Architektur des weltweit leistungsfähigsten Supercomputers, Blue Gene/L von IBM.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Welchen Beruf übte das tapfere Schneiderlein aus?
GOLD SPONSOREN
SPONSOREN & PARTNER