High Performance Computing

High Performance Computing (HPC) bedeutet computergestütztes Hochleistungsrechnen. Es erfordert Computer, die sehr viel mächtiger als ein Desktop PC (beide Links zu Dell.de) sind. Rechenprobleme, die ohne eine hohe Rechenleistung nicht lösbar sind, werden mit Hilfe von HPC gelöst. Zwei Fragen stellen sich: Was sind solche Probleme und welche Computer lösen diese Probleme?

<b>Das Vierfarbenproblem</b>

Der südafrikanische Mathematiker Francis Guthrie stellte 1852 im Alter von 21 Jahren die Vermutung auf, man könne eine beliebig gestaltete zweidimensionale Landkarte mit nur vier Farben so kolorieren, dann sich immer zwei angrenzende Länder in ihrer Farbe unterscheiden. Seitdem versuchten Millionen von Schülern und Studenten, hoch komplizierte Landkarten zu zeichnen, um die Vermutung zu widerlegen, allerdings ohne Erfolg.

Das Vierfarbenproblem wurde zum Vierfarbensatz, nachdem es bewiesen war. Der Beweis war der Erste, der mit Computern mittels HPC geführt wurde und mathematisch anerkannt wurde. Die anfängliche Skepsis der Mathematiker, ob denn derartige Beweise als solche anerkannt werden können, legte sich mit der Zeit. Möglich war der Beweis durch die Reduzierung der Kolorierung auf endlich viele Möglichkeiten, die dann Hochleistungscomputer abarbeiten konnten.

<b>Die Berechnung von Pi auf Billionen Nachkommastellen</b>

Das Verhältnis von Umfang und Durchmesser eines Kreises ist für jeden Kreis konstant und wird mit Pi bezeichnet. Diese Entdeckung machten die Babylonier vor etwa 4000 Jahren. Schon früh erkannte man, dass es keinen Bruch gibt, mit dem sich Pi darstellen lässt. Etwa im Jahre 480 entdeckte der chinesische Mathematiker Zu Chongzhi den Bruch 355/113, der Pi auf sieben Nachkommastellen genau angibt. Eine größere Genauigkeit von Pi braucht man höchstens in der Raumfahrt.

Weshalb ist Pi ein HPC-Problem? Mittlerweile kennt man Pi bis auf mehrere Billionen Nachkommastellen. HPC Rechner unterziehen sich so genannten „Stress-Tests“. Bei der Berechnung von Pi müssen die Rechner Höchstleistungen vollbringen. Dabei zeigt es sich, ob der Computer genau läuft und auch keine thermischen Probleme auftreten.

<b>Beispiele für den kommerziellen Einsatz von HPC Computern </b>

Der britische Wetterdienst Met Office erhielt im Mai 2010 einen Supercomputer, der als leistungsstärkster im Lande gilt. Der IBM-Rechner kostete etwa 34 Millionen Euro, führt eine Billiarde Rechenschritte in einer Sekunde aus und leistet mehr als 100.000 Standard-Computer. Er berechnet die Wettervorhersagen und obendrein die klimatischen anthropogenen Klimaänderungen, zu denen er weiterhin Gegenmaßnahmen vorschlägt. Der Rechner hat einen Arbeitsspeicher von über 15.000 Gigabyte und verbraucht pro Jahr so viel elektrische Energie wie 1.000 Einfamilienhäuser. Andererseits helfen seine Wetterprognosen Leben zu retten und verhelfen den Fluggesellschaften zu einem jährlichen Minderausstoß von 20 Millionen Tonnen Kohlendioxid.

Kann man die Erde wie mit einem Computertomografen durchleuchten und somit seismische Prognosen anstellen? Die ETH Zürich und die Universität Basel versuchen das mit Hilfe von HPC in dem Projekt „Petaquake“. Absicht dieser Forschung ist es unter anderem, Standorte zu finden, an denen erdbebensichere Kernkraftwerke gebaut werden können. Weiterhin versucht man, mögliche zukünftige Erdbeben sicher vorauszusagen. Die Aufgabe der Wissenschaftler liegt darin, die Programme optimal auf die bestehenden Supercomputer anzupassen.

<B> Die Europäische Union und HPC</b>

Die EU-Kommission hat die Wichtigkeit von HPC erkannt, das Einsparpotenzial von Firmen läge bei 40 Milliarden Euro. Europäische Unternehmen sind jedoch in der Nutzung von HPC nur sehr wenig engagiert, im Jahre 2009 lag der Anteil bei lediglich 2,5 %. Im Vergleich zu den USA, China und Japan hat Europa einen hohen Nachholbedarf. Die Kommission schlägt deshalb vor, die jährlichen Investitionen in HPC auf 1,2 Milliarden Euro zu verdoppeln.