Exascale-Computing, bei dem Trillionen (10 hoch 18) Rechenschritte pro
Sekunde durchgeführt werden, soll in den nächsten Jahren zum Standard
für Supercomputer werden. Der beeindruckende Erfolg bei der Anwendung
von in silico (am Computer) durchgeführten Simulationsverfahren auf sehr
komplexe wissenschaftliche und kommerzielle Probleme hat die Nachfrage
nach großen, schnellen und leistungsfähigen Systemen steigen lassen, die
den damit verbundenen intensiven Arbeitsaufwand bewältigen können.
Das Projekt
DEEP (Dynamical Exascale Entry Platform), an dem 16 Partner in acht europäischen Ländern beteiligt sind, hat einen solchen leistungsfähigen Computer gebaut, der jetzt am Supercomputing Centre in Jülich, Deutschland, betrieben wird.Der Prototyp nutzt das neue Cluster-Booster-Konzept, bei dem die komplexen Teile eines Programms mit begrenzter Parallelität auf dem Cluster ausgeführt werden, während der Booster die stark parallelisierbaren Teile mit hoher Energieeffizienz laufen lässt.
„Dieser Prototyp ist ein sehr flexibles System, das viel mit einem Turbomotor gemeinsam hat. Er wird in den kommenden Jahren betrieben werden und gegen Ende 2016 für externe Benutzer verfügbar sein“, erklärt Projektleiterin Estela Suárez. „Er erreicht eine sehr hohe Leistungsdichte und Energieeffizienz und arbeitet mit einem vollständigen System-Softwarestapel und einer standardkonformen Programmierungsumgebung, die auf Leistung und Benutzerfreundlichkeit ausgerichtet ist.“
Elf wissenschaftliche und technische Anwendungen, die repräsentativ für die künftigen Exascale-Computing-Anforderungen sind, wurden sorgfältig ausgewählt, um das Co-Design der Hardware/Software voranzutreiben und das Cluster-Boosterkonzept zu validieren. Dazu gehören Gehirnsimulation, Klimatologie, Radioastronomie, seismische Bildgebung für die Öl- und Gasindustrie, menschliche Exposition gegenüber elektromagnetischen Feldern, Dynamik von Erdbebenquellen, Weltraumwetter, Hochtemperatursupraleitfähigkeit und Anwendungen aus der Physik einschließlich Gitter-Quantenchromodynamik (wie Teilchen in kondensierter Materie interagieren) und numerischer Strömungsmechanik (z. B. Verbrennungsforschung für die Verkehrs- sowie Luft- und Raumfahrtindustrie). Zu den typischen zukünftigen Nutzern könnten somit auch Neurowissenschaftler, Astronomen, Meteorologen, Seismologen, Physiker, Flugzeugentwickler und Fahrzeugingenieure gehören.
Das Tolle am DEEP-Prototyp, von dem eine zweite Generation in einem Schwesterprojekt namens DEEP-Extended Reach
DEEP-ER entwickelt wird, ist, dass er real nicht so groß ist, wie man meinen könnte. Das ganze System ist in weniger als zwei Regalen untergebracht und sehr energieeffizient, dank der kälteanlagenfreien direkten Flüssigkeitskühlung, bei der Wasser direkt in das Regal geleitet wird und durch sehr fein ausgeführte Platten zirkulieren, die an den Rechnerknoten angebracht sind. Dieses Kühlwasser wird in einen Wärmetauscher geleitet, der die Wiederverwendung der extrahierten thermischen Energie, z. B. für die Heizung oder Klimatisierung im Rest des Raums, erleichtert.Im Vergleich zu jenen mit herkömmlichen luftgekühlten Systemen schafft der Prototyp die doppelte Leistung für den gleichen Raum. In Bezug auf die verwendete Energie erzielt er 3,5 Milliarden Floating Point Operations pro Sekunde (Flops) pro Watt Leistungsaufnahme, so dass er der leistungsfähigste Supercomputer der Welt auf der Basis von Intel Xeon Phi ist.
Das Ziel von DEEP-ER, das bis Ende März 2017 laufen wird, ist die Aktualisierung der von DEEP entwickelten Cluster-Booster-Architektur und deren Erweiterung um zusätzliche parallele Input/Output-Leistung (I/O) für einen höheren Durchsatz. Es soll außerdem den Supercomputer widerstandsfähiger gestalten. Das geschieht durch einen mehrstufigen Checkpoint und Startmechanismus, der gegen Datenverlust schützen soll, sollte die Hardware ausfallen.
Die EU hat 8,3 Millionen EUR zum DEEP-Projekt beigetragen, das von 2011 bis 2015 lief, sowie weitere 6,4 Mio. EUR für DEEP-ER.