Intel will gemeinsam mit LRZ und TUM Parallel Computing vorantreiben

Intel hat die Eröffnung eines neuen Parallel Computing Centers bekanntgegeben. Mit LRZ und TUM soll dort Supercomputing vorangetrieben werden.

Das Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften hat zusammen mit der Fakultät für Informatik der Technischen Universität München (TUM) und mit tatkräftiger Unterstützung von Intel ein „Intel Parallel Computing Center“ (IPCC) ins Leben gerufen. Das IPCC mit dem zusätzlichen Namen „Extreme Scaling on MIC/x86“ soll sich verstärkt um die „Software-Entwicklung von hochparallelen Programmcodes für zukünftige Supercomputer mit einer großen Anzahl an Koprozessoren“ kümmern.

Laut LRZ entwickelte sich das Supercomputing in den letzten Jahren immer mehr in Richtung Parallelisierung, um die Rechenleistung drastisch zu erhöhen. Dies zeigte sich unter anderem bei der Zusammenfassung vieler Rechenkerne in Knoten und bei der Verringerung des Speichers pro Rechenkern. Darüber hinaus spielten Vektoreinheiten in den Prozessorkernen eine immer größere Rolle. Um einzelne Aufgaben „schneller und energieeffizienter“ auszuführen, wurden im LRZ bereits Koprozessoren wie Intels Xeon Phi eingesetzt.

Koprozessoren wie Intels Xeon Phi bringen deutliche Leistungssteigerungen. Bild: Intel

Das neu gegründete IPCC soll jetzt die Entwicklung von Software für solche parallelen Rechner mit Koprozessoren unterstützen. Dabei kann man sich auf vier existierende Anwendungen beziehen, die schon länger auf dem „SuperMUC“, dem Supercomputer am LRZ, laufen. Sie sollen erweitert und mit Xeon-Phi-Koprozessoren ausgerüstet werden.

Verstärkte Konkurrenz im Supercomputing

Die vier Programme, die man optimieren will, sind als typisch für das Supercomputing anzusehen. Es handelt sich im Einzelnen um die Simulation von Erdbeben und seismischer Wellenausbreitung (SeisSol), um die Simulation der Entwicklung des Kosmos (GADGET), die Anwendung von Methoden der Molekulardynamik auf industrielle Anwendungen (ls1 mardyn) und um die Lösung hochdimensionaler Probleme (SG++) bei Data Mining oder Finanzmathematik. Die Performance dieser Anwendungen, die sich schon jetzt im Bereich von Petaflops bewegt, soll auf hundert und mehr Petaflops hochgetrieben werden.

Seitdem IBM die ehemals proprietären Power-Prozessoren zusammen mit Partnern wie Nvidia, Google oder Mellanox Mitte letzten Jahres in die „OpenPower Foundation“ eingebracht hat, ist Intel im Server-Markt etwas unter Druck geraten. Vor kurzem erst hat IBM die neueste Generation seiner Scale-out-Server POWER8 vorgestellt. Entwicklungen im Supercomputing können dazu beitragen, die eigene Position auszubauen und – falls notwendig – zu verteidigen.

Erfahren Sie mehr über Serverhardware

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close