Die Sehnsucht nach den Exaflops

Im Vorfeld der vom 17. bis 21. Juni in Hamburg stattfindenden International Supercomputing Conference (ISC) in Hamburg bietet Ulf von Rauchhaupt, Leiter des Wissenschaftsressort der Frankfurter Allgemeinen Sonntagszeitung, in seinem Artikel „Die Sehnsucht der Forscher nach den Exaflops“ einen Ãœberblick über den Stand der Rechenkraft von Supercomputern.

Die scheinbar unaufhaltsame Entwicklung der Rechenleistung (Flop/s) hängt nach von Rauchhaupt u.a. von den sich aus dieser Entwicklung entstehenden Forschungsfragen und der damit verbundenen Sehnsucht der Wissenschaft nach noch stärkeren Superrechnern ab. Der historische Rückblick von den Anfängen im Jahr 1837 bis zur Entwicklung des derzeit „potentesten“ Computer der Welt (K Computer mit 705.024 Prozessorkernen) verdeutlicht dies. Die menschlichen Fehler bei der Erstellung von mathematischen Tabellen veranlassten im Jahr 1837 den Briten Charles Babbage eine Maschine zur Automatisierung solcher Routineaufgaben zu entwickeln. Konrad Zuses Z3 sollte den Menschen – vor allem ihn selbst – von monotoner Rechenarbeit entlasten. Die gestiegenen Anforderungen und die damit verbundenen Leistungssteigerungen stellt von Rauchhaupt noch an weiteren Maschinen (u.a. Cray-1, Earth Simulator, BlueGene/L) beispielhaft dar.

Durch die Zunahme der Komplexität der Fragen und den damit verbundenen Anforderungen ist die Entwicklung längst noch nicht abgeschlossen. Nicht allein die Erhöhung der Taktfrequenz bietet zukünftig eine verbesserte Leistung, sondern auch die durch die Leistungssteigerung entstehende Wärme und der damit verbundene Hunger nach Energie beeinflussen die zukünftigen Entwicklungen. In den kommenden Jahren stehen somit die Reduzierung der Energieaufnahme bei gleichzeitiger Leistungssteigerung sowie die Optimierung der Software im Mittelpunkt. Im Bereich der Software kann durch eine Verbesserung der Parallelisierung eine optimierte Nutzung der in einem Supercomputer eingesetzten Cores erfolgen. Die Einbindung von ungenutzter Rechenkraft von Heimcomputern wird und darf dabei auch nicht vernachlässigt werden.

Man darf gespannt sein, welche Lösungswege auf der anstehenden Konferenz in Hamburg aufgezeigt werden.

2 Kommentare

  1. Schöne Ãœberschrift…. 🙂

    Wobei ich persönlich diese klassischen Großrechner für unseren Anwendungsfall mittlerweile als fragwürdig ansehe. Andere Ansätze finde ich da wesentlich spannender.

    Beispielsweise richtige Workstations wie:
    http://www.apple.com/de/macpro/ oder von SGI,

    oder extrem sparsame Manycores aus dem ARM-Bereich:
    http://www.heise.de/ix/meldung/Dell-will-ein-eigenes-ARM-Server-Ecosystem-schaffen-1585680.html

    oder Nvidias Kepler als GPU-Vertreter:
    http://www.heise.de/ct/artikel/Das-richtig-dicke-Ding-1586596.html

    oder (wenn es denn unbedingt sein muss) auch nochmal das Modewort Cloud-Computing:
    http://aws.amazon.com/de/ec2/#instance

    So oder so:
    es bleibt spannend.

Kommentare sind geschlossen.

WordPress Cookie Hinweis von Real Cookie Banner