Extreme Scaling

Skalierbarkeit ist eine essenziell wichtige Eigenschaft von Algorithmen und Lösungen. Sie gilt zugleich als große Herausforderung in der Informatik und stellt hohe Anforderungen an wissenschaftliche Berechnungen. In immer mehr Disziplinen bestimmt die Fähigkeit zu einem rechnerischen „größer ist besser“ das Tempo von Erkenntnis und Innovation. Daher wird mit Hochdruck nach effizienten Methoden gesucht, um riesige Datenmengen mit komplexen Software- und leistungsstarken Computersystemen zu bewältigen, denn: "to out-compute is to out-compete".

Extreme Scaling umfasst verschiedene Gebiete der Informatik und verlangt nach innovativen, vielfach disruptiven Ansätzen. Künftige Supercomputer werden aus Milliarden von Rechenkernen bestehen, die in komplexen und heterogenen Hierarchien angeordnet sind. Leistungsstarke Netzwerktechnologien (innerhalb und zwischen Systemen), mit Milliarden von Komponenten und Sensoren werden erforderlich sein, verbunden zu einem Internet der Dinge. Es gilt, Programmiermodelle und -werkzeuge zur Unterstützung der Anwendungsentwickler beim Schreiben effizienter Software zu entwickeln. Zukunftstaugliche, hocheffiziente (asynchrone) Algorithmen müssen ungewollte Datentransfers und Kommunikation verhindern und Hardwarefehler bewältigen. Energieeffizienz wird ein Leitprinzip für das Design von Systemen, Algorithmen und Infrastruktur sein.

Algorithmen und Applikationen müssen daher neu konzipiert und für ihren Einsatz zur massiven Parallelisierung überarbeitet werden. Rechenzentren werden künftig einer größeren Anzahl von Betriebsmodellen gegenüberstehen – von der klassischen Stapelverarbeitung hin zu interaktivem Rechnen und Urgent Computing. Unabhängig davon, ob sich zukünftig klassische Rechenzentren, deren Hauptaufgabe im Hochleistungsrechnen besteht, mit Datenzentren, deren Hauptaufgabe die Hochleistungsdatenanalyse ist, vereinen oder getrennte Wege gehen werden - der Herausforderung Extreme Scaling müssen sich beide stellen. Die Verwaltung, Speicherung, Analyse, Fusion und Verarbeitung sowie Visualisierung riesiger Datenmengen aus Forschung, Wirtschaft, sozialen Medien werden der Schlüssel zu einer aufstrebenden daten-bestimmten Wissenschaft, Wirtschaft und Gesellschaft sein. Die Fähigkeit zur extremen Skalierbarkeit wird daher die Tür zu Exascale Computing und Big Data öffnen, weil sie die Aufgaben beherrschbar macht.

Mitglieder


kein Bild

Hans-Joachim Bungartz, Prof. Dr. rer. nat. habil.

    
    kein Bild

    Claudia Eckert, Prof. Dr.

      
      Foto von Alfons Kemper

      Alfons Kemper, Prof. Dr.

        Exemplarische Projekte

        SuperMUC

        SeisSol ist ein extrem skalierbarer Simulationscode für Erdbebenszenarien, der insbesondere die dynamischen Bruchprozesse detailreich simuliert. SeisSol wurde für mehrere der derzeit größten Supercomputer der Welt optimiert. Mittels automatischer Codegenerierung wurde die Rechenleistung je Prozessor maßgeblich verbessert. Weitere algorithmische Verbesserungen beschleunigten die Laufzeit um einen Faktor 20 und erlauben Simulation von um ca. Faktor 100 größeren Problemen auf dem Höchstleistungsrechner SuperMUC des LRZ.

        SeisSol SuperMUC

        SPPEXA

        Das DFG-Schwerpunktprogramm (SPP) SPPEXA hebt sich von anderen SPP im Hinblick auf den Umfang der beteiligten Disziplinen und hinsichtlich einer klaren Orientierung auf zeitkritische Ziele ab. Die Spitzenleistung der Hardware wächst beständig, für 2024 werden Exascale-Systeme prognostiziert, und weltweit wächst die Einsicht, dass eine „Racks ohne Gehirne“-Strategie es den Wissenschaftsgemeinschaften nicht ermöglichen wird, das enorme Potenzial des Computeransatzes massiv parallel auszuschöpfen. Vor diesem Hintergrund bietet SPPEXA einen idealen Rahmen, um die Forschungsaktivitäten bundesweit zu bündeln und es den beteiligten Gruppen zu ermöglichen, den Stand der Technik in der HPC-Softwaretechnologie international maßgeblich voranzutreiben.

        www.sppexa.de

        Invasive Computing

        Der Transregio-Sonderforschungsbereich Invasives Rechnen (TCRC 89) untersucht das dynamische Ressourcen-Management für invasive Anwendungen auf hoch parallelen Multicore-Prozessoren bis hin zu neuesten Supercomputern. Ziel ist eine optimierte Ausführung und Ressourcennutzung bei gleichzeitig hoher Vorhersagbarkeit. Beim Hochleistungsrechnen wird diese Forschung zur Weiterentwicklung von Anwendungen führen, die auf MPI und OpenMP basieren sowie zu einem Ressourcen-Management auf Systemebene, das die aktuellen statischen Verfahren ersetzt.

        TCRC 89 "Invasive Computing" (InvasIC)

        READEX

        Das Ziel des „European Horizon 2020“- Projekts READEX ist das dynamische „Tunen“ der von HPC-Anwendungen verbrauchten Energie. Das Projekt soll die Tuning-Software Periscope (periscope.in.tum.de) erweitern, die an der TUM analog zu einem szenarienbasierten Ansatz aus dem Bereich der eingebetteten Systeme entwickelt wurde. Die Anwendungsdynamik wird durch den dynamischen Wechsel zwischen vorab berechneten effizienten Systemkonfigurationen unterstützt.

        READEX