Direkt zum Inhalt

Hochleistungsrechner

Die Netzwerkverkabelung  der Cluster-Knoten: Verschiedenen Leitungsfarben stehen für verschiedenen Netze. Foto: Hwa Ja Götz/Museum für Naturkunde Berlin

Als Hochleistungsrechner oder „High Performance Computing  Cluster“ werden Computernetzwerke bezeichnet, die eine große Anzahl von Rechenoperationen parallel ausführen können. Am Museum für Naturkunde sind elf Computer mit insgesamt 567 Prozessorkernen und 4661 Gigabyte Arbeitsspeicher mit zwei Servern vernetzt. Die Server dienen dem Management. Über sie können Nutzer verwaltet und die Rechenressourcen effizient und gerecht auf die Forschergruppen verteilt werden.

Die Kombination der Geräte erlaubt es unterschiedliche Anforderungen abzudecken. So können zeitintensive Rechnungen mit einer Berechnungsdauer von über 100 Tagen parallel zu Berechnungen laufen, die sich über mehrere der Prozessoren verteilen oder viel Arbeitsspeicher benötigen. Die Nutzung des Cluster lässt sich gut in die Arbeitsabläufe der Forschenden integrieren: Zugang und Datenaustausch sind von jedem Computerarbeitsplatz im Museum möglich. Das Betriebssystem des Clusters und weitere Software wie Editoren, Tools und Programmbibliotheken ermöglichen eine große Bandbreite wissenschaftlicher Anwendungen.

Methodik (Auswahl):

  • Numerische Modellierungen von hochdynamischen Prozessen
  • DNA-Sequenzanalyse

Ausstattung:

Rechenleistung des Clusters
Knoten: 6x Dell PowerEdge R815 mit jeweils:
4 x AMD Opteron(tm) Processor 6172 mit insgesamt 48 CPU-Kernen, 256GB Arbeitsspeicher (DDR3-1333)

1x Dell PowerEdge R815:
4 x AMD Opteron(tm) Processor 6278 mit insgesamt 64 CPU-Kernen, 256GB Arbeitsspeicher (DDR3-1333)

1x Dell PowerEdge R615:
2x Intel(R) Xeon(R) CPU E5-2690 mit insgesamt 16 CPU-Kernen und 32 Threads, 384GB Arbeitsspeicher (DDR3-1600)

1x Dell PowerEdge R7425:
2x AMD EPYC™ 7501 CPU mit insgesamt 64 CPU-Kernen und 128 Threads, 768GB Arbeitsspeicher (DDR4-2666)

Virtuelle Knoten: 2x2 Intel® Xeon® Processor E5-4667 v4 mit insgesamt 64 CPU-Kernen, 885GB Arbeitsspeicher (DDR4)

Management: 2x Server für das Clustermanagement:
1x Dell PowerEdge R310:
1x Intel(R) Xeon(R) CPU X3450 mit 4 CPU Kernen und 8 Threads
16GB Arbeitsspeicher (DDR3-1066)

1x Dell PowerEdge R310:
1x Intel(R) Xeon(R) CPU X3450 mit 4 CPU Kernen und 8 Threads
32GB Arbeitsspeicher (DDR3-1066)

Anwendungen:

  • Der Hochleistungsrechner ermöglichte es im Rahmen des MEMIN-Projekts (Multidisciplinary Experimental and Modelling Impact Research Network) experimentelle Untersuchungen durch numerische Modelle zu reproduzieren. Durch die Kombination von geologischen und geophysikalischen Beobachtungen, experimentellen Untersuchungen und numerischen Modellen wurde ein umfassendes Verständnis der dynamischen Prozesse während eines Einschlagereignisses gewonnen. Die Modelle geben im Detail Aufschluss über die Stoßwellenausbreitung sowie die Temperatur- und Druckverteilungen im Gestein, welche im Experiment nicht dynamisch untersucht werden können. Desweitern wurden sogenannte mesoskalige Modelle für eine detaillierte Analyse von stoßwelleninduziertem Porenkollaps und der Untersuchung von Materialverhalten benutzt. Ergebnisse der mesoskaligen Modellierung wurden als Benchmarks verwendet um makroskalige Modelle für Sandstein zu kalibrieren.
  • Im GENART-Projekt (Funktionelle Genomik biologischer Artbildung) wurde das Cluster für verschiedene bioinformatische Genom-Analysen genutzt. So konnte gezeigt werden, dass Stoffwechselprozesse bei der ökologischen Differenzierung von Heuschreckenpopulationen eine wichtige Rolle spielen. Auch konnten bei Grillen neue Genomregionen gefunden werden, die artspezifischen Gesänge beeinflussen und wahrscheinlich zur Artbildung beigetragen haben. Dies ist ein Beispiel für evolutionsbiologische Anwendungen, bei denen nicht nur genetische Marker analysiert werden, sondern ganze Genome auf Variabilität untersucht werden. Dabei werden sehr  große Datenmengen erfasst, die sich nur mit Hochleistungsrechnern bearbeiten lassen.
  • Der Sonderforschungsbereich (SFB) Transregio 170 „Späte Akkretion auf terrestrischen Planeten“ beschäftigt sich mit geodynamischen und geochemischen Prozessen in der frühen Entwicklungsgeschichte erdähnlicher Planeten. Dabei wird die thermische Evolution des Erde-Mond-Systems und speziell die Schmelzbildung bei Einschlägen untersucht. Mit der iSALE-Software, die seit über zehn Jahren unter anderem am Museum für Naturkunde entwickelt und gehostet wird, wurden dafür mehrere hundert Einschläge von Asteroiden simuliert, zehn bis Tausende Kilometer im Durchmesser, um die Masse von geschmolzenen und verdampften Material abhängig von verschiedenen thermischen Initialbedingungen der Erde zu bestimmen. Dabei stellte sich heraus, dass die Masse von Impakt-generierter Schmelze und Dampf bis zu siebenmal größer ausfallen kann, als bisher abgeschätzt. Weitere Simulationen werden benötigt, um den Verbleib des eisenhaltigen Impaktorkerns zu verfolgen. Anhand der Erkenntnisse kann ausgehend vom heutigen geochemischen Fingerabdruck des Erdmantels die Einschlaggeschichte und frühe Entwicklung der Erde rekonstruiert werden.