CFX Berlin - HPC-Cluster

HPC-Rechen-Cluster für ANSYS-Simulationssoftware

Für High Performance Computing mit ANSYS-Software bieten wir Ihnen performante Rechen-Cluster als schlüsselfertige Lösung zu vernünftigen Preisen. Bei der Auswahl unserer für ANSYS-Software optimierten Standardlösungen bauen wir auf kontinuierliche Benchmarks sowie jahrelange Erfahrung. Die Zusammenstellung der Einzelkomponenten für Ihren "Rechenknecht" erfolgt individuell je nach Bedarf Ihrer Anwendungen.

Für High Performance Computing mit ANSYS-Software (d.h. Parallel-Betrieb von Berechnungssoftware für eine schnellere Lösung großer und/oder transienter Modelle) ist die Rechen-Performance einer Hardware-Lösung wesentlich. Hierbei steht in erster Linie natürlich die Rechenleistung der CPUs im Vordergrund. Die Erfahrung zeigt aber auch, dass gerade für CFD-Anwendungen neben der CPU-Geschwindigkeit auch die Geschwindigkeit des Speicherzugriffes entscheidend zur optimalen Performance beiträgt. Im Rahmen von regelmäßigen Benchmarks testen wir kontinuierlich die auf dem Markt verfügbaren Komponenten (CPUs, Boards, Chip-Sätze) auf Performance und Preis/Leistungs-Verhältnis und statten unsere Lösungen dann mit den in beiden Kategorien am besten abschneidenden Baureihen aus. Für die Kommunikation der einzelnen Rechner untereinander sowie mit dem Datenspeicher empfehlen wir Infiniband-Technologie einzusetzen. 

Beispielskonfiguration ANSYS HPC-Rechen-Cluster

2HE DoubleTwin Server mit 4 Hot Pluggable Nodes, die sich zwei redundante Netzteile teilen (insgesamt 128 CPU-Kerne und 2048 GB RAM), sowie ein 2HE bzw. 3HE Head Node mit 6x8TB Memory im Raid6 mit Hot-Spare. ACHTUNG: Die Umgebungstemperatur darf 25°C nicht überschreiten!

Konfiguration je Computing Node:

  • DoubleTwin Server Chassi (2HE) mit 4 Einschüben sowie redundanten 2200 W Netzteilen
  • CPU: 2x AMD EPYC 7302 (Zen-Rome) 3,0 GHz 16-Core CPU
  • RAM: 512 GB Speicher (16x 32 GB) DDR4 3200
  • SSD: 1x 480 GB SSD für das System
  • Management: IPMI 2.0 inkl. KVM over LAN
  • Kommunikation: Infiniband EDR ConnectX-5 100 Gb/s

Konfiguration File Server:

  • 2HE Chassis mit redundanten 1000 W Netzteilen
  • CPU: 1x AMD Epyc 7232P (Zen-Rome) 3,1GHz | 8-Core
  • RAM: 128 GB Speicher (8x 16 GB) DDR4 320
  • SSD, HDD, Controller: 2x 480 GB SSD für das System, 6 x 8 TB Festplatte sowie 8-Port Raid-Controller als RAID 6 mit Hot Spare konfiguriert (24 TB netto)
  • Management: IPMI 2.0 inkl. KVM over LAN
  • optional GPU: VGA PNY Quadro RTX4000 | 8192 MB aktiv wahlweise mit Nice DCV-Software zur performanten Grafikübertragung an die Workstations
  • Kommunikation: 2x Gigabit-Network on Board, Infiniband EDR ConnectX-5 100 Gb/s
  • Betriebssystem: CentOS (Linux) mit SAMBA, xrdp, X-Server, SSH usw., Cluster Management Software
  • Sonstiges: DVD-Laufwerk

Zusätzliche Komponenten:

  • Infiniband Switch und Infinibandkabel
  • Gigabit-Switch, Verkabelung
  • Gewährleistung: 3 Jahre Komponenten-Schnellaustausch

Persönliche Beratung?

Sebastian Vlach
+49(0)30 293 811 30

Beratung via E-Mail?

Kontaktformular

Diese Lösung erlaubt für die vorinstallierte ANSYS CFD-Software eine optimale Effizienz beim Parallelrechnen auf insgesamt 128 CPU-Kernen mit insgesamt 2047 GB Hauptspeicher.

Diese Webseite nutzt Cookies

Diese Webseite nutzt Cookies zur Verbesserung des Erlebnisses unserer Besucher. Indem Sie weiterhin auf dieser Webseite navigieren, erklären Sie sich mit unserer Verwendung von Cookies einverstanden.