Grace: Nvidias erster ARM-Prozessor für Supercomputer
Inhalt:
Grace nutzt ARM-Neoverse-Rechenkerne sowie schnelle NVLink-Interconnects und LPDDR5X-Speicher für hohe Transferraten.
Nvidia Grace (Bild: Nvidia)
Von
- Martin Fischer
Nvidia hat den ersten eigenen ARM-Prozessor für High Performance Computing und Künstliche Intelligenz vorgestellt. Mit dem Namen „Grace“ verweist Nvidia laut CEO Jensen Huang auf die US-amerikanische Computerpionierin Grace Hopper. In der GPU-Gerüchteküche galt deren Nachname „Hopper“ zuletzt als Kandidat für die Bezeichnung des Chips. Nvidia übernimmt derzeit den CPU-Entwickler ARM.
Grace soll ab Anfang 2023 verfügbar sein und in Supercomputer-Systemen Verwendung finden – wie beispielsweise im Alps-Supercomputer des Swiss National Supercomputing Center. Huang zufolge soll in Alps auch die nächste Generation von Nvidia-Rechenbeschleunigern zum Einsatz kommen. Seit einiger Zeit ist Nvidias Rechenbeschleuniger-Programmierplattform CUDA auch auf Servern mit ARM-Prozessoren nutzbar. Nvidia bereitet das eigene HPC-SDK sowie die CUDA-/CUDA-X-Bibliotheken für Grace vor.
Alps wird von Hewlett Packard Enterprise auf Cray-EX-Basis gebaut und ersetzt den bisherigen Piz-Daint-Supercomputer.
Nvidia
Grace mit ARM Neoverse
Nvidia Grace setzt auf ARM-Kerne aus der für Server ausgelegten Familie Neoverse, die über 300 Punkte beim Benchmark SPECrate2017_int_base erzielen sollen. Neoverse-Kerne kommen beispielsweise auch bei Amazons Graviton2-Prozessoren und Altra-Max-Prozessoren von Ampere zum Einsatz sowie im künftigen EU-Prozessor Rhea.
Die Architektur von Grace soll für besonders hohe Transferraten sorgen – diese sind beim verteilten Rechnen über mehrere Instanzen von zentraler Bedeutung. Zugreifen können die Grace-Kerne auf ECC-geschützten LPDDR5x-Speicher, der besonders hohe Transferraten von über 500 GByte/s erreichen soll.
Mit anderen Grafikprozessoren kommuniziert Grace über schnelle, Cache-kohärente Interconnects – Nvidia zufolge sind über die vierte NVLink-Generation CPU-zu-(Nvidia-)GPU-Transferraten von 900 GByte/s möglich; von CPU zu CPU noch 600 GByte/s.
Zum Entwickeln und ARM-Migrieren von HPC-Anwendungen bietet Nvidia ein HPC-Devkit samt zugehörigem SDK an.
(Bild: Nvidia)
CUDA-Code-Portierung
Mithilfe des Nvidia HPC SDK sollen Wissenschaftler und Entwickler ihre HPC- und KI-Software auf GPU-beschleunigte ARM-Systeme migrieren können. Um solche Migrationen schon zu starten, bevor Grace auf den Markt kommt, kündigte Nvidia gemeinsam mit Amazon EC2-Instanzen in der AWS-Cloud mit Graviton2-CPU und Nvidia-GPUs an.
Nvidia bietet Entwicklern außerdem ein ARM HPC Developer Kit an, das aus einer Ampere-Altra-CPU mit 80 ARM-Neoverse-Kernen (bis 3,3 GHz), zwei Nvidia A100-GPUs (624 FP16-TFlops) und zwei BlueField-2-DPUs besteht.
Nvidia
(mfi)
Quelle: www.heise.de