Nvidia Hopper H100: Riesiger 4nm-Grafikprozessor für künstliche Intelligenz

Nvidia Hopper H100: Verbindung mit künstlicher Intelligenz

Für die breite Öffentlichkeit ist Nvidia in erster Linie ein führender Hersteller von Grafikkartenchips, der mit seiner GeForce-Serie seit mehr als einem Jahrzehnt den Markt anführt. Doch unter der Führung von CEO Jensen Huang hat das Unternehmen immer weit über den Gamer-Markt hinausgeblickt und sich sehr schnell als wichtiger Akteur im Bereich der Hardwarebeschleunigung positioniert. Ein Bereich, in dem die Nachfrage wächst, sogar exponentiell, angesichts des enormen Bedarfs an Ressourcen in Bereichen wie künstliche Intelligenz und Modellmanagement (Klima, Straßen usw.).

Zwei unterschiedliche Ansätze

In diesem Bereich hat Nvidia in der Vergangenheit immer zwei verschiedene Ansätze verfolgt. Der erste bestand darin, seine Grafikarchitekturen an zwei Varianten anzupassen, eine für Verbraucher und eine für Profis - wie im Fall von Ampere; der zweite bestand darin, zwei separate Architekturen zu schaffen, die jeweils auf einen bestimmten Markt ausgerichtet waren, wie im Fall von Volta, das speziell für den Beschleunigungssektor entwickelt wurde.

Hopper gehört zu diesem zweiten Ansatz. Die Architektur wurde für die Beschleunigungsbranche entwickelt, um die Erwartungen in Bezug auf KI oder sogar Omnichannel zu erfüllen. Und das Mindeste, was wir sagen können, ist, dass Nvidia zwei Jahre nach dem GA100-Chip (Ampere-Architektur) den H100-Chip vorgestellt hat, der auf dem Papier ziemlich beeindruckend aussieht. Mit 80 Milliarden Transistoren auf einer Fläche von 814 mm² unterscheidet sich dieser Chip deutlich von seinem Vorgänger, der auf 54,2 Milliarden Transistoren auf einer Fläche von 828 mm² "beschränkt" war. Diese Zahlen täuschen keineswegs, denn Nvidia hat den 7nm-Prozess zugunsten des 4nm-Prozesses von TSMC (Noda N4) aufgegeben. Der Chip verbraucht außerdem maximal 700 W, deutlich mehr als die 500 W der vorherigen Generation.

Nvidia Transformer Engine

Ausstattung des Chips

Der Chip verfügt über eine PCIe 5.0-Schnittstelle und ist von maximal 80 GB dediziertem HBM3-Speicher umgeben - genug, um eine Bandbreite von 3 TB/s zu erreichen. Die spezifischen Recheneinheiten, die Nvidia als Beschleuniger bezeichnet, wurden überarbeitet und um einen Tensor Core der vierten Generation ergänzt, der speziell für KI entwickelt wurde und angeblich sechsmal schneller ist als der GA100-Chip. Die Anzahl der CUDA Kerne wurde von 6.912 auf 16.896 erhöht. Damit ist die Rohleistung dreimal so hoch wie bei der vorherigen Generation des Beschleunigers in nur zwei Jahren.

Transformer-Engine

Nvidia hat auch einen neuen Beschleuniger namens Transformer Engine entwickelt. Er wurde entwickelt, um die Verarbeitung von KI-bezogenen Modellen zu beschleunigen, z. B. Übersetzung in Echtzeit, Interpretation von Anfragen, Bildanalyse und sogar Gesundheits- und Klimaforschung. Das Training von Neuronen, das früher Tage dauerte, kann jetzt in wenigen Stunden durchgeführt werden. Diese Tatsache wird viele interessieren, nicht zuletzt Google, dessen BERT-Algorithmus diese Art von Maschine nutzt, um Benutzeranfragen besser zu verstehen und immer genauere Antworten zu geben. Nvidia gab als Beispiel an, dass eine Aufgabe, die früher mit 8.000 GPUs 7 Tage dauerte, mit Hopper-Chips nur noch 20 Stunden in Anspruch nimmt.

Neue GPU

Diese neue GPU wird ab dem dritten Quartal für Nvidia-Partner verfügbar sein. Sie kann einzeln (im PCIe-Format) oder als DGX-Rack mit 8 Modulen oder SuperPOD-Schrank mit 32 Modulen erworben werden. Maximal 256 Module können über einen NVLink-Switch miteinander verbunden werden, der eine Modul-zu-Modul-Kommunikation von 70,4 TB/Sekunde ermöglicht. Schließlich umfasst das Programm bereits Supercomputer, insbesondere Nvidias Eos-Abteilung - ein Supercomputer, den das Unternehmen selbst nutzen und seinen Partnern anbieten wird - der 576 DGX-Racks mit 4.608 GPUs beherbergen wird. Eos wird eine Rechenleistung von 275 Petaflops in FP64 haben, was ihn zum zweitstärksten Supercomputer der Welt nach Fugaku (442 Petaflops) macht. Jetzt müssen wir nur noch auf die Ankündigungen von Nvidia im Consumer-Bereich warten: Es ist wahrscheinlich, dass das Unternehmen in den kommenden Monaten den Nachfolger von Ampère ankündigen wird.

Nvidia Hopper H100 Spezifikationen

Wichtigste Ergebnisse

1. Der auf der GTC vorgestellte Hopper H100-Grafikprozessor von Nvidia markiert den Einstieg des Unternehmens in den Markt der Hardwarebeschleunigung für den professionellen Bereich, insbesondere für Anwendungen der künstlichen Intelligenz. Mit beeindruckenden 80 Milliarden Transistoren, die in einem 4nm-Prozess geätzt werden, ist der H100 in der Lage, die wachsende Nachfrage nach beschleunigten Berechnungen zu befriedigen.

2. In der Vergangenheit hat Nvidia bei der Hardware-Beschleunigung zwei Strategien verfolgt: die Anpassung von Consumer-Grafikarchitekturen für den professionellen Einsatz und die Entwicklung eigenständiger Architekturen für spezielle Märkte. Hopper folgt dem letzteren Ansatz und ist speziell für Beschleunigungsbereiche wie künstliche Intelligenz und Omnichannel-Anwendungen konzipiert.

3. Der H100-Chip weist gegenüber seinen Vorgängern erhebliche Verbesserungen auf. Er enthält 80 Milliarden Transistoren auf einem 814 mm² großen Chip, der im 4-nm-Verfahren von TSMC hergestellt wird. Mit einer maximalen Leistungsaufnahme von 700 W und bis zu 80 GB dediziertem HBM3-Speicher bietet der Chip erhebliche Leistungssteigerungen.

4. Der Chip verfügt über Tensor-Kerne der vierten Generation, die für künstliche Intelligenz entwickelt wurden und eine bis zu sechsmal schnellere Leistung als frühere Versionen bieten. Die Anzahl der CUDA Kerne wurde ebenfalls deutlich erhöht, was zu einer dreifachen Steigerung der Rohleistung im Vergleich zur vorherigen Generation des "Beschleunigers" führt.

5. Nvidia stellt die Transformer Engine vor, die die Verarbeitung von KI-bezogenen Modellen beschleunigen soll, einschließlich Echtzeit-Übersetzung, Interpretation von Anfragen, Bildanalyse sowie Gesundheits- und Klimaforschung. Das Training neuronaler Netze, das früher Tage dauerte, kann jetzt in wenigen Stunden erledigt werden.

6. Obwohl die Hopper-Architektur auf den professionellen Bereich abzielt, ist die Vorfreude auf Ankündigungen im Consumer-Bereich groß. Mit dem wahrscheinlich bevorstehenden Nachfolger der Ampère-Architektur wird Nvidia weiterhin die Landschaft des beschleunigten Computings prägen.

Review

Feedback hinterlassen