Nvidias neuer Blackwell-Chip soll die nächste Phase generativer AI einläuten
Bisher war es der H100-Chip, der Nvidia zum dritt wertvollsten Unternehmen der Welt mit einer Marktkapitalisierung von mehr als 2 Billionen Dollar machte. Damit hat der neueste AI-Superchip, den Nvidia auf der GTC-Konferenz mit 11.000 Teilnehmer:innen präsentierte, eine riesige Aufgabe, nämlich das wertvollste Prozessorunternehmen der Welt noch höher auf der AI-Welle reiten zu lassen als bisher. Zwei Grafikprozessoren vom neuen Typ B200 werden dafür im GB200 mit einer Grace CPU zum „Grace Blackwell“-Superchip vereint. Das ist das neue Maß der Dinge im AI-Universum.
Der B200 soll im Vergleich zum H100 die Berechnungen der LLM-Inferenz 30 Mal schneller schaffen, bei 25 Mal weniger Energieverbrauch. Der Inferenzprozess ist rechenintensiv, da das Modell Millionen oder sogar Milliarden von Parametern durchlaufen muss, um die angemessenste Antwort zu generieren. Die Effizienz und Genauigkeit dieser Inferenzprozesse sind zentrale Forschungsthemen im Bereich der künstlichen Intelligenz und des maschinellen Lernens.
Denn Nvidia zählt die führenden Tech-Konzerne und AI-Unternehmen der Welt zu seinen Abnehmern. Noch nie zuvor konnte ein einzelnes Unternehmen die CEOs so vieler Big-Tech-Konzerne mit überbordenden Lobesworten für die neuen Produkte und Partnerschaften in einem Press Release nennen wie Nvidia. Und zwar:
- Sundar Pichai, CEO of Alphabet and Google
- Andy Jassy, President and CEO of Amazon
- Michael Dell, founder and CEO of Dell Technologies
- Demis Hassabis, Co-founder and CEO of Google DeepMind
- Mark Zuckerberg, Founder and CEO of Meta
- Satya Nadella, executive chairman and CEO of Microsoft
- Sam Altman, CEO of OpenAI
- Larry Ellison, chairman and CTO of Oracle
- Elon Musk, CEO of Tesla and xAI
„Prozessor für das Zeitalter der generativen KI“
Es ist auch ziemlich klar, wofür Blackwell eingesetzt werden wird: Der neue Superchip ermöglicht KI-Training und LLM-Inferenz in Echtzeit für Modelle mit bis zu 10 Billionen Parametern. Zum Vergleich: GPT-4, das bisher stärkste AI-Modell der Welt, läuft mit etwa 1,7 Billionen Parametern. Damit sind die Nvidia-Superchips gerüstet für die nächste Welle der AI-Modelle (z.B. OpenAIs Videomodell Sora) und wird voraussichtlich die Grundlage für den nächsten Evolutionsschritt der AI-Welt darstellen. „AWS, Google Cloud, Microsoft Azure und Oracle Cloud Infrastructure werden zu den ersten Cloud-Service-Providern gehören, die Blackwell-basierte Instanzen anbieten, ebenso wie die Unternehmen des NVIDIA Cloud-Partnerprogramms Applied Digital, CoreWeave, Crusoe, IBM Cloud und Lambda“, heißt es dazu.
„Wir haben einen Prozessor für das Zeitalter der generativen KI entwickelt“, so NVIDIA-Gründer und CEO Jensen Huang in seiner Keynote auf der Konferenz. Er nennt die Chips, die speziell für Ai entwickelt wurden, Accelerated Computing. „Accelerated Computing hat den Wendepunkt erreicht – dem General Purpose Computing geht die Puste aus“, sagte Huang vor mehr als 11.000 GTC-Teilnehmern, die sich zu seiner Keynote in der SAP Center Arena im Silicon Valley versammelt hatten. „Wir brauchen eine andere Art des Computing – damit wir weiterhin skalieren können, damit wir die Kosten für das Computing weiter senken können, damit wir weiterhin immer mehr Computing nutzen können und dabei nachhaltig sind. Accelerated Computing ist ein dramatischer Geschwindigkeitszuwachs gegenüber dem General-Purpose-Computing, und zwar in jeder einzelnen Branche.“