Nvidia hat am Montag seinen Spitzenchip für künstliche Intelligenz um neue Funktionen erweitert und angekündigt, dass das neue Angebot im nächsten Jahr zusammen mit Amazon.com, Alphabets Google und Oracle auf den Markt kommen wird.

Der H200, wie der Chip genannt wird, wird Nvidias aktuellen Spitzenchip H100 überholen. Das wichtigste Upgrade ist mehr Speicher mit hoher Bandbreite, einer der teuersten Teile des Chips, der bestimmt, wie viele Daten er schnell verarbeiten kann.

Nvidia dominiert den Markt für KI-Chips und treibt den ChatGPT-Dienst von OpenAI und viele ähnliche generative KI-Dienste an, die auf Anfragen mit menschenähnlicher Schrift reagieren. Die Hinzufügung von mehr Speicher mit hoher Bandbreite und einer schnelleren Verbindung zu den Verarbeitungselementen des Chips bedeutet, dass solche Dienste schneller eine Antwort ausspucken können.

Der H200 verfügt über 141 Gigabyte Arbeitsspeicher mit hoher Bandbreite, im Vergleich zu 80 Gigabyte im vorherigen H100. Nvidia hat seine Lieferanten für den Speicher des neuen Chips nicht bekannt gegeben, aber Micron Technology hat im September erklärt, dass es daran arbeitet, ein Nvidia-Lieferant zu werden.

Nvidia kauft auch Speicher vom koreanischen Unternehmen SK Hynix, das im letzten Monat erklärte, dass die KI-Chips dazu beitragen, den Absatz wieder anzukurbeln.

Nvidia teilte am Mittwoch mit, dass Amazon Web Services, Google Cloud, Microsoft Azure und Oracle Cloud Infrastructure zu den ersten Cloud-Service-Anbietern gehören werden, die Zugang zu H200-Chips anbieten werden, zusätzlich zu den auf KI spezialisierten Cloud-Anbietern CoreWeave, Lambda und Vultr. (Berichterstattung von Stephen Nellis in San Francisco, Bearbeitung von Sam Holmes)