Meta Platforms hat am Mittwoch Details über die nächste Generation des firmeneigenen Beschleunigerchips für künstliche Intelligenz vorgestellt. WARUM ER WICHTIG IST

Reuters berichtete Anfang des Jahres, dass Meta eine neue Version eines maßgeschneiderten Chips für Rechenzentren plant, um die anschwellende Menge an Rechenleistung zu bewältigen, die für den Betrieb der KI-Produkte von Facebook, Instagram und WhatsApp erforderlich ist. Der Chip, der intern als "Artemis" bezeichnet wird, wird Meta helfen, seine Abhängigkeit von den KI-Chips von Nvida zu verringern und seine Energiekosten insgesamt zu senken. SCHLÜSSELZITAT

"Die Architektur dieses Chips ist grundsätzlich darauf ausgerichtet, die richtige Balance zwischen Rechenleistung, Speicherbandbreite und Speicherkapazität für die Bedienung von Ranking- und Empfehlungsmodellen zu bieten", schrieb das Unternehmen in einem Blogbeitrag.

KONTEXT

Der neue Meta Training and Inference Accelerator (MTIA) Chip ist Teil eines umfassenden Projekts des Unternehmens, das auch andere Hardwaresysteme in Betracht zieht. Neben der Entwicklung der Chips und der Hardware hat Meta auch erhebliche Investitionen in die Entwicklung der Software getätigt, die notwendig ist, um die Leistungsfähigkeit seiner Infrastruktur so effizient wie möglich zu nutzen.

Das Unternehmen gibt auch Milliarden für den Kauf von Nvidia- und anderen KI-Chips aus: In diesem Jahr erklärte CEO Mark Zuckerberg, dass das Unternehmen plant, etwa 350.000 Flaggschiff-H100-Chips von Nvidia zu erwerben. Zusammen mit anderen Anbietern will Meta in diesem Jahr das Äquivalent von 600.000 H100-Chips anhäufen, sagte er. DIE ZAHLEN

Taiwan Semiconductor Manufacturing Co wird den neuen Chip in seinem "5nm"-Prozess herstellen. Laut Meta ist er dreimal so leistungsfähig wie sein Prozessor der ersten Generation. WAS KOMMT ALS NÄCHSTES?

Der Chip wurde im Rechenzentrum eingesetzt und dient KI-Anwendungen. Das Unternehmen sagte, es habe mehrere Programme laufen, "die darauf abzielen, den Anwendungsbereich von MTIA zu erweitern, einschließlich der Unterstützung von (generativen KI-) Arbeitslasten." (Berichterstattung von Max A. Cherney in San Francisco, Redaktion: Chris Reese)