Die Cloud-Einheit von Amazon.com gab am Mittwoch bekannt, dass sie eine Partnerschaft mit dem KI-Startup Hugging Face eingegangen ist, um die Ausführung Tausender von KI-Modellen auf Amazons maßgeschneiderten Computerchips zu erleichtern.

Das mit 4,5 Milliarden Dollar bewertete Hugging Face hat sich zu einem zentralen Knotenpunkt für KI-Forscher und -Entwickler entwickelt, um Chatbots und andere KI-Software auszutauschen, und wird unter anderem von Amazon, Alphabets Google und Nvidia unterstützt. Es ist die wichtigste Anlaufstelle für Entwickler, um Open-Source-KI-Modelle wie Llama 3 von Meta Platforms zu erhalten und daran zu basteln.

Aber sobald Entwickler ein Open-Source-KI-Modell optimiert haben, wollen sie das Modell in der Regel für eine Software verwenden. Am Mittwoch gaben Amazon und Hugging Face bekannt, dass sie sich zusammengetan haben, um dies auf einem speziellen Amazon Web Services (AWS) Chip namens Inferentia2 zu ermöglichen.

"Eine Sache, die für uns sehr wichtig ist, ist die Effizienz. Wir wollen sicherstellen, dass so viele Menschen wie möglich Modelle ausführen können und dass sie diese auf die kostengünstigste Art und Weise ausführen können", sagte Jeff Boudier, Leiter der Abteilung Produkt und Wachstum bei Hugging Face.

AWS hofft seinerseits, mehr KI-Entwickler zur Nutzung seiner Cloud-Dienste für die Bereitstellung von KI zu bewegen. Während Nvidia den Markt für das Training von Modellen dominiert, argumentiert AWS, dass seine Chips diese trainierten Modelle - ein Prozess, der Inferenz genannt wird - im Laufe der Zeit zu geringeren Kosten betreiben können.

"Sie trainieren diese Modelle vielleicht einmal im Monat. Aber Sie führen vielleicht zehntausende Male pro Stunde Inferenzen gegen sie durch. Das ist der Punkt, an dem Inferentia2 wirklich glänzt", sagte Matt Wood, der bei AWS für die Produkte für künstliche Intelligenz zuständig ist. (Berichterstattung durch Stephen Nellis in San Francisco; Bearbeitung durch Michael Perry)