Auf der Bühne verkündete Apple von CEO Tim Cook am Montag einen spektakulären Deal mit OpenAI, um dessen leistungsstarkes Modell für künstliche Intelligenz in seinen Sprachassistenten Siri zu integrieren.

Im Kleingedruckten eines technischen Dokuments, das Apple nach der Veranstaltung veröffentlicht hat, stellt das Unternehmen jedoch klar, dass Google von Alphabet als weiterer Gewinner aus der Aufholjagd des Unternehmens aus Cupertino, Kalifornien, in Sachen KI hervorgegangen ist.

Für die Erstellung der grundlegenden KI-Modelle von Apple haben die Ingenieure des Unternehmens die eigene Framework-Software mit einer Reihe von Hardware verwendet, insbesondere die eigenen Grafikprozessoren (GPUs) vor Ort und Chips, die nur in der Google-Cloud verfügbar sind, die sogenannten Tensor Processing Units (TPUs).

Google baut seit etwa 10 Jahren TPUs und hat öffentlich über zwei Varianten seiner Chips der fünften Generation gesprochen, die für das KI-Training verwendet werden können. Die Performance-Version der fünften Generation bietet eine Leistung, die laut Google mit den Nvidia H100 KI-Chips konkurrieren kann.

Google kündigte auf seiner jährlichen Entwicklerkonferenz an, dass eine sechste Generation noch in diesem Jahr auf den Markt kommen wird.

Die Prozessoren wurden speziell für die Ausführung von KI-Anwendungen und das Trainieren von Modellen entwickelt, und Google hat eine Cloud-Computing-Hardware- und Software-Plattform um sie herum aufgebaut.

Apple und Google haben Anfragen für einen Kommentar nicht sofort beantwortet.

Apple hat sich nicht dazu geäußert, inwieweit es sich auf die Chips und Software von Google im Vergleich zu Hardware von Nvidia oder anderen KI-Anbietern verlässt.

Die Nutzung von Googles Chips setzt jedoch in der Regel voraus, dass ein Kunde den Zugang zu ihnen über die Cloud-Abteilung von Google erwirbt, ähnlich wie Kunden Rechenzeit bei AWS von Amazon.com oder Azure von Microsoft kaufen. (Berichte von Max A. Cherney; Bearbeitung durch Sandra Maler)