Oracle und NVIDIA haben eine erweiterte Zusammenarbeit angekündigt, um Kunden auf der ganzen Welt souveräne KI-Lösungen anzubieten. Die verteilte Cloud, die KI-Infrastruktur und die generativen KI-Services von Oracle in Kombination mit dem beschleunigten Computing und der generativen KI-Software von NVIDIA ermöglichen es Regierungen und Unternehmen, KI-Fabriken einzurichten. Diese KI-Fabriken können Cloud-Dienste lokal und innerhalb der sicheren Räumlichkeiten eines Landes oder einer Organisation mit einer Reihe von Betriebskontrollen betreiben und so die staatlichen Ziele der Diversifizierung und der Förderung des Wirtschaftswachstums unterstützen.

Die Kombination der umfassenden KI-Plattform von NVIDIA mit der Enterprise-KI von Oracle - die über OCI Dedicated Region, Oracle Alloy, Oracle EU Sovereign Cloud und Oracle Government Cloud eingesetzt werden kann - bietet Kunden eine KI-Lösung, die mehr Kontrolle über Betrieb, Standort und Sicherheit bietet und so die digitale Souveränität unterstützt.

Die kombinierten Angebote der Unternehmen können über die öffentliche Cloud oder im Rechenzentrum eines Kunden an bestimmten Standorten mit flexibler Betriebskontrolle bereitgestellt werden. Oracle ist der einzige Hyperscaler, der KI und vollständige Cloud-Services lokal und überall bereitstellen kann. Die OCI-Services und die Preisgestaltung sind für alle Bereitstellungsarten einheitlich, um Planung, Portabilität und Verwaltung zu vereinfachen.

Die Cloud-Services von Oracle nutzen eine Reihe von NVIDIAs Stack, darunter die NVIDIA Accelerated Computing Infrastruktur und die NVIDIA AI Enterprise Software-Plattform, einschließlich der neu angekündigten NVIDIA NIM? Inferenz-Microservices, die auf der Grundlage von NVIDIA Inferenzsoftware wie NVIDIA TensorRT?, NVIDIA TensorRT-LLM und NVIDIA Triton Inference Server? aufbauen. Um Kunden dabei zu helfen, den ständig wachsenden Anforderungen von KI-Modellen gerecht zu werden, plant Oracle, die neueste NVIDIA Grace Blackwell Computing-Plattform, die heute auf der GTC angekündigt wurde, für OCI Supercluster und OCI Compute zu nutzen.

OCI Supercluster wird durch neue OCI Compute Bare Metal Instanzen, RDMA-Netzwerke mit extrem niedriger Latenz und Hochleistungsspeicher deutlich schneller werden. OCI Compute wird sowohl den NVIDIA GB200 Grace Blackwell Superchip als auch den NVIDIA Blackwell B200 Tensor Core GPU einsetzen. Der NVIDIA GB200 Grace?

Blackwell Superchip wird eine neue Ära des Computing einläuten. Der GB200 bietet eine bis zu 30-mal schnellere LLM-Inferenz (Large Language Model) in Echtzeit, 25-mal niedrigere Gesamtbetriebskosten und einen 25-mal geringeren Energiebedarf im Vergleich zur vorherigen GPU-Generation, so dass KI-Training, Datenverarbeitung sowie technisches Design und Simulationen deutlich verbessert werden. Die NVIDIA Blackwell B200 Tensor Core GPUs sind für die anspruchsvollsten KI-, Datenanalyse- und High-Performance-Computing (HPC)-Workloads konzipiert.

NVIDIA NIM und CUDA-X? Microservices, einschließlich NVIDIA NeMo Retriever für Retrieval-Augmented Generation (RAG) Inference Deployments, werden OCI-Kunden dabei helfen, ihren generativen KI-Copiloten und anderen Produktivitäts-Tools unter Verwendung ihrer eigenen Daten mehr Einblick und Genauigkeit zu verleihen. Um die steigende Kundennachfrage nach immer komplexeren KI-Modellen zu befriedigen, fügen die Unternehmen NVIDIA Grace Blackwell zu NVIDIA DGX? Cloud auf OCI.

Kunden können über diesen gemeinsam entwickelten Supercomputing-Service auf neue GB200 NVL72-basierte Instanzen zugreifen, die für energieeffizientes Training und Inferenz in einer Ära der Billionen-Parameter-LLMs entwickelt wurden. Der vollständige DGX Cloud-Cluster wird mehr als 20.000 GB200 Beschleuniger und NVIDIA CX8 InfiniBand-Netzwerke umfassen und eine hoch skalierbare und leistungsstarke Cloud-Infrastruktur bereitstellen. Der Cluster wird aus 72 Blackwell GPUs NVL72 und 36 Grace CPUs mit NVLink? der fünften Generation bestehen. Verfügbarkeit: Die souveränen KI-Lösungen von Oracle und NVIDIA sind ab sofort verfügbar.