Nutanix kündigte neue Funktionen für Nutanix GPT-in-a-Box an, darunter Integrationen mit NVIDIA NIM Inference Microservices und der Hugging Face Large Language Models (LLMs) Bibliothek. Darüber hinaus kündigte das Unternehmen das Nutanix AI Partner Program an, das führende KI-Lösungen und Servicepartner zusammenbringen soll, um Kunden zu unterstützen, die generative KI-Anwendungen (GenAI) auf der Nutanix Cloud Platform und GPT-in-a-Box ausführen, verwalten und sichern möchten. Nutanix GPT-in-a-Box ist eine Komplettlösung, die speziell dafür entwickelt wurde, die Einführung von KI in Unternehmen zu vereinfachen. Sie bietet eine enge Integration mit Nutanix Objects und Nutanix Files für die Modell- und Datenspeicherung.

Das Unternehmen kündigte GPT-in-a-Box 2.0 an, die erweiterte NVIDIA Accelerated Computing- und LLM-Unterstützung sowie eine vereinfachte Verwaltung von Basismodellen und Integrationen mit NVIDIA NIMs Microservices und der Hugging Face LLM-Bibliothek bieten wird. GPT-in-a-Box 2.0 wird eine einheitliche Benutzeroberfläche für die Verwaltung von Basismodellen, die Erstellung von API-Endpunkten und die Verwaltung von Endbenutzer-Zugriffsschlüsseln enthalten und Nutanix Files und Objects sowie NVIDIA Tensor Core GPUs integrieren. GPT-in-a-Box 2.0 bringt Nutanix Einfachheit in die Benutzererfahrung mit einer eingebauten grafischen Benutzeroberfläche, rollenbasierter Zugriffskontrolle, Auditierbarkeit und Unterstützung von Dark Sites, neben anderen Vorteilen.

Darüber hinaus bietet es eine Benutzeroberfläche, mit der sich NVIDIA NIM, ein Teil der NVIDIA AI Enterprise Software-Plattform für die Entwicklung und den Einsatz von KI in Produktionsqualität, per Mausklick einrichten und konfigurieren lässt, um GenAI-Workloads im Unternehmen und am Edge zu implementieren und auszuführen.