VMware, Inc. kündigte eine Zusammenarbeit mit Intel an, um die mehr als zwei Jahrzehnte währende Innovation der beiden Unternehmen zu erweitern und Kunden dabei zu helfen, die Einführung von künstlicher Intelligenz (KI) zu beschleunigen und private KI überall zu ermöglichen - in Rechenzentren, öffentlichen Clouds und Edge-Umgebungen.

VMware und Intel arbeiten an der Bereitstellung eines gemeinsam validierten KI-Stacks, der es Kunden ermöglicht, ihre bestehende VMware- und Intel-Infrastruktur und Open-Source-Software zu nutzen, um die Entwicklung und Bereitstellung von KI-Modellen zu vereinfachen. Die Kombination aus VMware Cloud Foundation und Intels KI-Software-Suite, Intel® Xeon® Prozessoren mit eingebauten KI-Beschleunigern und Intel® Max Series GPUs wird einen validierten und getesteten KI-Stack für die Datenaufbereitung, das Modelltraining, die Feinabstimmung und das Inferencing liefern, um wissenschaftliche Entdeckungen zu beschleunigen und Geschäfts- und Verbraucherdienste zu bereichern. Mehr als 300.000 Kunden setzen weltweit VMware Cloud ein, und die Virtualisierungssoftware von VMware wird fast überall im Unternehmen eingesetzt, wo Daten erstellt, verarbeitet oder konsumiert werden.

Dies macht VMware Cloud zu einem schnellen Mittel, um KI-beschleunigte Berechnungen und Modelle überall dorthin zu bringen, wo Geschäfte gemacht werden. In ähnlicher Weise bietet Intel offene, skalierbare und vertrauenswürdige Lösungen für Hunderttausende von Kunden. Die Allgegenwart von VMware- und Intel-Produkten im Unternehmen ist eine leistungsstarke Kombination, die die Zugänglichkeit von Data Science erhöht und es Organisationen weltweit ermöglicht, Private AI einzuführen, einen architektonischen Ansatz, der darauf abzielt, die geschäftlichen Vorteile von AI mit den praktischen Anforderungen an Datenschutz und Compliance in Einklang zu bringen.

VMware Private AI bringt Rechenkapazitäten und KI-Modelle dorthin, wo Unternehmensdaten erstellt, verarbeitet und genutzt werden, sei es in einer öffentlichen Cloud, einem Unternehmensrechenzentrum oder am Rande des Unternehmens, um traditionelle KI/ML-Workloads und generative KI zu unterstützen. VMware und Intel ermöglichen die Feinabstimmung aufgabenspezifischer Modelle innerhalb von Minuten bis Stunden und die Inferenzierung großer Sprachmodelle schneller als menschliche Kommunikation unter Verwendung der privaten Unternehmensdaten des Kunden. VMware und Intel ermöglichen jetzt die Feinabstimmung kleinerer, kostengünstiger Modelle, die sich auf gemeinsam genutzten virtuellen Systemen leichter aktualisieren und pflegen lassen und nach Abschluss der Batch-KI-Aufträge wieder an den IT-Ressourcenpool übergeben werden können.

Anwendungsfälle wie KI-unterstützte Codegenerierung, Empfehlungssysteme für erfahrungsbasierte Kundendienstzentren und klassische maschinelle statistische Analysen können nun auf denselben Allzweckservern untergebracht werden, auf denen die Anwendung läuft. VMware und Intel entwickeln eine Referenzarchitektur, die Intels KI-Software-Suite, Intel® Xeon® Prozessoren und Rechenzentrums-GPUs mit VMware Cloud Foundation kombiniert, um Kunden die Möglichkeit zu geben, private KI-Modelle auf der bei ihnen vorhandenen Infrastruktur aufzubauen und einzusetzen. Diese VMware Private AI-Referenzarchitektur mit Intel AI wird Folgendes umfassen: Intel® Xeon® Prozessoren der 4. Generation mit Intel® Advanced Matrix Extensions (Intel® AMX) sorgen für eine bis zu 10-fache signifikante Leistungsverbesserung bei der Verwendung von branchenüblichen Frameworks und Bibliotheken, durchgängigen Data-Science-Produktivitäts-Tools und optimierten KI-Modellen.

Intel® Data Center GPU Max enthält bis zu 128 Xe-Kerne und ist Intels grundlegender GPU-Compute-Baustein für die anspruchsvollsten KI-Workloads. Die GPUs der Intel Max Serie werden in verschiedenen Formfaktoren erhältlich sein, um unterschiedliche Kundenanforderungen zu erfüllen. Die KI-Software-Suite von Intel ist mit durchgängiger Open-Source-Software und optionalen Lizenzkomponenten ausgestattet, die es Entwicklern ermöglichen, komplette KI-Pipeline-Workflows von der Datenvorbereitung über die Feinabstimmung bis hin zur Inferenz auszuführen, die Skalierung auf mehrere Knoten zu beschleunigen und KI in der IT-Infrastruktur von Unternehmen einzusetzen.

Das offene oneAPI-Framework ermöglicht eine prozessor- und hardwarebeschleunigerunabhängige Softwareentwicklung, so dass Entwickler ihren Code einmal schreiben und auf verschiedenen Architekturen ausführen können, ohne dass mehrere Codebasen und Spezialsprachen erforderlich sind. Die Transformer Extensions von Intel und die tiefe Integration von PyTorch Extension mit den bei Entwicklern beliebten Open-Source-Bibliotheken Hugging Face bieten automatisierte Optimierungsrezepte für die Feinabstimmung und Komprimierung von Modellen für eine effiziente Inferenz. VMware Cloud Foundation bietet eine konsistente Infrastruktur der Unternehmensklasse, einen einfachen Betrieb und verbesserte Sicherheit für VMware Private AI durch Funktionen wie: VMware vSAN Express Storage Architecture, die bis zu 30% mehr Leistung und minimalen Overhead für wichtige Funktionen wie Verschlüsselung für I/O-intensives AI/ML-Tuning und Inferenz-Workloads bietet.

vSphere Distributed Resources Scheduler hilft bei der effizienten Nutzung freier Rechenkapazitäten für das Training und die Inferenzierung von KI-Modellen, indem die gleichen Cluster genutzt werden, die auch andere KI-Anwendungen verwenden, wodurch die Kapazität maximiert und die Gesamtbetriebskosten gesenkt werden. VMware NSX für den Aufbau von Mikrosegmentierung und fortschrittlichen Bedrohungsschutzfunktionen. Sicheres Booten und virtuelles TPM zur Gewährleistung der Vertraulichkeit von Modellen und Daten.