Red Hat, Inc. und Run:ai kündigten eine Zusammenarbeit an, um die Ressourcenzuweisungsfunktionen von Run:ai in Red Hat OpenShift AI zu integrieren. Durch die Rationalisierung des KI-Betriebs und die Optimierung der zugrundeliegenden Infrastruktur ermöglicht diese Zusammenarbeit Unternehmen, das Beste aus den KI-Ressourcen herauszuholen, indem sie sowohl mensch- als auch hardwaregesteuerte Workflows auf einer vertrauenswürdigen MLOps-Plattform für die Erstellung, das Tuning, die Bereitstellung und die Überwachung von KI-fähigen Anwendungen und Modellen in großem Umfang maximieren. GPUs sind die Rechenmaschinen, die KI-Workflows vorantreiben und Modelltraining, Inferenz, Experimente und mehr ermöglichen.

Diese spezialisierten Prozessoren können jedoch kostspielig sein, insbesondere wenn sie für verteilte Trainingsaufträge und Inferenzen eingesetzt werden. Red Hat und Run:ai arbeiten daran, diesen kritischen Bedarf an GPU-Ressourcenoptimierung mit dem zertifizierten OpenShift Operator von Run:ai auf Red Hat OpenShift AI zu befriedigen, der Anwendern hilft, ihre KI-Workloads zu skalieren und zu optimieren, wo immer sie sich befinden. Run:ais Cloud-native Compute-Orchestrierungsplattform auf Red Hat OpenShift AI hilft: Lösung von GPU-Planungsproblemen für KI-Workloads mit einem speziellen Workload-Scheduler, um geschäftskritische Workloads einfacher zu priorisieren und sicherzustellen, dass genügend Ressourcen zur Unterstützung dieser Workloads zugewiesen werden.

Nutzen Sie fraktionierte GPU- und Überwachungsfunktionen, um Ressourcen dynamisch gemäß den festgelegten Prioritäten und Richtlinien zuzuweisen und die Effizienz der Infrastruktur zu steigern. Verbessern Sie die Kontrolle und Transparenz über die gemeinsam genutzte GPU-Infrastruktur, um den Zugriff und die Ressourcenzuweisung für IT-, Data Science- und Anwendungsentwicklungsteams zu erleichtern. Der zertifizierte OpenShift Operator von Run:ai ist ab sofort verfügbar. Für die Zukunft planen Red Hat und Run:ai, diese Zusammenarbeit mit zusätzlichen Integrationsmöglichkeiten für Run:ai auf Red Hat OpenShift AI weiter auszubauen.

Ziel ist es, nahtlose Kundenerfahrungen zu unterstützen und die Übertragung von KI-Modellen in Produktionsworkflows mit noch größerer Konsistenz zu beschleunigen.