Red Hat, Inc. kündigte Podman AI Lab an, eine Erweiterung für Podman Desktop, die es Entwicklern ermöglicht, Anwendungen mit generativer künstlicher Intelligenz (GenAI) in Containern zu erstellen, zu testen und auszuführen, indem sie eine intuitive, grafische Oberfläche auf ihrer lokalen Workstation nutzen. Dies trägt zur Demokratisierung von GenAI bei und bietet Entwicklern die Vorteile der Bequemlichkeit, Einfachheit und Kosteneffizienz ihrer lokalen Entwicklererfahrung, während sie gleichzeitig das Eigentum und die Kontrolle über sensible Daten behalten. Der jüngste Aufschwung von GenAI und Open Source Large Language Models (LLMs) hat eine neue Ära des Computing eingeläutet, die sich stark auf den Einsatz von KI-gestützten Anwendungen stützt, und Unternehmen bemühen sich schnell um den Aufbau von Know-how, Prozessen und Tools, um relevant zu bleiben.

In dem Maße, wie KI und Data Science in den Mainstream der Anwendungsentwicklung vordringen, können Tools wie Podman AI Lab dazu beitragen, dass Entwickler GenAI zur Erstellung intelligenter Anwendungen oder zur Verbesserung ihrer Arbeitsabläufe mit Hilfe von KI-gestützten Entwicklungsfunktionen einsetzen. AI Lab bietet einen Rezeptkatalog mit Anwendungsbeispielen, die Entwicklern eine Starthilfe für einige der häufigsten Anwendungsfälle für LLMs geben, darunter: Chatbots, die eine menschliche Konversation simulieren und KI nutzen, um Benutzeranfragen zu verstehen und passende Antworten anzubieten. Diese Fähigkeiten werden häufig zur Erweiterung von Anwendungen eingesetzt, die Selbstbedienungs-Kundensupport oder virtuelle persönliche Unterstützung bieten.

Textzusammenfassungen, die vielseitige Funktionen für viele Anwendungen und Branchen bieten, wo sie ein effektives und effizientes Informationsmanagement ermöglichen. Mit diesem Rezept können Entwickler Anwendungen erstellen, die sie bei der Erstellung und Pflege von Inhalten, der Recherche, der Sammlung von Nachrichten, der Überwachung sozialer Medien und dem Erlernen von Sprachen unterstützen. Code-Generatoren, die es Entwicklern ermöglichen, sich auf Design und Problemlösung auf höherer Ebene zu konzentrieren, indem sie sich wiederholende Aufgaben wie Projekteinrichtung und API-Integration automatisieren oder Code-Vorlagen erstellen.

Objekterkennung hilft bei der Identifizierung und Lokalisierung von Objekten in digitalen Bildern oder Videoframes. Sie ist eine grundlegende Komponente in verschiedenen Anwendungen, darunter autonome Fahrzeuge, Bestandsmanagement im Einzelhandel, Präzisionslandwirtschaft und Sportübertragungen. Bei der Audio-zu-Text-Transkription wird gesprochene Sprache automatisch in geschriebenen Text umgewandelt, was die Dokumentation, Zugänglichkeit und Analyse von Audioinhalten erleichtert.

Diese Beispiele bieten Entwicklern einen Einstiegspunkt, an dem sie den Quellcode prüfen können, um zu sehen, wie die Anwendung aufgebaut ist, und um Best Practices für die Integration ihres Codes mit einem KI-Modell zu lernen. Für Entwickler bieten Container seit jeher eine flexible, effiziente und konsistente Umgebung zum Erstellen und Testen von Anwendungen auf ihren Desktops, ohne dass sie sich über Konflikte oder Kompatibilitätsprobleme Gedanken machen müssen. Heute wünschen sie sich die gleiche Einfachheit und Benutzerfreundlichkeit für KI-Modelle.

Podman AI Lab trägt dazu bei, dieses Bedürfnis zu befriedigen, indem es ihnen die Möglichkeit gibt, lokale Inferenzserver bereitzustellen, so dass es einfacher ist, ein Modell lokal auszuführen, einen Endpunkt zu erhalten und mit dem Schreiben von Code zu beginnen, um das Modell mit neuen Funktionen zu versehen. Darüber hinaus enthält Podman AI Lab eine Spielumgebung, die es Benutzern ermöglicht, mit Modellen zu interagieren und deren Verhalten zu beobachten. Dies kann zum Testen, Experimentieren und Entwickeln von Prototypen und Anwendungen mit den Modellen genutzt werden.

Eine intuitive Benutzerführung hilft dabei, die Fähigkeiten und die Genauigkeit verschiedener Modelle zu erkunden und das beste Modell und die besten Einstellungen für den Anwendungsfall in der Anwendung zu finden. Da KI im Unternehmen immer allgegenwärtiger wird, ist Red Hat führend bei der Erschließung des Potenzials von KI zur Förderung von Innovation, Effizienz und Wert durch sein Portfolio an konsistenten, vertrauenswürdigen und umfassenden KI-Plattformen für die Hybrid Cloud. Podman AI Lab baut auf der Stärke von Podman Desktop auf, einem von Red Hat gegründeten Open-Source-Projekt, das inzwischen mehr als eine Million Downloads verzeichnet.

Es bietet auch eine enge Integration mit dem Image-Modus für Red Hat Enterprise Linux, einer neuen Bereitstellungsmethode für die weltweit führende Linux-Plattform für Unternehmen, die das Betriebssystem als Container-Image bereitstellt. Diese Integration ermöglicht es Entwicklern, von der Erstellung von Prototypen und der Arbeit mit Modellen auf ihrem Laptop zu einem portablen, bootfähigen Container überzugehen, der mit Red Hat OpenShift überall in der Hybrid-Cloud ausgeführt werden kann, von Bare Metal bis hin zu einer Cloud-Instanz. Seit mehr als 30 Jahren haben Open Source-Technologien schnelle Innovationen mit stark reduzierten IT-Kosten und niedrigeren Innovationsbarrieren verbunden.

Red Hat ist seit fast ebenso langer Zeit führend in diesem Bereich, von der Bereitstellung offener Linux-Plattformen für Unternehmen mit RHEL in den frühen 2000er Jahren bis hin zur Entwicklung von Containern und Kubernetes als Grundlage für eine offene Hybrid-Cloud und Cloud-natives Computing mit Red Hat OpenShift. Diese Entwicklung setzt sich fort, indem Red Hat KI/ML-Strategien in der offenen Hybrid-Cloud vorantreibt und KI-Workloads dort ausführt, wo sich die Daten befinden, sei es im Rechenzentrum, in mehreren öffentlichen Clouds oder am Netzwerkrand. Die Vision von Red Hat für KI umfasst nicht nur die Arbeitslasten, sondern auch die Modellschulung und -abstimmung, um Einschränkungen in Bezug auf Datensouveränität, Compliance und betriebliche Integrität besser zu bewältigen.

Die Konsistenz, die Red Hats Plattformen in all diesen Umgebungen bieten, unabhängig davon, wo sie ausgeführt werden, ist entscheidend, um die KI-Innovation am Laufen zu halten.