San Francisco/New York (Reuters) - Unter dem Codenamen "Strawberry" arbeitet OpenAI einem Insider zufolge an der Verbesserung der Denkfähigkeit seiner Künstlichen Intelligenz (KI). Die Details dieses "Erdbeere" getauften Projekts seien selbst innerhalb der Firma ein streng gehütetes Geheimnis, sagte eine mit der Angelegenheit vertraute Person. Die Nachrichtenagentur Reuters hatte bereits im Mai ein internes OpenAI-Schreiben einsehen können, in dem entsprechende Pläne erwähnt wurden. Damals blieb aber unklar, wann es erstellt worden war.

In dem Dokument wurde beschrieben, wie der KI beigebracht werden soll, nicht nur Antworten auf Anfragen zu liefern, sondern auch vorauszudenken, um beispielsweise das Internet eigenständig nach Informationen zu durchforsten. Daran hapert es bei den bisherigen sogenannten Large Language Models (LLMs), die die Grundlage für ChatGPT & Co bilden, sagten mehrere OpenAI-Entwickler.

Angesprochen auf das Projekt "Strawberry" und dessen Details teilte das US-Unternehmen mit, dass kontinuierliche Forschung und Entwicklung gängige Praxis in der KI-Branche sei. "Wir wollen, dass unsere KI-Modelle die Welt mehr so sehen und verstehen wie wir." Zu Jahresbeginn hatte Firmenchef Sam Altman gesagt, dass bei der KI-Entwicklung "die wichtigsten Bereiche des Fortschritts in der Denkfähigkeit liegen werden". Anderen Insidern zufolge hat OpenAI internen und externen Software-Entwicklern in den vergangenen Monaten signalisiert, dass ein technologischer Sprung bevorsteht.

Bei "Strawberry" komme eine spezielle Art des "Nachtrainings" zum Einsatz, ergänzte einer der Insider. Dabei werden die Unmengen an Daten, mit denen eine KI gefüttert wird, strukturiert und organisiert. Bislang geschieht dies meist, indem Menschen die Lösung bestimmter Aufgaben benoten und der KI Beispiele für richtige und falsche Antworten liefern. "Strawberry" weist Ähnlichkeiten zu der an der Universität von Stanford entwickelten Technologie STaR ("Self-Taught Reasoner", "Selbstlernender Logischer Denker") auf, mit deren Hilfe KI-Programme sich eigenständig verbessern können.

"Das ist sowohl aufregend als auch erschreckend", sagte Noah Goodman, Stanford-Professor und STaR-Mitentwickler. "Wenn sich die Dinge weiter in diese Richtung entwickeln, müssen wir als Menschen über einige Dinge ernste Gedanken machen." Ende vergangenen Jahres hatten einige OpenAI-Entwickler in einem Brandbrief einen Durchbruch auf dem Weg zu einer künstlichen "Superintelligenz" erwähnt und davor gewarnt, eine dem Menschen überlegene "Künstliche Allgemeine Intelligenz" (Artificial General Intelligence, AGI) ohne ausreichende Risikoprüfung der Öffentlichkeit zugänglich zu machen. AGI können komplexe Aufgaben auch ohne Einmischung von außen bewältigen. Kritiker befürchten, dass diese Programme dann Verteidigungssysteme steuern, politische Propaganda verbreiten oder Waffen produzieren.

Die Warnung der OpenAI-Mitarbeiter von Ende 2023 bezog sich auf ein intern "Q*" (sprich: Q-Star) genanntes Projekt. Es wurde inzwischen in "Strawberry" umbenannt.

(Bericht von Anna Tong und Katie Paul; geschrieben von Hakan Ersen, redigiert von Ralf Banser. Bei Rückfragen wenden Sie sich bitte an unsere Redaktion unter berlin.newsroom@thomsonreuters.com (für Politik und Konjunktur) oder frankfurt.newsroom@thomsonreuters.com (für Unternehmen und Märkte).)