Das Zerwürfnis, das Sam Altman seinen Job als CEO von OpenAI gekostet hat, spiegelt eine grundlegende Meinungsverschiedenheit zwischen zwei Lagern wider, die die weltverändernde Software entwickeln und über ihre gesellschaftlichen Auswirkungen nachdenken.

Auf der einen Seite stehen diejenigen, die wie Altman die rasche Entwicklung und vor allem den öffentlichen Einsatz von KI als unerlässlich für Stresstests und die Perfektionierung der Technologie ansehen. Auf der anderen Seite stehen diejenigen, die sagen, dass der sicherste Weg darin besteht, die KI zunächst in einem Labor vollständig zu entwickeln und zu testen, um sicherzustellen, dass sie sozusagen für den menschlichen Konsum sicher ist.

Altman, 38, wurde am Freitag von dem Unternehmen entlassen, das den beliebten Chatbot ChatGPT entwickelt hat. Für viele galt er als das menschliche Gesicht der generativen KI.

Einige befürchten, dass die hyperintelligente Software unkontrollierbar werden und zu einer Katastrophe führen könnte - eine Sorge unter Technikern, die einer sozialen Bewegung namens "effektiver Altruismus" folgen, die glaubt, dass KI-Fortschritte der Menschheit zugute kommen sollten. Zu denjenigen, die solche Befürchtungen teilen, gehört Ilya Sutskever von OpenAI, der leitende Wissenschaftler und ein Vorstandsmitglied, das Altmans Absetzung befürwortet hat.

Eine ähnliche Spaltung hat sich zwischen den Entwicklern von selbstfahrenden Autos ergeben, die ebenfalls von KI gesteuert werden. Sie sind der Meinung, dass sie auf dichten städtischen Straßen eingesetzt werden müssen, um die Fähigkeiten und Schwächen der Fahrzeuge vollständig zu verstehen, während andere zur Zurückhaltung mahnen, weil sie befürchten, dass die Technologie unkalkulierbare Risiken birgt.

Diese Sorgen um die generative KI spitzten sich mit der überraschenden Absetzung von Altman zu, der auch Mitbegründer von OpenAI war. Generative KI ist der Begriff für die Software, die auf einfache Aufforderungen hin kohärente Inhalte wie Aufsätze, Computercode und fotoähnliche Bilder ausspucken kann. Die Popularität von OpenAIs ChatGPT im vergangenen Jahr hat die Debatte darüber beschleunigt, wie die Software am besten reguliert und entwickelt werden kann.

Die Frage ist, ob es sich hierbei nur um ein weiteres Produkt handelt, wie soziale Medien oder Kryptowährungen, oder ob es sich um eine Technologie handelt, die die Fähigkeit hat, den Menschen zu übertreffen und unkontrollierbar zu werden, sagte Connor Leahy, CEO von ConjectureAI und ein Verfechter der Sicherheit. Gehört die Zukunft also den Maschinen? Sutskever hatte den Eindruck, dass Altman die Software von OpenAI zu schnell in die Hände der Nutzer drängt und damit möglicherweise die Sicherheit gefährdet.

"Wir haben keine Lösung, um eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie abtrünnig wird", schrieben er und ein Stellvertreter im Juli in einem Blogbeitrag. "Menschen werden nicht in der Lage sein, KI-Systeme, die viel schlauer sind als wir, zuverlässig zu überwachen.

Besonders besorgniserregend war Berichten zufolge, dass OpenAI auf seiner Entwicklerveranstaltung Anfang des Monats eine Reihe neuer kommerziell erhältlicher Produkte ankündigte, darunter eine Version seiner ChatGPT-4-Software und sogenannte Agenten, die wie virtuelle Assistenten arbeiten.

Sutskever hat auf eine Anfrage nach einem Kommentar nicht reagiert.

Das Schicksal von OpenAI wird von vielen Technologen als entscheidend für die Entwicklung von KI angesehen. Die Diskussionen über die Wiedereinsetzung von Altman am Wochenende verliefen im Sande, was die Hoffnungen der Gefolgsleute des ehemaligen CEOs zunichte machte.

Die Veröffentlichung von ChatGPT im November letzten Jahres löste eine Flut von Investitionen in KI-Firmen aus, darunter 10 Milliarden Dollar von Microsoft in OpenAI und weitere Milliarden für andere Startups, unter anderem von Alphabet und Amazon.com.

Das kann die explosionsartige Zunahme neuer KI-Produkte erklären, da Firmen wie Anthropic und ScaleAI um die Gunst der Investoren buhlen. Die Regulierungsbehörden versuchen unterdessen, mit der Entwicklung der KI Schritt zu halten. Dazu gehören Richtlinien der Biden-Administration und ein Vorstoß für eine obligatorische Selbstregulierung in einigen Ländern, während die Europäische Union daran arbeitet, eine umfassende Aufsicht über die Software einzuführen.

Während die meisten Menschen generative KI-Software wie ChatGPT verwenden, um ihre Arbeit zu ergänzen, z.B. um schnelle Zusammenfassungen langer Dokumente zu schreiben, sind Beobachter vorsichtig gegenüber Versionen, die als künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI) bekannt sind und die immer kompliziertere Aufgaben ohne jede Aufforderung ausführen könnten. Dies hat die Befürchtung geweckt, dass die Software von sich aus Verteidigungssysteme übernehmen, politische Propaganda erstellen oder Waffen produzieren könnte.

OpenAI wurde vor acht Jahren als gemeinnütziges Unternehmen gegründet, um sicherzustellen, dass seine Produkte nicht von Gewinnstreben angetrieben werden, das zu einer gefährlichen AGI führen könnte. In der Charta des Unternehmens ist von einer AGI die Rede, die der Menschheit Schaden zufügen oder die Macht unangemessen konzentrieren könnte. Seitdem hat Altman jedoch dazu beigetragen, innerhalb des Unternehmens eine gewinnorientierte Einheit zu gründen, um Geldmittel zu beschaffen und andere Ziele zu erreichen.

Am späten Sonntag wurde Emmett Shear, der frühere Leiter der Streaming-Plattform Twitch, zum Interims-CEO von OpenAI ernannt. Er sprach sich im September in den sozialen Medien für eine "Verlangsamung" der KI-Entwicklung aus. "Wenn wir jetzt mit einer Geschwindigkeit von 10 arbeiten, bedeutet eine Pause eine Reduzierung auf 0. Ich denke, wir sollten stattdessen eine 1-2 anstreben", schrieb er.

Die genauen Gründe für Altmans Absetzung waren am Montag noch unklar. Aber es ist sicher, dass OpenAI vor großen Herausforderungen steht.