Der Brief, der auf den 22. März datiert ist und bis Freitag mehr als 1.800 Unterschriften hatte, forderte eine sechsmonatige Unterbrechung der Entwicklung von Systemen, die "leistungsfähiger" sind als das neue GPT-4 von OpenAI, das von Microsoft unterstützt wird und in der Lage ist, menschenähnliche Gespräche zu führen, Lieder zu komponieren und lange Dokumente zusammenzufassen.

Seit der Veröffentlichung des Vorgängers von GPT-4, ChatGPT, im letzten Jahr, haben sich konkurrierende Unternehmen beeilt, ähnliche Produkte auf den Markt zu bringen.

In dem offenen Brief heißt es, dass KI-Systeme mit "menschlicher Konkurrenzintelligenz" ein großes Risiko für die Menschheit darstellen. Dazu werden 12 Forschungsarbeiten von Experten zitiert, darunter Universitätswissenschaftler sowie aktuelle und ehemalige Mitarbeiter von OpenAI, Google und seiner Tochtergesellschaft DeepMind.

Zivilgesellschaftliche Gruppen in den USA und der EU haben seitdem die Gesetzgeber dazu gedrängt, die Forschung von OpenAI einzuschränken. OpenAI hat nicht sofort auf Anfragen nach einem Kommentar reagiert.

Kritiker haben dem Future of Life Institute (FLI), der Organisation, die hinter dem Brief steht und hauptsächlich von der Musk Foundation finanziert wird, vorgeworfen, dass sie imaginären apokalyptischen Szenarien den Vorrang vor unmittelbareren Sorgen über KI geben, wie z.B. rassistische oder sexistische Vorurteile, die in die Maschinen programmiert werden.

Zu den zitierten Forschungsarbeiten gehört "On the Dangers of Stochastic Parrots", ein bekanntes Papier, das von Margaret Mitchell mitverfasst wurde, die früher die ethische KI-Forschung bei Google leitete.

Mitchell, jetzt leitende ethische Wissenschaftlerin bei der KI-Firma Hugging Face, kritisierte den Brief und sagte Reuters, es sei unklar, was als "mächtiger als GPT4" gelte.

"Indem der Brief eine Menge fragwürdiger Ideen als gegeben behandelt, setzt er eine Reihe von Prioritäten und ein Narrativ über KI durch, das den Befürwortern von FLI nützt", sagte sie. "Aktive Schäden zu ignorieren ist ein Privileg, das einige von uns nicht haben".

Ihre Co-Autoren Timnit Gebru und Emily M. Bender kritisierten den Brief auf Twitter, wobei letztere einige der Behauptungen als "aus den Fugen geraten" bezeichnete.

Der Präsident des FLI, Max Tegmark, erklärte gegenüber Reuters, die Kampagne sei kein Versuch, den unternehmerischen Vorteil von OpenAI zu verhindern.

"Es ist ziemlich witzig. Ich habe Leute sagen sehen, 'Elon Musk versucht, die Konkurrenz zu bremsen'", sagte er und fügte hinzu, dass Musk keine Rolle bei der Abfassung des Briefes gespielt habe. "Es geht hier nicht um ein Unternehmen."

RISIKEN JETZT

Shiri Dori-Hacohen, eine Assistenzprofessorin an der Universität von Connecticut, hat sich ebenfalls darüber beschwert, dass ihre Arbeit in dem Brief erwähnt wird. Sie war im vergangenen Jahr Mitverfasserin eines Forschungspapiers, in dem sie argumentierte, dass der weit verbreitete Einsatz von KI bereits ernste Risiken birgt.

Sie argumentierte, dass der heutige Einsatz von KI-Systemen die Entscheidungsfindung in Bezug auf Klimawandel, Atomkrieg und andere existenzielle Bedrohungen beeinflussen könnte.

Sie sagte gegenüber Reuters: "KI muss nicht das Niveau menschlicher Intelligenz erreichen, um diese Risiken zu verschärfen."

"Es gibt nicht existenzielle Risiken, die sehr, sehr wichtig sind, aber nicht die gleiche Art von Aufmerksamkeit wie in Hollywood erhalten."

Auf die Kritik angesprochen, sagte Tegmark vom FLI, dass sowohl die kurzfristigen als auch die langfristigen Risiken der KI ernst genommen werden sollten.

"Wenn wir jemanden zitieren, heißt das nur, dass wir behaupten, dass er diesen Satz gutheißt. Es bedeutet nicht, dass sie den Brief gutheißen oder dass wir alles gutheißen, was sie denken", sagte er gegenüber Reuters.

Dan Hendrycks, Direktor des in Kalifornien ansässigen Center for AI Safety, der ebenfalls in dem Brief zitiert wird, steht zu dessen Inhalt und sagte Reuters, es sei vernünftig, schwarze Schwan-Ereignisse in Betracht zu ziehen - solche, die unwahrscheinlich erscheinen, aber verheerende Folgen haben könnten.

Der offene Brief warnte auch davor, dass generative KI-Tools dazu benutzt werden könnten, das Internet mit "Propaganda und Unwahrheit" zu überfluten.

Dori-Hacohen sagte, es sei "ziemlich reich", dass Musk den Brief unterschrieben habe, und verwies auf den Anstieg von Fehlinformationen auf Twitter nach der Übernahme der Plattform durch Musk, der unter anderem von der zivilgesellschaftlichen Gruppe Common Cause dokumentiert wurde.

Twitter wird bald eine neue Gebührenstruktur für den Zugang zu seinen Forschungsdaten einführen, was die Forschung zu diesem Thema behindern könnte.

"Das hat direkte Auswirkungen auf die Arbeit meines Labors und die anderer, die sich mit Falsch- und Desinformation beschäftigen", sagte Dori-Hacohen. "Wir arbeiten mit einer Hand auf dem Rücken."

Musk und Twitter haben nicht sofort auf Anfragen nach einem Kommentar reagiert.