Brüssel/Frankfurt (Reuters) - Wegen weiterhin ungeklärter Detailfragen haben EU-Vertreter ihre Verhandlungen über die Regulierung Künstlicher Intelligenz (KI) am Donnerstagnachmittag unterbrochen.
Nach einer 22-stündigen Marathon-Sitzung kündigte die EU-Kommission an, die Gespräche mit dem Europaparlament und den EU-Staaten zum "AI Act" am Freitagmorgen um 09.00 Uhr wieder aufnehmen zu wollen. Es habe bereits eine Menge Fortschritte gegeben, schrieb EU-Industriekommissar Thierry Breton auf dem Kurznachrichtendienst X (vormals Twitter). Derzeit ringen Europäisches Parlament, Kommission und EU-Mitgliedsstaaten im sogenannten Trilog um die finale Fassung des Gesetzespakets, die bis zum Jahresende stehen soll.
Eine Annäherung gab es unter anderem bei der strittigen Frage nach dem Umgang mit "Grundlagenmodellen". Diese Programme wie ChatGPT dienen als Basis, auf denen andere Firmen Chatbots für den Kundendienst oder digitale Assistenten für Ärzte entwickeln können. Deutschland, Frankreich und Italien hatten vor wenigen Wochen vorgeschlagen, "Foundation Models" aus dem Gesetz auszunehmen und stattdessen auf eine verbindliche Selbstverpflichtung zu setzen. Sandra Wachter, Professorin für Technologie und Regulierung am Oxford Internet Institute der Universität von Oxford, bezeichnete diesen Ansatz als "fast schon empörend". Eine Selbstregulierung heißt nichts anderes, als dass ich mich an die Regeln halte oder eben nicht. Sich auf das ethische Gefühl eines Unternehmens zu verlassen, ist nicht genug."
Laut Verhandlungsunterlagen, die die Nachrichtenagentur Reuters einsehen konnte, soll eine Liste mit KI-Modellen erarbeitet werden, die "systemische Risiken" bergen. Generell sollten die Entwickler dieser Programme detaillierte Informationen zu den Daten, mit denen die KI trainiert wurde, zur Verfügung stellen.
Aus den Verhandlungsunterlagen ging außerdem hervor, dass Foundation Models, deren Programmcode frei zugänglich ist (Open Source) von einer strikten Regulierung ausgenommen wird, sofern sie nicht als Hochrisiko-Anwendung eingestuft oder für verbotene Zwecke eingesetzt wird.
Philipp Hacker, Professor für Recht und Ethik der digitalen Gesellschaft an der Europa-Universität Viadrina Frankfurt/Oder, kritisierte dies. Das Argument, dass Open Source-Projekte von kleineren Unternehmen oder Freiwilligen vorangetrieben würden und daher strenge Auflagen nicht erfüllen könnten, lasse er nicht gelten. "Wegen der hohen Kosten werden solche wirkmächtigen Programme nicht in einer Garage entwickelt", sagte Hacker. Wichtige Mitspieler in diesem Bereich seien die Facebook-Mutter Meta und Falcon aus den Vereinigten Arabischen Emiraten. "Das sind beides nicht gerade Unternehmen, die für Geldmangel bekannt sind."
"Ich würde sogar noch weitergehen und verbieten, dass leistungsfähige Foundation Models als Open Source herausgebracht werden", fügte Hacker hinzu. "Denn eingebaute Sicherungen lassen sich mit relativ wenig Aufwand entfernen, wenn ich mir die Software auf den Computer herunterladen und den Programmcode verändern kann. Wir reden hier letztendlich über Dual-Use-Güter." Darunter verstehen Experten Technologien, die sowohl für zivile als auch militärische Zwecke genutzt werden können.
BIOMETRISCHE ÜBERWACHUNG WEITERHIN STRITTIG
Der offenbar letzte große Stolperstein auf dem Weg zu einer Einigung war die biometrische Überwachung. Der Gesetzentwurf des Parlamentes verbietet KI-Anwendungen wie eine automatisierte Gesichtserkennung. Die EU-Staaten beharren aber auf Ausnahmen zum Schutz der nationalen Sicherheit, zur Verteidigung und für andere militärische Zwecke. Um hier eine Lockerung zu erreichen, seien sie beim Thema Foundation Models auf das Europäische Parlament zugegangen, sagte ein Insider. Tobias Bacherle (Bündnis 90/Die Grünen), Obmann im Digitalausschuss des Bundestages, warnte vor einer Aufweichung der Regelungen. "Sollte sich das Europäische Parlament nicht durchsetzen können, kostet es uns einen Teil unserer Freiheit."
Ohne eine baldige Einigung könnte sich die Verabschiedung des Gesetzes bis nach den Europawahlen im Juni kommenden Jahres verzögern und die EU ihre mögliche Vorbildfunktion bei der KI-Regulierung verlieren. Das Gesetz wäre eine Alternative zu den eher lockeren Regeln der USA und den restriktiveren Auflagen Chinas. Außerdem haben die meisten anderen Staaten bislang vor allem Verordnungen und Dekrete erlassen.
Für die heimische KI-Branche wäre eine Fortsetzung der Hängepartie ebenfalls negativ, warnte die Deutsche Industrie- und Handelskammer (DIHK). "Eine Verzögerung könnte die Unternehmen im Wettbewerb um neue Anwendungen schwächen."
(Bericht von Foo Yun Chee und Hakan Ersen, redigiert von Ralf Banser und Hans Busemann.; Bei Rückfragen wenden Sie sich bitte an unsere Redaktion unter berlin.newsroom@thomsonreuters.com (für Politik und Konjunktur) oder frankfurt.newsroom@thomsonreuters.com (für Unternehmen und Märkte).)