Die politischen Entscheidungsträger der Europäischen Union haben am Dienstag

gebilligt.

das weltweit erste umfassende Regelwerk zur Regulierung des Einsatzes von künstlicher Intelligenz (KI) in Tools wie ChatGPT und in der biometrischen Überwachung, das voraussichtlich nächsten Monat in Kraft treten wird.

Hier sind die wichtigsten Punkte des KI-Gesetzes:

HOCHRISIKOSYSTEME

Sogenannte Hochrisiko-KI-Systeme - d.h. Systeme, von denen angenommen wird, dass sie ein erhebliches Potenzial haben, die Gesundheit, die Sicherheit, die Grundrechte, die Umwelt, die Demokratie, die Wahlen und die Rechtsstaatlichkeit zu beeinträchtigen - müssen eine Reihe von Anforderungen erfüllen, wie z.B. die Durchführung einer Folgenabschätzung für die Grundrechte und die Verpflichtung, Zugang zum EU-Markt zu erhalten.

Für KI-Systeme, die als begrenzt risikobehaftet eingestuft werden, würden nur sehr geringe Transparenzpflichten gelten, wie z.B. die Angabe, dass der Inhalt von KI generiert wurde, damit die Nutzer selbst entscheiden können, wie sie ihn nutzen wollen.

EINSATZ VON KI IN DER STRAFVERFOLGUNG

Der Einsatz von biometrischen Echtzeit-Fernerkennungssystemen im öffentlichen Raum durch die Strafverfolgungsbehörden wird nur zur Identifizierung von Opfern von Entführungen, Menschenhandel und sexueller Ausbeutung sowie zur Verhinderung einer konkreten und gegenwärtigen terroristischen Bedrohung zulässig sein.

Sie werden auch erlaubt sein, wenn es darum geht, Personen aufzuspüren, die terroristischer Straftaten, des Menschenhandels, der sexuellen Ausbeutung, des Mordes, der Entführung, der Vergewaltigung, des bewaffneten Raubes, der Beteiligung an einer kriminellen Vereinigung und der Umweltkriminalität verdächtigt werden.

GENERAL PURPOSE AI SYSTEMS (GPAI) UND GRUNDLAGENMODELLE

Für GPAI- und Basismodelle gelten weniger strenge Transparenzanforderungen, wie z.B. die Erstellung einer technischen Dokumentation, die Einhaltung des EU-Urheberrechts und die Verbreitung detaillierter Zusammenfassungen über die für das Algorithmus-Training verwendeten Inhalte.

Foundation-Modelle, die als systemisches Risiko und als GPAI mit hoher Auswirkung eingestuft werden, müssen Modellevaluierungen durchführen, Risiken bewerten und abmildern, Gegentests durchführen, der Europäischen Kommission über schwerwiegende Vorfälle berichten, Cybersicherheit gewährleisten und über ihre Energieeffizienz berichten.

Bis zur Veröffentlichung harmonisierter EU-Standards können sich GPAIs mit systemischen Risiken auf Verhaltenskodizes verlassen, um die Verordnung einzuhalten.

VERBOTENE KI

Die Verordnung verbietet Folgendes:

- Biometrische Kategorisierungssysteme, die sensible Merkmale wie politische, religiöse oder philosophische Überzeugungen, sexuelle Orientierung oder Rasse verwenden.

- Ungezieltes Auslesen von Gesichtsbildern aus dem Internet oder aus Überwachungsaufnahmen zur Erstellung von Gesichtserkennungsdatenbanken;

- Erkennung von Emotionen am Arbeitsplatz und in Bildungseinrichtungen.

- Soziales Scoring auf der Grundlage von sozialem Verhalten oder persönlichen Merkmalen.

- KI-Systeme, die das Verhalten von Menschen manipulieren, um ihren freien Willen zu umgehen.

- KI, die eingesetzt wird, um die Schwächen von Menschen aufgrund ihres Alters, einer Behinderung oder ihrer sozialen oder wirtschaftlichen Situation auszunutzen.

WER DAS KI-GESETZ DURCHSETZT

Ein KI-Büro innerhalb der Europäischen Kommission wird die Regeln durchsetzen, während ein KI-Ausschuss mit EU-Vertretern die Kommission und die EU-Länder bei der Anwendung der neuen Gesetzgebung unterstützen wird.

SANKTIONEN FÜR VERSTÖSSE

Je nach Verstoß und Größe des betroffenen Unternehmens beginnen die Bußgelder bei 7,5 Millionen Euro (8 Millionen Dollar) oder 1,5 % des weltweiten Jahresumsatzes und können bis zu 35 Millionen Euro oder 7 % des weltweiten Umsatzes betragen. (Bericht von Foo Yun Chee, Redaktion: Helen Popper und Ed Osmond)