- Das Labor für künstliche Intelligenz OpenAI hat am Montag einen Blogbeitrag veröffentlicht, in dem es sich mit Befürchtungen auseinandersetzt, dass sich seine Technologie in die Wahlen einmischen könnte, da sich mehr als ein Drittel der Weltbevölkerung darauf vorbereitet, in diesem Jahr zu den Wahlen zu gehen.

Der Einsatz von KI zur Beeinflussung der Integrität von Wahlen ist ein Thema, seit das von Microsoft unterstützte Unternehmen zwei Produkte veröffentlicht hat: ChatGPT, das menschliches Schreiben überzeugend imitieren kann, und DALL-E, dessen Technologie verwendet werden kann, um "Deepfakes" oder realistisch aussehende Bilder zu erstellen, die gefälscht sind.

Zu den Besorgten gehört auch der CEO von OpenAI, Sam Altman, der im Mai vor dem Kongress aussagte, er sei "nervös" über die Fähigkeit der generativen KI, die Integrität der Wahlen durch "interaktive Eins-zu-Eins-Desinformation" zu gefährden.

Das in San Francisco ansässige Unternehmen sagte, dass es in den Vereinigten Staaten, wo dieses Jahr Präsidentschaftswahlen stattfinden, mit der National Association of Secretaries of State zusammenarbeitet, einer Organisation, die sich auf die Förderung effektiver demokratischer Prozesse wie Wahlen konzentriert.

ChatGPT wird die Nutzer bei bestimmten wahlbezogenen Fragen an CanIVote.org weiterleiten, so das Unternehmen weiter.

Das Unternehmen erklärte außerdem, dass es daran arbeitet, mit Hilfe von DALL-E deutlicher zu machen, wenn Bilder von KI generiert wurden. Es plant, Bilder mit einem "cr"-Symbol zu versehen, um darauf hinzuweisen, dass sie von KI generiert wurden, und folgt damit einem von der Coalition for Content Provenance and Authenticity erstellten Protokoll.

Sie arbeitet auch an Möglichkeiten, mit DALL-E generierte Inhalte zu identifizieren, auch nachdem die Bilder verändert wurden.

In seinem Blog-Beitrag betonte OpenAI, dass seine Richtlinien es verbieten, seine Technologie auf eine Art und Weise zu verwenden, die als potenziell missbräuchlich eingestuft wird, wie z.B. die Erstellung von Chatbots, die vorgeben, echte Menschen zu sein, oder die von Abstimmungen abhalten.

Außerdem ist es DALL-E untersagt, Bilder von realen Personen zu erstellen, einschließlich politischer Kandidaten, so OpenAI.

Das Unternehmen steht vor der Herausforderung, zu kontrollieren, was tatsächlich auf seiner Plattform passiert.

Als Reuters letztes Jahr versuchte, Bilder von Donald Trump und Joe Biden zu erstellen, wurde die Anfrage blockiert und es erschien eine Meldung, die besagte, dass dies "möglicherweise nicht unserer Inhaltspolitik entspricht".

Reuters war jedoch in der Lage, Bilder von mindestens einem Dutzend anderer US-Politiker zu erstellen, darunter der ehemalige Vizepräsident Mike Pence.