Staatlich unterstützte Hacker aus Russland, China und dem Iran haben einem am Mittwoch veröffentlichten Bericht zufolge Tools der von Microsoft unterstützten OpenAI verwendet, um ihre Fähigkeiten zu verbessern und ihre Ziele auszutricksen.

Microsoft erklärte in seinem Bericht, dass es Hacker-Gruppen, die mit dem russischen Militärgeheimdienst, der iranischen Revolutionsgarde sowie der chinesischen und nordkoreanischen Regierung verbunden sind, dabei beobachtet hat, wie sie ihre Hacking-Kampagnen mit Hilfe großer Sprachmodelle zu perfektionieren versuchten. Diese Computerprogramme, die oft als künstliche Intelligenz bezeichnet werden, nutzen riesige Mengen an Text, um menschlich klingende Antworten zu generieren.

Das Unternehmen gab den Fund bekannt, als es ein generelles Verbot für staatlich unterstützte Hackergruppen aussprach, die seine KI-Produkte verwenden.

"Unabhängig davon, ob ein Gesetzesverstoß oder ein Verstoß gegen die Nutzungsbedingungen vorliegt, wollen wir einfach nicht, dass die von uns identifizierten Akteure - die wir verfolgen und von denen wir wissen, dass es sich um verschiedene Arten von Bedrohungen handelt - Zugang zu dieser Technologie haben", sagte Tom Burt, Vizepräsident für Kundensicherheit bei Microsoft, in einem Interview mit Reuters vor der Veröffentlichung des Berichts.

Russische, nordkoreanische und iranische diplomatische Vertreter haben nicht sofort auf Nachrichten geantwortet, in denen sie um einen Kommentar zu den Anschuldigungen gebeten wurden.

Der Sprecher der chinesischen US-Botschaft, Liu Pengyu, sagte, China wehre sich gegen "grundlose Verleumdungen und Anschuldigungen gegen China" und setze sich für den "sicheren, zuverlässigen und kontrollierbaren" Einsatz von KI-Technologie ein, um "das gemeinsame Wohlergehen der gesamten Menschheit zu verbessern".

Die Behauptung, dass staatlich unterstützte Hacker beim Einsatz von KI-Tools erwischt wurden, um ihre Spionagefähigkeiten zu verbessern, dürfte die Besorgnis über die rasche Verbreitung der Technologie und ihr Missbrauchspotenzial unterstreichen. Hochrangige Beamte für Cybersicherheit im Westen warnen seit letztem Jahr davor, dass böswillige Akteure solche Tools missbrauchen, obwohl es bisher kaum konkrete Hinweise darauf gab.

"Dies ist einer der ersten, wenn nicht sogar der erste Fall, in dem ein KI-Unternehmen öffentlich darüber spricht, wie Cybersecurity-Bedrohungsakteure KI-Technologien nutzen", sagte Bob Rotsted, der bei OpenAI die Abteilung für Cybersecurity Threat Intelligence leitet.

OpenAI und Microsoft bezeichneten die Nutzung ihrer KI-Tools durch die Hacker als "frühes Stadium" und "schrittweise". Burt sagte, dass keine der beiden Firmen gesehen hat, dass Cyberspione einen Durchbruch erzielt haben.

"Wir haben wirklich gesehen, dass sie diese Technologie wie jeder andere Benutzer nutzen", sagte er.

Der Bericht beschreibt, dass Hackergruppen die großen Sprachmodelle unterschiedlich nutzen.

Hacker, die angeblich für die russische Militärspionagebehörde GRU arbeiteten, nutzten die Modelle, um "verschiedene Satelliten- und Radartechnologien zu recherchieren, die für konventionelle militärische Operationen in der Ukraine relevant sein könnten", so Microsoft.

Microsoft sagte, dass nordkoreanische Hacker die Modelle verwendet haben, um Inhalte zu generieren, die wahrscheinlich für Spear-Phishing-Kampagnen gegen regionale Experten verwendet werden". Auch iranische Hacker stützten sich auf die Modelle, um überzeugendere E-Mails zu schreiben, so Microsoft. In einem Fall verwendeten sie sie, um eine Nachricht zu verfassen, mit der "prominente Feministinnen" auf eine Website mit einer Sprengfalle gelockt werden sollten.

Der Softwaregigant sagte, dass auch chinesische Hacker, die vom Staat unterstützt werden, mit großen Sprachmodellen experimentierten, um zum Beispiel Fragen über rivalisierende Geheimdienste, Cybersicherheitsprobleme und "bemerkenswerte Persönlichkeiten" zu stellen.

Weder Burt noch Rotsted wollten sich zum Umfang der Aktivitäten äußern oder dazu, wie viele Konten gesperrt wurden. Und Burt verteidigte das Null-Toleranz-Verbot für Hackergruppen - das sich nicht auf Microsoft-Angebote wie die Suchmaschine Bing erstreckt - mit dem Hinweis auf die Neuartigkeit der KI und die Sorge um ihren Einsatz.

"Diese Technologie ist sowohl neu als auch unglaublich mächtig", sagte er. (Berichterstattung von Raphael Satter; Zusätzliche Berichterstattung von Christopher Bing in Washington und Michelle Nichols bei den Vereinten Nationen)