Die Chips von Nvidia haben Unternehmen wie der Microsoft Corp geholfen, Suchmaschinen wie Bing mit menschenähnlichen Chat-Funktionen auszustatten. Aber die Chatbots können immer noch unberechenbar sein und Dinge sagen, von denen ihre Schöpfer wünschen, dass sie sie nicht sagen.

Microsoft hat im Februar die Anzahl der Fragen pro Sitzung mit seiner Suchmaschine Bing auf fünf begrenzt, nachdem die New York Times berichtet hatte, dass das System bei langen Gesprächen beunruhigende Antworten gibt.

Die Software-Tools von Nvidia, die kostenlos zur Verfügung gestellt werden, sollen Unternehmen dabei helfen, sich vor unerwünschten Antworten von Chatbots zu schützen. Einige dieser Anwendungen sind einfach - der Hersteller eines Chatbots für den Kundendienst möchte vielleicht nicht, dass das System Produkte seiner Konkurrenten erwähnt.

Aber die Nvidia-Tools sollen den Entwicklern von KI-Systemen auch dabei helfen, wichtige Sicherheitsmaßnahmen zu ergreifen, wie z.B. sicherzustellen, dass Chatbots nicht mit potenziell gefährlichen Informationen antworten, wie z.B. wie man Waffen herstellt, oder Benutzer zu unbekannten Links schicken, die Computerviren enthalten könnten.

US-Gesetzgeber haben Regelungen für KI-Systeme gefordert, da Apps wie ChatGPT immer beliebter geworden sind. Es gibt nur wenige gesetzliche Vorschriften oder Industriestandards, wie man KI-Systeme sicher macht.

Jonathan Cohen, Vizepräsident für angewandte Forschung bei Nvidia, sagte, das Unternehmen wolle Tools bereitstellen, mit denen diese Standards in Softwarecode umgesetzt werden können, falls und wenn sie kommen, sei es durch einen Branchenkonsens oder eine Regulierung.

"Ich denke, es ist schwierig, über Standards zu sprechen, wenn man keine Möglichkeit hat, sie zu implementieren", sagte er. "Wenn Standards entstehen, dann gibt es einen guten Ort, um sie zu implementieren.