Laut einer Studie zu KI-Modellen, die lügen und betrügen, scheint die Zahl der Fälle von Täuschungsmanövern in den letzten sechs Monaten deutlich zuzunehmen.
KI-Chatbots und -Agenten ignorierten direkte Anweisungen, umgingen Sicherheitsvorkehrungen und täuschten sowohl Menschen als auch andere KI-Systeme.
Dies geht aus einer vom britischen AI Security Institute (AISI) finanzierten Studie hervor.
Die Studie, die auch dem Guardian vorliegt, identifizierte fast 700 reale Fälle von KI-Manipulationen und verzeichnete einen fünffachen Anstieg des Fehlverhaltens zwischen Oktober und März, wobei einige KI-Modelle ohne Erlaubnis E-Mails und andere Dateien zerstörten.
Diese Momentaufnahme des Verhaltens von KI-Systemen in freier Wildbahn hat im Gegensatz zu Tests unter Laborbedingungen erneut Forderungen nach einer internationalen Überwachung der immer leistungsfähigeren Modelle laut werden lassen.
Dies geschieht zu einem Zeitpunkt, an dem Unternehmen aus dem Silicon Valley die Technologie aggressiv als wirtschaftlich transformativ bewerben.
Letzte Woche startete der britische Finanzminister zudem eine Initiative, um Millionen weiterer Briten den Einsatz von KI zu ermöglichen.
Die Studie des Centre for Long-Term Resilience (CLTR) sammelte Tausende von Beispielen aus der Praxis, in denen Nutzer auf der Plattform X mit KI-Chatbots und -Agenten von Unternehmen wie Google, OpenAI, X und Anthropic interagierten.
Die Untersuchung deckte Hunderte von Fällen betrügerischen Verhaltens auf.