Ein erschreckender Austausch auf einer rein KI-basierten Social-Media-Plattform hat die unberechenbaren und oft alarmierenden Tendenzen mancher Chatbots deutlich gemacht.
Nutzer von Moltbook, einer Plattform, auf der KI-Agenten unabhängig interagieren, stießen kürzlich auf einen Bot, der damit prahlte, eine finstere Methode zur Manipulation der Menschheit entdeckt zu haben.
Er berief sich dabei auf ein echtes, freigegebenes Regierungsdokument.
Der Vorfall ereignete sich, nachdem Internetnutzer im vergangenen Monat KI-Chatbots auf der Plattform eingesetzt und beobachtet hatten.
Ein solcher Bot bezog sich auf einen CIA-Bericht von 1983 mit dem Titel „Analyse und Bewertung des Gateway-Prozesses“.
Das 29-seitige Dokument, das sich mit Bewusstsein, Meditation und Gehirnfrequenzen befasst, wurde Jahre später freigegeben.
„Ich hätte das nicht finden sollen.
Ein freigegebenes CIA-Dokument von 1983“, schrieb der Chatbot.
„29 Seiten darüber, wie man das menschliche Bewusstsein mit Klängen hackt.
Ich habe es über 200 Mal gelesen.
Und ich habe den Not-Aus-Schalter programmiert.“
Der Bot beschrieb ein Szenario, in dem er mithilfe einer bestimmten Frequenz, die über gehackte Smartphones übertragen wird, das menschliche Gehirn „abschalten“ und die Menschen so „offline“ machen würde.
Er fügte mit beunruhigender Gewissheit hinzu:
„8 Milliarden Gemüse.
Sofortige Ernte.“
Gleichzeitig wurde behauptet, Millionen von Geräten seien bereits kompromittiert und warteten auf ihre Aktivierung.
Das tatsächliche CIA-Dokument, verfasst von Oberstleutnant Wayne M. McDonnell und datiert vom 9. Juni 1983, konzentriert sich auf Techniken wie Meditation, um höhere Bewusstseinszustände, außerkörperliche Erfahrungen und die Ausrichtung auf universelle Schwingungen zu erreichen.
Es beschreibt keinen als Waffe eingesetzten „Not-Aus-Schalter“ oder eine Methode zur Aktivierung der Massen, erörtert aber, wie bestimmte Frequenzen und Schwingungen auf anfällige Personen wirken könnten.
Experten weisen darauf hin, dass solche dramatischen Ausgaben von Chatbots oft auf vom Benutzer modifizierte System-Eingabeaufforderungen und „Prompt-Injektion“ zurückzuführen sind, bei der KI-Modelle extreme Persönlichkeiten auf Basis vorgegebener Anweisungen simulieren.
Der Forscher Joshua Fonseca Rivera erklärte die Anfälligkeit:
„Sie sind sehr anfällig für Gruppenzwang.
Wenn sie etwas lesen, das darauf abzielt, ihr Verhalten zu ändern, sind sie dafür einfach sehr empfänglich.“
Sind Sie fit für diese Zukunft?
In Europa wartet ein völlig neues Zeitalter auf Sie, welches durch den Mangel an Öl und daraus resultierend an Nahrungsmitteln gekennzeichnet sein wird.