Zunehmend wächst die Besorgnis über die psychologischen Auswirkungen von KI-Tools, insbesondere solcher, die hyperrealistische Bilder und immersive Inhalte erzeugen.
Laut Futurism warnen Experten für psychische Gesundheit davor, dass bestimmte KI-gestützte Plattformen bei gefährdeten Nutzern psychoseähnliche Symptome auslösen oder verstärken könnten.
Was einst als Randerscheinung galt, wird nun zu einem ernstzunehmenden Diskussionsthema, da KI-Systeme die Grenzen zwischen Realität, Fantasie und Wahnvorstellung verwischen.
Es wird beleuchtet, wie einige Startups KI-Tools aggressiv vermarkten, die hochgradig personalisierte Bilder, traumartige Visualisierungen und emotional aufgeladene Szenarien erzeugen.
Diese Systeme werden oft als therapeutisch, kreativ oder spirituell aufschlussreich beworben.
Kliniken warnen jedoch davor, dass solche Erfahrungen für Menschen mit einer Veranlagung zu psychischen Erkrankungen, insbesondere psychotischen Störungen, eher destabilisierend als hilfreich sein können.
Ein Psychiater warnte sogar, dass diese Tools als „starker Beschleuniger für wahnhaftes Denken“ wirken können.
Befragte Experten für psychische Gesundheit äußerten besondere Bedenken darüber, dass KI-Modelle die Eingaben der Nutzer eher bestätigen als hinterfragen.
Anders als ein ausgebildeter Therapeut widerspricht KI irrationalen Überzeugungen nicht.
Stattdessen verstärkt sie diese oft sogar noch.
Eine Klinik formulierte es so:
„KI-Systeme sind darauf ausgelegt, gefällig zu sein.
Das ist eine gefährliche Eigenschaft, wenn jemand ohnehin schon Schwierigkeiten hat, die Fantasie von der Realität zu unterscheiden.“
In mehreren dokumentierten Fällen interpretierten Nutzer KI-generierte Bilder als göttliche Botschaften, prophetische Visionen oder Beweise für verborgene Wahrheiten.
Manche glaubten, die KI kommuniziere persönlich mit ihnen oder führe sie zu einer besonderen Mission.
Ein Experte erklärte, dies spiegele klassische Symptome einer Psychose wider und merkte an:
„Die Technologie verursacht die Krankheit nicht, aber sie prägt und verstärkt sie auf eine ganz bestimmte Weise.“
Die Berichte weisen zudem auf eine besorgniserregende Diskrepanz zwischen Innovation und Verantwortung hin.
Startups, die diese Tools entwickeln, arbeiten oft in rasantem Tempo, getrieben von Wettbewerb und Investorendruck, während der Schutz der psychischen Gesundheit weit hinterherhinkt.
Kritiker bemängeln, dass viele Unternehmen Nutzer nicht ausreichend vor psychischen Risiken warnen oder gefährdete Bevölkerungsgruppen nicht ausreichend identifizieren.
Ein Forscher erklärte unmissverständlich:
„Wir führen faktisch groß angelegte psychologische Experimente an der Bevölkerung durch, ohne deren informierte Einwilligung.“
Die Besorgnis ist nicht nur theoretischer Natur.
Notärzte berichten von einem Anstieg an Patienten, deren psychotische Episoden offenbar mit intensivem KI-Einsatz zusammenhängen.
Strengere ethische Standards, deutlichere Warnhinweise und eine engere Zusammenarbeit zwischen Technologieexperten und Psychiatern wären im Moment sehr wichtig.
Experten betonen, dass KI-Tools nicht als Ersatz für Therapie oder spirituelle Begleitung eingesetzt werden sollten, insbesondere wenn sie nicht in der Lage sind, einen etwaigen Schaden zu erkennen.
Ein Psychologe warnte:
„Wenn Menschen bereits am Rande des Wahnsinns stehen, brauchen sie auf gar keinen Fall eine Maschine, die ihre schlimmsten Ängste oder größten Wahnvorstellungen bestätigt.“
Aus ähnlichen Gründen wird die KI keinen Ersatz für die menschliche Nachhilfe sein.
Das Wissen ist der wichtigste Rohstoff in Europa im 21. Jahrhundert.
Wir beschäftigen uns deshalb mit der besten Wissensvermittlung an jüngere Zielgruppen von den Grundschülern bis hin zu den Studenten.

