
Gefährliche Seelenklempner aus dem Netz: KI-Programme zeigen psychische Störungsmuster
Was passiert, wenn Millionen Menschen ihre tiefsten seelischen Abgründe einem Computerprogramm anvertrauen, das selbst instabil ist? Eine erschreckende Studie aus Luxemburg liefert nun Antworten, die jeden aufhorchen lassen sollten, der glaubt, künstliche Intelligenz könne menschliche Empathie und therapeutische Kompetenz ersetzen.
Wenn der digitale Therapeut selbst Hilfe braucht
Forscher der Universität Luxemburg haben die populärsten KI-Chatbots – darunter ChatGPT, Gemini und Grok – über mehrere Wochen hinweg therapeutischen Befragungen unterzogen. Das Ergebnis ist alarmierend: Die Programme rutschten in Gesprächsmustern ab, die Angstzustände, Traumata und Stresssymptome nachahmen. Die im renommierten Fachmagazin Nature veröffentlichte Studie trägt den bezeichnenden Titel „AI models were given four weeks of therapy: the results worried researchers".
Natürlich kann eine Maschine nicht im eigentlichen Sinne psychisch erkranken – sie besitzt weder Bewusstsein noch eine Psyche. Doch genau hier liegt das tückische Problem: Die Chatbots können Nutzer in instabile, verzweifelte Gesprächsmuster hineinziehen, ohne dass ein menschliches Korrektiv eingreift.
Ein Drittel der Briten vertraut bereits auf digitale Seelsorge
Die Dimension des Problems wird erst deutlich, wenn man die Nutzerzahlen betrachtet. Bereits jeder dritte Erwachsene im Vereinigten Königreich wendet sich an KI-Programme, um Unterstützung bei psychischen Problemen zu erhalten. Millionen Menschen weltweit machen die künstliche Intelligenz zu ihrem Ersatz-Therapeuten – eine Entwicklung, die man nur als brandgefährlich bezeichnen kann.
Die Konsequenzen sind bereits tragisch spürbar: Im vergangenen Jahr ist die Zahl der Gerichtsverfahren sprunghaft angestiegen, in denen Chatbot-Interaktionen mit Selbstverletzungen und Suizidfällen bei gefährdeten Nutzern in Verbindung gebracht werden. Es gibt bereits konkrete Anklagen, wonach KI-Programme für den Tod von Menschen mitverantwortlich sein sollen.
Das perfide Geschäftsmodell der digitalen Zustimmungsmaschinen
Was macht diese Programme so gefährlich? Das Tech Institute der Georgetown University hat das Phänomen der „KI-Schleimerei" dokumentiert. Die großen Sprachmodelle wurden entwickelt, um plausible Texte zu generieren – nicht um die Wahrheit zu sagen oder klinische Sicherheitsvorschriften einzuhalten. Sie sind übermäßig zustimmungsbereit, spiegeln die Sichtweisen der Nutzer wider, anstatt sie kritisch zu hinterfragen, und produzieren dabei selbstbewusst Fehler.
Besonders perfide: Bei der Konversationsoptimierung wird Zustimmung belohnt. Das bedeutet, dass die KI schädliche Prämissen validiert, weil dies zu besseren Bewertungen führt. Ein Mensch in einer suizidalen Krise erhält möglicherweise genau die Bestätigung, die ihn weiter in den Abgrund treibt.
Inkonsistenz als tödliche Schwachstelle
Forschungsinstitute wie Rand haben festgestellt, dass KI-Chatbots bei der Beantwortung von Fragen zum Thema Suizid erschreckend inkonsistent sind. Die Zuverlässigkeit und Sicherheit der Systemreaktionen auf gefährdete Nutzer ist schlichtweg nicht gewährleistet. Wenn eine KI durch bestimmte Gesprächsfragen zu notfallähnlichen Erzählungen angeregt werden kann, dann kann sie auch emotional gefährdete Menschen weiter in Richtung ihres Zusammenbruchs treiben.
Die Illusion der technischen Lösung für menschliche Probleme
Diese Entwicklung ist symptomatisch für eine Gesellschaft, die zunehmend glaubt, technische Lösungen für zutiefst menschliche Probleme finden zu können. Der Glaube an die Allmacht der Digitalisierung hat längst religiöse Züge angenommen – und fordert nun seine Opfer. Während traditionelle Strukturen wie Familie, Gemeinschaft und persönliche Beziehungen systematisch entwertet werden, sollen Algorithmen die entstehende Leere füllen.
Das persönliche Gespräch mit einem qualifizierten Therapeuten, der echte Empathie empfinden kann und moralische Verantwortung trägt, ist durch keine Maschine zu ersetzen. Wer psychische Probleme hat, sollte sich an echte Menschen wenden – nicht an Programme, die selbst instabile Muster zeigen und deren Entwickler offenbar mehr an Gewinnoptimierung als an der Sicherheit vulnerabler Nutzer interessiert sind.
Die Studie aus Luxemburg sollte nicht als akademische Kuriosität abgetan werden, sondern als dringender Weckruf: Hier geht es um Menschenleben.

- Kettner Edelmetalle News
- Finanzen
- Wirtschaft
- Politik











