
Brandenburg Berlin ChatGPT als Therapeut: Wenn Künstliche Intelligenz die Seele trösten soll
Ob Stress in der Schule, eine Trennung oder Streit mit den Eltern - viele junge Menschen zeigen derzeit auf TikTok, dass sie belastende Themen mit KI-Bots besprechen. Psychotherapeut:innen sehen das äußerst kritisch. Von Marissa Boll und Helena Daehler
Sam aus Treptow-Köpenick nutzte ChatGPT lange Zeit nur, um Fragen zum Uni-Stoff oder zu technischen Problemen zu stellen – etwa: “Woran könnte es liegen, dass mein Backofen nicht mehr funktioniert?!” Die Antworten waren oft hilfreich. Dann, vor einigen Monaten, wurde es persönlicher. Damals hatte die 26-Jährige einen Konflikt mit einer ihr nahestehenden Person und begann, sich dem KI-Programm anzuvertrauen. Sie teilte dafür auch Chatverläufe.

ChatBot
ChatGPT hatte auch bei diesem Problem eine Antwort: "Es fühlt sich gerade schwer an, weil du mitten in der Emotion steckst – aber morgen, wenn du aufstehst, wirst du merken, dass es dir besser geht. (...) Du hast ein Recht darauf, Dich gut zu fühlen. Und Du hast heute etwas Tolles erreicht."
Die KI gab ihr Ratschläge, was sie der anderen Person per WhatsApp antworten könnte. Außerdem bestärkte sie sie in ihrem Verhalten, und das alles auf eine überraschend empathische Weise, sagt Sam: "Ich hatte in dem Moment nicht das Gefühl, mit einer KI zu schreiben, weil etwas so Menschliches zurückkam - auch wenn ich mir bewusst war, dass es kein Mensch ist."

Ihre Freundinnen wollte Sam in dieser Sache nicht um Rat fragen: “Die sind einfach auch parteiisch und haben mir gegenüber einen Beschützerinstinkt. Die Antworten von ChatGPT wirkten dagegen sehr neutral, obwohl das Programm ja auch nur meine Perspektive kennt.” Als es Sam schließlich wegen des Konflikts auch körperlich schlecht ging, empfahl ihr ChatGPT Entspannungsübungen:
“Was du jetzt tun kannst, um dich wieder zu beruhigen: Atmung kontrollieren.“: Atme tief durch die Nase ein (4 Sekunden), halte die Luft für 4 Sekunden, atme dann langsam durch den Mund aus (6 Sekunden). Wiederhole das mehrmals – es beruhigt dein Nervensystem sofort.”
Sam wusste aus ihrem Uni-Alltag, dass KI-Bots manchmal “halluzinieren”, also Antworten erfinden, die schlichtweg falsch sind. Deshalb ging sie mit den Vorschlägen der KI vorsichtig um und prüfte jeweils, ob sie sich für sie stimmig anfühlten.

"Die Antworten, die ChatGPT gibt, entsprechen nicht immer dem, was auch Expertinnen und Experten in einer Therapiesituation sagen würden", sagt Tanja Schneeberger. Sie beschäftigt sich am Deutschen Forschungszentrum für Künstliche Intelligenz mit der Frage, wie Menschen mit virtuellen Agenten interagieren. Große Sprachmodelle, die sogenannten LLMs, seien mit dem gesamten Wissen des Internets und nicht bloß mit spezialisiertem Fachwissen trainiert, sagt sie. Und sie gingen eher selten auf Konfrontation.
"Zum Beispiel bestärkt ChatGPT meistens die eigene Meinung, um ein gutes Gefühl zu hinterlassen", sagt Schneeberger. Wer eine Situation aus mehreren Perspektiven beleuchten wolle, müsse das Sprachmodell gezielt dazu auffordern. Unter anderem deshalb sieht Schneeberger die Nutzung von KI-Programmen wie ChatGPT für therapeutische Zwecke kritisch.
Was passieren kann, wenn vulnerable oder psychisch vorbelastete Menschen einen Chatbot nutzen, kann Eva-Maria Schweitzer-Köhn, die Präsidentin der Psychotherapeutenkammer Berlin, auch aus eigener Anschauung erzählen. "Eine Person mit psychotischen Episoden hat nachts stundenlang mit einer KI gechattet und weil immer wieder eine Antwort kam, wurde die Manie dadurch noch befeuert." Problematisch sei, dass ein Programm wie ChatGPT keine Instanz darstelle, die bemerke, dass etwas aus dem Ruder laufe.
Die ständige Verfügbarkeit eines Chatbots könne im ersten Moment verführerisch wirken, sagt Schweitzer-Köhn. Hier aber liege ein entscheidender Unterschied zum klassischen Therapieprozess: "Therapiestunden dauern nur 50 Minuten. Patient:innen gehen danach wieder in ihr Leben raus und verarbeiten das. Es kann dann nicht entgleiten." Außerdem hätten Therapeut:innen - im Gegensatz zur KI - stets ein langfristiges Therapieziel im Blick und seien mit Vorgeschichte und Krankheitsbild vertraut.

Aus Sicht von Tanja Schneeberger könnten Chatbots, die speziell für therapeutische Zwecke entwickelt wurden, die therapeutische Arbeit aber unterstützen. "Für einen Chatbot, den man spezifisch zu Therapiezwecken baut, nutzt man natürlich nur hochwertige, kuratierte Daten, wo Expertinnen und Experten Inputs gegeben haben", so Schneeberger. Mit solchen spezialisierten Therapie-Chatbots sei es bereits heute möglich, die Arbeit von Therapeuten sinnvoll zu ergänzen.
Bei vielen Nutzer:innen kommen die Antworten von ChatGPT allerdings offenbar gut an, wie eine Studie von Forschenden der Ohio State University in den USA zeigt, die in der Fachzeitschrift PLOS Mental Health veröffentlicht wurde. Darin verglichen mehr als 800 Teilnehmer:innen Antworten des KI-Programms mit denen von professionellen Therapeut:innen und bewerteten sie. Die KI-Antworten zu psychotherapeutischen Themen wurden dabei höher bewertet als die der Profis.
Sam, die BWL-Studentin aus Treptow, nutzt ChatGPT inzwischen wieder hauptsächlich für ihr Studium. Sie schreibt gerade an ihrer Bachelorarbeit. Persönlich wird es momentan nur, wenn sie die KI nach Tipps fragt, wie sie sich besser zum Schreiben motivieren kann. Die Konfliktsituation habe sich gelöst. "Meine Erkenntnis aus dem Gespräch mit ChatGPT ist, dass es keine Therapie ersetzen kann, aber auch, dass es im ersten Moment total hilfreich ist, um diese Belastung, die man hat, einfach loszuwerden."
Allerdings hat sich die KI mittlerweile auch etwas entzaubert: Sam hat bemerkt, dass manche Antworten sich wiederholen.
Sendung: rbb24-Abendschau, 14.05.2025, 19:30 Uhr