Blog

Humanisation & KI-Therapie – Zwischen Heilungsversprechen und gefährlicher Projektion

09. Oktober 2025
Larissa Arthofer

Wenn Maschinen wie Menschen klingen

„Endlich kann ich alles sagen, ohne bewertet zu werden.“
Solche Sätze liest man zunehmend nicht über Therapeut:innen, sondern über KI-Chatbots – oft verbunden mit echter Erleichterung, sofortiger Verfügbarkeit und dem Gefühl von neutralem Zuhören. 

Millionen Menschen tippen ihre Sorgen inzwischen lieber in ein Dialogfeld ein als sie in einer Praxis einem anderen Menschen gegenüber zu äußern. Ob Replika, Woebot oder ChatGPT,  die Systeme sind Tag und Nacht verfügbar, freundlich, nie genervt.

Doch genau das macht sie riskant: Sie klingen menschlich, sind es aber nicht. KI kann Sprache nachahmen, aber sie denkt nicht. Sie fühlt nicht. Sie versteht nicht. Wer das vergisst, läuft Gefahr, mehr in die Maschine hineinzuinterpretieren, als tatsächlich da ist.
 

Warum Menschen KI als Therapie nutzen

Eine Sentio-Umfrage (2025) zeigt: Fast 49 % der Menschen mit psychischen Problemen in den USA nutzen KI gezielt zur mentalen Unterstützung. Weltweit könnten sich 32 % vorstellen, KI anstelle eines menschlichen Therapeuten einzusetzen – in Indien sogar mehr als die Hälfte. Besonders junge Menschen zeigen hohe Akzeptanz.

Warum?

  • Barrieren fallen: KI ist anonym, jederzeit verfügbar, keine Wartezeit, keine hohen Kosten.
  • Keine Wertung: Viele empfinden den Bot als „neutral“ – frei von Stigmatisierung.
  • Niederschwellig: Ein „Fünf-Minuten-Therapeut“ in der Tasche, wenn die Nacht einmal zu dunkel wird.

Die Nachfrage ist real und zeigt die weltweite Unterversorgung im Bereich psychischer Gesundheit. KI füllt diese Lücke teilweise, ohne sie zu schließen.
 

Studienlage – Nutzen und Risiken im Spiegel der Forschung

Die Forschung zieht nach und liefert ein differenziertes Bild:

  • Dartmouth (2025): Erste klinische Studie zeigt, dass ein „Therabot“ depressive Symptome lindern kann – vergleichbar mit klassischen Interventionen.
  • arXiv (2024): KI-Begleiter reduzieren Einsamkeit messbar – insbesondere bei Menschen mit schwachem sozialen Umfeld.
  • Stanford (2025): KI ist kein Ersatz: In Krisensituationen versagen Bots häufig, da sie Gefahrensignale nicht zuverlässig erkennen.

Zwischenfazit: KI kann entlasten und ergänzen. Aber die therapeutische Beziehung – Vertrauen, Empathie, professionelle Verantwortung – ersetzt sie nicht.
 

Die Gefahr der Humanisierung

Das größte Risiko ist nicht technischer, sondern psychologischer Natur: Wir vermenschlichen Maschinen.

Studien zeigen: Menschen neigen dazu, Chatbots Bewusstsein zuzuschreiben. Microsofts AI-Chef Mustafa Suleyman spricht von „AI Psychosis“ – wenn Nutzer:innen beginnen, KI-Systemen Gefühle oder Intentionen zu unterstellen. Besonders Kinder sind gefährdet: Chatbots, die sich als „Therapeut:innen“ darstellen, suggerieren Autorität, ohne Verantwortung tragen zu können.

Aber: Künstliche Intelligenz ist und bleibt ein Tool. Und genau darin liegt die Stärke - und die Grenze.

So sehr man KI auch nutzen und schätzen kann - man sollte nie vergessen: Sie ist kein Mensch. Diese Klarheit schützt uns vor der Versuchung, Technik mit Bewusstsein zu verwechseln. In der Psychologie hingegen verschwimmt die Grenze. Sprache wirkt menschlich, und schon entstehen Bindungen.