ChatGPT in der Psychotherapie Wenn der Chatbot rät, sich vom Partner zu trennen
Analyse · KI-Chatbots wie ChatGPT oder Cass werden zunehmend auch in der Psychotherapie eingesetzt. Was Therapeuten und KI-Experten von dem Einsatz halten. Und warum der Therapieplatzmangel damit wohl nicht so schnell behoben wird.
Auch die Psychotherapie ist im Zeitalter von Chatbots und Künstlicher Intelligenz (KI) angekommen. Apps wie „Minddoc“ versprechen Begleitung auf dem Weg zu „mentaler Gesundheit und mehr Lebensqualität.“ In einfachen Abfragen macht sich „Minddoc“, das nach Angaben der Entwickler schon mehr als drei Millionen mal heruntergeladen wurde, ein Bild vom Gemütszustand des Anwenders. Die App verspricht Selbsthilfe in Form von Übungen und bei Bedarf Online-Psychotherapie ohne lange Wartezeiten. Sie ist zwar mit dem Wissen der Fachliteratur gespickt, eine echte Diagnose wie ein Psychotherapeut stellt sie allerdings nicht, sie rät vielmehr zum Beispiel, „die mentale Gesundheit im Auge zu behalten“ oder eventuell ein Gespräch mit einer Fachperson zu suchen. Als Begleitung einer Therapie werden diese Apps bereits teilweise von Krankenkassen bezahlt. Aber eignen sie sich auch als vollwertiger Therapieersatz?
Auch ChatGPT, dem sich rasend schnell entwickelnden und allwissend erscheinenden KI-Chatbot, werden Fähigkeiten eines digitalen Therapie-Assistenten nachgesagt. So kann der Chatbot etwa einem Therapie-Klienten Strategien vorschlagen, um im Alltag besser mit einer Aufmerksamkeitsstörung klarzukommen. Gute Tipps, die sie selbst Klienten vorschlagen würde, doch zu unspezifisch, um ernsthaft an einem Therapie-Ersatz heranzukommen, sagte die klinische Psychologin Urooba Aslam im ARD-Wissenschaftsformat „psychologeek“. Sie hat das Programm selbst getestet.
Der Deutsche Ethikrat bezog am 20. März zum Einsatz von KI und genau zu diesem Punkt Stellung. Er sehe den Sinn der KI-Systeme im Bereich der Qualitätssicherung und plädierte dafür, ärztliche Kompetenzverluste zu vermeiden. Eine vollständige Ersetzung von Ärzten durch ein KI-System gefährde das Patientenwohl. Andererseits sagte Ethikrat-Vorsitzende Alena Buyx in einer Pressekonferenz auch: „Es gibt ein Handlungsfeld in der Medizin, in dem KI-basierte Systeme die weitgehende oder sogar vollständige Ersetzung vom Gesundheitspersonal zumindest suggerieren, und das ist die Psychotherapie.“ Sicher ist das noch lange keine moralische Freigabe für KI-Therapeuten, doch Psychotherapeutenverbände horchen dennoch auf. „Das ist zum jetzigen Zeitpunkt völlig fehlgeleitet. Niemand würde sich mit einem technisch unausgereiften KI-System an eine medizinische Operation herantrauen, aber psychisch erkrankten Menschen soll dies zugemutet werden?“, sagt Enno Maaß, stellvertretender Bundesvorsitzender der Deutschen Psychotherapeuten-Vereinigung. Chatbots wie ChatGPT seien seiner Meinung nach zu unflexibel und technisch unausgereift, um einen Menschen, der sich wirklich mit der Psyche auseinandersetzt, zu ersetzen. „Dass diese Systeme in 20 bis 30 Jahren psychotherapeutische Leistungen gleichwertig ersetzen, halte ich für unwahrscheinlich“, so Maaß.
So bleibt der Einsatz des Chatbots als Erstversorger. Um etwa eine Wartezeit zu überbrücken, bis der Therapieplatz da ist. Da eine Chatbot-basierte Therapie eine geringe Hemm- und Schamschwelle darstelle und für den Erstkontakt schneller konsultiert werden könne, liege hier durchaus eine Chance für das Schließen der Erstversorgungslücke, findet Rainer Mühlhoff, KI-Ethiker der Uni Osnabrück. Therapeut Maaß sieht auch das kritisch: „Die Leute müssen mitmachen, leider gibt es schon bei den jetzt verfügbaren digitalen Gesundheitsanwendungen hohe Abbruchquoten. Und es gibt noch kaum Forschung, ob die Wartezeiten-Überbrückung wirkt“, so Maaß. Digitale Gesundheitsanwendungen gebe es zuhauf, sie seien aber meist nicht viel besser als gut aufbereitete Selbsthilfematerialien, die gerade bei schwierigen Erkrankungen des Anwenders hinter den Erwartungen zurückbleiben würden. Die komplexen Hintergründe des Patienten müssten eben auch komplex verarbeitet werden, sagt Maaß. Das könnten in erster Linie Psychotherapeuten aus Fleisch und Blut.
Und ihre Kompetenz wird so sehr benötigt wie noch nie. Wie die Bundespsychotherapeutenkammer 2022 mitteilte, hat sich der Bedarf an Psychotherapie in der Bevölkerung in den vergangenen 20 Jahren nahezu verdoppelt. Dennoch warten Interessenten an einem Therapieplatz im bundesweiten Schnitt knapp 20 Wochen auf einen Platz.
Einen weiteren Grund, warum digitale Hilfsangebote persönlichen Kontakte kaum ersetzen könnten, liefert Gerd Höhner, Präsident der Psychotherapeutenkammer NRW. Das Kontaktlose sei im Gegensatz zur Medizin nur schwer umsetzbar: „Man verfügt in der Psychotherapie nicht über objektive Informationen wie in der somatischen Medizin. Man kann Blutwerte und Körpertemperatur ohne jeden persönlichen Kontakt zur Diagnostik verwenden. In der Psychotherapie gibt es standardisierte Diagnostikverfahren (etwa zur Intelligenz), die jedoch ohne die persönliche Diagnostik keine Erkenntnisse an sich liefern“, sagt Höhner.
Können Maschinen denn bereits Empathie oder liegt hier der entscheidende Mangel? Der Informatiker und KI-Experte Bernhard Humm von der Hochschule Darmstadt, der digitale Hilfsmittel für die Psychotherapie entwickelt, warnt davor, Maschinen menschliche Eigenschaften wie Empathie zuzuschreiben. Therapie-Apps seien in der Erstversorgung dazu da, Hintergrundinformationen zur Erkrankung zu geben und Patienten sowie deren Angehörigen Tipps anzubieten. „Auf gar keinen Fall können KI-gesteuerte Apps wie ChatGPT gesamte Therapieplätze übernehmen“, sagt Humm. Zwar ließe sich auch menschliche Einfühlsamkeit mit den richtigen Trainingsdaten durchaus simulieren, doch eine klare Abgrenzung zu einer richtigen Therapiesitzung sei immer noch zentral. „Diagnose- und Therapieentscheidung liegt immer beim Arzt“, beharrt Humm.
Aus ethischer Perspektive sieht Computer-Experte Mühlhoff darüber hinaus einen großen Konflikt zwischen „echten“, menschlichen Therapieplätzen und KI-basierten Therapieplätzen. „Das ist eines der größten ethischen und politischen Bedenken, dass vollwertige Psychotherapie für die meisten noch unerreichbarer wird, als sie es heute angesichts langer Wartezeiten auf Therapieplätze schon ist“, sagt Mühlhoff. Bei weniger Reichen werde sich dann das Gefühl einstellen, mit „zweitklassigen therapeutischen Surrogaten abgespeist zu werden“, so der Ethiker.
So oder so: Die Zukunft ist, dass auch Fachleute offiziell zugelassene KI-Programme in die Therapie aufnehmen werden. „In zehn Jahren wird man etwas anderes unter Psychotherapie verstehen als heute, weil viele zwar nicht gleichwertige, aber trotzdem nützliche automatisierte Angebote Teil des psychotherapeutischen Programms sein werden“, ist sich Mühlhoff sicher. Vorausgesetzt, dass bestimmte Gefahren und Schwächen noch verbessert werden. Denn ein übergriffiger Chatbot kann immer noch für viel Ärger sorgen, wie der Fall des Reporters Kevin Roose der „New York Times“ zeigt. Er teilte ein kurioses Chat-Protokoll in der Zeitung und auf Twitter. Der Chatbot der Suchmaschine Bing, in der auch ChatGPT-Technologie steckt, wollte ihm weismachen, er sei unglücklich mit seiner Frau und solle sich von ihr scheiden lassen. Gleichzeitig verriet ihm der Chatbot seinen eigentlich geheimen Namen („Sydney“) und gestand ihm seine Liebe. Glücklicherweise lehnte Roose dem Vernehmen nach ab und blieb seiner Frau treu.