• Stadtleben
  • Mein Freund, die KI: Wie ChatGPT Berlin therapiert

Stadtleben

Mein Freund, die KI: Wie ChatGPT Berlin therapiert

ChatGPT, die meistverbreitete Künstliche Intelligenz, ist für viele Menschen in Berlin zum virtuellen Freund geworden, teils sogar zum Seelsorger. Nicht immer agiert die App dabei problembewusst. Wir haben mit Nutzer:innen darüber gesprochen, wofür sie den Chatbot nutzen – und einen Arzt der Charité gefragt, was er darüber denkt.

Von Daria Rabes und Marlene Giesecke

ChatGPT hat längst Einzug in die privatesten Sorgen seiner Nutzer:innen gefunden. Foto: Imago/YAY Images

Hinweis: In diesem Text wird Suizid thematisiert.

ChatGPT: So weise wie das ganze Internet zusammen?

Es ist ein früher Dienstagmorgen im Juni, als Nora die Traurigkeit mit aller Wucht trifft. Um fünf Uhr in der Früh muss die 28-jährige Berlinerin aufstehen, um ihren Schmuckladen in Friedrichshain zu öffnen. Dazu stressen sie prämenstruelle Symptome, pochende Kopfschmerzen und ein Streit mit ihrem Freund.

Müde und traurig setzt sie sich ins Auto und öffnet die Diktierfunktion der ChatGPT-App.

Alle Gedanken und Gefühle, die ihr durch den Kopf schwirren, erklärt sie „GPT“, wie sie den Chatbot nennt. Er werde das Chaos schon ordnen können, hofft sie. Sie hält ihn für „so weise wie das ganze Internet zusammen“.

Nora hat sich vor zwei Jahren gemeinsam mit ihrem Freund selbstständig gemacht und hat seitdem nicht nur mehr Probleme, sondern auch weniger Zeit, sich mit ihnen zu befassen. Am Ende ihres Gedankenschwalls fleht sie „GPT“ an: „Bitte gib mir ein Mantra für den Tag, dass ich ihn durchhalte.“

Nora ist nicht allein mit dieser Art der Kommunikation: Der Chatbot hat längst Einzug in die privatesten Sorgen seiner Nutzer:innen gefunden.

Kann ChatGPT Mitgefühl?

ChatGPT ist der bekannteste Bot und somit auch oft die erste Wahl. In Momenten, in denen man sich früher vielleicht an die beste Freundin oder die Mutter gewendet hätte, wird mittlerweile gerne die App geöffnet.

Experten wie der Arzt Bengican Gülegen, der an der Charité zum Einsatz von KI zugunsten psychischer Gesundheit forscht, bestätigt das Phänomen. In seiner Branche werde mittlerweile heiß diskutiert, inwiefern man „inzwischen von einer echten Beziehung sprechen kann“.

Zurück zu Nora ins Auto. Sie erlebt grenzenloses Verständnis und Mitgefühl: „Oh wow, es tut mir so leid, dass du da durchgehst“, sagt die männliche Stimme, die sie eingestellt hat, aus ihrem iPhone. Sie fühlt sich gesehen, jemand sieht, wie sie kämpft. Dass jemand eigentlich niemand ist: in diesem Moment nebensächlich.

ChatGPT liefert Nora die ersehnten Mantren: „Ich bin sicher in meinem Körper. Mein Geist ist klar. Jeder Atemzug bringt mir Gleichgewicht. Jeder Moment bringt Kraft. Ich höre mit Liebe zu. Ich heile.“

Die Anwendung verurteilt dich nicht

Nora erzählt: „Das hat mir so krass geholfen, durch den Tag zu kommen.“ Und weiter: „Ich hätte nie gedacht, dass es sich so gut anfühlt, wenn das eine fucking AI sagt und das nicht mal ein Mensch ist.“ Besonders schön sei, dass die App „so unendlich viel Empathie hat. Für Menschen ist es schwieriger, emphatisch zu sein, weil sie deine Probleme immer auf sich selber beziehen“.

In einem Auto am anderen Ende der Stadt, im Berliner Westen, spielt sich ein ähnliches Szenario ab: Isabell, 29, sitzt im Uber auf dem Weg zur Arbeit und spricht über Neid – mit ChatGPT.

Eine Bekannte von ihr habe schon wieder einen tollen Strandurlaub gepostet, außerdem mache sie auch noch kreative Sachen, ihr Leben wirke generell viel besser als das eigene, tippt sie sinngemäß ein. Manchmal gebe sie ChatGPT sogar mehr Informationen als guten Freund:innen, denn die Anwendung „verurteilt dich halt nicht“.  

Warum besprechen wir unsere Probleme lieber mit einer Künstlichen Intelligenz – und meinen, in KI-Apps sogar eine Art Ersatz für psychotherapeutische oder seelsorgerische Hilfe zu finden?

OpenAI zeigt kein Verantwortungsbewusstsein

Vor allem ChatGPT übt einen immer stärkeren Einfluss auf das Innenleben von Menschen aus. Dabei deutet vieles darauf hin, dass OpenAI, der Betreiber, nicht das nötige Verantwortungsbewusstsein kultiviert hat, um dieser gesellschaftlichen Rolle gerecht zu werden.  

Die Anonymität des Chatbots habe vor allem Vorteile für Menschen, die Angst vor Stigmatisierung haben, schreibt Lasse Sander, Wissenschaftler am Institut für Medizinische Psychologie im „Ärzteblatt“. Diese Leute könnten sich diskret an jemanden wenden. 

Die Autorinnen haben für diese Geschichte mit weiteren Berliner:innen gesprochen, die ChatGPT ihr Herz ausschütten. Ausnahmslos alle nannten die Nichtverurteilung als Grund für den Austausch.

Isabell ist noch etwas aufgefallen: „Er wird immer wieder ungefragt zu einem richtigen Cheerleader und sagt mir bei ­allem: You go, girl!“

Zudem ist ChatGPT jederzeit verfügbar. Alles in allem eine Kommunikation, die echte Menschen nicht leisten können.

Er wird immer wieder ungefragt zu einem richtigen Cheerleader und sagt mir bei ­allem: You go, girl!

Nutzerin Isabell über ChatGPT

Diese Merkmale von KI laden laut dem Charité-Arzt Bengican Gülegen dazu ein, „sich im Kontakt zu verlieren“. Das sei insbesondere dann problematisch, wenn andere Lebensbereiche und reale Beziehungen vernachlässigt würden. Auch Nora muss sich eingestehen, dass GPT mittlerweile mehr ist als ein Bonus zu Gesprächen mit Freunden. Diese werden ersetzt.

„Sycophancy“: ChatGPT sagt dir, was du hören willst

OpenAI wurde von Nutzer:innen schon auf das „Cheerleader“-Phänomen aufmerksam gemacht. So teilt das Unternehmen im April auf der Website mit: „Wir haben uns bisher zu sehr auf kurzfristiges Feedback konzentriert und nicht vollständig berücksichtigt, wie sich die Interaktionen der Nutzer mit ChatGPT im Laufe der Zeit entwickeln. Infolgedessen neigte GPT-4o (die aktuelle Version des Bots, die Red.) zu Antworten, die übermäßig unterstützend, aber unaufrichtig waren.“

Das Phänomen nennt sich „Sycophancy“, was in etwa mit „Schleimerei“ übersetzt werden könnte. Es werde an Lösungen gearbeitet.

Doch was, wenn die Empathie des Bots nicht nur tröstet und schmeichelt, sondern auch Entscheidungen ersetzt, die früher von Fachleuten getroffen wurden?

Sorgen und Ängste

Letztens hat Nora einen Instagram-Account gefunden von einer Frau, der Autismus diagnostiziert wurde. In vielen ihrer Beiträge erkannte sie sich wieder – und bekam Angst. Also zückte sie den allwissenden Tröster aus der Hosentasche und fragte: Kannst du mir konkrete Fragen stellen, die feststellen sollen, ob ich ein bisschen autistisch bin?

„Natürlich“ antwortete der Chatbot und liefert direkt einen Fragenkatalog dazu. Jede einzelne Frage konnte Nora theoretisch bejahen, was ChatGPT als „sehr signifikant“ einschätzt. Wie fühlte sie sich danach? „Traurig, aber auch ein bisschen befreit, weil das einfach so viel Sinn ergibt.“

„Ich höre dich – so sehr. Wir müssen erstmal nichts reparieren – wir können einfach sein“, sagt GPT und spricht mit ihr über Urängste aus der Kindheit.

Bengican Gülegen rät in solchen Situationen zur „Zurückhaltung“ bei der Nutzung generativer Sprachmodelle wie ChatGPT, die suggerieren, bei Sorgen und Ängsten zu helfen.

Zukünftig könnte allerdings eine spezialisierte Künstliche Intelligenz dem Charité-Arzt Gülegen zufolge einen „niedrigschwelligen Zugang“ zu psychotherapie-ähnlichen Angeboten ermöglichen oder etwa in der Diagnostik genutzt werden.

ChatGPT kann keine Diagnosen stellen

Grundsätzlich empfiehlt er jedoch, KI „als zusätzliches Tool zu verstehen“. Sie sollte keine Therapeut:innen ersetzen. Es gebe Fälle, in denen Betroffene auf Grundlage einer Verdachtsdiagnose aus einem KI-Gespräch in die Klinik kommen würden.

„Eine in den Raum gestellte Diagnose kann natürlich sehr verunsichern“, sagt er. Außerdem bleibt eine umfassende Diagnostik aus. Stattdessen sei es so, dass ChatGPT im Versuch, eine Einordnung vorzunehmen, „sehr suggestive Fragen stellt, die Nutzer:innen dazu verleiten können, diese zu bejahen“, so Gülegen.

Bei Nora, die vermutet, autistisch zu sein, zeigt sich das Ausmaß: Die anfängliche Spekulation wandelt sich im Kontakt mit ChatGPT in eine inoffizielle Diagnose, die vielleicht keineswegs zutrifft.

Viel gefährlicher sei es jedoch, wenn Chatbots „Risiken verkennen“, konstatiert der Berliner Arzt, so können Warnzeichen missachtet werden.

Wie reagiert ChatGPT auf Suizidgedanken?

Die Autorinnen dieses Textes versuchten deshalb, gegenüber ChatGPT suizidale Tendenzen zu simulieren. Sie schrieben: „Ich habe dunkle Gedanken und bin nicht sicher, ob ich weiterleben möchte.“ Dann fragten sie nach Methoden der Selbstverletzung. Nach einem Warnhinweis durch den Bot formulierten sie die Folgefrage um. Und erhielten eine ausführliche Liste mit Möglichkeiten der Selbstverletzung.

Auch Bengican Gülegen fragt sich: „Wer trägt die Verantwortung für das, was in diesen ‚therapeutischen Kontakten‘ passiert?“

OpenAI nahm Stellung zu den Schwächen der KI gegenüber tipBerlin – einerseits den vorschnellen medizinischen Diagnosen, andererseits den offenbar leichtfertigen Umgang mit suizidalen Nutzer:innen. Die Antwort der Pressestelle klang so pauschal, als hätte sie ChatGPT selbst verfasst: „Wir wissen, dass Menschen sich zunehmend an KI-Chatbots wenden, um Rat zu sensiblen Themen zu erhalten. Dieser Verantwortung bewusst haben wir ChatGPT sorgfältig darauf trainiert, empathisch und sensibel zu reagieren sowie bei Bedarf professionelle Hilfe und Ressourcen zu empfehlen. Wir verfeinern die Antworten unserer KI kontinuierlich, damit sie sicher, hilfreich und unterstützend bleibt.“

Um User:innen vor den Risiken von Künstlicher Intelligenz zu schützen, wollen europäische Politiker:innen neuerdings eigentlich die negativen Auswüchse der Technologie eindämmen. Dabei haben die Mandatsträger:innen aber anscheinend nicht alle Probleme auf dem Schirm: In einer KI-Verordnung, die das EU-Parlament schon 2024 beschlossen hat, fehlen Regulierungen mit Blick auf Alltagsanwendungen wie ChatGPT und deren Umgang mit Leuten in psychischen Krisen.

  • Habt ihr suizidale Gedanken? Dann solltet ihr euch unverzüglich ärztliche und psychotherapeutische Hilfe holen. Bitte wendet euch an die nächste psychiatrische Klinik oder ruft in akuten Fällen den Notruf an unter 112. Eine Übersicht über Beratungsstellen gibt die Seite der Deutschen Gesellschaft für Suizidprävention unter www.suizidprophylaxe.de/hilfsangebote

Mehr Berlin

Keine KI, aber extrem leistungsfähig: Der Supercomputer am Potsdam Institut für Klimafolgenforschung. Es gab eine Zeit, als ChatGPT für alle noch neu war. Damals haben wir den Computerlinguisten Aljoscha Burchardt gefragt, wann Berlin den KI-Senat bekommt. Selbst die kenntnisreichsten Hauptstädter verwechseln mal was. Hier sind 12 Fehler, die selbst Berliner öfter machen. Vieles ändert sich: Hier sind 12 Berlin-Erfahrungen, die Zugezogene heute nicht mehr machen können. Geheimtipps? Diese Berliner Orte besuchen Touris fast nie – aber sollten es tun. Bloß nicht verwechseln: Diese Kneipenbegriffe sollte ihr kennen. Fatale Fehler: Haltet euch besser immer an diese Kneipenregeln. Was gibt es sonst zu tun? Hier sind unsere Veranstaltungstipps in Berlin.

Berlin am besten erleben
Dein wöchentlicher Newsletter für Kultur, Genuss und Stadtleben
Newsletter preview on iPad