„Ist hier eine echte Person? Bist du ein echter Mensch?“

Bild: Andrea de Santis – unsplash

In den letzten Monaten starten mehr und mehr Dialoge in den Chaträumen der TelefonSeelsorge, als ob sich die Menschen durch die Nebelwand der Digitalisierung tasten würden.

Im November 2022, mit der kostenlosen Verfügbarkeit des Chatbots ChatGPT, hat eine neue Ära der Künstlichen Intelligenz begonnen. ChatGPT ist darauf trainiert, natürliche Sprache zu verstehen und menschenähnliche Konversationen zu führen. Präzise formulierte Arbeitsaufträge (Prompts) erhöhen die Wahrscheinlichkeit für einen befriedigenden Output. Laut der Online-Plattform Statista verwenden rund neun Prozent der Befragten mehrmals täglich ChatGPT. Weitere 18 Prozent greifen mehrmals wöchentlich auf die Künstliche Intelligenz zurück. Entwickelt wurde ChatGPT vom amerikanischen Unternehmen OpenAI. Zentrale Investoren waren Elon Musk und Microsoft.

Chatbots gibt es schon seit mehr als 50 Jahren.

1996 – ein Jahr nachdem die psychologische Online-Beratung der TelefonSeelsorge ins Netz gestellt wurde – fragte mich ein Mailer: „Sind Sie echt?“ Aus meiner telefonischen Beratungsarbeit war mir vieles vertraut, diese Frage mir bis dahin allerdings noch nicht gestellt worden. Auf meine Nachfrage antwortete er: „Normalerweise antwortet ein Computer.“ Was er meinte, war das Computerprogramm ELIZA, das 1966 von Joseph Weizenbaum entwickelte wurde und in der Lage war, mit Menschen zu kommunizieren. In der Geschichte der Entwicklung von KI und ihrer Bedeutung für die Beratung war Joseph Weizenbaum neben Alan Turing einer der wichtigsten frühen Entwickler.

ELIZA: Anfänge der Mensch-Maschine-Kommunikation

Berühmt ist ELIZA vor allem für den sogenannten DOCTOR-Modus. Er ist so programmiert, dass ELIZA sich wie eine Psychotherapeutin verhält, die nach der Methode von Carl Rogers arbeitet. Fragen und Antworten wurden im Voraus erstellt und ins Programm eingegeben. Wenn jemand ELIZA eine Frage stellt oder ein Problem beschreibt, sucht das Programm nach bestimmten Schlüsselwörtern und wählt dann die passende vorprogrammierte Antwort aus. Dadurch wirkt es, als würde ELIZA mit der Person sprechen und auf ihre Probleme eingehen. Hier ein Beispiel:

Ratsuchende: Die Menschen sind alle gleich.

ELIZA: In welcher Hinsicht?

Ratsuchende: Sie nerven uns immer wegen irgendetwas.

ELIZA: Wann immer?

Ratsuchende: Nun, mein Freund hat mich dazu gebracht, hierher zu kommen.

Dein Freund hat dich hierhergebracht?

Ratsuchende: Er sagt, ich sei die meiste Zeit deprimiert.

ELIZA: Es tut mir leid zu hören, dass du deprimiert bist

Ratsuchende: Das ist wahr. Ich bin unglücklich.

Dieser Ansatz erlaubt es ELIZA, relativ einfache Gespräche zu führen, ohne tatsächlich die zugrunde liegenden menschlichen Emotionen oder den Inhalt der Konversation zu verstehen. Erstaunlich viele Menschen vertrauten den maschinell erzeugten Antworten und führten mit ELIZA längere Gespräche. Sie schilderten ihre Sorgen und behandelten ELIZA wie eine menschliche Therapeutin. ELIZA ist noch heute aktiv: http://www.med-ai.com/models/eliza.html.de.

Joseph Weizenbaum war vom Erfolg seines Programms entsetzt. Schließlich wollte er zeigen, dass Menschen mit psychischen Problemen von einem Computer keinesfalls Hilfe erwarten können. Er bemängelte, dass das Programm die Menschen anlügt. Denn solche Systeme beherrschen die sogenannte „natürliche Sprache“ nicht, sondern imitieren „Verständnis“ auf Basis von Datenbeständen und vergleichsweise einfachen Algorithmen. ELIZA behauptet, etwas zu verstehen, obwohl sie gar nichts begreift.

ChatGPT: Moderne KI-gesteuerte Kommunikation

Natürliche Sprache ist für ein moderne digitales System eine leichte Übung. Sprachmodelle wie GPT-4 werden mittels riesiger Textkorpora trainiert und lernen dadurch Wortschatz und Grammatik einer Sprache. Ein gewisses Maß an „Handarbeit“ bei Datenbereinigung und -aufbereitung ist notwendig. Die Weiterentwicklung während der Anwendung erfolgt als automatisierter Prozess, bei dem das Modell Muster in den Daten erkennt und sich immer weiter verfeinert.

Nun gebe ich bei ChatGPT ein: „Mein Freund hat mich dazu gebracht, hierher zu kommen. Er sagt, ich sei die meiste Zeit deprimiert“ Die Antwort der KI ist gar nicht mal so schlecht: „Es tut mir leid zu hören, dass es dir nicht gut geht. Während ich kein Ersatz für professionelle psychologische Unterstützung bin, bin ich hier, um zu hören und Rat zu geben, wo ich kann. Es ist wichtig, dass du weißt, dass es in Ordnung ist, Hilfe zu suchen, wenn du dich deprimiert fühlst.“ Dann werden Ressourcen benannt, mit dem Hinweis versehen, dass sie nicht für alle Menschen hilfreich sind und auch kein Ersatz für professionelle Hilfe sein können. Zum Schluss werde ich aufgefordert, meine Gefühle mit Menschen zu teilen und um Unterstützung zu bitten.

Wahrscheinlich würde ich manches ähnlich schreiben. Allerdings frage ich mehr nach, versuche in Dialog zu kommen, Kontaktangebote zu machen, eine Beziehung aufzubauen. Denn bekanntermaßen hängt der „Erfolg“ der Begleitung/Beratung wesentlich von der Beziehung ab, die zwischen mir und der ratsuchenden Person entsteht.

Menschlichkeit in einer digitalen Welt

Nach wie vor muss es unser Anliegen sein, online, in unseren Chats und Mails, Echtheit und emotionale Verbundenheit zu vermitteln. In einer Welt, die immer stärker von Algorithmen und automatisierten Prozessen dominiert wird, ist es unsere Aufgabe, menschliche Wärme und Authentizität zu zeigen. Daneben müssen wir uns mit der Verunsicherung der Menschen auseinandersetzen, die sich in dieser digitalen Welt Rat suchen. Wie können wir ihnen helfen, Vertrauen in die Technologie zu fassen, ohne die menschliche Verbindung zu verlieren? Wie zeigen wir deutlich, dass hinter den Bildschirmen und Tastaturen echte Menschen stehen, die sich um ihre Anliegen kümmern?

Ein Bot kann die OnlineSeelsorge keinesfalls ersetzen, aber ergänzen. Mitarbeitende der TelefonSeelsorge könnten Chatbots als Inspirationsquelle nutzen – wobei sie ihre Antworten weiterhin selbst formulieren, um sicherzustellen, dass Ratsuchende angemessene und sichere Unterstützung erhalten. Bekanntermaßen gibt der Chatbot auch falsche Antworten. Bei der Nutzung muss selbstverständlich streng auf den Datenschutz geachtet werden.

Auch könnte auf der Website der TelefonSeelsorge ein Chatbot eingebettet werden, die ersten Fragen beantwortet, wenn gerade alle Chats besetzt sind oder lediglich einfache Informationen gewünscht werden. Wenn die Ratsuchenden es wünschen, kann er danach weitervermitteln, wie dies bei anderen Hotlines geschieht. Wir sollten Wege finden, die neue Technologie zu nutzen, ohne unsere Menschlichkeit zu verlieren.

Birgit Knatz

Erschienen in:
24-7-telefonseelsorge.de Ausgabe 21 – Dezember 2023

Ein Dank an den Chatbot ChatGPT, der mir bei der Texterstellung assistiert hat.