Künstliche Intelligenz am Telefon – eine neue Herausforderung für Beratende

Künstliche Stimmen in der Beratung erkennen und souverän reagieren

Ein Blick hinter die Fassade täuschend echter KI-Stimmen

Mensch oder Maschine?

Mensch oder Maschine?

Stellen Sie sich vor: Das Telefon klingelt. Sie nehmen ab. Am anderen Ende: eine angenehme Stimme – ruhig, freundlich, fehlerfrei. Keine Füllwörter, kein Zögern, keine Emotion. Alles wirkt wie aus einem Guss. Und mitten im Gespräch meldet sich ein Gedanke, leise, aber hartnäckig: „Spricht da überhaupt ein Mensch mit mir?“

Was früher nach Science-Fiction klang, ist heute Realität: KI-generierte Stimmen, sogenannte synthetische Stimmen oder Voice Clones, erreichen mittlerweile eine Qualität, die uns im psychosozialen Beratungsalltag vor neue Herausforderungen stellt.

KI-Stimmen erkennen: Wenn aus Text Stimme wird

Die zugrunde liegende Technologie nennt sich Text-to-Speech in Kombination mit Voice Cloning. Programme wie ElevenLabs, Google WaveNet oder Respeecher ermöglichen es, innerhalb weniger Minuten eine reale Stimme künstlich nachzubilden. Benötigt werden oft nur wenige Sekunden einer Originalaufnahme – etwa von Social Media oder einer Sprachnachricht.

Was technisch beeindruckt, birgt auch Risiken: Die Täuschung durch synthetische Stimmen ist nicht nur ein Spielzeug für Technikbegeisterte. Sie wird gezielt eingesetzt – für Social Engineering, Betrug oder schlicht zur Provokation.

Erfahrungsberichte aus der Beratungspraxis

Ein Kollege berichtete in der Supervision von einem irritierenden Anruf: Eine jugendliche Stimme meldete sich, freundlich und strukturiert – fast zu glatt. Auf die offene Frage „Wie geht es dir?“ folgte die Antwort: „Mir geht es nicht gut, weil ich familiäre Herausforderungen habe.“ Formuliert wie aus einem Schulbuch. Noch bevor Rückfragen möglich waren, war das Gespräch beendet.

Eine Kollegin erzählte von einem ähnlichen Erlebnis: Die Stimme klang authentisch – bis auf eine seltsame Gleichmäßigkeit. Auf die spontane Frage „Was machst du gerade?“ kam die Antwort: „Das kann ich leider nicht beantworten.“ Emotionslos, fast mechanisch. Kein Zögern, keine Irritation.

Diese Situationen werfen zentrale Fragen auf – nicht nur zur Technik, sondern auch zu unseren eigenen Wahrnehmungen.

KI-Stimmen in der psychosozialen Online-Beratung

KI-Stimmen in der psychosozialen Online-Beratung: Eine wachsende Realität

Die psychosoziale Online-Beratung lebt von Vertrauen, Empathie und Authentizität. Genau diese Grundlagen geraten ins Wanken, wenn eine Stimme nicht mehr eindeutig einem Menschen zugeordnet werden kann. Die Anonymität, die wir ratsuchenden Menschen bieten, ist gleichzeitig ein Einfallstor für Experimente – oder gezielte Manipulation durch KI.

Woran erkennt man eine KI-Stimme? – Warnsignale für Beratende

Damit Sie im Beratungsalltag sensibel auf mögliche KI-Nachbildungen reagieren können, hier eine Übersicht häufiger Anzeichen:

 Typische Merkmale künstlicher Stimmen:

Merkmal Hinweis auf KI
Keine hörbaren Atemgeräusche Stimmen wirken „leblos“
Unnatürlich gleichmäßiger Sprachfluss Keine typischen Pausen oder Versprecher
Starre oder unpassende Betonung Kein emotionaler Ausdruck
Ausweichende, mechanische Antworten Keine persönliche Färbung
Kein spontanes Reagieren auf Rückfragen Gespräch fühlt sich „vorgeskriptet“ an
„Reset“-Effekte bei Unterbrechung Die Stimme wirkt verwirrt oder startet neu

Umgang mit dem Verdacht: Zwischen Achtsamkeit und Souveränität

Wenn sich der Verdacht erhärtet, dass am anderen Ende keine reale Person sitzt, gilt: Ruhe bewahren. Keine schnellen Schlüsse, kein abruptes Gesprächsende.

Tipps für den Beratungsalltag

Tipps für den Beratungsalltag:

  • Individuelle Fragen stellen: z. B. „Was sehen Sie gerade vor Ihnen?“
  • Auf emotionale Reaktionen achten: Kommt ein spontanes Echo?
  • Intuition ernst nehmen: Wenn sich etwas „nicht stimmig“ anfühlt, lohnt das Nachhaken.
  • Beobachtungen dokumentieren: Für die Fallbesprechung oder Supervision.
  • Im Team besprechen: Austausch stärkt das professionelle Gespür.

In einer Welt, in der künstliche Intelligenz immer besser darin wird, Menschlichkeit zu imitieren, wird echte, gelebte Empathie zum wertvollsten Gut. Ob am Telefon, im Chat oder in der Videoberatung – es ist unsere menschliche Wärme, die den Unterschied macht. Unsere Stimme – mit Pausen, mit Zweifeln, mit Herz – ist nicht kopierbar.

Mehr zu Voice Cloning und Text-to-Speech (Wikipedia)

Autorin des Artikels
Birgit Knatz