Rhetorikexperte Michael Ehlers: Heimlicher Lügendetektor: Warum KI beim Lügen gefährlicher ist als gedacht

Was klingt wie Science-Fiction, ist längst Realität. KI-gestützte Lügenerkennung ist auf dem Vormarsch – in Wirtschaft, Politik, Medien. Systeme analysieren Sprache, Mimik, Reaktionszeit. Sie ziehen Rückschlüsse auf die Absichten hinter den Worten. Und sie tun das mit einem Anspruch auf Objektivität, der beunruhigt.

Künstliche Intelligenz als Wahrheitsdetektor?

Tatsächlich gibt es bereits eine Reihe technischer Systeme, die genau das leisten wollen. An der Universität Würzburg wurde etwa ein KI-Modell auf Basis von Google BERT entwickelt, das in Studien eine Trefferquote von rund 66 Prozent bei der Erkennung von Unwahrheiten erreichte – ein besserer Wert als menschliche Beurteilungen, die im Schnitt bei etwa 50 Prozent liegen.

Über Michael Ehlers​

Michael Ehlers ist Rhetoriktrainer und coacht seit über drei Jahrzehnten Persönlichkeiten des öffentlichen Lebens, Unternehmer, Top-Manager/innen, Profi-Sporttrainer, Influencer und viele mehr. Der mehrfache Bestsellerautor (u.a. "Rhetorik - Die Kunst der Rede im digitalen Zeitalter“ und „Der Fisch stinkt vom Kopf mit seinem Alter Ego Hein Hansen“) ist gefragter Experte und hat zum Beispiel für Focus, N-TV, ZDF und nahezu allen ARD-Sendern Rhetorik-Analysen durchgeführt (Kanzler-Duelle, Putin-Analysen). Ehlers ist Geschäftsführender Gesellschafter der Institut Michael Ehlers GmbH, Bamberg, Director of the Center for Rhetoric at SGMI Management Institute St. Gallen und Dozent des St. Galler Management Programm (SMP). Er tritt regelmäßig auf Veranstaltungen als Keynote-Speaker auf.

Noch weiter geht die Layered Voice Analysis (LVA) der Firma Nemesysco, die weltweit von Strafverfolgungsbehörden und Versicherungen eingesetzt wird. Sie analysiert den emotionalen Stress in der Stimme und identifiziert angeblich Täuschung, Unsicherheit oder Schuldgefühle.

Ist der Einsatz im Alltag möglich?

Doch die entscheidende Frage lautet: Was passiert, wenn diese Tools außerhalb der Kriminalistik eingesetzt werden – etwa in Meetings, politischen Verhandlungen oder Bewerbungsgesprächen?

Ich selbst habe an der Entwicklung immersiver Rhetorik-Software mitgewirkt (iRhetorik®). Ich weiß, was moderne Systeme leisten können. Aber ich möchte nicht mit jemandem sprechen, der mir so sehr misstraut, dass er eine solche Software – womöglich sogar heimlich – im Hintergrund mitlaufen lässt.

Lügen ist kognitiv aufwändig – aber auch Menschsein ist das

Die Grundlage vieler dieser Tools ist die Idee, dass Lügen mehr Denkleistung erfordert. Deshalb sollen längere Reaktionszeiten (Reaktionslatenz), vage Sprache, Floskeln und inhaltliche Ausweichmanöver Hinweise auf Unwahrheit sein. Das leuchtet ein – denn wer lügt, muss einen Plan entwickeln und sich an Details halten.

Aber genau dieselben Signale zeigen auch Menschen, die nervös sind, vorsichtig formulieren oder rhetorisch ungeübt sind. Wer sich nicht sofort äußert, ist nicht zwangsläufig verdächtig. Er ist vielleicht einfach nur Mensch.

Die eigentliche Gefahr liegt in der heimlichen Analyse

Noch gefährlicher als die Bewertung selbst ist der Einsatz solcher Systeme ohne Wissen des Sprechers. Denn wer informiert ist, kann reagieren. Wer gewarnt ist, kann erklären. Wer hingegen ahnungslos analysiert wird, hat keine Chance auf Widerspruch.

„Ich verstehe die Bedenken, die durch die Analyse der KI aufgekommen sind. Lassen Sie mich die Situation noch einmal klarstellen…“ So könnte ein souveräner Umgang mit Transparenz aussehen.

Doch das Gegenteil ist wahrscheinlicher: Ein Geschäft platzt, weil jemand gestockt hat. Der Aktienkurs bricht ein, weil ein Satz zu lange dauerte. Ein Politiker wird medial demontiert, weil er zögerte. Die Kommunikation wird zum Minenfeld – nicht wegen dem, was gesagt wird, sondern wie.

Die logische Folge: KI-gerechte Kommunikation

Im nächsten Schritt werden Unternehmen, Politiker und Sprecher ihre Kommunikation auf diese Systeme zuschneiden lassen.

Sprachtrainer, die auf KI-Algorithmen optimieren. Sprechmuster, die möglichst unauffällig sind. Körpersprache, die keine Fehler macht.

Ein rhetorischer Albtraum.

Denn Sprache lebt von Nuancen, Brüchen, Emotion. Wer das wegnimmt, nimmt auch die Menschlichkeit aus dem Gespräch. Am Ende sprechen wir alle gleich – nicht, weil wir es wollen, sondern weil wir es müssen, um nicht negativ aufzufallen.

Was Manager jetzt wissen und tun sollten

  1. Vertrauen statt Überwachung: Wer KI einsetzt, muss es transparent tun. Alles andere zerstört Beziehung.
  2. Kontext verstehen: Nicht jedes Zögern ist eine Lüge. Nicht jede Floskel ein Täuschungsversuch.
  3. Selbstbewusstsein entwickeln: Wer seine Wirkung kennt, kann mit Analyse besser umgehen.
  4. Ethik vor Effizienz: Nur weil etwas technisch möglich ist, heißt das nicht, dass wir es auch tun sollten.

Fazit: KI kann Hinweise geben – aber keine Wahrheit erkennen

Die größte Gefahr ist nicht, dass eine KI eine Lüge entdeckt.

Die größte Gefahr ist, dass sie entscheidet, was eine Lüge ist. Ohne Kontext. Ohne Empathie. Ohne Nachfragen.

Deshalb müssen wir wachsam bleiben. Und unsere Kommunikation nicht der Maschine überlassen – sondern der Beziehung zwischen Menschen.

Dieser Content stammt aus unserem EXPERTS Circle. Unsere Experts verfügen über hohes Fachwissen in ihrem Bereich. Sie sind nicht Teil der Redaktion.