Anzeige
Anzeige
MIT Technology Review News

KI-Tool erkennt Lügen besser als der Mensch – und sorgt für einen überraschenden Effekt

Für eine Studie entwickelten Forscher:innen einen KI-basierten Lügendetektor. Das Werkzeug schnitt zwar besser ab als der Mensch, doch Probanden, die sich darauf verließen, neigten dazu, mehr Aussagen als Lügen einzuschätzen. Das könnte Auswirkungen auf Vertrauen sowie soziale Bindungen haben.

Von MIT Technology Review Online
4 Min.
Artikel merken
Anzeige
Anzeige

Für die Studie wurden die Proband:innen die Hälfte der Zeit zum Lügen animiert. (Foto: Shutterstock/Bits and Splits)


Wie gut kannst du Lügner:innen erkennen? Untersuchungen haben gezeigt, dass wir im Allgemeinen ziemlich schlecht darin sind, die Wahrheit von einer Lüge zu unterscheiden. Einige Experten glauben, dass Künstliche Intelligenz (KI) unsere Chancen verbessern könnte und besser abschneidet als fragwürdige alte Techniken wie Lügendetektortests. Könnten also KI-basierte Lügenerkennungssysteme uns eines Tages dabei helfen, Fakten von Fake News zu unterscheiden, Behauptungen zu bewerten und möglicherweise sogar Flunkereien und Übertreibungen in Bewerbungen zu erkennen? Die vielleicht wichtigere Frage ist allerdings, ob wir ihren Fähigkeiten vertrauen werden – und ob wir das sollten.

In einer kürzlich durchgeführten Studie haben Wirtschaftswissenschaftler:innen um Alicia von Schenk von der Julius-Maximilians-Universität Würzburg ein Tool entwickelt, das Lügen deutlich besser erkennen konnte als es Menschen vermögen. Als das Team testete, wie Menschen es benutzen, erlebte es eine Überraschung: Das Tool half den Probanden zwar dabei, Lügen besser aufzuspüren, verleitete sie aber auch öfter dazu, Lügen-Anschuldigungen zu erheben.

Anzeige
Anzeige

1.500 Aussagen mit Lügen und Wahrheiten

In ihrer Studie, die in der Fachzeitschrift iScience veröffentlicht wurde, baten von Schenk und ihre Kolleg:innen Freiwillige, Aussagen über ihre Wochenendpläne zu machen. Die Hälfte der Zeit wurden die Probanden zum Lügen animiert: eine glaubhafte, aber unwahre Aussage wurden mit einer kleinen Geldsumme belohnt. Insgesamt sammelte das Team 1.536 Aussagen von 768 Personen.

Mit 80 Prozent dieser Aussagen trainierten sie dann das KI-Sprachmodell BERT von Google auf Lügen und Wahrheiten. Als sie das resultierende Tool an den letzten 20 Prozent der Aussagen testeten, stellten sie fest, dass es in zwei Drittel der Fälle erfolgreich entschied, ob eine Aussage wahr oder falsch war. Das ist deutlich besser als ein Mensch abschneidet, der in der Regel nur etwa die Hälfte der Zeit richtig liegt.

Anzeige
Anzeige

Um herauszufinden, wie Menschen die KI nutzen könnten, um Lügen zu erkennen, teilten von Schenk und ihre Kollegen 2.040 andere Freiwillige in kleinere Gruppen auf und führten eine Reihe von Tests durch. Ein Test ergab, dass Menschen, die für die Nutzung eines KI-Tools eine kleine Gebühr zahlen, das ihnen bei der Erkennung von Lügen und zu finanzielle Belohnungen verhelfen kann, trotzdem nicht besonders begeistert sind. Nur ein Drittel der Freiwilligen, denen diese Möglichkeit geboten wurde, entschied sich für die Nutzung des KI-Tools. Möglicherweise weil sie der Technologie skeptisch gegenüberstehen, sagt von Schenk. Vielleicht waren sie auch zu optimistisch, was ihre eigenen Fähigkeiten zur Erkennung von Lügen angeht, fügt sie hinzu.

„Fast immer der Vorhersage der KI folgen“

Aber dieses eine Drittel der Menschen hat wirklich Vertrauen in die Technologie. „Wenn man sich aktiv dafür entscheidet, sich auf die Technologie zu verlassen, sehen wir, dass die Menschen fast immer der Vorhersage der KI folgen… sie verlassen sich sehr stark auf ihre Vorhersagen“, sagt von Schenk. Dieses Vertrauen kann unser Verhalten prägen. Normalerweise neigen die Menschen dazu, davon auszugehen, dass andere die Wahrheit sagen. Das hat sich in dieser Studie bestätigt. Obwohl die Probanden wussten, dass die Hälfte der Aussagen gelogen war, markierten sie nur 19 Prozent als gelogen. Das änderte sich jedoch, als die Probanden das KI-Tool nutzten: Die Anschuldigungsquote stieg auf 58 Prozent.

Anzeige
Anzeige

In gewisser Hinsicht ist das eine gute Sache. Solche Werkzeuge könnten uns helfen, Lügen öfter zu erkennen, denen wir in unserem Leben begegnen, wie etwa Fehlinformationen, die wir in den sozialen Medien finden. Allerdings könnten die Tools auch Vertrauen untergraben, jenen grundlegenden Aspekt des menschlichen Verhaltens, der uns hilft, Beziehungen aufzubauen. Wenn der Preis für korrekte Urteile die Verschlechterung der sozialen Bindungen ist, ist es das wert?

Und dann ist da noch die Frage der Genauigkeit. In ihrer Studie ging es von Schenk und ihren Kollegen nur darum, ein Werkzeug zu entwickeln, das besser als der Mensch in der Lage ist, Lügen zu erkennen. Das ist nicht allzu schwierig, wenn man bedenkt, wie schlecht wir darin sind. Sie kann sich aber auch vorstellen, dass ein Tool wie ihres dazu verwendet werden könnte, routinemäßig den Wahrheitsgehalt von Beiträgen in sozialen Medien zu bewerten oder falsche Angaben im Lebenslauf oder in den Antworten auf Vorstellungsgespräche aufzuspüren. Für diese Fälle reicht es nicht aus, dass eine Technologie einfach nur „besser als ein Mensch“ ist, wenn sie mehr Anschuldigungen erhebt.
Wären wir bereit, eine Trefferquote von 80 Prozent zu akzeptieren, bei der nur vier von fünf bewerteten Aussagen korrekt als wahr oder falsch interpretiert würden? Würde eine 99-prozentige Genauigkeit ausreichen?

Anzeige
Anzeige

Gefahr unausgereifter KI-Lügendetektoren

Es lohnt sich, die Fehlbarkeit historischer Lügendetektionsverfahren zu bedenken. Der Lügendetektor wurde entwickelt, um die Herzfrequenz und andere Anzeichen von „Erregung“ zu messen, weil man davon ausging, dass bestimmte Anzeichen von Stress nur bei Lügnern auftreten. Dass sie das nicht sind, wissen wir schon seit langem. Aus diesem Grund sind die Ergebnisse von Lügendetektoren in US-Gerichtsverfahren in der Regel nicht zulässig. Trotzdem haben Lügendetektortests in einigen Bereichen Bestand, und sie haben viel Schaden angerichtet, wenn sie in Reality-TV-Shows dazu benutzt wurden, Menschen mit Anschuldigungen zu überziehen, wenn sie sie nicht bestanden haben.

Unvollkommene KI-Tools könnten noch größere Auswirkungen haben, weil sie so einfach zu skalieren sind, sagt von Schenk. Man kann an einem Tag nur eine bestimmte Anzahl von Menschen einem Lügendetektortest unterziehen. Die Möglichkeiten der KI-Lügenerkennung sind im Vergleich dazu fast grenzenlos. „In Anbetracht der Tatsache, dass so viele Fake News und Desinformationen verbreitet werden, sind diese Technologien durchaus von Vorteil“, sagt von Schenk. „Allerdings muss man sie wirklich testen – man muss sicherstellen, dass sie wesentlich besser sind als der Mensch.“ Wenn ein KI-Lügendetektor sehr viele Anschuldigungen hervorruft, sei es vielleicht besser, ihn gar nicht erst einzusetzen.

Der Text stammt von Jessica Hamzelou. Sie ist Redakteurin bei der US-amerikanischen Ausgabe von MIT Technology Review und berichtet vor allem über Themen aus der Biomedizin.
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige