WELTGo!
Ihr KI-Assistent für alle Fragen
Ihr KI-Assistentfür alle Fragen und Lebenslagen
UKE-Forschungsprojekt

KI kann Andeutungen und Notlügen erkennen

Von Anne Klesse
Veröffentlicht am 01.06.2024Lesedauer: 3 Minuten
Lernende KI: Large Language Models werden beispielsweise bei Chatbots wie ChatGPT eingesetzt
Lernende KI: Large Language Models werden beispielsweise bei Chatbots wie ChatGPT eingesetztQuelle: dpa/Frank Rumpenhorst

Hamburger Forschende fanden bei einer Untersuchung heraus, dass sogenannte große Sprachmodelle wie zum Beispiel GPT „menschliche Fähigkeiten“ haben: Sie sind fähig, zwischen den Zeilen zu lesen. Jedoch klappt das nicht bei allen Programmen gleich gut.

Anzeige

Kann Künstliche Intelligenz (KI) zwischen den Zeilen lesen? Dieser Frage sind Forschende des Universitätsklinikums Hamburg-Eppendorf (UKE) in einer systematischen Untersuchung nachgegangen. Dafür überprüften sie, inwiefern sogenannte große Sprachmodelle oder Large Language Models (LLMs) – das sind Programme, die durch Training unspezifisch Text erzeugen können und beispielsweise in Chatbots wie ChatGPT oder Open Assistant eingesetzt werden – Aufgaben aus dem Bereich der „Theory of Mind“ bewältigen können. Die „Theory of Mind“ bezeichnet in der Psychologie die menschliche Fähigkeit, mentale Zustände als mögliche Ursache für ein Verhalten zu verstehen, also bestimmte Überzeugungen, Emotionen oder Intentionen zu erfassen.

Die Ergebnisse der beiden untersuchten LLMs US-amerikanischer Entwickler verglichen sie mit den Fähigkeiten von rund 1900 Probanden und Probandinnen. Das Ergebnis: Während das GPT-Modell bei der Erkennung von indirekten Aufforderungen, Fehlannahmen und Irreführungen auf menschlichem Niveau lag und sogenannte Llama 2-Modelle schlechter abschnitten, war es bei der Erkennung von Fauxpas im Sinne von unbedachten kränkenden Äußerungen umgekehrt: Dort schnitten GPT-Modelle schlechter ab und zeigten Schwierigkeiten mit der korrekten Einordnung. Studienautor James Strachan von der Klinik und Poliklinik für Neurologie des UKE fasst es wie folgt zusammen: „GPT-Modelle sind technisch in der Lage, Schlussfolgerungen auf sozialer Ebene zu ziehen, tun dies in spontaner Aktion aber weniger, da sie ihnen zu unsicher erscheinen.“

Anzeige

KI schnitt nicht schlechter ab als Probanden

Die Forschenden zeigten sich von den Ergebnissen überrascht: „Wir hatten nicht erwartet, dass die Antworten eine solche Sensibilität gegenüber impliziten mentalen Zuständen in einem breiteren Spektrum von Geschichten zeigen würden“, sagte Strachan WELT AM SONNTAG. Besonders überraschend sei es gewesen, dass die KI etwa bei Tests zu Andeutungen, irreführenden Aussagen oder Notlügen, die auch für Menschen mitunter schwer zu durchdringen sind, nicht schlechter abschnitten als Probanden. Die Testergebnisse deuten also darauf hin, dass KI-Sprachmodelle grundsätzlich in der Lage sind, anspruchsvolle Schlussfolgerungen über den menschlichen Geist zu ziehen.

Das bedeutet jedoch nicht, dass sie tatsächlich menschliche Züge im Sinne der „Theory of Mind“ haben. Die gemachten Tests seien ursprünglich für Menschen konzipiert worden und nicht für Computerprogramme. Sie testen also nicht, „ob ein Proband überhaupt über eine Theory of Mind verfügt“, so Strachan, zu dessen Fachgebieten die Allgemeine, Kognitive und Mathematische Psychologie sowie Kognitive Neurowissenschaften gehören.

Übernimmt Technologie bald soziale Jobs?

Ihre Studienergebnisse haben die Forschenden kürzlich im Fachjournal „Nature Human Behaviour“ veröffentlicht. Dass Technologie zeitnah nicht nur die menschliche Muskelkraft und das Gehirn, sondern auch unsere Empathie und Menschlichkeit ersetzen wird, scheint erst einmal unwahrscheinlich. Es sei etwas anderes, das beschriebene Verhalten einer Figur in einer Geschichte richtig zu interpretieren – oder aber zu echter Interaktion mit Menschen fähig zu sein.