Der Internetkonzern Google warnt vor dem unbedachten Einsatz von künstlicher Intelligenz in Chatbots. „Diese Art von künstlicher Intelligenz, über die wir gerade sprechen, kann manchmal zu etwas führen, das wir Halluzination nennen“, sagte Googles Suchmaschinen-Chef Prabhakar Raghavan im Gespräch mit WELT AM SONNTAG.
„Das drückt sich dann so aus, dass eine Maschine eine überzeugende, aber komplett frei erfundene Antwort liefert.“ Eine der grundlegenden Aufgaben sei es, dies auf ein Minimum zu beschränken.
Google hat in dieser Woche einen eigenen Chatbot mit dem Namen „Bard“ vorgestellt und damit auf das Vorpreschen des Start-ups Open AI reagiert, das bereits vor Wochen seine eigene Lösung mit der Bezeichnung ChatGPT veröffentlicht hatte.
Zuletzt kündigte Microsoft an, ChatGPT mit seiner Suchmaschine Bing zu verknüpfen, um Google Konkurrenz zu machen. Das Google-Pendant Bard lässt Google derzeit von einigen Nutzern testen. „Darüber hinaus überlegen wir, wie wir diese Möglichkeiten in unsere Suchfunktionen einbinden, insbesondere auch für die Fragen, auf die es eben nicht nur eine einzige Antwort gibt“, sagte Google-Manager Raghavan.
Wann Google seinen Chatbot öffentlich macht, hat der Konzern noch nicht verraten.. „Wir spüren natürlich die Dringlichkeit, aber wir spüren auch die große Verantwortung“, sagte Raghavan. „Wir wollen die Öffentlichkeit auf keinen Fall in die Irre führen.“
Falsche Antwort
Mit welchen Problemen die Technologieunternehmen zu kämpfen haben, zeigte sich in dieser Woche bei der Google-Präsentation von Bard, bei der die Antwort auf eine Frage fehlerhaft war. Daraufhin reagierten die Investoren enttäuscht, die Aktie des Konzerns gab am Mittwoch nach der Bard-Präsentation kurz vor Börsenschluss um über sieben Prozent nach.
„Die riesigen Sprachmodelle, die hinter dieser Technologie stecken, machen es unmöglich, jedes denkbare Verhalten des Systems durch Menschen zu überwachen“, sagte Raghavan gegenüber WELT AM SONNTAG. „Aber wir wollen es in so großem Stil testen, dass wir am Ende zufrieden sind mit den von uns verwendeten Messgrößen, die wir nutzen, um die Sachlichkeit der Antworten zu überprüfen.“
Menschen sollten grundsätzlich wachsam sein, wenn sie mit den Ergebnissen konfrontiert werden, die ihnen von einem Chatbot präsentiert werden, hinter dem eine künstliche Intelligenz steht, sagte der Google-Manager. Es sei wichtig, dass Nutzer die Instrumente bekämen, um Ergebnisse überprüfen zu können. Dazu zähle auch, die Quellen offenzulegen.
„Wir legen an uns selbst einen sehr hohen Maßstab an“, sagte Raghavan. „Und es ist auch mein Ziel, bei den Chatbots führend zu sein in Bezug auf die Integrität der Informationen, aber auch die Verantwortung, die wir übernehmen. Nur so werden wir das Vertrauen der Öffentlichkeit behalten können.“
„Alles auf Aktien“ ist der tägliche Börsen-Shot aus der WELT-Wirtschaftsredaktion. Jeden Morgen ab 7 Uhr mit unseren Finanzjournalisten. Für Börsenkenner und -einsteiger. Abonnieren Sie den Podcast bei Spotify, Apple Podcast, Amazon Music und Deezer. Oder direkt per RSS-Feed.