WELTGo!
Ihr KI-Assistent für alle Fragen
Ihr KI-Assistent für alle Fragen und Lebenslagen
WELTGO! ENTDECKEN
  1. Home
  2. Wirtschaft
  3. KI: Vom Verkehrsschild bis zum Drogenrezept – die gefährlichen Schwächen

Wirtschaft Überforderter Algorithmus

Vom Verkehrsschild bis zum Drogenrezept – die gefährlichen Schwächen der KI

Korrespondent für Innovation, Netzwelt und IT
Ein Fall aus dem Kreis Konstanz: Hier verwirrten solche inoffiziellen Tempolimit-Schilder die KI-Systeme der vorbeifahrenden Autos Ein Fall aus dem Kreis Konstanz: Hier verwirrten solche inoffiziellen Tempolimit-Schilder die KI-Systeme der vorbeifahrenden Autos
Ein Fall aus dem Kreis Konstanz: Hier verwirrten solche inoffiziellen Tempolimit-Schilder die KI-Systeme der vorbeifahrenden Autos
Quelle: picture alliance/dpa/Deutsche Umwelthilfe/Gaby Schneider
Ist die künstliche Intelligenz nicht auf eine Situation trainiert, lässt sie sich schnell in die Irre führen oder gar austricksen. Das zeigen kuriose Beispiele aus dem Alltag. Doch was amüsant klingt, kann in bestimmten Bereichen potenziell zum tödlichen Fehler werden.

Worum geht es

Hier können Sie unsere WELT-Podcasts hören
Um eingebettete Inhalte anzuzeigen, ist deine widerrufliche Einwilligung in die Übermittlung und Verarbeitung von personenbezogenen Daten notwendig, da die Anbieter der eingebetteten Inhalte als Drittanbieter diese Einwilligung verlangen [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Indem du den Schalter auf „an“ stellst, stimmst du diesen (jederzeit widerruflich) zu. Dies umfasst auch deine Einwilligung in die Übermittlung bestimmter personenbezogener Daten in Drittländer, u.a. die USA, nach Art. 49 (1) (a) DSGVO. Mehr Informationen dazu findest du hier. Du kannst deine Einwilligung jederzeit über den Schalter und über Privatsphäre am Seitenende widerrufen.

Ab dem kommenden Jahr müssen Neuwagen in der EU selbstständig Tempolimits erkennen. Die Technik dazu – Kameras samt einer künstlichen Intelligenz (KI) zur Bilderkennung – ist bei vielen modernen Autos bereits jetzt verbaut. Doch manche Systeme lassen sich leicht verwirren, wie ein kurioser Rechtsstreit in Konstanz am Bodensee jetzt zeigt.

Dort hatte das Landratsamt den Anwohnern dreier kleiner Gemeinden verboten, Fantasie-Verkehrsschilder aufzustellen mit der Aufschrift „Freiwillig“ und darunter ein stilisiertes Tempo-30-Schild sowie Silhouetten von Kindern. Seit Jahren stehen solche Verkehrszeichen unbeanstandet in vielen Wohngebieten in Deutschland.

Inzwischen aber haben sich Autofahrer beim Amt beschwert. Der Grund: Die Assistenzsysteme ihrer Fahrzeuge lasen die Zeichen falsch als amtliches Tempolimit. Je nach Modell seien einige sogar automatisch auf die Bremse gegangen, gab das Amt bekannt. Deswegen mussten die Schilder weg.

Die Anwohner klagten gegen das Verbot, doch vor Gericht bekam die Behörde nun recht. Im Kern heißt das: Die Realität muss vereinfacht werden, um die Algorithmen nicht zu verwirren. Irritierende Pseudo-Verkehrszeichen sind ein klassisches Beispiel dafür, das unsere Umwelt noch immer zu komplex für den bedenkenlosen Einsatz künstlicher Intelligenz ist.

Forscher sprechen von Grenz- oder Randfällen – sie treten immer dann auf, wenn Algorithmen von Situationen überfordert werden, weil sie nicht darauf trainiert wurden. Gerade weil diese Ereignisse selten auftreten, erfordern sie einen großen Aufwand. Kritiker glauben: Die Grenzfälle könnten dafür sorgen, dass künstliche Intelligenz in vielen Anwendungen in absehbarer Zukunft wirtschaftlich nicht sicher einsetzbar sein werde.

Eingreifen des Fahrers erforderlich

„Grenzfälle sind gar nicht so selten, wie es klingt“, erklärt Igal Raichelgauz, Chef des israelischen KI-Start-ups Autobrains. Seine Firma will künstliche Intelligenz für den Alltag ertüchtigen. Raichelgauz und sein Team forschen für namhafte Autozulieferer wie Continental.

„Wenn man nur eine Stunde autonom fährt, trifft die KI auf mehrere Randfälle“, sagt er. Derzeit muss der Fahrer dann wieder ans Lenkrad greifen. Für künftige vollautonome Systeme ist das aber keine Alternative.

„Viele Anbieter versuchen deswegen aktuell, ihre Systeme mit so vielen Daten wie möglich zu trainieren“, erzählt Raichelgauz. Nur ist es eben kaum möglich, jedes selten auftretende Problem einzuüben. „Ganz schnell stößt man an die Grenzen der Rechenkapazitäten, sowohl beim Training als auch später bei der Anwendung im Fahrzeug.“

Der Experte spricht damit ein Grundproblem künstlicher Intelligenz an: Je weitreichender die Entwickler versuchen, jede mögliche Herausforderung im Training vorherzusehen, desto geringer wird der Ertrag pro Trainingsstunde.

Anzeige

Aktuell versuchen US-IT-Konzerne wie Google oder der Microsoft-Partner OpenAI, Trainingsdatensätze größer und komplexer anzulegen und mit ihnen immer länger zu trainieren. Der aktuelle OpenAI-Algorithmus GPT4 etwa ist zehnmal komplexer als sein Vorgänger GPT3 und benötigte Monate für das Training. Nur die Konzerne, die die größten und leistungsstärksten Rechenzentren der Welt betreiben, können sich so etwas überhaupt leisten.

Wenn GPT4 überlastet ist

Doch selbst GPT4 scheitert weiter an Randfällen, die seine Entwickler nicht vorhergesehen haben. Die Nutzer schaffen es konstant, durch möglichst absurd formulierte Aufgabenstellungen interne Sperren des Algorithmus zu umgehen. Forschern der israelischen Sicherheitsfirma Check Point etwa gelang es kürzlich problemlos, GPT4 zur Preisgabe von detaillierten Rezepten für die Herstellung der Droge Methamphetamin zu bewegen.

Was auf den ersten Blick amüsant erscheint, ist etwa bei militärischen oder medizinischen Anwendungen künstlicher Intelligenz ein potenziell tödlicher Fehler.

„Die klassischen Randfälle vermag man noch vorherzusehen, sie definieren die Grenzen der Leistungsfähigkeit eines Algorithmus, innerhalb derer er klarkommt. Doch was ist mit den Problemen, die so selten sind, dass wir nicht einmal ahnen, dass sie da sind?“, fragt daher Christian Müller, Experte für simulierte Realität beim Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI).

Eine Entwicklung von Algorithmen, die auf alles eine Antwort kennen, sei ökonomisch unsinnig. Große Algorithmen wie GPT4 haben zudem ein weiteres kritisches Merkmal: Ihr Training ist so komplex, dass ihre Erfinder im Nachhinein gar nicht nachvollziehen können, wieso die Maschine ein Problem lösen kann – oder eben nicht. Das aber disqualifiziert sie für sicherheitskritische Anwendungen, bei denen Ergebnisse reproduzierbar sein müssen.

Insbesondere für militärische Anwendungen ist die Täuschung der Algorithmen ein wesentliches Problem: In der Ukraine testen westliche Entwickler ihre neuesten Bilderkennungssysteme. Die US-Firma Palantir etwa wirbt damit, ihre Software „Meta-Constellation“ werde für Zielaufklärung und -auswahl eingesetzt. Die Algorithmen analysieren Satellitenbilder, kombinieren sie mit Social-Media-Fotos von der Front und mit Drohnenbildern, um taktische Aufklärung in Sekundenschnelle zu ermöglichen.

Beide Seiten entwickeln daher komplexe Täuschkörper, die in den Augen der Drohnen aussehen wie echte Ziele. „Wer die KI gezielt täuscht, kann den Gegner zu Fehlentscheidungen verleiten“, erklärt Mirko Ross, Chef des deutschen Start-ups für IT-Sicherheit Asvin.

Anzeige

„Eine Problemlösung dafür kann sein, immer mehr verschiedene Sensordaten zu kombinieren. Eine weitere ist, die Sensordaten zu filtern, sodass bestimmte Datenmuster, die den Algorithmus täuschen können, vorab geblockt werden.“ Vor allem aber würden Trainingsdaten künftig hochgeheim sein, sagt Ross. Denn wer sie kennt, kann nach Randfällen suchen, auf die die Algorithmen des Gegners nicht vorbereitet sind, und diese ausnutzen.

„Große Systeme lassen sich leichter in die Irre führen“

Sind solche Schwachstellen einmal bekannt, können Algorithmen in die Irre geführt werden. Im Sommer standen Autofahrer in San Francisco diverse Male im Stau, weil Aktivisten der Gruppierung „Safe Street Rebels“ selbstfahrende Taxis der Firmen Waymo und Cruise lahmlegten.

Ihre Waffen waren simple orange-weiße Verkehrskegel, die sie an Ampeln auf die Motorhauben der Autos stellten. Die KI der Fahrzeuge versucht, solche Kegel zu umfahren – doch wenn die Kegel auf dem Fahrzeug stehen, klappt das nicht, die KI schaltet schlicht ab. Der Wagen steht.

Das sei ein klassisches Beispiel „für einen Fall, den die Entwickler nicht vorhergesehen haben“, sagt Raichelgauz. „Selbst kleine Abweichungen vom Training führen die KI in die Irre – und große Systeme lassen sich leichter in die Irre führen.“

Der Ansatz seiner Firma: Anstatt einen Algorithmus für alles zu trainieren, werden die Fälle in kleinere Probleme aufgeteilt und von spezialisierten Algorithmen verarbeitet. So werden auch Grenzfälle berücksichtigt. „Modularisierung und Spezialisierung bringt Vorteile gegenüber dem Ansatz, einen Algorithmus für alles zu entwickeln, gerade bei sicherheitskritischen Anwendungen“, sagt DFKI-Forscher Müller.

„Das ist zugleich eine Chance für uns, denn es bedeutet, dass aufwendige Algorithmen, die nur sehr teuer zu trainieren sind, durch kleinere Modelle ergänzt und angepasst werden können.“ Am Ende muss vielleicht die Welt etwas einfacher werden, damit die KI nicht überfordert ist.

An dieser Stelle finden Sie Inhalte von Drittanbietern
Um eingebettete Inhalte anzuzeigen, ist deine widerrufliche Einwilligung in die Übermittlung und Verarbeitung von personenbezogenen Daten notwendig, da die Anbieter der eingebetteten Inhalte als Drittanbieter diese Einwilligung verlangen [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Indem du den Schalter auf „an“ stellst, stimmst du diesen (jederzeit widerruflich) zu. Dies umfasst auch deine Einwilligung in die Übermittlung bestimmter personenbezogener Daten in Drittländer, u.a. die USA, nach Art. 49 (1) (a) DSGVO. Mehr Informationen dazu findest du hier. Du kannst deine Einwilligung jederzeit über den Schalter und über Privatsphäre am Seitenende widerrufen.
An dieser Stelle finden Sie Inhalte von Drittanbietern
Um eingebettete Inhalte anzuzeigen, ist deine widerrufliche Einwilligung in die Übermittlung und Verarbeitung von personenbezogenen Daten notwendig, da die Anbieter der eingebetteten Inhalte als Drittanbieter diese Einwilligung verlangen [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Indem du den Schalter auf „an“ stellst, stimmst du diesen (jederzeit widerruflich) zu. Dies umfasst auch deine Einwilligung in die Übermittlung bestimmter personenbezogener Daten in Drittländer, u.a. die USA, nach Art. 49 (1) (a) DSGVO. Mehr Informationen dazu findest du hier. Du kannst deine Einwilligung jederzeit über den Schalter und über Privatsphäre am Seitenende widerrufen.
Mitarbeit: Daniel Zwick

Mehr aus dem Web
Neues aus der Redaktion
Auch interessant
Mehr zum Thema