Philipp Adamidis forscht seit Jahren an Künstlicher Intelligenz und den Risiken
Philipp Adamidis forscht seit Jahren an Künstlicher Intelligenz und den Risiken
Quantpi

Drei von vier Startups nutzen KI – und müssen sich damit auch mit dem AI Act der EU beschäftigen. Ob sie wollen, oder nicht. Denn auch die Anwender der Technologie können zur Verantwortung gezogen werden, nicht nur die Entwickler. Wer dabei richtig daneben liegt, könnte sogar Millionenstrafen auferlegt bekommen. Was also tun?

Das haben wir den KI-Experten Philipp Adamidis in unserem Podcast „So geht Startup“ gefragt. Er forscht seit Jahren an Künstlicher Intelligenz, hatte selber in dem Bereich gegründet und führt gerade das Startup Quantpi, das sich auf das Risikomanagement von Künstlicher Intelligenz spezialisiert. Quantpi analysiert eure KI und erkennt dabei auch, ob sie mit den Regeln des AI Acts übereinstimmt. Etwa, in welcher Risikoklasse die KI-Software eingestuft wird.

Klickt hier, um alle Podcast-Folgen zu sehen.

Diese Risikoklassen kann eure KI haben

Der EU AI Act unterscheidet vier Risikoklassen für KI:

  • 1. Verboten: Bestimmte KI-Software ist in der EU schlichtweg verboten und darf nicht entwickelt oder verwendet werden. Dazu zählt alles, was als Bedrohung für Menschen eingestuft wird: Etwa Systeme für Social Scoring, biometrische Identifizierung und Analysen wie Gesichtserkennungen oder kognitive Verhaltensmanipulation. Ausnahmen gibt es für die Strafverfolgung.
  • 2. Hochriskant: Hierzu zählen KI-Anwendungen, die die Gesundheit, Sicherheit oder Einschränkung der Grundrechte von Personen betreffen, beispielsweise in der Bildung, der kritischen Infrastruktur oder bei Produkten, die EU-Sicherheitsvorschriften erfüllen müssen, wie Spielzeuge, Fahrzeuge oder medizinische Geräte.
  • 3. Begrenztes Risiko: Hierunter fallen etwa generierende KI-Systeme wie Chatbots. Die Anbieter sind verpflichtet, die Nutzer über die künstlich erstellten Inhalte – Text, Audio oder Video – zu informieren.
  • 4. Minimales Risiko: Beispiele sind KI-fähige Videospiele oder Spamfilter.
Lest auch

Darum sollten sich Startups freiwillig an den AI Act halten

Startups, die hochriskante KI-Anwendungen erstellen oder anwenden, müssen entsprechende Compliance-Anforderungen erfüllen. Die Systeme müssen ausführlich getestet und dokumentiert werden. Bei KI-Software mit weniger Risiko besteht diese Pflicht nicht, allerdings empfiehlt die EU, hier dennoch freiwillig tätig zu werden.

Diese Empfehlung spricht auch KI-Experte Adamidis aus. „Man sollte daran interessiert sein, das KI-System so gut wie möglich zu verstehen“, so der Quantpi-Gründer. Sowohl für die eigene Dokumentation, aber auch zur Qualitätskontrolle und zur Steigerung der Performance.

Quantpi etwa setzt dafür auf einen sogenannten Greybox-Ansatz, heißt: Die KI selbst ist eine Blackbox, sie verrät also nicht, wie sie auf die Ergebnisse gekommen ist. „Alleine das spricht für einen erhöhten Testbedarf“, so Adamidis. Wenn aber Daten in die Blackbox hineingebracht werden, kann die Ausgabe der KI analysiert werden. Die Blackbox wird dann zur Greybox.

Lest auch

Durch die intrinsische Motivation, die eigene KI proaktiv und fortlaufend zu testen und sich mit der Compliance zu beschäftigen, erhielten Startups zudem Wettbewerbsvorteile, so Adamidis. Sie schafften Vertrauen und erhielten Reputation bei den Kunden und könnten sich als Vorreiter bei der verantwortungsvollen KI-Entwicklung positionieren. Zudem, ganz praktisch gesprochen, könnten diese Startups gemeinsam mit den Regulierern an einem Tisch sitzen, um den Status Quo zu den eigenen Gunsten zu besprechen, so der KI-Experte.

Denn obwohl der AI Act gerade verabschiedet wurde, wird er – bis auf wenige Ausnahmen – erst in 24 Monaten uneingeschränkt anwendbar. Die EU-Kommission hat für die Zwischenzeit die Initiative KI-Pakt ins Leben gerufen, die bei der Umsetzung des Gesetzes hilft und KI-Entwickler auf freiwilliger Basis zur Einhaltung der Verpflichtungen animieren soll.

Wer setzt sich den KI-Hut auf?

Die Verantwortung für KI müsse im C-Level liegen, so Adamidis, da die Technologie als grundlegender Baustein für Unternehmen gelten werde. „Wir werden eine Zeitlang noch von ‚KI-Unternehmen‘ sprechen und dann irgendwann nur noch von ‚Unternehmen“. Früher haben wir von Software- und Internetunternehmen gesprochen – das macht ja auch keiner mehr“, so der Gründer.

Lest auch

Möglich wäre also der CEO, der sich der Künstlichen Intelligenz im Unternehmen annimmt. Passend wäre auch der CTO, der sowieso technische Themen besetzt, oder das Legal-Team, wenn es um Compliance geht. Daneben gibt es immer häufiger auch die Rolle des Chief AI Officer. Der CAIO trägt die strategische Verantwortung für das gesamte KI-Portfolio des Unternehmens. Er oder sie stellt die Compliance mit dem EU AI Act sicher und arbeitet mit den verschiedenen Abteilungen und externen Experten zusammen. Verdienen kann ein Chief AI Officer übrigens bis zu 500.000 Euro im Jahr.

Im Podcast gehen wir gemeinsam mit Philipp Adamidis einige konkrete Beispiele durch, wie verschiedenste Startups vom EU AI Act betroffen sind – oder auch nicht. Ob ihr nun also ein E-Commerce-Startup leitet, das lediglich einen Chatbot einsetzt, für eure Firma auf KI für Bewerbungen setzt – was in einigen Fällen verboten werden könnte – oder selbst eine KI entwickeln wollt, dann solltet ihr in die aktuelle Folge von „So geht Startup“ unbedingt reinhören.

Anzeige. Diese Folge wird präsentiert von IKEA. Mit IKEA für Unternehmen erhalten Startups, Selbstständige und etablierte Unternehmen Unterstützung bei der Einrichtung ihrer Geschäftsräume. Jetzt informieren unter: IKEA.de/Unternehmen.