Ghooghra ist eine so unbedeutende Kleinstadt im Nordwesten Indiens, dass auf Wikipedia bloß ihre Existenz vermerkt ist: keine Sehenswürdigkeiten, kein Bürgermeister, nicht mal eine Einwohnerzahl. Die Sonne Rajasthans brennt auf sandige Pisten, im Schatten von Niembäumen dösen Straßenhunde. Im Erdgeschoss eines unscheinbaren Wohnhauses befindet sich das Büro von drei jungen Männern: kein Schild am Eingang, nur ein Schreibtisch und ein Regal mit wenigen Büchern. "Influence: Die Psychologie des Überzeugens" heißt eines davon. "Denke nach und werde reich" ein anderes. Auf einem Whiteboard steht ein Spruch, der wohl motivieren soll: "Im Rennen von 20 Millionen Spermien warst du das erste".

Varun Bisaria, 32, lässt zur Begrüßung Kachori servieren, mit Gewürzen gefüllte Teigtaschen. Sein Kollege Bauthik Balar, 24, kaut und schweigt. Der Dritte, Firmengründer Divyendra Singh Jadoun, wohnt mit seinen Eltern über dem Büro. Gerade ist er in den Bergen, um mal ein bisschen runterzukommen. Es gab zuletzt zu viel zu tun.

Die drei hätten die Macht, Politiker um ihr Amt zu bringen, den Mob zu entfesseln, Wahlausgänge zu verändern. Sie könnten von ihrem Schreibtisch in Ghooghra aus Schwingungen auslösen, die auf der ganzen Welt zu spüren wären. Sie nennen sich "The Indian Deepfaker".

Deepfakes sind mithilfe künstlicher Intelligenz generierte Audio- oder Videoaufnahmen. Oft handelt es sich um authentische Filmschnipsel – zum Beispiel von einer Politikerrede –, in denen die tatsächlich gesprochenen Worte durch einen fingierten Text ersetzt und die Lippenbewegungen durch maschinelles Lernen synchronisiert werden. Die Stimme der Person wiederum wird per KI geklont. So kann man Menschen Worte in den Mund legen, die sie nie gesagt haben. Ein Upload in die sozialen Netzwerke, fertig ist die Manipulationskampagne.

Laut dem diesjährigen Global Risk Report des World Economic Forum stellen Deepfakes die größte Bedrohung der Gegenwart dar, noch vor Extremwetter, gesellschaftlicher Polarisierung und bewaffneten Konflikten. Im globalen Superwahljahr 2024 gilt insbesondere Indien als manipulationsanfällig. Eine Milliarde Inderinnen und Inder dürfen in diesen Wochen bei den Parlamentswahlen ihre Stimme abgeben, mehr als je zuvor. Über 900 Millionen Internetnutzer hat das Land, unter denen sich Falschinformationen innerhalb von Sekunden verbreiten lassen.

Einen ersten Deepfake in Indien deckte das Portal Vice bereits 2020 auf. Ein Kandidat der hindunationalistischen BJP hatte seine Stimme klonen lassen, um seinen Gegner in der Regionalwahl gleichzeitig auf Hindi, Englisch und Haryanvi der Korruption zu bezichtigen. So konnte er viele Millionen Wähler gleichzeitig erreichen und mit seiner (gefakten) Vielsprachigkeit beeindrucken. Im südindischen Tamil Nadu lässt die regionale Regierungspartei seit Monaten ihren ehemaligen Vorsitzenden für Videoansprachen von den Toten auferstehen – damit er die Erfolge seines Sohnes und Nachfolgers M. K. Stalin loben kann (nicht verwandt oder verschwägert mit dem Mann, nach dem er benannt wurde). Die geklonte Stimme eines weiteren Toten, die eines bereits 2008 verstorbenen Sängers, preist derzeit die Politik von Narendra Modi aus dem Grab an.

Nie waren Deepfakes schwieriger zu erkennen. Und nie einfacher zu erzeugen.

"Uns reicht ein Computer mit Grafikprozessor", sagt Varun Bisaria, der trotz seines früh ergrauten Haars jungenhaft wirkt. Im Büro der Indian Deepfaker in Ghooghra steht nur ein einziger PC, richtig deepfaken kann bloß einer der drei Mitarbeiter. Der Reporter der ZEIT hat um eine Live-Demonstration gebeten. Ich soll vor ein grünes Tuch vor einer Wand treten, einen improvisierten Green Screen, wie er auch auf Filmsets zum Einsatz kommt. Danach spreche ich in eine Handykamera und drehe dabei den Kopf einmal nach links und einmal nach rechts. Eine Minute Material genüge, sagt Bisaria.