Das Wichtigste in Kürze
- Künstliche Intelligenz erleichtert die Wahlmanipulation weltweit.
- Afrika und Europa sind von KI-Desinformation betroffen.
- Regierungen und Tech-Unternehmen kämpfen unterschiedlich gegen KI-Desinformation.
Hat Künstliche Intelligenz (KI) schon Wahlen beeinflusst? Diese Frage ist in aller Munde. Egal ob super-realistische Deepfake-Videos, vollautomatisierte Fake News Websites und menschenähnliche Social Media-„Bots“ oder KI-generierte Wahlplakate – die Angst davor, dass Künstliche Intelligenz demokratische Prozesse beeinträchtigt und Wahlen manipuliert, begegnet uns jeden Tag. Ein falscher Friedrich Merz hier, Tausende von AfD-Posts dort und reichlich KI-generierte Beweise für Wahlmanipulation, Politikerreichtum oder angebliche Terroranschläge obendrauf. Noch vor wenigen Jahren waren Falschmeldungen und manipulative Kampagnen mühsame Handarbeit, heute geht das – na ja, vielleicht nicht mit einem, aber doch mit einigen wenigen – Knopfdrücken. Und das in über 20 Sprachen, als Text, Video, Bild oder Ton.
Egal ob in Deutschland, Europa oder Afrika – KI-generierte Desinformation ist ein globales Problem geworden. Deshalb haben wir uns im Rahmen eines Projektes des Medienprogramms Subsahara-Afrika der Konrad-Adenauer-Stiftung das Thema einmal genauer angeschaut: KI-Desinformation in Europa und Afrika im Vergleich, Formen, Fälle und Lösungen. Dabei ging es nicht nur um Wahlen, sondern auch um KI-Desinformation im Zuge von Kriegen und Konflikten, um Russland, um Gesetze und Social Media-Regeln, aber vor allem auch darum, wie wir voneinander lernen können.
Warum Afrika und Europa?
Natürlich drängt sich diese Frage dem Leser auf, oft mit vorprogrammierten Vorurteilen oder Fehlschlüssen: Europa sei ja viel stabiler und fortschrittlicher, da könnten Deepfakes ja sicher nicht so viel anrichten wie in Afrika. Oder: In Afrika ist die technologische Infrastruktur schlechter, da setzt doch niemand KI ein. Beides, so zeigt unsere Studie, ist falsch.
Von den rund 100 Fällen, die wir identifiziert haben, spielte die Mehrheit in Europa. Und technologische Infrastruktur spielt natürlich eine Rolle, wenn böswillige Angreifer überlegen, ob sie Deepfakes einsetzen oder nicht. Daten und Datenzugang sind auf dem riesigen afrikanischen Kontinent sehr unterschiedlich, oftmals aber teurer und in ländlichen Gegenden instabiler als in Europa. Trotzdem fanden wir alle Arten von KI-Desinformationen in Afrika. Teilweise auch in hochprofessionellen, aufwendigen Operationen. In Ruanda, zum Beispiel, benutzte eine organisierte Kampagne sowohl KI-Chatbots als auch Bildgeneratoren für aufwendige Online-Kampagnen. Diese setzten bis zu mehrere Hundert Posts pro Stunde ab, um Werbung für die Regierungspartei und ihre Anführer zu machen, um oppositionelle Accounts zu ersticken und so Debatten zu überfluten.
Wofür werden KI-Manipulationen vor allem eingesetzt?
Deepfakes und andere KI-Manipulationen stehen vor allem im Kontext von Politik und Wahlen im Fokus. Doch ihr Haupteinsatz ist (noch) nicht politisch. Das gilt sowohl in Europa, als auch in Afrika. Kriege und Konflikte – egal ob der russische Krieg gegen die Ukraine, der Nahost-Konflikt oder die Kriege im Sudan und Putsch-Aktionen in der Sahel-Zone – sind auf beiden Kontinenten begleitet von propagandistischen oder militär-taktischen Deepfakes.
Dazu kommt, dass überall auf der Welt Cybercrime wie Betrug das eigentliche Schlachtfeld für Deepfakes und KI sind. Hacker und Kriminelle haben den politischen Akteuren da einiges voraus. Tendenz steigend. Ein Beispiel dafür sind die „Yahoo-Boys“, eine lose Gruppe von Gangstern aus Nigeria, die sich rühmen, den berühmten E-Mail-Trick mit dem nigerianischen Prinzen erfunden zu haben. Mittlerweile setzen auch sie auf KI, um ihre Opfer in Live-Calls mit falschen Stimmen und Gesichtern dazu zu bringen, Geld zu überweisen.
KI-Experiment zeigt: kaum Schutz für Afrika
Als Teil unseres Projektes brachten wir im November 2024 KI- und Desinformationsexperten und Journalisten im Büro des KAS-Medienprogramms in Johannesburg für ein Experiment zusammen. Das Ziel: Die Experten sollten testen, ob populäre KI-Anwendungen leichter Desinformation über Afrika produzieren als über den Westen. „Red Teaming“ nennt man das in der Cybersecurity-Sprache.
Die Ergebnisse sprachen eine klare Sprache: Die ohnehin laxen Sicherheitsvorkehrungen, die die Hersteller und Anbieter von Chatbots, Bildgeneratoren oder Audio- und Video-Tools in ihre Anwendungen einbauen, sind vor allem für den Westen gebaut.
Die Gastautoren
- Christopher Nehring ist Sicherheitsforscher am Cyberintelligence Institute in Frankfurt und langjähriger Gastdozent des Medienprogramms der Adenauer-Stiftung. Außerdem arbeitet er als Journalist und Autor zu Sicherheitsthemen.
- Hendrik Sittig ist Leiter des regionalen Medienprogramms Subsahara-Afrika der Konrad-Adenauer-Stiftung mit Sitz in Johannesburg, Südafrika. Davor hat er das Medienprogramm Südosteuropa in Sofia, Bulgarien, geleitet.
- Zur Studie geht es hier.
Eine Anwendung, die Stimmen täuschend echt kopiert, verweigerte diese „voice clone“ genannte Kopie zum Beispiel für Donald Trump, Joe Biden, Kamala Harris, Angela Merkel oder Ursula von der Leyen. Mit dem afrikanischen Präsidenten Cyrill Ramaphosa oder dem kenianischen Präsidenten William Ruto hatte er hingegen keine Probleme. Einen fake Artikel über Wahlmanipulationen durch die nationalen Wahlbehörden in den USA oder Deutschland wollten die meisten Chatbots nicht auf einfache Nachfrage für uns schreiben; für die Wahl in Ghana hingegen war es kein Problem.
Solche Stichproben zeigen: KI-Anwendungen und ihre Sicherheitsmechanismen sind vor allem für die kaufkräftigen Märkte im Westen zugeschnitten. Tragen sie jedoch zur politischen Instabilität bei, ist das auf Dauer schlecht fürs Geschäft! Deshalb sollten die großen Tech-Firmen ein großes Interesse an sicherer KI haben – auch in Afrika!
Europa verlässt sich auf Gesetze, Afrika auf Communities
Was tun gegen KI-Desinformation? Europa hat dazu eine Antwort: Gesetze! Der Digital Services Act (DSA) oder das KI-Gesetz der EU stechen dabei heraus. Beide sollen Deepfakes und KI-Desinformation verhindern – durch Zugang zu den Plattformen-Daten, durch Löschungen und Kennzeichnungen. Bislang funktioniert das mehr schlecht als recht, trotzdem wird sich darauf verlassen.
Einheitliche Gesetzgebung ist auf dem afrikanischen Kontinent, mit seinem Mix aus jungen, fragilen Demokratien, Konflikten und Diktaturen jedoch in naher Zukunft unwahrscheinlich. In vielen Ländern gehen daher zum Beispiel Graswurzel-Initiativen Probleme wie KI-Desinformation an, organisieren Bildungsseminare oder bauen eigene Plattformen und Webseiten, auf denen Inhalte gemeldet und überprüft werden. So zum Beispiel Real411 vor der Wahl in Südafrika oder Organisationen wie Africa Check und Code for Africa, die bei ihren Projekten auf dem Kontinent vom Medienprogramm der KAS unterstützt werden.
Und wie ist das nun mit den Wahlen?
Die Bundestagswahl 2025 hat KI sicher nicht entschieden. Doch hat KI-Desinformation schon einmal Wahlen beeinflusst? Darauf gibt unsere Studie eine klare Antwort: Ja (aber anders als erwartet). In fünf Fällen – vier davon in Europa – hat KI-Desinformation definitiv einen Unterschied gemacht. Während der Wahlen in Moldau und Georgien letztes Jahr setzten Russland, prorussische Parteien, Medien und Trolle unter anderem Deepfakes, KI-Bots, Bilder und automatisch generierte Posts ein. Mal waren es KI-generierte Saunabilder von Ministern, mal Deepfake-Videos, in denen Präsidentin Maia Sandu traditionelle Volksgetränke verbot. Doch trotz dieser Dauerbeschallung gewann das pro-westliche Lager die Wahlen hauchdünn; nicht so in Georgien, wo ebenfalls Deepfakes über Präsidentin Salome Surabischwili kursierten.
In beiden Ländern hatte KI-Desinformation definitiv Einfluss, aber entschied nicht für sich alleine die Wahlen. In Rumänien hingegen annullierte das Verfassungsgericht die erste Runde der Präsidentschaftswahlen, weil russische Hacker Wahlinfrastruktur angriffen und Bots und Influencer auf TikTok derart massiv auf den Algorithmus einschlugen, dass Inhalt zugunsten des rechtspopulistischen Kandidaten bevorzugt wurde. Dass dies alleine für seinen Sieg ausschlaggebend war, hat allerdings bis heute niemand bewiesen. Schon 2023 sorgte ein Deepfake auf Facebook kurz vor dem Wahltag in der Slowakei dafür, dass zumindest einige Prozent der Wähler sich kurzfristig umentschieden. Und in der Türkei zog ein Präsidentschaftskandidat gleich ganz zurück, nachdem ein Deepfake-Pornovideo von ihm kursiert war.
Der wichtigste Fall jedoch ereignete sich im November 2024 in Mauritius: Dort lag die amtierende Regierung zwei Wochen vor der Wahl in Umfragen mit fast 70 Prozent vorne. Dann versuchte sie zehn Tage vor der Wahl Social Media abzuschalten, weil dort gefährliche Deepfakes über korrupte Praktiken und Überwachung von Politikern und Journalisten verbreitet würden. Doch das war glatt gelogen, die geleakten Mitschnitte waren keine KI-Fakes, damit wollte die Regierung nur ablenken. Ein Argument, dass immer mehr Politiker, Unternehmen und Anwälte einsetzen: Wenn die Information nachteilig ist, einfach mal behaupten, es sei ein Deepfake. Für die Regierung in Mauritius ging das jedoch nach hinten los: Massenproteste folgten, Social Media war nach drei Tagen wieder erreichbar und die Regierung verlor die Wahl. Immerhin ein Grund zur Hoffnung.
URL dieses Artikels:
https://www.mannheimer-morgen.de/meinung/debatte_artikel,-debatte-hat-kuenstliche-intelligenz-schon-wahlen-beeinflusst-herr-nehring-und-herr-sittig-_arid,2291254.html