KI-Desinformation vor den Wahlen: Was Forscher warnen
Deepfakes, Fake News, Manipulation — wie Demokratien sich schützen
Die Angst vor KI-gestützter Desinformation wächst weltweit – und die kommenden Wahljahre könnten zum entscheidenden Test werden. Während Deepfakes technisch ausgereifter werden und automatisierte Falschmeldungen in Sekundenschnelle Millionen Menschen erreichen, warnen Cybersicherheitsexperten und Wahlforscher vor ernsthaften Risiken für die Integrität demokratischer Prozesse. Doch was genau ist die Bedrohung, wer sind die Akteure, und welche Gegenmaßnahmen zeigen tatsächlich Wirkung?
KI-Desinformation bei Wahlen: Wie groß ist die Gefahr wirklich?
Künstliche Intelligenz hat die Produktion von Falschinformationen strukturell verändert. Was früher Stunden dauerte – ein halbwegs überzeugender Fake-Video, maßgeschneiderte Phishing-Kampagnen, massenhaft personalisierte Falschmeldungen – lässt sich heute in deutlich kürzerer Zeit automatisiert erstellen und verbreiten. Die technologische Einstiegshürde sinkt dabei kontinuierlich.
Ein Deepfake des ukrainischen Präsidenten Wolodymyr Selenskyj, in dem er scheinbar eine Kapitulation fordert, verbreitete sich im März 2022 tatsächlich viral auf Facebook und anderen Plattformen – ein dokumentierter Vorfall, den Meta und andere Anbieter innerhalb von Stunden entfernten. Ein manipuliertes Audio eines Politikers, der rassistische Äußerungen macht, könnte kurz vor einer Wahl zehntausendfach geteilt werden. Oder: Ein KI-Chatbot gibt sich als lokale Nachbarschaftsgruppe aus und streut gezielt Falschinformationen an Wähler bestimmter Bezirke – vieles davon ist technisch umsetzbar, einiges bereits dokumentiert.
Das Perfide: Nutzer erkennen solche Manipulationen oft nicht sofort. Selbst wenn Faktenchecker innerhalb von Stunden die Falschheit belegen, hat die Falschmeldung längst Tausende Menschen erreicht. Die psychologische Forschung – unter anderem vom MIT Media Lab – zeigt, dass erste Eindrücke hartnäckig haften bleiben, auch wenn sie später widerlegt werden. Fachleute sprechen vom sogenannten „Illusory Truth Effect": Wiederholte Falschaussagen werden mit der Zeit als wahrer wahrgenommen, selbst von informierten Personen.
Kerndaten: Laut einer Umfrage des Digitalverbands Bitkom aus dem Jahr 2023 gaben 73 Prozent der befragten Bundesbürgerinnen und Bundesbürger an, sich „sehr" oder „eher" um KI-gestützte Wahlbeeinflussung zu sorgen. Das Weltwirtschaftsforum (WEF) stufte in seinem Global Risks Report 2024 KI-gestützte Desinformation als eines der größten globalen Risiken des laufenden Jahrzehnts ein. Die EU-Kommission verwies in ihrem Bericht zur Demokratieschutzstrategie auf ein deutlich gestiegenes Aufkommen synthetisch generierter Inhalte im Vorfeld der Europawahl 2024 gegenüber der Wahl 2019. (Quellen: Bitkom-Studie „Künstliche Intelligenz und Gesellschaft" 2023; Weltwirtschaftsforum, Global Risks Report 2024)
Deepfakes als Werkzeug der Wahlbeeinflussung
Deepfakes sind synthetisch erzeugte Videos oder Audiodateien, in denen reale Personen Dinge sagen oder tun, die nie stattgefunden haben. Moderne KI-Modelle – darunter diffusionsbasierte Bildgeneratoren und große Sprachmodelle mit Text-to-Speech-Funktionen – machen dies möglich und zunehmend kostengünstiger.
Ein Deepfake eines Regierungschefs, der populistische Aussagen trifft, erfordert heute noch einen gewissen technischen Aufwand. Doch neue KI-Modelle werden kontinuierlich vereinfacht und zugänglicher. Bereits heute bieten kommerzielle Dienste Audio-Klone bekannter Stimmen für geringe Gebühren an – ein Umstand, der Regulierungsbehörden in der EU und den USA besorgt. Gegenwärtig sind es vor allem staatlich finanzierte Akteure und spezialisierte Desinformations-Netzwerke, die solche Kampagnen in größerem Maßstab betreiben.
Wichtig: Ein Deepfake muss nicht perfekt sein, um Schaden anzurichten. Selbst erkennbar manipulierte Videos können durch massenhaftes Teilen wirksam sein – weil ein Teil der Empfänger die Manipulation nicht bemerkt, und weil selbst bei Aufdeckung der bloße Verdacht im öffentlichen Diskurs verbleibt. Kommunikationswissenschaftler nennen dieses Phänomen den „Liar's Dividend": Selbst echte Aussagen werden zunehmend angezweifelt, weil die Möglichkeit der Manipulation im Raum steht.
Automatisierte Desinformation: Gefährlicher als einzelne Fakes
Noch folgenreicher als einzelne Deepfakes ist die koordinierte Massenverbreitung von Falschaussagen durch automatisierte Systeme. Botnetzwerke – bestehend aus gehackten Geräten oder Fake-Accounts – können eine Falschmeldung innerhalb weniger Minuten zu einem Trending Topic auf sozialen Plattformen machen und so algorithmische Verstärkung erzwingen.
Eine neuere Entwicklung: KI-Systeme, die eigenständig kontextspezifische Desinformation verfassen und veröffentlichen. Sie passen Inhalte an verschiedene Zielgruppen an – für Klimaskeptiker andere Aussagen als für Verschwörungstheoretiker. Das AfD-Höhenflug in Thüringen und Sachsen: Was die Wahlen bedeuten zeigt, wie stark politische Verschiebungen durch gezielte Desinformationskampagnen vorangetrieben werden können. Experten warnen dabei auch vor neuen Phishing-Methoden: Steuerbehörden warnen vor Elster-Phishing-Mails, die nach ähnlichen Mustern funktionieren wie KI-gestützte Zielkampagnen.
Die Skalierbarkeit ist das Kernproblem. Während ein einzelner Mensch vielleicht hundert personalisierte Phishing-Mails schreiben kann, erstellt ein KI-System tausende – jede syntaktisch korrekt, kontextangepasst und schwer von echten Nachrichten zu unterscheiden. Kommunalwahlen als Stimmungstest für die Merz-Regierung könnten bereits von solchen Techniken beeinflusst werden, ohne dass Wähler es bemerken.
Hinzu kommt: Traditionelle Faktenchecks kommen gegen diese Masse nicht an. Ein Faktenchecker-Team kann täglich vielleicht hundert Falschaussagen überprüfen; ein KI-System generiert in derselben Zeit zehntausende. Das ist ein grundlegendes Skalierungsproblem der Gegenmaßnahmen.