Die Wahrheit im Visier: Künstliche Intelligenz, Wahlkampf und Demokratie

Zum Beitrag über KI und Demokratie

Während mehr als 60 Staaten sich jüngst in Paris für eine „ethische“ Entwicklung der Künstlichen Intelligenz ausgesprochen haben, wird in Deutschland wird gewählt und eine Einflussnahme anderer Staaten und ausländischer Akteure auf die Bundestagswahl wird heiß diskutiert. Insbesondere „Deepfakes“, also realistisch wirkende, aber gefälschte Videos, Fotos oder Tonaufnahmen, können eine Gefahr für diesen Wahlkampf sein. Reichen die Maßnahmen der Politik gegen Desinformation und Fake News aber nicht aus. Welche Rolle spielen sie im Wahlkampf und welchen Einfluss haben sie auf unsere Demokratie? Und wie lassen sich Deepfakes überhaupt erkennen? Kann Künstliche Intelligenz (KI) nicht nur zur Verbreitung von Desinformation beitragen, sondern auch helfen, sie zu bekämpfen?

Wir haben mit zwei Expert*innen gesprochen: Prof. Dr. Thorsten Strufe, Professor für Privacy und Netzsicherheit am Karlsruher Institut für Technologie (KIT), sowie Isabel Bezzaoui, die im Forschungsprojekt „Desinformationskampagnen beheben durch Offenlegung der Faktoren und Stilmittel (DeFaktS)“ des FZI | Forschungszentrum Informatik an der Entwicklung einer erklärbaren KI zur Erkennung von Desinformation arbeitet. Sie erläutern, wie wir uns besser gegen digitale Täuschung wappnen können – und welche Rolle KI dabei spielt.

Ein bewusster Umgang mit Desinformation ist jetzt besonders wichtig

Besonders mit Blick auf die Bundestagswahl am 23. Februar 2025 ist ein bewusster Umgang mit Desinformation entscheidend. „Wahlen sind ein besonders sensibler Moment, in dem Fake News und Deepfakes gezielt eingesetzt werden, um Wähler zu beeinflussen oder Verwirrung zu stiften“, warnt Strufe. Daher ist es umso wichtiger, dass wir lernen, mit diesen Herausforderungen umzugehen.

Doch wie können wir uns gegen diese gezielte Manipulation wappnen? Eine der wichtigsten Maßnahmen ist laut Bezzaoui die Bildung in Medienkompetenz, um Menschen für Einflussnahme und Manipulation zu sensibilisieren. Doch allein das reicht nicht aus. „Plattformen profitieren wirtschaftlich von emotionalisierenden und polarisierenden Inhalten, was leider auch Desinformation umfasst“, erklärt sie. Daher seien regulatorische Maßnahmen erforderlich, um Druck auf Social-Media-Plattformen wie Facebook, Instagram, X und Co. auszuüben, ihre Content-Moderation zu verbessern.

KI als Gefahr für die Demokratie?

Bezzaoui sieht die größte Gefahr in der Möglichkeit, Inhalte zu manipulieren und fälschen zu können, um Meinungsbildung und dadurch letztendlich auch das Wahlverhalten zu beeinflussen. „Generative KI macht das Erstellen manipulativer Inhalte sehr viel einfacher und verlangt von Bürger*innen ein neues Maß an kritischem Denken sowie digitalen Kompetenzen“, so Bezzaoui. Diese Kompetenzen müssen jedoch erst aufgebaut werden – und hier liegt eine der größten Herausforderungen für unsere Gesellschaft.

Nicht nur die Qualität von Desinformationen ist problematisch, sondern auch ihre schiere Menge. Strufe erklärt: „Es geht nicht nur darum, den perfekten Deepfake zu erschaffen. Vielmehr wird darauf gesetzt, dass immer wieder ähnliche Inhalte geteilt werden, um eine Normalisierung zu erreichen.“

Deepfakes: Die perfekte Täuschung oder doch nicht?

Eine besonders raffinierte Form der digitalen Manipulation sind Deepfakes – also Videos oder Audiodateien, die täuschend echt wirken. „Die Software, die zur Erstellung von Deepfakes verwendet wird, wird immer besser. Das macht es natürlich viel schwieriger, sie zu erkennen“, erklärt Strufe. Früher war es noch leicht, Fehler zu finden – etwa wenn jemand plötzlich sechs Finger hatte oder der Hintergrund des Videos nicht stimmte. Doch diese offensichtlichen Anzeichen verschwinden zunehmend.

Beispiele für bekannte Deepfakes:

  1. Obama-Deepfake (2018): Ein Fake-Video des ehemaligen US-Präsidenten, in dem er Aussagen trifft, die er nie gemacht hat. Dies wurde als Beispiel genutzt, um auf die Gefahren von Deepfakes aufmerksam zu machen.
  2. Papst im Designer-Mantel (2023): Ein mit KI generiertes Bild des Papstes in einem weißen Balenciaga-Mantel ging viral und wurde von vielen für echt gehalten.
  3. Selenskyj-Fake (2022): Ein manipuliertes Video zeigte den ukrainischen Präsidenten Wolodymyr Selenskyj, wie er angeblich zur Kapitulation aufruft – eine gezielte Desinformationskampagne.

Gibt es dennoch Möglichkeiten, Deepfakes zu entlarven? Ja, sagt Strufe: „Manchmal merkt man es an kleinen Details wie unlogischen Wimpern oder einem Hintergrund, der einfach nicht passt.“ Dennoch warnt er: „Die meisten Deepfakes, die im Netz kursieren, sind nicht perfekt. Sie sind nicht wirklich darauf ausgelegt, den Zuschauer zu täuschen, sondern dienen oft anderen Zwecken – etwa der gezielten Beeinflussung durch Masse und Wiederholung.“

Checkliste: So erkennst du Desinformation und Deepfakes

Auffällige Bild- oder Tonfehler: Verzerrungen, unnatürliche Bewegungen oder fehlerhafte Schatten
Ungewöhnliche Quellen: Ist die Quelle vertrauenswürdig? Gibt es dieselbe Nachricht in seriösen Medien?
Überprüfen von Fakten: Mit Fact-Checking-Tools wie Mimikama, CORRECTIV, dpa-Faktencheck oder BAIT: Faktencheck-Kanal für Jugendliche auf TikTok
Emotionale Sprache: Extrem polarisierende oder alarmierende Inhalte könn ein Warnzeichen sein
Plötzlich virale Inhalte: Wenn ein Video oder Bild, das ohne Kontext schnell viral geht, lohnt sich eine Überprüfung des Ursprungs auf Suchmaschinen

Das Bundesamt für Sicherheit in der Informationstechnik bietet viele Hintergrundinformationen zu den technischen Aspekten von Deepfakes und zeigt mögliche Erkennungsmerkmale.

Manchmal keine Detektivarbeit: Wie KI helfen kann, Desinformation zu erkennen

Angesichts der Flut an Desinformation ist manuelles Faktenchecken kaum noch leistbar. „Hier kann KI allerdings unterstützen“, erklärt Isabel Bezzaoui. Bekannt ist das von großen Plattformen, die bereits entsprechende Systeme, um Inhalte automatisiert zu klassifizieren, implementiert haben. Die sind allerdings weder frei nutzbar, noch ist zugänglich wie sie funktionieren.

Bezzaouis Team im Projekt DeFaktS hat mithilfe mehrerer wissenschaftlicher Hilfskräfte am FZI eine Taxonomie entwickelt, um zu verstehen, was Desinformation ausmacht und welche sprachlichen Indikatoren darauf hinweisen. Auf dieser Basis lernt eine KI, zwischen faktischer Information und Desinformation zu unterscheiden.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Am Ende zählt aufmerksames Hinsehen

Hier sollen also KI-Systeme sollen so zum Einsatz kommen, dass sie einem kollektiven gesellschaftlichen Wohl dienen. Trotzdem sei eine solche KI weder die Patentlösung für alles noch ein Allheilmittel, gegen das, was uns im Kampf gegen Desinformationen begegnet und begegnen wird. „Mensch und Maschine sollten hier zusammenarbeiten, um Desinformationskampagnen wirksam zu begegnen“, betont Bezzaoui. Eine mögliche Lösung sind Apps oder Browser-Erweiterungen, die Nutzer*innen auf potenzielle Desinformation hinweisen und ihnen helfen, Inhalte besser einzuordnen.

Obwohl KI eine wertvolle Unterstützung bei der Bekämpfung von Desinformation sein kann, bleibt die wichtigste Verteidigung ein kritischer Umgang mit digitalen Inhalten. Medienkompetenz, Forschung und regulatorische Maßnahmen sind essenziell, um die Verbreitung von Fake News und Deepfakes einzudämmen. Letztlich liegt es an uns allen, genauer hinzusehen, Quellen zu hinterfragen und uns bewusst zu machen, dass nicht alles, was wir im Netz sehen, der Wahrheit entspricht.