Ein Kanzlerrücktritt im Video. Ein panischer Anruf mit vertrauter Stimme. Beide erschreckend glaubwürdig – beide komplett gefälscht. Willkommen in der Welt der Deepfakes.
Deepfakes greifen unsere fundamentalen Orientierungsmechanismen an: Was ist echt? Was kann ich glauben? Deepfakes unterwandern unsere Fähigkeit, zwischen Wahrheit und Fiktion zu unterscheiden – mit direkten Auswirkungen auf Vertrauen, gesellschaftlichen Diskurs und demokratische Prozesse. Sie sind nicht bloß digitale Spielerei, sondern ein Instrument strategischer Manipulation – subtil, skalierbar und zunehmend schwer zu entlarven.
Deepfakes sind manipulierte oder synthetisch erzeugte Medieninhalte – meist Videos oder Audios –, die mithilfe künstlicher Intelligenz erstellt werden.
Die Technologie basiert meist auf sogenannten Generative Adversarial Networks (GANs) oder neueren multimodalen Modellen wie GPT-4o, Sora oder RunwayML. Vereinfacht gesagt:
Ein Modell wird mit vielen Bild-, Audio- oder Videodaten trainiert (z. B. stundenlange Reden eines Politikers). Es lernt Muster, Stimme, Gesichtsausdruck, Sprechtempo. Daraus generiert es neue Inhalte – perfekt imitiert. Für Stimmklone genügen heute 60 Sekunden Audio – z. B. über Tools wie ElevenLabs.
Was dabei entsteht, ist kein simples Fake – es ist ein digitaler Doppelgänger. Ein Mensch, der Dinge tut oder sagt, die er im realen Leben nie getan oder gesagt hat.
Im Januar 2024 erhielten tausende Wähler:innen in New Hampshire einen Anruf – angeblich vom Präsidenten persönlich. Inhalt: „Geht nicht zur Vorwahl, spart euch den Weg.“ Die Stimme klang exakt wie Biden. Es war ein Stimm-Deepfake (hier anhören)
Impact:
Ein Zitat aus dem Guardian machte die Runde: „Wir müssen uns daran gewöhnen, dass nicht alles, was wir hören, real ist – selbst wenn es klingt wie der Präsident.“
Mit der zunehmenden Verbreitung von KI nimmt auch die Raffinesse krimineller Maschen zu. In der ORF-Sendung „Akte Betrug“ vom 24. April 2025 wurde eine neue Welle von Deepfake-Betrugsfällen dokumentiert.
In der gleichen Sendung wurde zudem live ein Deepfake von Moderator Martin Ferdiny erstellt, in dem er Tom Cruise zum Verwechseln ähnlich sah – ein eindrucksvoller Beweis dafür, wie einfach heute Identitäten gefälscht werden können.
Insgesamt gingen in Österreich bereits mehrere Millionen Euro durch KI-gestützte Betrugsmaschen verloren. Polizeibehörden berichten von einer Verdreifachung entsprechender Anzeigen im Vergleich zu 2022.
Doch Deepfakes bleiben nicht auf private Betrugsfälle beschränkt. Auch in der politischen Kommunikation entfalten sie ihre Wirkung – besonders dort, wo junge Menschen ihre Informationen beziehen: auf Plattformen wie TikTok.
Auch TikTok ist längst nicht nur mehr ein Ort für Tanzvideos – sondern ein strategisches Spielfeld für Parteien, Trolle und Desinformationskampagnen. Kaum eine Plattform prägt junge Wähler:innen so stark wie TikTok. Und der Algorithmus? Der liebt Extreme mit Polarisierungspotenzial.
Mit Blick auf die vergangenen Wahlen in Deutschland und die aktuelle Entwicklung in der österreichischen Politik stellt sich die Frage: Wie genau zeigt sich diese Dynamik im politischen Alltag auf TikTok?
TikTok als Trendbarometer: Laut BR und dem Forschungsprojekt Sparta gewinnen die politischen Ränder online – nicht durch Programme, sondern durch Algorithmus-Kompatibilität: klare Botschaften, starke Emotionen, einfache Erzählmuster. Gefälschte Interviews, manipulierte Zitate, aus dem Kontext gerissene Szenen – all das geht viral.
Auch auf der Plattform X wurde die Moderation weiter zurückgefahren – mit drastischen Folgen: Laut EU-Verhaltenskodex war X Ende 2024 die Plattform mit den meisten Verstößen gegen Desinformationsregeln im Zusammenhang mit Wahlen.
Ein Bericht aus Brüssel bezeichnet X inzwischen als „Katalysator für polarisierende Deepfakes“ – und warnt vor einem strukturellen Governance-Problem: fehlende Kontrolle, intransparente Algorithmen und ein Geschäftsmodell, das Polarisierung begünstigt.
Deepfakes verändern nicht nur unseren Medienkonsum, sondern die Spielregeln der Demokratie. Sie machen aus Wahrheit eine Frage des Timings, der Klickzahlen, der Codezeile. Was hilft? Medienkompetenz, technische Wachsamkeit, politischer Wille – und ein Recht, das mithält. „Die größte Gefahr ist nicht die Technik – sondern unser Vertrauen in das, was wir sehen wollen. “
Deshalb: Don’t believe everything you see – even if you see it. – sinngemäß zitiert nach dem US-Cybersicherheitsbericht 2024.
Bildquelle: Deepfake-Vorfälle 2025: Wie man KI-Fälschungen erkennt und sich schützt
Fake Biden robocall tells voters to skip New Hampshire primary election
„Akte Betrug“ am 24. April über Deepfakes – Wenn Promis als Lockvögel missbraucht werden, Cybertrading und Enkeltrick
TikTok-Wahlkampf: Die politischen Ränder gewinnen die Jugend | BR24