Play
Foto: KT Stock photos / shutterstock.com
Bild: KT Stock photos | shutterstock.com

Zurück zum Thema | Deepfake

Wie entlarven wir KI-Propaganda?

Deepfakes, also künstlich erzeugte Bilder und Videos, lassen sich auch für politische Propaganda einsetzen. Wie funktioniert Fact-Checking bei Bildern und Videos, die täuschend echt aussehen?

Deepfake: Täuschend echt

Donald Trump wehrt sich gegen seine Verhaftung, Wladimir Putin kniet ehrfürchtig vor Xi Jinping und Papst Franziskus trägt zum päpstlichen Kruzifix eine hippe Daunenjacke: Diese Bilder gingen um die Welt, doch sie sind nicht echt. Deepfakes heißen diese von einer KI erzeugten Bilder oder auch Videos. Mit Programmen wie „Dall-E“, „Stable Diffusion“ oder „Midjourney“ kann praktisch jeder innerhalb von Sekunden ein gefälschtes Bild oder Video erzeugen. Noch lässt sich künstlich generierter Content bei genauem Hinsehen oft als Fake erkennen.

KI-generierte Bilder sind im Detail oft nicht perfekt. Oder sie sind zu perfekt, also man sieht zum Beispiel keine Hautunreinheiten, wenn man sich die Menschen genauer anschaut.

Patrick Gensing, Experte für Desinformation im Netz

KI als Propaganda-Tool

Die künstlich generierten Bilder können auch gezielt als Werkzeug für politische Propaganda und gezielte Desinformation eingesetzt werden. So nutzt etwa die AfD Deepfake, um gegen Migranten zu hetzen: Der Abgeordnete Norbert Kleinwächter hatte auf seinem Instagram-Kanal ein von einer KI generiertes Bild gepostet, das wutentbrannte, schreiende Migranten zeigt. Auch im Kontext des russischen Angriffskriegs auf die Ukraine spielen gefälschte Bilder und Videos eine Rolle. Beispielsweise ging im vergangenen Jahr ein Deepfake-Video viral, in dem der ukrainische Präsident Wolodymyr Selenskyj vermeintlich zur Kapitulation aufruft. Zwar gibt es KI-Detektoren wie „Hugging Face“, die helfen sollen, echte und manipulierte Bilder voneinander zu unterscheiden — bisher sind die aber noch nicht immer verlässlich.

Diese Idee, dass wir eine KI entwickeln, die immer und exakt künstlich generierte Bilder erkennt — das ist ein wichtiges Element, aber es kann auf keinen Fall der einzige Ansatz sein.

Philipp Slusallek, wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz

Wie verändert sich Propaganda durch Künstliche Intelligenz — und wie funktioniert Fact-Checking bei Deepfake? Darüber spricht detektor.fm-Moderator Gottfried Haufe mit Patrick Gensing in dieser Folge von „Zurück zum Thema“. Gensing ist ehemaliger Leiter des faktenfinder-Portals der Tagesschau und Experte für Desinformation im Netz. Philipp Slusallek, wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz, erklärt, wie KI dabei helfen kann, gefälschte Videos und Bilder zu erkennen.

Die Folge ist der Auftakt zu unserer Themenwoche „Künstliche Intelligenz“. Wie verändert KI unser Leben? Welche Chancen und welche Risiken bringen die Innovationen mit sich? Wir sprechen in dieser Woche über Deep Fakes, Strafverfolgung, Musik und Schutz vor Diskriminierung durch KI.

Volles Programm, (aber) null Banner-Werbung

Seit 2009 arbeiten wir bei detektor.fm an der digitalen Zukunft des Radios in Deutschland. Mit unserem Podcast-Radio wollen wir dir authentische Geschichten und hochwertige Inhalte bieten. Du möchtest unsere Themen ohne Banner entdecken? Dann melde dich einmalig an — eingeloggt bekommst du keine Banner-Werbung mehr angezeigt. Danke!

detektor.fm unterstützen

Weg mit der Banner-Werbung?

Als kostenlos zugängliches, unabhängiges Podcast-Radio brauchen wir eure Unterstützung! Die einfachste Form ist eine Anmeldung mit euer Mailadresse auf unserer Webseite. Eingeloggt blenden wir für euch die Bannerwerbung aus. Ihr helft uns schon mit der Anmeldung, das Podcast-Radio detektor.fm weiterzuentwickeln und noch besser zu werden.

Unterstützt uns, in dem ihr euch anmeldet!

Ja, ich will!

Ihr entscheidet!

Keine Lust auf Werbung und Tracking? Dann loggt euch einmalig mit eurer Mailadresse ein. Dann bekommt ihr unsere Inhalte ohne Bannerwerbung.

Einloggen