Symbolbild: Deep Fake und künstliche Intelligenz, Bildmontage

Saarland Wie ein Startup mit KI Deepfakes entlarven will

Stand: 16.04.2025 13:23 Uhr

Deepfakes sind täuschend echte digitale Manipulationen von Bildern sowie Filmen und stellen eine immer größere Herausforderung dar – nicht nur für die Medien, sondern auch für die Sicherheit und das Vertrauen in digitale Inhalte. Ein Startup aus dem Saarland hat es sich zur Aufgabe gemacht, genau diese Fälschungen zu entlarven.

Jesko Peppler-Günther / Onlinefassung: Kasia Hummel

„Erstelle ein Bild von der Saarschleife in Mettlach“ – Dieser Satz bringt die Grenze zwischen Realität und Fälschung ins Wanken: ChatGPT erstellt in Sekunden das Bild. Es ist ein sogenannter Deepfake und kaum noch von einem echten Foto zu unterscheiden.

Das saarländische Startup Detesia hat es sich zur Aufgabe gemacht, genau diese Fälschungen zu entlarven. Vor allem bei den neuesten Deepfakes sei für den Menschen nicht mehr zu unterscheiden, ob das Ganze jetzt echt sei oder nicht, erklärt der Mitgründer Philipp Dewald.

“Und gerade weil es eben visueller Inhalt ist, geht das sehr schnell in die Köpfe rein. Das heißt, Menschen glauben dem direkt und hinterfragen vielleicht gar nicht, ob das Ganze denn nur eine Fälschung oder es wirklich so passiert ist”, so Dewald.

Echtes Bild vs. Fake-Foto

"Eine gefährliche Entwicklung"

Detesia gibt es seit zweieinhalb Jahren. Es gehört zum CISPA Helmholtz-Zentrum. Das Startup hat sich darauf spezialisiert, ebenfalls mit Künstlicher Intelligenz die Echtheit von Bildern und Videos zu überprüfen. „Hier sehen wir drei Beispiele von einer angeblichen Frau, die wir so auf Social Media gefunden haben. In Wahrheit ist das auch vollständig synthetisch generiert. Das bedeutet also, diese Person existiert gar nicht”, erklärt Dewald.

Auch gefälschte Bilder von Politikern, einem angeblichen U-Boot in der Saar oder ein vermeintlich brennendes Hollywood-Schild sind schnell erstellt: eine gefährliche Entwicklung.

Katz-und-Maus-Spiel"

Vor allem für Journalisten werde es im Fact Checking oder im investigativen Bereich schwieriger zu erkennen, ob Inhalte echt oder gefälscht seien, so Dewald. Das Problem treffe aber auch Strafverfolgungsbehörden. Auch die müssten erkennen können, inwiefern das Ganze jetzt eben durch eine täuschend echte KI generiert sei oder eben nicht.

Dadurch, dass die Deepfake-Technologie immer besser wird, muss sich auch Detesia weiterentwickeln. Ein Wettkampf gegen die Zeit. Dewald spricht von einem „Katz-und-Maus-Spiel“: Weil die Technologie sich weiterentwickele, müsse man immer wieder anpassen und neue Wege finden, wie man das Ganze erkennen könne, um immer auf dem neuesten Stand der Technik zu sein.

Detesia erkannte gefälschtes Bild

In unserem Fall erkannte die KI von Detesia das Bild der Saarschleife, das gefälscht war. "Insbesondere im Wasserbereich sieht man einen klaren Schatten von den Bäumen. Das bedeutet also, die Lichtquelle müsste von in etwa hier hinten kommen, damit dann hier ein Schatten zustande kommt. Das passt auch noch in etwa hier mit diesem Schattenwurf", erklärt Dewald anhand des Bildes.

Gleichzeitig verweist der Experte aber auf einen weiteren sehr großen Schatten im Bild, was bedeuten würde, dass es mehrere große Lichtquellen am Himmel gäbe. "Das kann natürlich nicht sein."

Deepfakes kursieren immer mehr in den sozialen Medien. Detesia will mit seiner KI helfen, diese zu identifizieren. Dadurch könnte die digitale Welt ein Stück sicherer werden.

Über dieses Thema hat auch die SR 3 Region am Mittag vom 16.04.2025 berichtet.

Mehr zum Thema Künstlichen Intelligenz