Weitere Initiativen der Hamburg Kreativ Gesellschaft

Digitale Wahrheiten sichern

Wie können manipulierte Videos und Fake News entlarvt werden? Ein Interview mit Konstantin Graf, Geschäftsführer des Hamburger Softwareunternehmens Chainstep.

Foto von Konstantin Graf

Wie können manipulierte Videos und Fake News entlarvt werden?

Gemeinsam mit der HAW Hamburg entwickelt das 2017 in Hamburg gegründete Softwareunternehmen Chainstep Technologien, um Manipulationen in digitalen Inhalten zu erkennen und deren Authentizität sicherzustellen. Konstantin Graf, Geschäftsführer von Chainstep, gibt einen Einblick in die technische Umsetzung und die Ziele des Projekts.

Herr Graf, Sie arbeiten aktuell mit der HAW Hamburg an einer Technologie zur Erkennung von manipulierten Videos. Wie kam es zu der Zusammenarbeit?

Seit Juli 2024 arbeiten wir an einem Forschungsprojekt, das mithilfe unsichtbarer Wasserzeichen die Authentizität digitaler Medien (Bild, Audio, Video) gewährleisten soll – ein Ansatz, der besonders im Kampf gegen Fake News und Wahlmanipulation und der Sicherung von digitalen Assets gegen nicht autorisierte Verwendung relevant ist.

Gefördert wird das Projekt im Rahmen des „Daten-Innovationssprints“ des Bundesministeriums für Bildung und Forschung (BMBF), das Chainstep und der HAW Hamburg 300.000 Euro zur Entwicklung dieser Technologie bereitgestellt hat.

Was ist das Ziel des Projekts?

Ziel ist es, die Echtheit digitaler Medien zu gewährleisten und sicherzustellen, dass Inhalte nicht unerlaubt verbreitet oder weiterverwendet werden, beispielsweise für das Training von KI-Modellen. Dies ist insbesondere im Kampf gegen Fake News und Wahlmanipulationen relevant.

Können Sie die Technologie etwas genauer erklären? Wie funktioniert ein unsichtbares Wasserzeichen?

Das Wasserzeichen ist mathematisch in die Struktur der Datei eingebettet, ohne die Bild-, Ton- oder Videoqualität zu verändern. Es bleibt robust gegenüber üblichen Veränderungen wie Komprimierung oder Farbänderungen. Sobald ein Bild oder Video manipuliert wird, sei es durch Beschneiden oder Hinzufügen von Inhalten, wird das Wasserzeichen beschädigt oder zerstört und die Veränderung wird sichtbar.

Wie sieht das an einem konkreten Beispiel aus?

Wenn zum Beispiel ein Musikvideo bearbeitet wird, indem ein Overlay hinzugefügt oder das Video geschnitten wird, zeigt unsere Technologie an, dass es manipuliert wurde. Auch Plattformen wie Instagram oder YouTube könnten Wasserzeichen verwenden, um die Authentizität hochgeladener Inhalte zu überprüfen.

38,2%

der Nachrichtenkonsument*innen in den USA haben im Dezember 2020 unwissentlich Fake News oder Fehlinformationen in sozialen Medien geteilt

60%

der Weltbevölkerung sagen, dass Nachrichtenorganisationen regelmäßig Falschmeldungen verbreiten.

500.000

Deep Fakes wurden im Jahr 2023 wurden schätzungsweise in sozialen Medien verbreitet

https://redline.digital/fake-news-statistics/

Wenn ich ein Video aufhelle, einen Gelbfilter nutze oder die Größe anpasse – ist das dann schon Manipulation? Wo ziehen Sie die Grenze?

Solche Veränderungen – also Helligkeit anpassen, einen Filter auflegen oder die Größe ändern – zählen zu Modifikationen. Das sind Anpassungen, die in der Regel keine Täuschungsabsicht haben. Manipulationen hingegen gehen darüber hinaus. Sie verfälschen bewusst den Inhalt eines Videos oder Bildes, um eine bestimmte Wirkung oder Aussage zu erzeugen, wie Zuschnitte, Filter, Overlays oder Änderungen von Metadaten.

Wie kann Ihre Technologie in Zukunft Fake News oder Wahlmanipulation verhindern?

Es gibt zwei Ansätze. Der erste erfordert gesetzliche Regelungen, die Plattformen dazu verpflichten, Wasserzeichen zu prüfen. So könnte sichergestellt werden, dass nur authentische Inhalte verbreitet werden. Der zweite Ansatz wäre freiwillig: Prominente, Politiker*innen oder CEOs könnten z. B. ihre Bilder und Videos mit Wasserzeichen versehen, damit Journalisten ihre Echtheit überprüfen können. Letztlich ist aber eine gesetzliche Durchdringung entscheidend, um die Technologie breit zu implementieren.

Wie kann die Technologie bei Wahlen angewendet werden?

In den USA kursieren bei der letzten Präsidentschaftswahl Deepfake-Videos, die politische Figuren wie Donald Trump zeigten. Mit der Wasserzeichen-Technologie könnten Plattformen gesetzlich verpflichtet werden, nur Inhalte mit intakten Wasserzeichen zu veröffentlichen. Dadurch wären manipulierte Inhalte wie Deepfakes sofort erkennbar und könnten markiert oder entfernt werden. Zudem könnten führende Politiker*innen ihre Reden oder Wahlkampfvideos mit Wasserzeichen versehen, um deren Echtheit zu garantieren und das Vertrauen in digitale Inhalte zu stärken.

Wie lässt sich das ganze umsetzen?

Für eine effektive Verbreitung der Technologie müssten Kameras und Smartphones standardmäßig mit Wasserzeichentechnologien ausgestattet sein. Dazu bedarf es regulatorischer Vorgaben, Gesetze oder Geschäftsmodelle, die Anreize für Unternehmen schaffen. Wie teilen sich Chainstep und die HAW Hamburg im Projekt auf?

Die HAW konzentriert sich auf die mathematischen Grundlagen und Algorithmen, während Chainstep diese Forschung in Prototypen überführt und auf ihre Praktikabilität in realen Anwendungen testet. Wir entwickeln beispielsweise eigene Bildmodelle, um Manipulationen zu simulieren und die Robustheit der Wasserzeichen zu testen.

Was bringt das Jahr 2025?

Wir haben noch ein Jahr Förderung vor uns: Bis Ende 2025. In dieser Zeit wollen wir die Technologie weiterentwickeln und optimieren. Parallel suchen wir Partner aus der Medien- oder Musikbranche, die Interesse haben, die Technologie in ihrer Wertschöpfungskette zu testen und anzuwenden.

Über die Autorin

Marie-Louise Schlutius ist freiberuflich im Bereich Kommunikation und Journalismus tätig. Zuvor arbeitete sie bei der ZEIT Verlagsgruppe und sammelte Berufserfahrung beim Progressiven Zentrum in Berlin, dem ZDF in New York und dem Goethe-Institut Paris.

Weitere Artikel

Newsletter abonnieren

Abonniere unseren Newsletter und lass dich einmal im Monat kompakt über Ausschreibungen, Programme und Veranstaltungen informieren.

Digitale Wahrheiten sichern -

Wir verwenden Cookies, um externe Inhalte anzeigen zu können. Sie können unter “Einstellungen” der Erhebung von Nutzerdaten widersprechen. Weitere Informationen erhalten Sie in unserer Datenschutzerklärung.

Wir verwenden Cookies, um externe Inhalte anzeigen zu können. Sie können unter “Einstellungen” der Erhebung von Nutzerdaten widersprechen. Weitere Informationen erhalten Sie in unserer Datenschutzerklärung.

Ihre Einstellungen wurden gespeichert