Dieses Tool soll gefälschte Bilder entlarven – wirklich?
Eine neue Website verspricht, Bilder und Videos zu erkennen, die mit künstlicher Intelligenz erstellt wurden. Der Beobachter hats getestet.
Veröffentlicht am 15. Mai 2024 - 17:25 Uhr
In einer Videobotschaft verkündet der Staatsanwalt von Manhattan grosse Neuigkeiten: Donald Trump ist unschuldig, er wird in allen Anklagepunkten freigesprochen. Eine unerwartete Wendung, ein Sieg für Trump. Bloss: Das Video ist ein Fake. Die Audiospur wurde durch eine mit künstlicher Intelligenz (KI) erstellte Stimme ausgetauscht, das Bildmaterial mit KI verändert.
Solche Fälschungen werden immer mehr zur Gefahr in Wahlkämpfen und politischen Auseinandersetzungen. Hier setzt die Non-Profit-Organisation True Media an – mit einem neuen Onlinetool, das KI-generierte Bilder, Videos und Tonspuren erkennen soll. Das Ziel: In diesem Superwahljahr – rund die Hälfte der Weltbevölkerung wählt 2024 – sollen Fake News schnell und zuverlässig erkannt werden.
So funktioniert das Tool
Technologien, die versprechen, KI-Fälschungen zu erkennen, waren bisher sehr unzuverlässig. True Media kombiniert jedoch mehrere Tests und soll deshalb besser sein: Der «Detektor» erkennt laut Angaben der Betreiber Fälschungen in über 90 Prozent der Fälle.
Um Inhalte darauf zu testen, ob sie künstlich erstellt wurden, kann man sie entweder direkt hochladen oder einen Link von einer Social-Media-Plattform einfügen. Die Website prüft die Medien dann mit verschiedenen Detektoren und zeigt ein Gesamturteil an. Unten finden sich die Resultate der einzelnen Detektoren mit einer Unsicherheitsangabe in Prozent.
Der Beobachter-Test
Der Beobachter konnte das Tool in der Testphase ausprobieren. Dabei stellten sich vor allem zwei Fragen: Erkennt es tatsächlich Fakes? Und – für den praktischen Nutzen genauso wichtig – erkennt es auch zuverlässig die echten Inhalte?
Beispiel 1: FDP–Wahlkampfplakat 2023 – «sehr verdächtig»
Das KI-generierte Klimakleber-Plakat der FDP sorgte im Wahlkampf 2023 für Kontroversen, obwohl die Partei die Erstellung mittels KI im Kleingedruckten deklariert hatte. Vor allem das fiktive Sujet – Klimaaktivistinnen, die eine Ambulanz blockieren – löste Kritik aus. Dieses Bild erkennt der Detektor klar als KI – obwohl es mit grossem Aufwand professionell produziert wurde.
Beispiel 2: Parlamentsrede von Eric Nussbaumer – «wenig Hinweise» auf künstliche Intelligenz
Eine Parlamentsrede von Nationalratspräsident Eric Nussbaumer stuft das Tool als unbedenklich ein. Keines der Modelle sieht einen Verdacht auf Manipulation. Damit ist der Test grundsätzlich bestanden.
Nicht perfekt
Weitere Versuche des Beobachters zeigen jedoch: Perfekt funktioniert das nicht. Bei Bildern ist die Erkennung ziemlich zuverlässig, doch bei Videos gerät manchmal echtes Material unter falschen Verdacht. Solange die Aufnahmen unbearbeitet sind, funktioniert das Tool gut. Doch wenn die Videos – wie zum Beispiel Social-Media-Videos des Beobachters – stark geschnitten und mit Untertiteln und Hintergrundmusik versehen wurden, schlagen einige Tests an.
Das Gesamturteil lautet dann sofort: «verdächtig». Erst wenn man die Resultate der einzelnen Detektoren genauer anschaut, kann man Fakes meistens von echten Inhalten unterscheiden: Bei umfassenden Fälschungen schlagen oft viele Detektoren mit hoher Sicherheit an, bei KI-freien Inhalten nur einzelne und mit grösserer Unsicherheit.
Fazit
Wenn auch noch nicht perfekt – als Hilfsmittel für kritische Social-Media-Nutzerinnen und Journalisten ist das Tool zu empfehlen. In der schnellen Welt des Internets kann es eine wertvolle erste Anlaufstelle sein: Wenn man einen spektakulären Inhalt auf Social Media sieht, kann man ihn sehr schnell testen. Falls der Test auf KI positiv ausfällt, sollte man die Nachricht dringend bei glaubwürdigen Quellen überprüfen.
Wann kommt es für alle?
Noch ist das Tool in einer Testphase. True Media stellt jedoch gegenüber dem Beobachter in Aussicht: Man sei daran, den Detektor jetzt schrittweise der Öffentlichkeit zur Verfügung zu stellen. Ein genaues Datum für den allgemeinen Zugang gibt es aber nicht. Nutzen kann man den Detektor – sobald für alle geöffnet – unter www.truemedia.org.