Das findet sogar die KI pfui
«20 Minuten» hat künstliche Intelligenz (KI) genutzt, um Leser zu erfinden. Darf man das? Wir haben bei einer künstlichen Intelligenz nachgefragt.
Veröffentlicht am 4. Oktober 2024 - 16:16 Uhr
«Wir entschuldigen uns für diese Fehlleistung und setzen alles daran, dass sich dies nicht wiederholt.»
«20 Minuten», 23. September 2024
Die Gratiszeitung «20 Minuten» feierte gerade ihren 25. Geburtstag. Sie nutzte das für eine Marketingoffensive und liess eine Jubiläumsausgabe an 3,26 Millionen Haushalte der Deutschschweiz verteilen. Darin beweihräucherte sich die Postille ausgiebig selbst.
Doch einige Tage später mischte sich ein giftiges Geschmäckle in den Wohlgeruch. Denn in der Jubelnummer traten neun Leserinnen und Leser (inklusive zweier zugehöriger Hunde) auf, die «20 Minuten» loben durften. Allerdings existieren zwei der Protagonisten gar nicht – die Redaktion hatte sie durch eine künstliche Intelligenz ins virtuelle Leben rufen lassen.
Verräterische Blumenkohlohren
«Darrell (23)» und «Remo (28)» sahen auf den abgedruckten Fotos zwar fast aus wie echt, aber ihre Blumenkohlohren verrieten sie. Denn wenn eine künstliche Intelligenz mehrere Bilder, die sie im Internet findet, zu einem einzigen verwurstet, werden oft die Ohren zu Gemüse. Das war in diesem Fall einem Leser ins Auge gestochen, der damit an die Öffentlichkeit gelangte.
Mit der Fälschung missachtete «20 Minuten» die eigenen publizistischen Leitlinien. Dort heisst es nämlich: «Wir publizieren keine fotorealistischen Bilder, die von einer KI erzeugt wurden.» Das Pendlerblatt entliess in der Folge zwei verantwortliche Personen, die Chefredaktorin sprach zerknittert von einem «fundamentalen Verstoss».
«Medienunternehmen sollten Transparenz und Ehrlichkeit wahren.»
ChatGPT
Recht hat sie. Selbst künstliche Intelligenzen wissen das. Wer etwa den berüchtigten Chatbot ChatGPT fragt: «Darf eine Zeitung KI nutzen, um Leser zu erfinden?», erhält eine ablehnende Antwort: «Das Erfinden von Lesern ist in der Regel als unethisch anzusehen, da es das Vertrauen der Leser in die Glaubwürdigkeit der Zeitung untergräbt. Medienunternehmen sollten Transparenz und Ehrlichkeit wahren.»
Auf die viel wichtigere Frage «Warum hat künstliche Intelligenz Probleme mit den Ohren, wenn sie Bilder von Menschen herstellt?» hin gibt sich ChatGPT allerdings verdächtig bedeckt. Mehr
als «ERROR: Forbidden» ist da nicht aus der KI rauszukriegen.