Das findet sogar die KI pfui
«20 Minuten» hat künstliche Intelligenz (KI) genutzt, um Leser zu erfinden. Darf man das? Wir haben bei einer künstlichen Intelligenz nachgefragt.
Veröffentlicht am 4. Oktober 2024 - 16:16 Uhr
«Wir entschuldigen uns für diese Fehlleistung und setzen alles daran, dass sich dies nicht wiederholt.»
«20 Minuten», 23. September 2024
Die Gratiszeitung «20 Minuten» feierte gerade ihren 25. Geburtstag. Sie nutzte das für eine Marketingoffensive und liess eine Jubiläumsausgabe an 3,26 Millionen Haushalte der Deutschschweiz verteilen. Darin beweihräucherte sich die Postille ausgiebig selbst.
Doch einige Tage später mischte sich ein giftiges Geschmäckle in den Wohlgeruch. Denn in der Jubelnummer traten neun Leserinnen und Leser (inklusive zweier zugehöriger Hunde) auf, die «20 Minuten» loben durften. Allerdings existieren zwei der Protagonisten gar nicht – die Redaktion hatte sie durch eine künstliche Intelligenz ins virtuelle Leben rufen lassen.
Verräterische Blumenkohlohren
«Darrell (23)» und «Remo (28)» sahen auf den abgedruckten Fotos zwar fast aus wie echt, aber ihre Blumenkohlohren verrieten sie. Denn wenn eine künstliche Intelligenz mehrere Bilder, die sie im Internet findet, zu einem einzigen verwurstet, werden oft die Ohren zu Gemüse. Das war in diesem Fall einem Leser ins Auge gestochen, der damit an die Öffentlichkeit gelangte.
Mit der Fälschung missachtete «20 Minuten» die eigenen publizistischen Leitlinien. Dort heisst es nämlich: «Wir publizieren keine fotorealistischen Bilder, die von einer KI erzeugt wurden.» Das Pendlerblatt entliess in der Folge zwei verantwortliche Personen, die Chefredaktorin sprach zerknittert von einem «fundamentalen Verstoss».
«Medienunternehmen sollten Transparenz und Ehrlichkeit wahren.»
ChatGPT
Recht hat sie. Selbst künstliche Intelligenzen wissen das. Wer etwa den berüchtigten Chatbot ChatGPT fragt: «Darf eine Zeitung KI nutzen, um Leser zu erfinden?», erhält eine ablehnende Antwort: «Das Erfinden von Lesern ist in der Regel als unethisch anzusehen, da es das Vertrauen der Leser in die Glaubwürdigkeit der Zeitung untergräbt. Medienunternehmen sollten Transparenz und Ehrlichkeit wahren.»
Auf die viel wichtigere Frage «Warum hat künstliche Intelligenz Probleme mit den Ohren, wenn sie Bilder von Menschen herstellt?» hin gibt sich ChatGPT allerdings verdächtig bedeckt. Mehr
als «ERROR: Forbidden» ist da nicht aus der KI rauszukriegen.
1 Kommentar
Le Chat ( KI aus Frankreich) kann man fragen. Nachfolgend die Antwort:
Künstliche Intelligenz hat oft Schwierigkeiten, Ohren in generierten Bildern von Menschen korrekt darzustellen, aus mehreren Gründen:
1. **Komplexität der Ohren**: Ohren haben eine komplexe dreidimensionale Struktur mit vielen Details und Variationen. Die KI muss diese Komplexität verstehen und korrekt wiedergeben, was eine Herausforderung darstellt.
2. **Datenmangel**: In vielen Datensätzen, die zur Schulung von KI-Modellen verwendet werden, sind Ohren oft teilweise verdeckt oder nicht deutlich sichtbar. Dies kann dazu führen, dass die KI nicht genug Beispiele hat, um Ohren korrekt zu lernen und zu generieren.
3. **Position und Perspektive**: Ohren sind seitlich am Kopf positioniert und können je nach Perspektive unterschiedlich aussehen. Die KI muss die Position und Perspektive korrekt berechnen, was schwierig sein kann.
4. **Symmetrie und Proportionen**: Ohren müssen symmetrisch und proportional zum Rest des Gesichts sein. Die KI muss sicherstellen, dass beide Ohren gleich aussehen und richtig platziert sind, was eine zusätzliche Herausforderung darstellt.
5. **Fehlende Kontextinformationen**: Ohren sind oft von Haaren oder anderen Objekten verdeckt, was es für die KI schwierig macht, die genaue Form und Position der Ohren zu bestimmen.
Diese Faktoren tragen dazu bei, dass KI oft Schwierigkeiten hat, Ohren in generierten Bildern korrekt darzustellen. Fortschritte in der KI-Forschung und verbesserte Trainingsdaten können jedoch dazu beitragen, diese Probleme in Zukunft zu überwinden.