Aufregung um KI-Fotos Wenn der Papst plötzlich eine hippe Daunenjacke trägt
Rom · Werkzeuge auf Basis künstlicher Intelligenz sorgen derzeit immer wieder für Aufsehen im Netz. Aktueller Trend: Künstlich generierte und täuschend echt aussehende Bilder von Prominenten.

Auf diesem Screenshot der Plattform Reddit ist das KI-generierte Foto des Papstes in hipper Daunenjacke zu sehen.
Foto: Screenshot/Reddit/r/midjourneyEin mit künstlicher Intelligenz erstelltes Foto von Papst Franziskus sorgt derzeit für Aufsehen in Sozialen Netzwerken. Auf dem Bild trägt das Kirchenoberhaupt einen modischen, weiß-glänzenden Steppmantel. Die Kette mit seinem Kreuz hat er um den Kragen des übergroßen Mantels gelegt und in der Hand hält er einen nicht näher definierbaren Gegenstand.
Das künstlich erstellte Foto verbreitete sich am Wochenende vor allem über den Nachrichtendienst Twitter und die Plattform Reddit. Nutzer rätselten mitunter darüber, ob das Foto echt sei. Einige hielten es tatsächlich für real, andere erkannten zwar die Fälschung, „lobten“ den Papst aber dennoch für seinen Kleidungsstil.
Anwendungen künstlicher Intelligenz erobern derzeit den Markt. Mit Apps können auf den ersten Blick real wirkende Fotos geschaffen werden. Zuletzt verbreiteten sich etwa Fotos einer angeblichen Verhaftung von Ex-US-Präsident Donald Trump im Internet. Ebenso: der russische Staatschef Wladimir Putin in Häftlingskleidung in einer düsteren Gefängniszelle stehend. Hintergrund waren die Nachrichten, dass Trump eine Anklage drohen könnte und der Internationale Strafgerichtshof einen Haftbefehl gegen Putin verhängt hat.
Keines der beiden sensationellen und hochdetaillierten Bilder war echt. Sie wurden ebenso wie etliche Varianten von Bildgeneratoren mittels Künstlicher Intelligenz (KI) produziert, die zunehmend besser werden und immer mehr Menschen frei zur Verfügung stehen. Fachleute sehen in den Bildern Vorboten einer neuen Realität, in der nach größeren Nachrichtenereignissen Unmengen an gefälschten Fotos und Videos in sozialen Medien kursieren werden. Sie warnen vor einer weiteren Vermischung von Fakten und Fiktion zu einem für die Gesellschaft kritischen Zeitpunkt.
Der Trend erhöhe zu Krisenzeiten zusätzlich die Aufregung und den Zynismus, warnt Jevin West, Experte für die Verbreitung von Falschinformationen an der University of Washington in Seattle: „Man fängt an, Vertrauen in das System und in die Informationen zu verlieren, die man bekommt.“
Die Möglichkeit, Fotos zu manipulieren und falsche Bilder zu erzeugen, ist zwar nicht neu. Doch inzwischen sind KI-Bildgeneratoren von Midjourney, DALL-E und anderen Anbietern viel einfacher in der Nutzung. Auf eine kurze Aufforderung hin können sie in Windeseile massenhaft realistische Bilder mit vollständigem Hintergrund generieren.
Einige der jüngsten Bilder stammen von der kürzlich veröffentlichten neuen Version des Text-zu-Bild-Generators von Midjourney, der jetzt unter anderem überzeugende Bilder im typischen Stil der Fotos von Nachrichtenagenturen produzieren kann. Auch die dramatischen Aufnahmen von Trumps fiktiver Festnahme gehen auf diese Version zurück. Hinter den zehntausendfach auf Twitter geteilten und gelikten Bildern steht Eliot Higgins, Gründer des in den Niederlanden ansässigen Kollektivs Bellingcat für investigativen Journalismus. Er ist auch für eine Reihe von Bildern von Putins Festnahme verantwortlich.
Higgins betont, er habe die Bilder ohne böse Absicht gepostet und in seinem Twitter-Thread klar darauf hingewiesen, dass diese von einer KI generiert worden seien. Er habe damit die Stärken und Schwächen des Generators zeigen wollen. Denn die Bilder seien bei weitem nicht perfekt, erklärt er: So trägt Trump auf einigen davon einen Polizeigürtel, und auf anderen sind Gesichter und Hände erkennbar verzerrt. Dennoch wurde Higgins wegen der Posts nach eigenen Angaben vom Midjourney-Server gesperrt. Das Forschungslabor in San Francisco äußerte sich auf Nachfrage nicht zu dem Fall.
Es reiche nicht aus, wenn Nutzer wie Higgins in ihren Posts klarmachten, dass die Bilder KI-generiert seien und nur zur Unterhaltung dienen sollten, erklärt Shirin Anlen, Expertin für Mediatechnik bei der New Yorker Menschenrechtsorganisation Witness. Denn nur allzu häufig werde das Bildmaterial rasch von anderen ohne den entscheidenden Kontext geteilt. Tatsächlich stieß ein Instagram-Post, in dem einige von Higgings‘ Trump-Bildern als echt dargestellt wurden, auf mehr als 79 000 Likes. „Man sieht nur ein Bild, und sobald man etwas sieht, kann man es nicht mehr ungesehen machen“, sagt Anlen.
In einem weiteren aktuellen Beispiel teilten Social-Media-Nutzer ein unechtes Bild, auf dem ein knieender Putin dem chinesischen Staatschef Xi Jinping die Hand küsst. Wer das Bild kreierte oder mit welchen Tool, ist nicht bekannt. Dass es eine Fälschung war, wurde aber recht schnell deutlich: Die Köpfe und Schuhe der beiden Politiker waren leicht verzerrt, und die Innenausstattung des Raums auf dem Bild passte nicht zum echten Ort des Treffens.
Da künstlich geschaffene Bilder insgesamt jedoch immer schwieriger als solche zu erkennen sind, raten Expertinnen und Experten im Kampf gegen visuelle Falschinformationen zu mehr Aufklärung. „Es ist so einfach und so billig, diese Bilder herzustellen, dass wir alles in unserer Macht Stehende tun sollten, um der Öffentlichkeit bewusst zu machen, wie gut diese Technologie geworden ist“, sagt West. Higgins rät, dass Social-Media-Unternehmen Programme zur Erkennung von KI-generierten Bildern entwickeln und in ihre Plattformen integrieren sollten.
Die Richtlinien von Twitter verbieten „künstliche, manipulierte oder aus dem Zusammenhang gerissene“ Inhalte, die in die Irre führen oder Schaden anrichten könnten. Über Community Notes, die Faktencheck-Funktion von Twitter, versahen Nutzerinnen und Nutzer einige der Trump-Bilder mit dem Hinweis, dass diese KI-generiert sind. Auch auf Facebook und Instagram erhielten die Darstellungen zum Teil das Label „falsch“ oder „fehlender Kontext“.
Arthur Holland Michel, Experte für neue Technologien bei der Organisation Carnegie Council for Ethics in International Affairs in New York, befürchtet nach eigenen Worten, dass die Welt noch nicht bereit ist für den Umgang mit den neuen Tools. Er frage sich, wie etwa so genannte Deepfakes von Privatleuten reguliert werden könnten, sagt Michel, also etwa schädliche gefälschte Bilder eines Expartners oder einer Kollegin. Er gehe davon aus, „dass ein bis jetzt ungeahnter technologischer Durchbruch notwendig sein“ werde, um ein großes Ausmaß an Desinformation in allen gesellschaftlichen Bereichen definitiv zu stoppen.