Begehren nach Realität: Fotografie und parasitäre Bildpraktiken der KI
Workshop der AG Fotografieforschung (Gesellschaft für Medienwissenschaft)
Thematik
Pornografie gehört nicht selten zu den frühsten und intensivsten Anwendungen eines neuen Mediums und trägt zu seiner gesellschaftlichen und ökonomischen Verbreitung und Etablierung bei. Mithin können Porno-Industrien die Entwicklung eines neuen Mediums nachhaltig prägen (vgl. Meikle 2023). Insofern ist es wenig überraschend, dass mit dem derzeitigen Boom der generativen KI auch die Produktion und Zirkulation erotischer, pornografischer und sexualisierter Gewalt-Bilder floriert. Während der öffentliche und wissenschaftliche Diskurs über KI-generierte Bilder sich stark auf politische Gefahren der KI-Propaganda, Desinformation und Ästhetisierung rechter autoritärer Diskurse konzentriert (vgl. u.a. Meyer 2025; Mühlhof 2025; Ulrich 2025), machen sexualisierte und pornografische Bilder einen Großteil der KI-generierten Inhalte aus. Die Gewaltförmigkeit von Machine Learning-Modellen kommt hier nicht nur auf metaphorischer, ästhetischer oder gesellschaftlich-struktureller Ebene zum Vorschein, sondern als explizite Unterwerfungs- und Machtstruktur. Mit herkömmlichen Foto-Bearbeitungsapps, ausdrücklich als Nudify-Apps vermarkteten Anwendungen oder X’ Chabot Grok lassen sich Menschen auf fotografischen Vorlagen mit einem Klick entkleiden, wobei dies überproportional weiblich gelesene Personen trifft. Öffentlich zugängliche, auf Social Media oder offiziellen Webseiten gepostete oder heimlich aufgenommene Fotografien werden genutzt, um Schülerinnen, Studentinnen, Politikerinnen, Journalistinnen, Aktivistinnen und bekannte Schauspielerinnen auszukleiden, zu sexualisieren oder gar öffentlich zu diskreditieren und zu beschämen. Bereits seit Mitte der 2010er Jahre werden frei verfügbare Fotografien dazu verwendet, um Gesichter von Frauen mithilfe von KI-Tools in pornografische Videos einzufügen und als Deepfake-Pornos auf Webseiten wie MrDeepFake zu verbreiten. Auf herkömmlichen Social Media-Plattformen wie Instagram existieren zahlreiche Accounts, die stark sexualisierte und objektifizierende KI-Bilder von Schauspielerinnen posten, wobei nur wenige dieser Gebrauchsweisen öffentliche Aufmerksamkeit auf sich ziehen und skandalisiert werden (zuletzt etwa Taylor Swift 2025 und Collien Fernandes 2026).
Im Spannungsfeld dieser Pole und Themenkomplexe ergeben sich folgende mögliche Fragestellungen:
• Inwiefern lassen sich die aktuellen sexualisierten Bildpraktiken als Fortführung der fotografischen Wahrheitsregime thematisieren?
• Was sind die theoretischen, historischen oder kulturpraktischen Beziehungen zwischen KI-Pornografie und der Geschichte des Realitätsversprechens durch die Fotografie?
• An welche bild- und fotogeschichtlichen Diskurse der vorwiegend weiblichen Körperbilder knüpfen KI-basierte Nudify-Apps und Deepfakes an?
• Inwiefern verweisen die Ästhetiken von KI-generierten Bildinhalten auf pornografische Trainingsdaten, als Teilbereich der vieldiskutierten (Gender-)Biases von Machine Learning-Modellen?
• Inwiefern tradieren die aktuellen Bildpraktiken der sexualisierten digitalen Gewalt Dispositive von (fotografischer) Begierde und Macht?
• Welchen Skandalisierungslogiken folgt die öffentliche Debatte zur KI-Pornografie? Und gibt es (foto)historische Vorläufer?
• Welche Rolle spielen kapitalistische Plattformökonomien in der Zirkulation und Rezeption von sexualisierten Gewaltbildern?
• Welche konkreten Beispiele veranschaulichen die Spannung zwischen theoretischem Abgesang auf den Wahrheitsgehalt von Fotografie und den kulturellen gesellschaftlichen Fortbestand dieses Versprechens?
Beitragsvorschläge
Für den Workshop interessieren uns besonders Beiträge, die sich mit konkreten Beispielen beschäftigen, um diese vorzustellen. Nachwuchswissenschaftler:innen sind besonders ermutigt, Vorschläge einzureichen. Für Unterkunft vor Ort wird gesorgt. Zur Unterstützung von Personen, die keinen Zugriff auf Reisemittel haben, können im Rahmen der AG-Mittel Zuschüsse beantragt werden. Bitte senden Sie ein Abstract (max. 300 Wörter) sowie eine kurze biografische Notiz (max. 150 Wörter) bis zum 30. Juni 2026 an die E-Mail-Adresse der AG: agfotografieforschunglistserv.dfn.de
Eine Rückmeldung zur Annahme der Vorschläge erfolgt bis Ende Juli 2026.
Organisationsteam: Prof. Dr. Olga Moskatova (Universität Freiburg) und Dr. habil. Kathrin Yacavone (Philipps-Universität Marburg)
Quellennachweis:
CFP: Fotografie und parasitäre Bildpraktiken der KI (Freiburg i. Br., 5-6 Nov 26). In: ArtHist.net, 05.05.2026. Letzter Zugriff 06.05.2026. <https://arthist.net/archive/52379>.