CFP 05.05.2026

Fotografie und parasitäre Bildpraktiken der KI (Freiburg i. Br., 5-6 Nov 26)

Institut für Medienkulturwissenschaft, Albert-Ludwigs-Universität Freiburg, 05.–06.11.2026
Eingabeschluss : 30.06.2026

Kathrin Yacavone

Begehren nach Realität: Fotografie und parasitäre Bildpraktiken der KI

Workshop der AG Fotografieforschung (Gesellschaft für Medienwissenschaft)

Thematik
Pornografie gehört nicht selten zu den frühsten und intensivsten Anwendungen eines neuen Mediums und trägt zu seiner gesellschaftlichen und ökonomischen Verbreitung und Etablierung bei. Mithin können Porno-Industrien die Entwicklung eines neuen Mediums nachhaltig prägen (vgl. Meikle 2023). Insofern ist es wenig überraschend, dass mit dem derzeitigen Boom der generativen KI auch die Produktion und Zirkulation erotischer, pornografischer und sexualisierter Gewalt-Bilder floriert. Während der öffentliche und wissenschaftliche Diskurs über KI-generierte Bilder sich stark auf politische Gefahren der KI-Propaganda, Desinformation und Ästhetisierung rechter autoritärer Diskurse konzentriert (vgl. u.a. Meyer 2025; Mühlhof 2025; Ulrich 2025), machen sexualisierte und pornografische Bilder einen Großteil der KI-generierten Inhalte aus. Die Gewaltförmigkeit von Machine Learning-Modellen kommt hier nicht nur auf metaphorischer, ästhetischer oder gesellschaftlich-struktureller Ebene zum Vorschein, sondern als explizite Unterwerfungs- und Machtstruktur. Mit herkömmlichen Foto-Bearbeitungsapps, ausdrücklich als Nudify-Apps vermarkteten Anwendungen oder X’ Chabot Grok lassen sich Menschen auf fotografischen Vorlagen mit einem Klick entkleiden, wobei dies überproportional weiblich gelesene Personen trifft. Öffentlich zugängliche, auf Social Media oder offiziellen Webseiten gepostete oder heimlich aufgenommene Fotografien werden genutzt, um Schülerinnen, Studentinnen, Politikerinnen, Journalistinnen, Aktivistinnen und bekannte Schauspielerinnen auszukleiden, zu sexualisieren oder gar öffentlich zu diskreditieren und zu beschämen. Bereits seit Mitte der 2010er Jahre werden frei verfügbare Fotografien dazu verwendet, um Gesichter von Frauen mithilfe von KI-Tools in pornografische Videos einzufügen und als Deepfake-Pornos auf Webseiten wie MrDeepFake zu verbreiten. Auf herkömmlichen Social Media-Plattformen wie Instagram existieren zahlreiche Accounts, die stark sexualisierte und objektifizierende KI-Bilder von Schauspielerinnen posten, wobei nur wenige dieser Gebrauchsweisen öffentliche Aufmerksamkeit auf sich ziehen und skandalisiert werden (zuletzt etwa Taylor Swift 2025 und Collien Fernandes 2026).

Während diese non-konsensuellen Bildpraktiken sich klar als Formen der sexuellen Gewalt und Misogynie (Bates 2025), der invektiven Beschämungskulturen (Heyne/Prokic 2022) oder im Rahmen der Deepfake-Genealogien (vgl. u.a. Fletcher 2018; Holliday 2021) diskutieren lassen, möchte der Workshop der AG Fotografieforschung zu einer fototheoretischen und fotohistorischen Einordnung dieser Entwicklungen anregen. In diesen Anwendungen, so die These des Workshops, artikuliert sich ein spezifisches Begehren nach der Fotografie und ihren realitätsverbürgenden Eigenschaften (Batchen 1999). Alle diese Praktiken zehren parasitär von dem Medium Fotografie, nicht nur um diese Bilder überhaupt herstellen zu können, sondern auch aufgrund der Fähigkeit der Fotografie, Identitäten zu beglaubigen, Realitäten als Bild aneignen zu können (Sontag 1980) sowie intime Anblicke in Besitz (Benjamin 1963) und Fetischobjekte (Metz 2003) zu verwandeln. Auch wenn seit dem Aufkommen der Digitalfotografie der Wahrheitsanspruch der Fotografie theoretisch immer stärker in Frage gestellt wurde – historisch vermutlich immer schon zur Disposition stand – lebt das Realitätsversprechen fotografischer Medien gesellschaftlich dennoch wirkmächtig fort. Einerseits äußert sich der Vertrauensbruch in den forensischen Praktiken der Bildanalyse, denen auch tatsächliche Fotografien unterzogen werden. Andererseits ist die vermutete indexikalische Referenzialität des fotografischen Mediums gerade das bildhistorische Erbe, aus dem KI-manipulierte oder -generierte Bilder ihr Kapital schlagen. Sexualisierte Bildpraktiken bauen so zentral auf dem kulturellen Status der fotografischen Referenzialität auf, ohne den sie – und auch ihre Gewaltförmigkeit – nicht funktionieren würden.

Im Spannungsfeld dieser Pole und Themenkomplexe ergeben sich folgende mögliche Fragestellungen:

• Inwiefern lassen sich die aktuellen sexualisierten Bildpraktiken als Fortführung der fotografischen Wahrheitsregime thematisieren?
• Was sind die theoretischen, historischen oder kulturpraktischen Beziehungen zwischen KI-Pornografie und der Geschichte des Realitätsversprechens durch die Fotografie?
• An welche bild- und fotogeschichtlichen Diskurse der vorwiegend weiblichen Körperbilder knüpfen KI-basierte Nudify-Apps und Deepfakes an?
• Inwiefern verweisen die Ästhetiken von KI-generierten Bildinhalten auf pornografische Trainingsdaten, als Teilbereich der vieldiskutierten (Gender-)Biases von Machine Learning-Modellen?
• Inwiefern tradieren die aktuellen Bildpraktiken der sexualisierten digitalen Gewalt Dispositive von (fotografischer) Begierde und Macht?
• Welchen Skandalisierungslogiken folgt die öffentliche Debatte zur KI-Pornografie? Und gibt es (foto)historische Vorläufer?
• Welche Rolle spielen kapitalistische Plattformökonomien in der Zirkulation und Rezeption von sexualisierten Gewaltbildern?
• Welche konkreten Beispiele veranschaulichen die Spannung zwischen theoretischem Abgesang auf den Wahrheitsgehalt von Fotografie und den kulturellen gesellschaftlichen Fortbestand dieses Versprechens?

Beitragsvorschläge
Für den Workshop interessieren uns besonders Beiträge, die sich mit konkreten Beispielen beschäftigen, um diese vorzustellen. Nachwuchswissenschaftler:innen sind besonders ermutigt, Vorschläge einzureichen. Für Unterkunft vor Ort wird gesorgt. Zur Unterstützung von Personen, die keinen Zugriff auf Reisemittel haben, können im Rahmen der AG-Mittel Zuschüsse beantragt werden. Bitte senden Sie ein Abstract (max. 300 Wörter) sowie eine kurze biografische Notiz (max. 150 Wörter) bis zum 30. Juni 2026 an die E-Mail-Adresse der AG: agfotografieforschunglistserv.dfn.de

Eine Rückmeldung zur Annahme der Vorschläge erfolgt bis Ende Juli 2026.

Organisationsteam: Prof. Dr. Olga Moskatova (Universität Freiburg) und Dr. habil. Kathrin Yacavone (Philipps-Universität Marburg)

Quellennachweis:
CFP: Fotografie und parasitäre Bildpraktiken der KI (Freiburg i. Br., 5-6 Nov 26). In: ArtHist.net, 05.05.2026. Letzter Zugriff 06.05.2026. <https://arthist.net/archive/52379>.

^