CFP: Ambient Control (Erlangen, 26-27 Nov 20)

Erlangen, November 26 - 27, 2020
Deadline: Jan 15, 2020

Ambient Control: On the Reconfiguration of Visuality in Surveillance Capitalism

26-27 November 2020, Erlangen
Friedrich-Alexander Universität Erlangen-Nürnberg

— Please scroll down for the German version —

In his famous analysis of the panopticon, Michel Foucault showed to what extent power can be exercised through visuality and produce specific subjects. However, this form of power seems to be unable to grasp the dynamics of networked digital media technologies. In the paradigm of the control society (Deleuze 1993), not only are media increasingly ambient, networked and unobtrusive, but also the techniques of surveillance and control. Many of their contemporary forms do not rely on the visible demonstration and internalization of the gaze, but on automated data-based and algorithmic forms of control that are often motivated economically. They are not “salient”, but “silent” (Introna/Wood 2004) and even “calm” technologies (Weiser/Brown 1996) that proliferate in everyday life and diffuse in environments. Nevertheless, it is important to ask what role images play in these post-panoptical, ambient forms of power and how visuality is currently transformed and modulated.

Capturing personal data in exchange for free services is by now ubiquitous in networked media and recently led to diagnoses of surveillance and platform capitalism (Zuboff 2019; Srnicek 2017). Dataveillance and data mining in social media have been criticized as new forms of digital work and capitalist exploitation for several decades (cf. Andrejevic 2011, 2012, 2013; Fuchs 2010, 2013, 2015). Moreover, “silent” data-based and algorithmic controls also focus on the practices of visual culture. Whether we are sharing photos or watching videos, movies or serials, the access to images is structured by platforms: their economic imperatives, data acquisition techniques and algorithmic processing. The logics of surveillance capitalism cannot be understood without the analysis of its incentive and nudging strategies. It raises the question how images support its maintenance and reproduction. Aesthetic strategies and media principles of user-generated, professional and popular images such as humour, compactness, nudity, spectacularity, cinematicity, seriality, interactivity or emotionality can contribute to turning to a platform, capturing attention, prolonging browsing times and generating the “network effects” (Srnicek 2017) necessary for the functioning of surveillance capitalism. It is about reintroducing the logic of “gaze” into the media environments of “glance” (Bryson 1983).

On social media platforms, forms of social control based on the visibility of the personal can hardly be separated from algorithmic sorting and recommending. They modulate visibility and invisibility as well as the associated social fears and thus algorithmically reconfigure scopic forms of power (Bucher 2016, 2018). It can be assumed that algorithmic control not only complicates or prevents the possibility of subjectivation (Rouvroy 2013; Rouvroy/Berns 2013), but also enforces new and old ways of subjectivation. With this, categories such as gender, age, class and race which are underexposed in Surveillance Studies (Conrad 2009) gain particular relevance. For example, not all bodies are subjected to the exposure, economization of attention or automated censorship in the same way on popular platforms for sharing images. Also on streaming platforms, the rhetoric of algorithmic personalization obscures collaborative filtering and often stereotypical clustering, which clearly manifest gender and age biases, among others, and modulates specific viewer subjects.

Against this background, new technological endeavours such as the internet of things, ubiquitous computing and ambient intelligence appear as attempts to expand the opportunities for data extraction and monetization. Everyday objects become sentient things that are capable of multimodal monitoring of the environments and living beings and of recording, storing and circulating captured information. Optical data acquisition in the form of sensors, webcams or computer vision operates without drawing attention to itself. Often, not only the technologies are invisible, but also the images which are not destined for human vision anymore (Paglen 2016; Rothöhler 2018). These optical data sensing and “invisible images” share the unobtrusiveness with algorithmic security systems such as facial recognition, which exploits the publicness of the face, does not require consent, and produces “calm images” (Veel 2012). In applications such as Snapchat, the use of biometric face recognition is so common that it does not even need to be recognized as a form of control.

The conference examines the role of images and visuality in surveillance capitalism. In particular, it focuses on the following questions: To what extent and by means of which aesthetic strategies do images create incentives for and stabilize surveillance capitalism? How do they contribute to its aestheticization? How is subjectivation produced in apparatuses of dataveillance and algorithmic control and how are the regimes of the gazes transformed within them? How is pictoriality reconfigured in post-panoptical, ambient media environments and subjected to forms of anesthetization?

Topics can include, but are not limited to:

- Role of the images for the generation of the “behavioural surplus” (Zuboff 2019) and data extraction
- Images as decoy and nudges; medial and aesthetic incentive strategies
- Audience labour and modulation of viewing
- (In-)visibility as social control and its relation to data monitoring and algorithmic sorting
- Relationship between scopic and non-scopic forms of power and control
- New forms of subjectivation, desubjectivation or prevention of subjectivation in visual surveillance capitalism
- Economization of attention
- Platform politics and automated censorship of images
- AI training on user generated images and platform capitalism
- Surveillance capitalism in popular visual media and media arts
- Gender, race, class and algorithmic control on platforms for (moving) images
- Calm images and invisible images
- Optical data acquisition in the internet of things and ubiquitous computing
- (Resistance) discourses of transparency, black boxing and obfuscation and their implicit epistemologies of the visible
- Tension between aesthetization of surveillance capitalism and anesthetization of images

The conference will take place on 26-27 November 2020 at the Institute for Theatre and Media Studies, Friedrich-Alexander-Universität Erlangen-Nürnberg. The conference languages will be English and German. Please submit an abstract of approximately 300 words and a short biography to olga.moskatovafau.de by 15 January 2020. The proceedings are intended for publication.

—-

[German version]

Ambiente Kontrolle. Zur Rekonfiguration des Visuellen im Überwachungskapitalismus

26.-27. November 2020, Erlangen
Friedrich-Alexander Universität Erlangen-Nürnberg

In seiner berühmten Analyse des Panoptikums hat Michel Foucault aufgezeigt, inwiefern durch Visualität Macht ausgeübt und spezifische Subjekte produziert werden können. Diese auf sichtbarer Demonstration der Überwachungs- und Kontrollmöglichkeiten basierende Machtform scheint die Dynamiken der vernetzten digitalen Medientechnologien allerdings kaum fassen zu können. In dem kontrollgesellschaftlichen Paradigma (Deleuze 1993) werden nicht nur die Medien zunehmend umgebend, netzwerkförmig und unaufdringlich, sondern auch der überwachende und kontrollierende Zugriff. Viele aktuelle Überwachungs- und Kontrollformen beruhen dabei nicht auf visuellen Verfahren und Verinnerlichung des Blicks, sondern auf automatisierten datenbasierten und algorithmischen Kontrollformen, die vielfach ökonomisch motiviert sind. Sie stellen keine „salient“, sondern „silent technologies“ (Introna/Wood 2004) und mithin „calm technologies“ (Weiser/Brown 1996) dar, die im Alltag proliferieren und in Umgebungen diffundieren. Gleichwohl stellt sich die Frage nach dem Stellenwert der Bilder und der Modulation der Sichtbarkeit in diesen postpanoptischen, ambienten Machtformen.

Die allgegenwärtige ökonomisch motivierte Datenüberwachung vernetzter Medien wurde verschiedentlich beschrieben und hat unlängst zu Diagnosen des Überwachungs- und Plattformkapitalismus (Zuboff 2019; Srnicek 2017) geführt, in dem persönliche Daten für kostenlose Angebote getauscht und in dem die Überwachung als Service deklariert werden. Mit Blick auf soziale Medien werden Datenüberwachung and Data Mining schon seit einigen Jahrzehnten als neue Formen der digitalen Arbeit und der kapitalistischen Ausbeutung kritisiert (vgl. u. a. Andrejevic 2011, 2012, 2013; Fuchs 2010, 2013, 2015). Dabei richtet sich die unaufdringliche datenbasierte und algorithmische Kontrolle nicht zuletzt auch auf Praktiken der visuellen Kultur. Wenn wir (Bewegt-)Bilder teilen oder anschauen, ist der Zugriff auf diese durch Plattformen, ihre ökonomischen Imperative, Datenerfassungstechniken und algorithmische Auswertungsverfahren strukturiert. Die Logiken des Überwachungskapitalismus können ohne die Analyse der zum Einsatz kommenden Anreizstrategien nicht begriffen werden und werfen die Frage nach dem Beitrag der Bilder zu seinem Aufrechterhalten und Ausbau auf. Ästhetische Strategien und mediale Prinzipien der nutzergenerierten, professionellen und populären Bilder wie etwa Humor, Kompaktheit, Nacktheit, Spektakularität, Cinematizität, Serialität, Interaktivität oder Emotionalität können dazu beitragen, sich einer Plattform zuzuwenden, Aufmerksamkeit auf dieser zu fesseln, die Aufenthaltszeiten zu verlängern und die für die Funktionsweise der ökonomischen Überwachung notwendigen Netzwerkeffekte (Srnicek 2017) zu generieren. Dabei geht es nicht zuletzt darum, in mediale Umfelder des „glance“ die Logiken des „gaze“ (Bryson 1983) wieder einzuführen.

Auf sozialen Plattformen lassen sich Formen der sozialen Kontrolle, die auf der Sichtbarkeit des Persönlichen aufsetzen, kaum von der algorithmischen Sortier- und Empfehlungslogik trennen, die die Sichtbarkeiten und Unsichtbarkeiten und die damit einhergehenden sozialen Ängste moduliert (Bucher 2016, 2018) und so skopische Machtformen algorithmisch rekonfiguriert. Es ist davon auszugehen, dass dabei nicht nur dividuelle Verhinderung von Subjektivierungen (Rouvroy 2013; Rouvroy/Berns 2013) stattfinden, sondern auch neue und alte Weisen der Subjektivierung eingeübt werden. Dabei rücken auch die in Surveillance Studies unterbelichteten Kategorien wie Gender (Conrad 2009), aber auch Alter, Klasse und Rasse in den Vordergrund. So unterliegen auf beliebten Fotosharing-Plattformen nicht alle Körper gleichermaßen der Exponierung, der Ökonomisierung der Aufmerksamkeit oder der automatisierten Zensur. Auch auf Streaming-Plattformen verdecken Rhetoriken der algorithmischen Personalisierung kollaboratives Filtern und stereotypes Clustering, dem deutlich Voreinnamen u. a. zu Gender und Alter eingeschrieben sind und die spezifischen Zuschauersubjekte modulieren.

Vor diesem Hintergrund erscheinen auch neue technologische Bestrebungen wie Internet der Dinge, Ubiquitious Computing oder Ambient Intelligence als Versuche, die Zugriffs- und Auswertungszonen des alltäglichen Verhaltens immer weiter auszudehnen und immer neue Quellen für die monitarisierbare Datenextraktion zu finden. Zahlreiche alltägliche Dinge werden zu fühlenden Dingen, die zum multimodalen Erfassen und Monitoring der Umgebungen und der Lebewesen fähig sind. Optische Datenakquise in Form von Sensoren, Webcams oder Computer Vision operiert unaufdringlich und liefert eine Fülle an auswertbaren Details, selbst wenn die Daten nicht als Bilder bzw. als „invisible images“ ausgespielt und an kein menschliches Seh-Subjekt adressiert werden (Paglen 2016; Rothöhler 2018). Ihre Unaufdringlichkeit teilen diese optischen Datenfühler mit algorithmisch gestützter Gesichtserkennung, die die Öffentlichkeit des Gesichts ausnutzt, kein Einverständnis und Kenntnis der Erfassung erfordert und „calm images“ (Veel 2012) produziert. In Applikationen wie Snapchat ist der Einsatz biometrischer Gesichtserkennung so alltäglich, dass sie nicht einmal als eine Kontrollform erkannt werden muss.

Die Tagung widmet sich dem Stellenwert der Bilder und der Sichtbarkeit im Überwachungskapitalismus und fragt nach ihrem Verhältnis zu nicht-skopischen, unaufdringlichen Erfassungs- und Kontrollformen. Im Vordergrund stehen dabei folgende Fragenkomplexe: Inwiefern und durch welche medialen und medienästhetischen Strategien schaffen Bilder Anreize für die überwachungskapitalistische Funktionsweise und wie wirken sie an der Ästhetisierung des Kapitalismus mit? Welche Subjekteffekte zeichnen sich vor dem Hintergrund der durch Datafizierung und Algorithmizierung rekonfigurierten Blickregime ab? Wie wird Bildlichkeit in postpanoptischen, ambienten Medienanordnungen selbst transformiert und welchen Formen der Anästhetisierung unterzogen?

Die Vorschläge können folgende Themen behandeln, sind aber nicht auf diese beschränkt:

- Rolle der Bilder für die Generierung des „Verhaltensüberschusses“ (Zuboff 2019) und die Datenextraktion
- Köder- und Anreizfunktion der Bilder, ästhetische und mediale Strategien
- Audience Labour und Modulation des Zuschauens
- (Un-)Sichtbarkeit als soziale Kontrolle und ihre Beziehung zu Datenüberwachung und algorithmischer Sortierung
- Verhältnis von skopischen und nicht-skopischen Machtformen
- Neue Formen der Subjektivierung, Desubjektivierung oder Verhinderung der Subjektivierung im visuellen Überwachungskapitalismus
- Ökonomisierung der Aufmerksamkeit
- Plattform-Politiken und automatisierte Bildzensur
- KI-Training auf Basis der nutzergenerierten Bilder und Plattformkapitalismus
- Überwachungskapitalismus in populären visuellen Medien und Medienkunst
- Gender, Rasse, Klasse & algorithmische Kontrolle auf (Bewegt-)Bild-Plattformen
- Calm Images & Invisible Images
- Optische Datenakquise im IoT & UbiCom
- (Widerstands-)Diskurse der Transparenz, des Blackboxings oder der Obfuskation und ihre impliziten Epistemologien des Sichtbaren
- Spannungsverhältnis zwischen Ästhetisierung des Kapitalismus und Anästhetisierung der Bilder

Wir freuen uns über Vorschläge in deutscher oder englischer Sprache. Bitte schicken Sie Ihren Abstract von ca. 300 Wörtern und eine Kurzbiographie bis zum 15. Januar 2020 an olga.moskatovafau.de .
Die Konferenz findet am 26.-27. November 2020 am Institut für Theater- und Medienwissenschaften an der Friedrich-Alexander Universität Erlangen-Nürnberg statt. Eine Veröffentlichung der Tagungsbeiträge in einem Sammelband ist geplant.

Reference:
CFP: Ambient Control (Erlangen, 26-27 Nov 20). In: ArtHist.net, Nov 29, 2019 (accessed Dec 12, 2019), <https://arthist.net/archive/22184>.

Contributor: Olga Moskatova

Contribution published: Nov 29, 2019

Recommended Citation

Add to Facebook