REV 07.05.2014

Hubertus Kohle: Digitale Bildwissenschaft

Rezensiert von Georg Schelbert, Humboldt-Universität Berlin
Redaktion: Livia Cárdenas
Click to enlarge

Um gleich damit zu beginnen: Der Titel des Buchs ist irreführend. Es ist zugleich mehr und weniger als eine Abhandlung zur digitalen Bildwissenschaft. Es ist mehr, weil es das gesamte Spektrum digitaler Methoden und Infrastrukturen in der kunsthistorischen Arbeitspraxis in den Blick nimmt – diese besteht eben nicht nur im Umgang mit Bildern, sondern umfasst beispielsweise auch die Dokumentation von Kunstwerken und ihrer Geschichte oder das Publizieren von Forschungsergebnissen in Form von Texten. Und es ist weniger, weil es sich nicht um eine systematische Darstellung und Analyse dessen handelt, was unter Bildwissenschaft und speziell digitaler Bildwissenschaft zu verstehen wäre. Weder strebt Kohle eine eigene Deutung des in fortwährendem Definitionsstadium befindlichen Gebietes der Bildwissenschaft an, noch widmet er sich hierzu bestehenden Positionen. Inwiefern die Kunstgeschichte, wie Kohle schreibt, durch die von den digitalen Methoden angestoßene Öffnung zu Geschichte und Sozialwissenschaft "ganz naturwüchsig" zu einer Bildwissenschaft wird, bleibt unklar (S. 13), denn Bildwissenschaft arbeitet nicht per se mit systematisch-quantitativen Methoden. Im Gegenteil: Bilder haben eine analoge, letztlich unteilbare Struktur und zeichnen sich infolgedessen zumindest hinsichtlich ihrer Erschließung durch eine besondere Sperrigkeit gegenüber der Digitalität aus. Ob es eher um epistemologische oder um kulturanthropologische Aspekte der Bilder geht, derzeit stehen in der Bildwissenschaft noch hermeneutische Methoden im Vordergrund. Unter dem Titel "Digitale Bildwissenschaft" hätte man sich zumindest einen Definitionsversuch zum in Rede stehenden Bildbegriff gewünscht, der offensichtlich sehr viele, vom Bytes- und Pixelhaufen der Bilddatei, über das wahrgenommene Bild auf dem Bildschirm und dessen Vorlage, bis hin zum imaginierten Bildinhalt reichende Sachverhalte umfasst – und sei es durch eine radikale Setzung wie sie unlängst Harald Klinke mit dem Vorschlag zum Ausschluss des Bildbegriffs aus der (digitalen) Bildwissenschaft vorgenommen hat.[1] Das Buch wäre insofern passender mit "digitale Methoden in der kunstgeschichtlichen Praxis" zu überschreiben. Der praktische Ansatz macht es gleichwohl sympathisch und für den Leser leicht zugänglich. Kohle schreibt aus der Perspektive des individuell arbeitenden Forschers, der Material sucht und sammelt, um es zu analysieren, einen Text darüber verfasst und diesen publiziert, oder Artefakte im musealen und im virtuell-digitalen Raum präsentiert. Dementsprechend gliedert er das Buch in die Hauptkapitel "Suchen", "Analysieren", "Schreiben/Publizieren/Bewerten" und "Präsentieren/Rekonstruieren".

An die persönliche Erfahrung des "Nicht-mehr-Findens" anknüpfend, eröffnet der Verfasser das Kapitel "Suchen" (S. 15-61) mit dem Aspekt der unüberschaubaren Datenfülle: Ein rasant wachsender Heuhaufen von Daten ist vorhanden, und wir wollen etwas darin finden. Das ist gerade im Fall der Bilder eine (immer mehr) zutreffende Situation. Anders als Texte entstehen Bilder und andere Artefakte nicht notwendigerweise in einem zeitintensiven sequentiellen Prozess. Insbesondere fotografische Bilder lassen sich im Sekundentakt produzieren. Hier bietet sich nun einerseits die schiere Rechenkraft von Computern an, die durch Ähnlichkeitsvergleich Bilder finden und darüber hinaus auch Ordnungs- und Interpretationsansätze liefern soll, andererseits tun sich die Algorithmen mit einer inhaltsbezogenen Mustererkennung immer noch schwer (S. 37-57). Zwar leisten Google, TinEye und andere Dienste mit ihren Ähnlichkeitssuchen quer durch das Internet bereits Erstaunliches. Aber der Großteil der Bildsuchen basiert immer noch auf beschreibenden Metadaten und auch für diesen Weg setzt Kohle den großen Materialberg an den Anfang. Wie dessen Entstehung zu denken ist, umreißt er mit seinem von Clay Shirky stammenden Lieblingsmotto "Publish first and filter later": Erst wird alles in möglichst unstrukturierter Form in den Datenpool des Netzes gegeben, auch unter Zuhilfenahme der Crowd beispielsweise mit dem Spiel „Artigo“ (S. 57-60). Anschließend kann man es wieder auslesen. Ganz ohne Datenmodellierung geht es aber doch nicht (S. 22-23): Angaben zu einem Gemälde sollen in "Felder" aufgeteilt werden, damit man zum Beispiel nach Werken in bestimmten Museen fragen kann. Die anschließend ebenfalls unter Berufung auf Shirky geführte Kritik an der aktuellen Leistungsfähigkeit des Semantic Web ist berechtigt. Die Frage ist aber, ob dies am Konzept liegt, oder nicht vielmehr an den noch fehlenden Standards und Infrastrukturen. Die semantische Aussage "Der Vatikan ist Teil der Stadt Rom", angeführt als Beispiel für unzulässige unhistorische Vereinfachung (S. 25), ließe sich in Verbindung mit weiteren derartigen "Mikroaussagen" differenziert und sachgerecht ausdrücken und überdies mit dem Einsatz großer Gruppen (Crowd Sourcing, Folksonomy) verbinden.

Auch das Thema des nächsten Kapitels "Analysieren" (S. 63-95), das mit einer Reihe von schönen, aber auch disparaten Beispielen aufwartet, würde von einer kollaborativen Erzeugung strukturierter Daten profitieren. Die Beispiele für komplexe Visualisierungen beruhen nicht zufällig auf den stark strukturierten Daten des "Census of Antique Works known in the Renaissance" (S. 82-84) oder auf Sammlungsdaten des Cooper Hewitt-Museums (S. 91-93), die jeweils aufbereitetes Wissen darstellen. Bei anderen Beispielen, die auf einer automatischen Mustererkennung von Bildern aufbauen, geht es tatsächlich um Analyse von "Roh-"Material, etwa im Fall der von Lev Manovich vorgenommenen Sortierung und Gewichtung von Bildermengen nach ästhetischen Kriterien (S. 85-87) oder im Fall der Untersuchung von Wolfgang Ernst und Stefan Heidenreich zu formalen Eigenschaften von Bildern im Sinne des Wölfflinschen Begriffspaares "linear"/"malerisch" (S. 65-67). Das vielfache Streifen von Fragen des Wissensmanagements in diesem Kapitel ist freilich kein Zufall: Kunsthistorische Analyse geht über die Erhebung und Auswertung bildimmanenter Merkmale hinaus und umfasst die Untersuchung von Kunstwerken vor dem Hintergrund ihres geschichtlichen, politischen, soziologischen und wirtschaftlichen Umfeldes, um sie zu interpretieren oder in übergreifende Entwicklungen (etwa in eine "Stilentwicklung" oder kulturgeschichtliche Bewegung) einzuordnen.

Die Differenz zwischen den von Computern erfassbaren formalen Eigenschaften (etwa Kontraste, Farbwerte und ihre Verteilung) und dem, 'was das bedeutet', ist der 'Semantic Gap'. Diesen zu überbrücken, also unsere komplexe, auch auf Sprache und Begriffen basierende Denkwelt mit der Anschauungswelt in Verbindung zu bringen, gehört zu den Herausforderungen digitaler Bildwissenschaft. Es war schon immer eine der Hauptaufgaben kunsthistorischer Betätigung, die Bedeutungen und Kontexte zu erkennen bzw. durch Beschreibung und Klassifizierung an Kunstwerke heranzutragen. Hiervon ausgehend hatte das Fach auch seine ersten Schritte in die digitale Welt getan. Unter diesem Blickwinkel könnte man das heute als Digital Humanities bezeichnete Gebiet in zwei komplementäre Bereiche einteilen: Einerseits die formalisierte Dokumentation und Beschreibung von Objekten, Bildern und Sachverhalten und andererseits die Analyse von Materialcorpora – kurz: Datenaggregation versus Datenanalyse. Der Einsatz des Computers in der Kunst- und Bildgeschichte erwuchs zunächst insbesondere aus den Aufgaben der Dokumentation von Artefakten, also letztlich aus dem Katalogisieren, wie es im Museum, bei der Denkmalpflege, bei der Erstellung von Werkverzeichnissen, der Erfassung von ikonographischen Merkmalen oder von schulmäßigen Zusammenhängen notwendig ist. Aus der Perspektive der Kunst- und Bildgeschichte erschiene es nun besonders interessant, aufzuzeigen, wie sich dieses Arbeitsfeld mit dem Fortschreiten der digitalen Möglichkeiten immer mehr zur cross-medialen Virtualisierung der materiellen Überlieferung und ihrer historischen Kontexte gerade entwickelt: Objekte werden sowohl beschrieben und quantitativ dargestellt, als auch mit Bildern repräsentiert und räumlich nachgebildet. Dieser Ganzheit des Virtuellen steht die Gliederung des Buches entgegen. Kohle richtet den Blick vorwiegend auf die Analyse von bereits in digitalem Format vorliegenden Daten, die bei den textbasierten Geisteswissenschaften seit jeher im Vordergrund steht. Zweifellos kommt ihr auch in der kunst- und bildwissenschaftlichen Forschungspraxis eine wachsende Bedeutung zu – sei es in der Auswertung der Bildstrukturen oder sei es in der Auswertung der beschreibenden Metadaten, die in immer größerem Umfang vorhanden sind, oder auch in der Auswertung von zugehörigen Quellentexten. Dennoch kann diese Entwicklung auch so gelesen werden, dass sich die beiden Bereiche der Aggregation und der Analyse immer mehr verzahnen, indem etwa die Ergebnisse der Analysen die Grundlage für weitere Aggregations- und Virtualisierungsschritte von Artefakten und Sachverhalten bilden.

Unter der Perspektive einer sich unendlich fortsetzenden und immer komplexer werdenden Virtualisierung ist für eine abschließende sprachliche Darstellung eigentlich kein Platz mehr und so erscheint der Zuschnitt des folgenden Kapitels (97-129), das sich unter dem Titel "Schreiben/Publizieren/Bewerten" überwiegend mit klassischen Textformen auseinandersetzt, wie eine Einengung. Hier stehen, wenn auch in digitaler Form, nach wie vor das Buch und der wissenschaftliche Aufsatz im Zentrum, denn dazu gehören praktisch sämtliche vorgestellten Formate vom Wikipedia-Artikel über das Online-Rezensionsjournal bis hin zur Retrodigitalisierung von Printpublikationen durch die Universitätsbibliothek Heidelberg in "ArtDok" (S. 104-123). Allen Versuchen zum Trotz kommen neue Formen interaktiver Diskussion in diesen Formaten nur schwer zustande, wie auch Kohle einräumt (in Bezug auf die Open Peer Review-Praxis, S. 128). Es ist andererseits ein Merkmal der digitalen Formate, dass das Erzeugen von Daten und das Publizieren unmittelbar zusammenfallen (können). Insofern verdient das Konzept der Mikroaussagen oder Nanopublikation, also die Dokumentation von Material, Beobachtungen und Forschungserkenntnissen unterhalb der Schwelle eines Meinungsaustausches und zugleich in maschinell verarbeitbarer Form wohl größere Aufmerksamkeit, als Kohle ihr im Rahmen des Publikationswesens zubilligt (S. 100-101). Unter diesen Voraussetzungen ließen sich auch Peer Review- und Bibliometrieverfahren, die im traditionellen Publikationswesen immer mühsam und schwer nachvollziehbar bleiben (vgl. S. 126-129) in universeller Weise anwenden.

Das letzte Kapitel "Präsentieren/Rekonstruieren" (S. 131-167) zeigt erneut, wie sehr die Formatgrenzen im Digitalen verschwinden. Zu Recht nennt Kohle hier Bildpräsentationen im Vortragssaal und Online-Ausstellungen in einem Atemzug. Wo ist da aber der Unterschied zu einer Online-Publikation? Die Trennung der beiden letzten Kapitel "Schreiben... " und "Präsentieren..." leuchtet daher ebenfalls nicht recht ein. Im Brückenschlag zwischen den Publikations- und Präsentationsformen läge das Potential der digitalen Formate, wie nicht zuletzt eine Umgebung wie HyperImage zeigt (S. 132). Zwischen einer schriftlichen, diagrammatischen und bildlichen Repräsentation eines Sachverhalts besteht im Digitalen kein grundsätzlicher Unterschied mehr. Gerade das bildhaft-dreidimensionale Modell (S. 161- 165), das an dieser Stelle vorwiegend als didaktische Präsentationsform erscheint, könnte umfassender, als eine auf maximaler Informationskomplexität beruhende Virtualisierung des Objekts gesehen werden. Diese Summe an Daten ist dann eben nicht nur Bild, sondern enthält zugleich das vorhandene Wissen über das Objekt – einschließlich seiner zeitbedingten Veränderung. Auch wenn Kohle mit Ausblicken auf Augmented Reality und virtuelle Welten nach eigenem Bekunden visionär und utopisch ausklingt, schließt sich hier der Kreis nicht zuletzt unter dem Blickwinkel der Bildgeschichte: Ebenso wie die 3D-Modelle sind auch die historischen Medien der Kunstgeschichte – Reisezeichnung, Architekturzeichnung und -modell, Reproduktionsgrafik und Fotografie – nicht lediglich finale Präsentation ihrer Gegenstände, sondern zugleich Virtualisierung und mediale Vermittlung derselben, die als Ausgangspunkt und Basis für ihre weitere Rezeption in der Wissenschaft, ihre Analyse und ihre Interpretation dient.

Es gelingt Kohle, aus der Vielfalt des Stoffes und den zahllosen Projektbeispielen, die mittlerweile für den Einsatz digitaler Methoden in der Kunst- und Bildgeschichte angeführt werden können, wesentliche Prinzipien herauszuarbeiten. Es seien nur einzelne genannt: Die neue Rolle der Öffentlichkeit und des kollaborativen Arbeitens, die Tendenz zur Fragmentierung und zur kleinen Form sowie die Prävalenz des Quantitativen gegenüber dem Qualitativen. Der Blick geht dabei über das eigentliche Thema des digitalen Bildes zugunsten allgemeinerer Reflexion zum wissenschaftlichen Arbeiten mit Computer und Internet hinaus. Das ist legitim, denn eine digitale Bildwissenschaft muss in ein übergreifendes Konzept der digitalen Geisteswissenschaften eingebunden sein. Es stellt sich jedoch die Frage, warum aus den Beobachtungen nicht weitreichendere Konsequenzen für die digitale Praxis im Fachgebiet gezogen werden. So kommt es zu widersprüchlichen Ergebnissen. Kohle befürwortet zwar beispielsweise die Fragmentierung und Mobilisierung der digitalen Information und das darauf aufbauende Konzept der Nanopublikation. Doch anstatt diesen Faden weiterzuspinnen, werden Konzepte strukturierter Datenwelten unter Berufung auf Shirky und Gleichgesinnte immer wieder grundsätzlich in Frage gestellt. Das erscheint nicht zielführend, denn die auf der einen Seite immer weiter fortschreitende Mustererkennung (Computer Vision) und die auf der anderen Seite zunehmende Bedeutung von universell genutzten Normdaten für die Erschließung von Bildinhalten, zeigen die Notwendigkeit übergreifender Konzepte zur Wissens- und Datenmodellierung gerade auch unter bildwissenschaftlicher Perspektive. Zudem schmerzt die dem Fach Kunstgeschichte – beginnend auf dem Vorsatzblatt mit dem Diktum von James Cuno, "How art history is failing at the Internet" – fortwährend attestierte Abneigung gegen das Digitale, da diese Einschätzung die Realität nicht recht trifft. Die Kunstgeschichte hat Pionierleistungen im Bereich der geisteswissenschaftlichen Datenverarbeitung hervorgebracht und besitzt eine lange Tradition in der Anwendung digitaler Methoden, obwohl (oder gerade weil) diese nicht vorwiegend dem auf Corpusanalyse basierenden zentralen Narrativ der Digital Humanities entspricht. Nicht nur in der Bildbearbeitung und -erkennung, sondern im Beschreiben, Katalogisieren und Klassifizieren von Bildern und Gegenständen – Aufgaben die zweifellos zu den Kerngebieten kunsthistorischer Methodik gehören – hat sie spezifische Entwicklungen vorangetrieben, die auch von Nachbarfächern eingesetzt werden. Modelle der formalisierten Beschreibung kulturhistorischer Wirklichkeit wie Iconclass, Art and Architecture Thesaurus, CidocCRM, sowie die Versuche, diese und ähnliche Konzepte mit adäquaten Technologien umzusetzen, werden jedoch nicht oder nur am Rande erwähnt. Obwohl Kohle die Kunstgeschichte sogar gegen den medientheoretisch-kulturwissenschaftlichen Vorwurf der "historisierenden Metadatenproduktion" verteidigt (S. 69), liegt ihm das konkrete Arbeiten in dieser Richtung eher fern. Folglich fehlen auch zentrale Begriffe, die zum Basishandwerkszeug des Datenmanagements gehören. Man sucht im PDF des dankenswerterweise auch open access zugänglichen Buches vergeblich nach Begriffen wie: "Datenmodell", "Markup", "XML", "Thesaurus", "Vokabular".[2]

Trotz der vielen positiv konnotierten – und für den Leser sehr lehrreichen! – Anwendungsbeispiele digitaler Methoden bleibt der Autor gegenüber informationstheoretischen und technologischen Fragen skeptisch. Auch wenn dies in mancher Hinsicht gerechtfertigt sein mag, scheint es doch eher nötig, der Kunst- und Bildgeschichte gerade im Kontext der allgemeinen Entwicklung in den Geisteswissenschaften mehr Selbstbewusstsein und Mut zum Aufbau von digital basierten Konzepten, Technologien und zugehörigen Organisationsstrukturen zu wünschen.


Anmerkungen
[1] Klinke, Harald: Bildwissenschaft ohne Bildbegriff, in: H. Klinke, L. Stamm (Hg.), Bilder der Gegenwart. Aspekte und Perspektiven des digitalen Wandels. Göttingen 2013, S. 11-28.
[2] Hubertus Kohle: Digitale Bildwissenschaft. Glückstadt: Hülsbusch, 2013. Kostenfreie Online-Version: http://archiv.ub.uni-heidelberg.de/artdok/volltexte/2013/2185

Kohle, Hubertus: Digitale Bildwissenschaft, Glückstadt: Verlag Werner Hülsbusch 2013
ISBN-13: 978-3-86488-036-0, 192 S.

Empfohlene Zitation:
Georg Schelbert: [Rezension zu:] Kohle, Hubertus: Digitale Bildwissenschaft, Glückstadt 2013. In: ArtHist.net, 07.05.2014. Letzter Zugriff 29.03.2024. <https://arthist.net/reviews/5332>.

Creative Commons BY-NC-NDDieser Text wird veröffentlicht gemäß der "Creative Commons Attribution-Noncommercial-No Derivative Works 4.0 International Licence". Eine Nachnutzung ist für nichtkommerzielle Zwecke in unveränderter Form unter Angabe des Autors bzw. der Autorin und der Quelle gemäß dem obigen Zitationsvermerk zulässig. Bitte beachten Sie dazu die detaillierten Angaben unter https://creativecommons.org/licenses/by-nc-nd/4.0/deed.de.

^