Zugrunde gelegte Methoden
Methodische Überlegungen
Wie Michel Foucault gehen auch Ernesto Laclau und Chantal Mouffe von einer beobachtbaren „Regelmäßigkeit in der Verstreuung“ (Laclau/Mouffe 1991: 155) der Artikulationen im diskursiven Feld aus. Foucault nennt dies ‚diskursive Formation‘ (vgl. Foucault 1973: 48ff.), Laclau/Mouffe hingegen ‚Kohärenz‘ (vgl. Laclau/Mouffe 1991: 155). Diese Verstreuung wird bei Laclau/Mouffe selbst zum Prinzip der Einheit und eröffnet zwei entgegengesetzte Betrachtungsweisen: Es erfordert zum einen die Bestimmung eines gemeinsamen Bezugspunktes, von dem aus die Verstreuung gedacht werden kann. Diese Betrachtungsweise führt zu einem Fokus auf Knotenpunkte und die Bildung entleerter Signifikanten (vgl. ebd.). Zum anderen kann eine diskursive Formation hinsichtlich der Regelmäßigkeiten in der Verstreuung betrachtet werden, wobei sie „als ein Ensemble differentieller Positionen gedacht werden“ (ebd.: 156) muss, das in artikulatorischen Praktiken diese Regelmäßigkeiten erzeugt und modifiziert. Diese beiden Betrachtungsweisen können helfen, das „gleicherweise präsente Etwas“ (Laclau 2002: 72) in den Artikulationen ausfindig zu machen. Zuerst werden nun zwei diskursanalytische Überlegungen skizziert – die Hegemonieanalyse nach Martin Nonhoff und die Simultanzanalyse nach Cornelia Bruell –, die zwar im Hinblick auf ein textuelles Datenkorpus entwickelt wurden, jedoch auch für visuelle Artikulationen plausibel und gewinnbringend erscheinen. In einem zweiten Schritt wird sich der Spezifik visueller Artikulationen aus einer bildwissenschaftlichen und medientheoretischen Perspektive genähert und ein konkretes Handwerkszeug im Umgang mit Fotografien zusammengestellt. Hierfür dient die ebenfalls für große visuelle Datenkorpora entwickelte visuelle Stilanalyse von Stefan Meier als Ausgangspunkt.
Hegemonie- und Simultanzanalyse
Indem man sich alle Forderungen, „die in Bezug auf das Allgemeine erhoben werden“ (Nonhoff 2008: 309) betrachtet, kann ein gemeinsamer Bezugspunkt der Verstreuung sichtbar gemacht werden. Laut Nonhoff scheint es nämlich jeweils nur einen Repräsentanten zu geben, der „das Versprechen in sich trägt, den Mangel in seiner Gänze zu überwinden“ (ebd.: 321) und hierdurch als gemeinsamer Bezugspunkt zu agieren. Diesem Repräsentanten gelingt es jedoch nur, der gemeinsame Bezugspunkt zu sein, wenn ausreichend äquivalente Beziehungen zu anderen Repräsentanten aufgebaut werden können. Regelmäßigkeiten der Verstreuung zeigen sich somit in den Vorschlägen, „den Mangel am Allgemeinen zu lindern oder ganz zu beseitigen“ (ebd.: 309).
Mithilfe
seiner Untersuchung bezüglich des leeren Signifikanten der sozialen
Marktwirtschaft hat Nonhoff neun Strategeme zusammengestellt, anhand derer
Diskurse sowohl hinsichtlich ihrer Äquivalenzierung als auch ihrer Abgrenzung
von einem bedrohlichen und verworfenen Außen untersucht werden können. Unter
den neun Strategemen, die sich in seinen Untersuchungen gezeigt haben, lassen
sich drei Kernstrategeme ausfindig machen, die für den Erfolg oder Misserfolg
eines Signifikanten als gemeinsamer Bezugspunkt besonders relevant sind. Diese
werden im Folgenden kurz skizziert (vgl. ebd.: 313-315):
Das erste Kernstrategem [1] zielt auf die „Äquivalenzierung differenter, am Allgemeinen orientierter Forderungen“, wodurch sie Teil einer Äquivalenzkette von Forderungen werden, „die miteinander Hand in Hand gehen“ (ebd.: 313). Auf Bilder als visuelle Artikulationen übertragen bedeutete dies: Damit ein Bild überhaupt innerhalb eines Diskurses auftreten kann, müssen sinnvolle Verknüpfungen und Äquivalenzierungen zu anderen diskursiven Elementen vorhanden sein, die an allgemeinen Forderungen bezüglich einer ersehnten, jedoch abwesenden sozialen Ordnung orientiert sind. D. h., ein Bild oder Bildmotiv taucht nur innerhalb eines Diskurses auf, wenn es (je nach Diskurs) als Äquivalent z. B. für ‚Gleichheit‘, ‚Freiheit‘, ‚Demokratie‘ o. ä. rezipiert werden kann. Die Verwendung von Symbolen dieser Forderungen können eine solche Rezeption befördern.
Eine solche Äquivalenzkette entsteht jedoch nur durch die Formierung eines gemeinsamen Gegenpols, der eine „antagonistische Zweiteilung des diskursiven Raums“ [2] zur Folge hat (vgl. ebd.: 314). Diese beinhaltet dann alle Forderungen, die nach der Überwindung des Mangels und der negativen Kräfte streben. Wenn auch dieser Gegenpol selbst nicht artikuliert werden kann, – da er sonst als Interiorität und nicht als ausgeschlossene Exteriorität zu betrachten wäre – so muss er zumindest in seiner Abwesenheit visuell realisiert sein. Siegesgesten bei Kriegsfotografien beispielsweise brauchen stets einen Feind, eine Bedrohung für den eigenen Frieden, der als besiegt gilt, selbst wenn dieser nicht direkt visualisiert, sondern lediglich impliziert ist. Allein durch die Darstellung der guten Ordnung kann sich die Forderung von der negativen und implizit bleibenden Gegenseite abgrenzen und den diskursiven Raum zweiteilen.
Die Forderung, der es gelingt, die gesamte Äquivalenzkette zu repräsentieren [3], d. h. in Kontrarietät zu jeglichem Element des Mangels zu gehen, ist folglich der leere Signifikant, der jeglicher Differenz entbehrt und als besonders anschlussfähiger Knotenpunkt im Zentrum des Diskurses seine Stabilität garantiert (vgl. ebd.). Durch die „Öffnung des Interpretationsspielraums für das symbolische Äquivalent des Allgemeinen“ (ebd.: 315) kann sich die Reichweite einer spezifischen Forderung und ihrer Äquivalente erhöhen und hierdurch zu einer hegemonialen Formierung führen. Der Knotenpunkt kann hierdurch Zentrum einer entstehenden Hegemonie werden.
Konkret bedeutet dies für eine Analyse, dass sich über die Ermittlung von Äquivalenzbildungen zwei antagonistisch gegenüberstehende Äquivalenzketten erfassen lassen. Eine der beiden Ketten beinhaltet alle Forderungen, die auf das Allgemeine zielen und die Überwindung des Mangels versprechen. Nonhoff bezeichnet diese mit dem Buchstaben ‚P‘. Sie wird von genau dem Signifikanten repräsentiert, der jeweils die weitreichendste Äquivalenz aufzeigt und hierdurch als reine, jedoch reale, Negativität die gesamte Kette der Einschließung verkörpert. Die ‚P‘ antagonistisch gegenüberstehende Äquivalenzkette auf der Seite der Ausschließung beinhaltet schließlich alle Elemente der Bedrohung und Negation der guten Ordnung. Diese Kette des zu überwindenden Mangels, der die Schließung des Sozialen verhindert, wird von Nonhoff mit dem Buchstaben ‚Q‘ bezeichnet. ‚Q‘ ist jedoch nicht artikulierbar, d. h. lediglich die Inversion der artikulierten Forderung ermöglicht den Rückschluss auf die Elemente des Mangels, die unsichtbar bleiben müssen. Anhand dieser Heuristik der antagonistischen Äquivalenzketten lassen sich die Artikulationen eines Korpus sowohl nach Forderungen, die sich auf das Allgemeine beziehen, als auch nach Elementen des Mangels durchforsten und gruppieren.
Die Feststellung von visueller Äquivalenz erweist sich jedoch methodisch komplizierter. Unklar ist, wodurch eine solche Äquivalenz festzustellen ist, sowie, ab welchem Schwellenwert man von Äquivalenz sprechen kann. Vor allem bei visuellen Artikulationen kann eine argumentative Bezugnahme und Gleichsetzung nicht in der gleichen Form nachvollzogen und von einer reinen Gleichzeitigkeit unterschieden werden, wie dies bei verbalen Artikulationen vielleicht noch der Fall ist. Nur weil auf einer visuellen Artikulation zwei oder mehr Entitäten signifiziert werden, heißt dies nicht, dass diese als äquivalent verhandelt werden. Sie können auch in Kontrarietät zueinander stehen und als nicht-äquivalent verhandelt werden. Eine gemeinsame Abbildung ist nicht automatisch gleichbedeutend mit einer Äquivalenzierung. Cornelia Bruell umgeht diese komplexe Unterscheidung durch den Wechsel des Fokus von Äquivalenz hin zu Simultanz:
„Unter Simultanz wird die Form des gemeinsamen Vorkommens von Momenten (Positionen, Argumenten, zentralen Wortkonstruktionen) verstanden. Das gleichzeitige Auftreten bedeutet allerdings nicht, dass diese Artikulationen argumentativ in einem Zusammenhang stehen müssen. Daher können sie auch nicht als Äquivalenzen bezeichnet werden. Viel mehr treten sie simultan (gleichzeitig) auf und entwickeln dadurch einen diskursiven Zusammenhang“ (Bruell 2007: 205).
Auch ohne argumentativen Zusammenhang kann mittels einer Simultanzanalyse die Art der Beziehung (d. h. Differenz oder Äquivalenz) ermittelt werden. Dazu arbeitet die Simultanzanalyse jeweils mit einer Vier-Felder-Matrix, um die Eigenschaften von Artikulationen und von Simultanzen zu betrachten. Während die Matrix der Artikulationstypen die reine Häufigkeit und Verknüpfungsstärke der artikulierten Momente, zu erfassen sucht, sucht die Matrix der Simultanztypen Konnotationen, also inhaltliche Bezugnahmen der artikulierten Momente zu anderen Momenten des Diskurses in den Blick zu rücken. Dies ermöglicht einen Rückschluss auf differente bzw. äquivalente Relationen. Anfangs werden die in Artikulationen auftretenden Momente kodiert und anschließend quantitativ als auch qualitativ in Relation gesetzt. Sie unterscheidet zunächst vier Typen von Artikulationen hinsichtlich ihrer quantitativen und ihrer qualitativen Ausprägungen. Die Anzahl der unterschiedlichen Momente, mit denen eine Artikulation verbunden ist, entscheidet das Maß ihrer quantitativen Stärke. Das jeweilige Potential einer Artikulation zur Bildung neuer hegemonialer Konfigurationen im Gegensatz zu einer reinen Eingliederung in eine bestehende Konfiguration wird als qualitative Stärke gewertet (vgl. ebd.: 204). Die vier sich ergebenden Artikulationstypen bezeichnet Bruell als äquivalenzierende Artikulationen (quantitativ und qualitativ stark), flottierende Artikulationen (quantitativ stark, qualitativ schwach), antagonisierende Artikulationen (quantitativ schwach, qualitativ stark) und differenzierende Artikulationen (quantitativ und qualitativ schwach) (vgl. ebd.: 204f.). Äquivalenzierende Artikulationen haben somit das Potential, zu einem Knotenpunkt der diskursiven Ordnung zu avancieren, während antagonisierende Artikulationen ebenfalls stark strukturierend auftreten, jedoch nur von begrenzter Reichweite bleiben. Hierdurch lassen sich Artikulationen somit innerhalb eines diskursiven Raumes verorten, wodurch die Bildung eines diskursiven Zentrums nachgezeichnet werden kann. Außerdem lassen Artikulationen des diskursiven Zentrums Rückschlüsse auf dominante und damit besonders identitätsstiftende Momente zu, die für die Untersuchung der Simultanz als Ausgangscode festgelegt werden können.
Zur Untersuchung der Simultanz muss nun jedoch das Ausmaß der Überlappung der Momente, die in den oben geschilderten Arten von Artikulationen vorkommen, betrachtet werden: Tritt ein zum Vergleich mit einem Ausgangscode herangezogener Vergleichscode verhältnismäßig häufig bzw. selten auf, so handelt es sich nach Bruell um eine quantitativ starke bzw. schwache Simultanz (vgl. ebd.: 205). „Qualitativ kann aber auch ein selten genannter Vergleichscode stark ausgeprägt sein […], wenn der Vergleichscode zu einem hohen Prozentsatz seines absoluten Vorkommens gepaart mit dem Ausgangscode auftritt“ (ebd.). Tritt ein anderer, ebenfalls quantitativ starker Code zu einem hohen Prozentsatz gleichzeitig mit dem Ausgangscode auf, so schließt sie auf eine äquivalenzierende Simultanz (quantitativ und qualitativ stark). Diese Form der Simultanz deutet auf starke Äquivalenzketten differenter Momente oder die Bildung eines gemeinsamen Knotenpunktes hin, denn „[j]e mehr Momente an diesen Code gebunden werden, desto leerer wird dieser und kann als leerer Signifikant bezeichnet werden“ (ebd.: 206). Tritt jedoch ein quantitativ nur schwach ausgeprägter Code zu einem hohen Deckungsgrad mit dem Ausgangscode auf, spricht Bruell von einer unterordnenden Simultanz (quantitativ schwach, qualitativ stark). Handelt es sich um einen quantitativ häufig, jedoch selten simultan auftretenden Vergleichscode, spricht sie von einer lösenden Simultanz (quantitativ stark, qualitativ schwach). Die differenzierende Simultanz (quantitativ und qualitativ schwach) führe zu flottierenden Signifikanten, da der Vergleichscode alleine schon selten und zudem selten simultan mit dem Ausgangscode auftrete (vgl. ebd.: 206f.). Anhand einer an Simultanz orientierten Untersuchung lässt sich somit zwischen einer äquivalenzierende bzw. differenzierende Simultanz unterscheiden, die Rückschlüsse auf das differentielle Bedeutungssystem und dessen äquivalenzierenden Knotenpunkt erlaubt, ohne eine argumentative Bezugnahme rekonstruieren zu müssen.
Mithilfe dieser zwei Perspektiven ist es möglich, die Bildung von Äquivalenzketten bzw. äquivalenzierenden Simultanzen zu rekonstruieren. Anhand des in allen Artikulationen gleicherweise präsenten Etwas kann dann auf die am Allgemeinen orientierte Forderung geschlossen werden, die letztendlich einen Rückschluss, auf die unsichtbar bleiben Elemente des Mangels erlaubt.
Ikonologie
Die von Nonhoff und Bruell getätigten Überlegungen sind definitiv hilfreich, um die Entstehung und die Wirkungsweise von leeren Signifikanten und hegemonialen Diskursen verstehen und beobachten zu können. Jedoch sind beide mit einem textzentrierten Fokus entwickelt worden. Bei einer Betrachtung von Bildern muss zunächst geklärt werden, für welche visuellen Aspekte solche Codes vergeben werden können, worauf man das Auge schult. Außerdem ist zu klären anhand welcher Aspekte eine Äquivalenzkette bzw. der Repräsentant dieser ausfindig gemacht werden kann. Bildanalysen, die bisher in sozial- und geisteswissenschaftlichen Untersuchungen getätigt wurden, beruhen vornehmlich auf kunsthistorischen Überlegungen, die zwar auch wichtig für eine visuelle Diskursanalyse sind, sich jedoch für ein vergleichsweise großes Datenkorpus als wenig praktikabel erweisen. Meist wurden vor allem die ikonographisch-ikonologische Methode Erwin Panofskys (vgl. 1975) und deren Weiterentwicklungen zur Ikonik (vgl. Imdahl 1980) in bisherigen Untersuchungen zum Ausgangspunkt genommen. Sie sind ebenfalls die Grundlage der von Meier entwickelten visuellen Stilanalyse und werden im Folgenden kurz skizziert.
Panofskys Analyse geht bei Bildern von drei Sinnebenen aus, die es zu analysieren gilt. Die vor-ikonographische Ebene – oder denotative Ebene – betrachtet das rein Sichtbare, das, was dargestellt wird. Sie umfasst nur die Gegenstandserkennung, d. h. die Beschreibung der Konfigurationen aus Farben, Linien, Formen und verwendeten Motiven sowie Atmosphären, Stimmungen und dergleichen. Dieser Analyseschritt ist rein deskriptiv und zielt darauf, die primäre bzw. natürliche Bedeutung zu erfassen. Die konnotative oder ikonographische Ebene [2] bezieht währenddessen die Geschichte ein, welche das Bild erzählen soll (vgl. Bohnsack 2003: 244f.). Die von der*dem Künstler*in behandelte Thematik soll erfasst und eine sekundäre oder konventionale Bedeutung aufgedeckt werden. Kunsthistorisch betrachtet sind diese Geschichten meist biblischer Herkunft und somit schriftlich fixiert oder lassen sich durch Stereotype und Alltagswissen erfassen (vgl. ebd.: 247). Hierbei werden thematische Referenzen, die durch die formale Gestaltung, Anordnung oder die Verwendung von Themen und Symbolen im Bild erfahrbar werden, interpretiert. Ebenso zu nennen ist hierbei der Rekurs auf bekannte Bilder (meist religiösen Ursprungs). Gerhard Paul bezeichnet diese als „Vor-Bilder” (Paul 2005: 232). Dieser Analyseschritt ist demnach rekonstruktiv. Die Analyseschritte dieser ersten beiden Sinnebenen fragen hierbei nach dem ‚Was?‘. Was wird hier auf dem Bild getan? Der Fokus der dritten Ebene wandelt sich jedoch vom ‚Was?‘ auf das ‚Wie?‘ und fragt vermehrt nach dem „Dokumentsinn“ (Panofsky 1932: 115). Diese Ebene wird als ikonologische Ebene [3] bezeichnet und zielt auf eine Interpretation im gesamtkulturellen Zusammenhang, wodurch die eigentliche Bedeutung oder der Gehalt erfassbar werden soll. Die Frage dieses Schrittes lautet: In welcher Weise dokumentiert sich eine kultur- und zeitspezifische Ansicht in einem bestimmten Bild? Die Funktion des Bildes wird hierbei in seiner Ausdrucksform einer historisch bedingten Geisteshaltung gesehen (vgl. Imdahl 1994: 306). Man sucht also nach der „Grundeinstellung einer Nation, einer Epoche, einer Klasse, einer religiösen oder philosophischen Überzeugung“ (Panofsky 1975: 40), die im Bild in Form eines ‚ikonologischen Bildsinns‘ zum Ausdruck kommen. Hierdurch soll das Kunstwerk als Zeitdokument lesbar werden, in dem der ‚Habitus einer Epoche‘ zum Ausdruck komme. Dieser Analyseschritt ist deshalb subsumtiv.
So innovativ Panofskys Dreischrittmodell und die Erfassung eines ‚Habitus einer Epoche‘ war, dem Kunsthistoriker Max Imdahl fehlte es am Interesse an der formalen Komposition des Bildes. Denn genau hierin liege der Unterschied zur Sequenzialität und Narrativität eines Textes (vgl. Bohnsack 2016: 5). Deshalb ist bei Max Imdahl die Analyse von Bildern im Sinne der Ikonik „ganz strikt in der Formalstruktur fundiert“ (ebd. 2003: 250) und betont die Besonderheit der für Bilder konstitutiven Simultanstruktur: Das Bild sei immer in seiner Gesamtheit präsent und widerlaufe dem sprachlich sonst üblichen (narrativen) Nacheinander, bei dem es stets einen Anfang und ein Ende und dadurch auch eine Leserichtung gebe (vgl. ebd.). Die Signifikanz der Formalstruktur zeigt Imdahl experimentell: Selbst kleinste kompositorische Veränderungen, variieren den Bildsinn massiv (vgl. ebd.)[8]. Deshalb ist die „Rekonstruktion der planimetrischen [9] und perspektivischen Bildordnung“ (Raab 2012: 126) durch die Analyse des sogenannten Feldliniensystems sehr wichtig. Dieses System „beschreibt die kompositorischen Hauptlinien des Bildaufbaus, erfasst konvergierende und divergierende Blickführungen“ (ebd.) und ermöglicht dadurch die Erfassung einer Kombination von Simultanität und Sukzession, welche die Wahrnehmung eines Bildes maßgeblich strukturieren.
Während der kunsthistorische Fokus in der visuellen Soziologie deutlich zurückgestellt ist, bleibt der grundsätzliche Aufbau ikonologischer Analysen derselbe. Das Wechselspiel aus Denotation und Konnotation soll durch die Erfassung des Dargestellten, der Komposition, der assoziativen Wirkung bis hin zum (sub-)kulturell geteilten Wissen erfasst werden. Diese Analysetechniken ermöglichen eine besonders tief gehende Auseinandersetzung mit der latenten Wirkung und der konnotativen Ebene der Bilder, da die kompositorische Formalstruktur und der Bezug zu etwaigen Vor-Bildern intensiv betrachtet wird. „Da die Ikonologie das ‚kulturell Unbewusste‘ einer Epoche zum Untersuchungsgegenstand macht, ist sie auch geeignet, habituelle Erwartungslagen, Wahrnehmungs- und Denkweisen sozialer Zusammenhänge anhand aktueller visueller Medienkommunikation zu ergründen“ (Meier 2014: 127). Nur bedingt werden diese Analysetechniken jedoch der Spezifik visuell geprägter Diskurse gerecht. Im Unterschied zu gängigen Fragestellungen, die auf den Methoden der Kunstgeschichte basieren, steht hier nicht die Bedeutung eines einzelnen zentralen Bildes im Zentrum der Aufmerksamkeit (vgl. Bohnsack 2003). Vielmehr ist es die Wirkungsweise eines visuellen Diskurses, der aus einer Vielzahl von visuellen Artikulationen besteht, der nachgegangen wird. So steht nicht die Einzigartigkeit eines jeden Bildes im Vordergrund der Analyse, sondern die Regelmäßigkeit der Verstreuung, also das, was allen Bildern gemein ist. Der enorme Umfang des Datenmaterials eines visuellen Diskurses verhindert außerdem, dass eine ikonographisch-ikonologisch geleitete Feinanalyse jedes Bildes praktikabel ist. Stattdessen bedarf es einer Systematisierung der Analyse, die einerseits schnell zu Ergebnissen kommt, aber vor allem auch eine Vergleichbarkeit der gewonnenen Daten bietet.
Die Anmerkungen bezüglich der Kohärenz im Diskursiven, d. h. sowohl der Regelmäßigkeiten in der Verstreuung als auch des gemeinsam geteilten Bezugspunkts von Artikulationen, ähnelt Konzepten zum Stilbegriff innerhalb der Medienwissenschaften. Auch hierbei wird von Regelmäßigkeiten und Variationen innerhalb eines legitimen Spektrums von Layout-Möglichkeiten ausgegangen. Untersuchungen, die auf dem Stilbegriff gründen, lenken den Fokus vom Bildsinn eines einzelnen Bildes hin zu Routinen der Bebilderung. Die Konzeptionen zum Stilbegriff erscheinen für die Betrachtung von visuellen Diskursen sehr produktiv zu sein und werden daher nun in einem weiteren Schritt illustriert und auf den Gegenstand einer visuellen Diskursanalyse hin adaptiert.
Visuelle Stilanalyse
Der Begriff des Stils eröffnet eine Perspektive vor allem auf das ‚Wie einer Kommunikation‘ und nicht lediglich auf das ‚Was einer Kommunikation‘, das lediglich die Inhalte, die kommuniziert werden, umfasst (vgl. Meier 2014: 126). Unter Stil wird also die Gestaltung der jeweils kommunikativ genutzten Zeichenressource verstanden, die die Inhalte bzw. Denotationen um elementare Konnotationen ergänzt (vgl. ebd.). Visuelle Stile sind dabei jedoch keinesfalls autonome Ausdrucksformen, stattdessen lassen sich hier bestimmte Gestaltungskonventionen soziokulturellen Handlungsfeldern und Gruppen zuordnen und von anderen, alternativ möglichen abgrenzen (vgl. ebd.: 57, 125). Anhand von Normalisierungsdiskursen (vgl. Link 1997) entwickeln sich langfristige Vorlieben und kurzfristige Modetrends, die hegemoniale Angemessenheitsvorstellungen (re-)produzieren und somit genre-, adressat- oder ortsorientiert gewisse Gestaltungselemente favorisieren und andere marginalisieren (vgl. Meier 2014: 128f.). Stile sind dadurch „nicht […] unabhängig von machtdurchdrungenen Diskursen zu verstehen und zu analysieren. […] Ihre Aneignung und subjektive Reproduktion ist getragen von hegemonialen Geschmackspräferenzen in bestimmten Vergemeinschaftungs- und Situationskontexten“ (ebd.: 57). Visuelle Stile sind hierdurch „machtabhängige ‚Zeig- und Sichtbarmachungen‘“ (ebd.: 199). Mittels überindividueller Regelmäßigkeiten einer Stilpraxis lassen sich individuelle und/oder kollektive Identitäten und Gruppenzugehörigkeiten markieren und rekonstruieren. Hierdurch ist Stil nicht ein den Inhalten sekundär beigefügtes Zierwerk, sondern ein konstitutives Element der diskursiven Ordnung. Infolgedessen muss der Doppelcharakter des Stils betont werden, „der zum einen normativ als Form-Muster oder ‚Vorbild‘ auf die konkrete (Bild-)Produktion einwirkt und zum anderen als performativer Akt der Distinktion zu verstehen ist“ (ebd.: 128).
Die von Stephan Meier entwickelte Methode der visuellen Stilanalyse geht von kommunikationswissenschaftlichen Ansätzen der Framing-Theorie aus. Hierbei erarbeitet er ein Instrumentarium, das sich ebenfalls auch für die Betrachtung größerer Bildkorpora eignet (vgl. ebd.: 189-264). Als Framing-Prozesse bezeichnet er „Praktiken der Selektion und Kontextualisierung, die als perspektivische Bedeutungszuschreibung realisiert sind“ (ebd.: 194). Sie dienen der Komplexitätsreduktion und bieten einen Bezugsrahmen für das Dargestellte, durch den Vorstellungen und Urteile bezüglich des Dargestellten beeinflusst werden (vgl. Scheufele 2001: 148; Meier 2014: 191). Visuelle Stile sind Meier zufolge als Resultat von intentionalen und nicht-intentionalen Stil-Praktiken der Auswahl, der Formung und der Komposition zu verstehen und dienen zum einen der Anzeige von Identität und zum anderen als interaktionales Beziehungsangebot (vgl. Meier 2014: 198, 199). „Man wählt, formt und komponiert ähnlich [– wenn auch nicht identisch –; Anm. K.B.] wie viele andere, die es in gleichen situativen Kontexten tun würden und tun“ (ebd.: 198).
Dadurch, dass nur bestimmte (Diskurs-)Gegenstände, Themen und Konzepte in die Kommunikate aufgenommen werden und andere unerwähnt bleiben, vollzieht sich eine „selektierende Bedeutungskonstituierung durch die Auswahl […] bestimmter Bildmotive und Layout-Elemente“ (ebd.: 194). Diese fungieren schließlich nur als Aussparung, die durch konventionalisierte Füll-Praktiken situations-, medien- und genrespezifisch gefüllt werden (vgl. Meier 2014: 194). „Kommentierendes bzw. interpretierendes Framing findet“ (ebd.: 195) durch die Stilpraktik der Formung statt. Während bei der Auswahl das ‚Was?‘ im Vordergrund steht, ist die Formung eine spezifische Perspektivierung, d. h. das ‚Wie?‘ betreffend, durch welche die Wirklichkeitsausschnitte spezifische Konnotationen erhalten. Mittels (kamerabedingter) Perspektivierung und Inszenierung (z. B. durch Mimik, Kleidung, Aussehen und Formgebung) werde der*die Betrachter*in dem Betrachtungsgegenstand auf eine spezifische Art und Weise gegenübergesetzt und eine Interpretation unter vielen möglichen wahrscheinlicher gemacht. Die Stil-Praktik der Komposition hebt schließlich „bestimmte Elemente durch aufmerksamkeitsstiftende bzw. prägnante Gestaltung hervor“ (ebd.: 194). Dies gelingt beispielsweise durch den Einsatz von Vektoren, die entsprechend der planimetrischen Komposition erzeugt werden können. So können Körperausrichtungen der dargestellten Personen eine Blickrichtung begünstigen und besonders nah oder entfernt platzierte Elemente layouttechnisch in Zusammenhang gesetzt werden (vgl. ebd.: 196). Dass andersartige und im Korpus marginalisierte Gestaltungsspielarten bei einer Stilanalyse stets mitgedacht werden, ermöglicht es, die als universal und alternativlos behandelten, hegemonialen Sichtweisen zu erfassen und in Frage zu stellen (vgl. ebd.: 59). Das marginalisierte Andersmögliche kann hierdurch sichtbar gemacht werden.
Meier entwickelt ein Katalog an festgelegten Kriterien, anhand dessen er seine Datenkorpora bezüglich der soeben illustrierten Stil-Praktiken systematisch untersucht und zu allgemeinen Aussagen gelangt. Diese Kriterien sind jedoch für eine Stilanalyse und die Untersuchung aufgrund eines medienwissenschaftlichen Erkenntnisinteresses entwickelt worden und daher nur zum Teil hilfreich für die hier verfolgte Betrachtung visueller Diskurse. Sie werden deshalb als Inspirationsquelle genutzt, um ausgewählte, vielversprechende Kriterien im Sinne einer Checkliste für die Betrachtung des hier verhandelten Untersuchungsgegenstands zusammenzustellen. Sie sollen dazu dienen, den Blick zu schärfen und vermeintlich Faktisches als kontingente und machtabhängige Zeig- und Sichtbarmachungen offenzulegen. Eine umfassende Methode wird hierbei nicht angestrebt, sondern es werden lediglich Potentiale der Sichtbarmachung erkundet[10]. Die Kriterien nach denen untersucht wurde, sind folgende:
Zuerst steht im Vordergrund die Frage nach dem ‚Was?‘. Es handelt sich also lediglich um die faktische Anwesenheit von Bildelementen. Aspekte, die hierbei betrachtet werden, sind: Motivauswahl, zentrale Akteur*innen/Aktanten, nicht-zentrale Akteur*innen/Aktanten, die Aufteilung auf den Vorder-, Mittel- und Hintergrund, sowie Elemente, die eine Charakterisierung der Personen, der Umwelt und der Gegenstände zulassen. In einem zweiten Schritt steht die Frage des ‚Wie?‘ im Vordergrund: Wie sind die Bildelemente dargestellt? Welche Perspektive eröffnet sich dadurch der*dem Betrachtenden? Die hier untersuchten Aspekte sind: Bild-/Motivausschnitt, Formatauswahl, markante Formen, Layout-Konventionen, Farbgebung, Kameraperspektive, szenische Choreografie (d. h. in welcher Beziehung stehen die Bildelemente zueinander), Eindruck von Dynamik, Aktivität und Passivität als auch der Eindruck von Nähe und Distanz zwischen den Bildelementen sowie zu den Betrachtenden. Außerdem wurden visuelle Hervorhebungen besonders betrachtet, so zum Beispiel die Ermittlung der zentral im Bild positionierten Elemente, Aspekte, die durch Feldlinien besondere Aufmerksamkeit erlangen oder mittels Farbgebung, Kontrasten (z. B. von Farben, von Größen, von Formtypen, durch Hell und Dunkel, etc.) oder Lichtakzenten betont werden, sowie durch Bild(un)schärfe und Lichtführung fokussiert werden. Hierdurch lassen sich die zentralen Narrative und Deutungsangebote ermitteln.
Die jeweiligen Beobachtungen zu den einzelnen Kriterien wurden für diese Arbeit in einer Tabelle ausführlich und für jedes Bild spezifisch aufgelistet, im Verlauf der Analyse jedoch zunehmend systematisiert und vereinheitlicht, um eine schnelle Vergleichbarkeit der Kategorien und der Bilder zu ermöglichen. Nachdem dadurch schon einige Tendenzen beobachtbar wurden, wurden diese mithilfe des Analyseprogramms MAXQDA kodiert und die Codes entsprechend gruppiert und ausgewertet. Für die ergänzenden Korpora wurde der Schritt einer ausführlicheren Beschreibung übergangen und direkt Codes für die beobachteten Aspekte vergeben, sowie das Codesystem um weitere Codes ergänzt, die zusätzlich als relevant auffielen. Abgesehen von absoluten Häufigkeiten wurde schließlich auch auf Korrelationen geachtet, d. h., es wurden Überlappungen einzelner Codes ins Zentrum der Aufmerksamkeit gerückt. Ebenso wurde während des ganzen Prozesses versucht, die Fragen ‚Was wird nicht dargestellt und bleibt dadurch unsichtbar?‘ sowie ‚Wie könnte das Dargestellte auch andersartig dargestellt werden, obwohl diese Form der Darstellung nicht vorkommt?‘ präsent zu halten.
nach oben | direkt weiter zur Empirie
[8] Selbst eine minimale Verschiebung der dargestellten Personen kann beispielsweise zu einer anderen Bildwahrnehmung und veränderten Deutung führen.
[9] ‚Planimetrie‘ bezeichnet die Geometrie einer (zweidimensionalen) Ebene.
[10] Dieser Fokus führt dazu, dass in dieser Arbeit auf manche der von Meier und anderen Bildanalytiker*innen verwendeten Betrachtungsperspektiven nur beiläufig oder gar nicht eingegangen wird, obwohl sie in anderen Kontexten durchaus Erkenntnisgewinne ermöglichen können. Ebenfalls wird an dieser Stelle davon abgesehen, die Auswahl der genutzten Kriterien methodologisch ausführlich zu begründen, da diese Begründungen an anderen Stellen nachgelesen werden können (vgl. Meier 2014: 187-264; Bohnsack 2003; Raab 2012). Die ersichtlich werdenden Potentiale der gewählten Kriterien sollen vorerst als Begründung genügen.