Jens Schröter
DIE MACHT DER STILLSTELLUNG
Zur technologischen Abtastung und Verfolgung am Beispiel der Fotografie
und des Computers.
(0) Prolog im Kriegstheater
Der General starrt schon seit Minuten auf den Radarschirm, verharrt
bewegungslos und wartet. Dann, plötzlich: Ein strahlender Punkt, der *blip+
ist im Gefolge des immer rotierenden leuchtenden Elektronenstrahls erschienen,
die Radarstrahlen haben ein Ziel gefunden, werden reflektiert. Der Befehl ist
klar: Zerstören. Der General weist den Operator an zu tun, was zu tun ist.
Mit seiner Lightgun berührt der den *blip+ auf dem Schirm, einen Punkt von
dem er weiß, daß er eigentlich kein Punkt ist, sondern eine rasende
Symbiose eines Piloten und eines Kampfflugzeuges. Und er weiß auch,
daß der Punkt bald, sehr bald verlöschen wird, und mit ihm das Leben
des anonymen Piloten, der seit Shannons Vorschlag der Zielverfolgung für
das National Defense and Research Commitee unter Leitung von Vannevar
Bush gerade noch als Bedienungsfehler, als kleine Abweichung in der
unbestechlichen geometrischen Vorhersage zählt. Mit jeder Umdrehung des
»Scheibenwischers« wandert der *blip+ ein Stück weiter, formen
die Zeitpunkte auf dem Schirm eine Linie aus der Vergangenheit, aus der
vergangenen Bewegung. Der Computer nimmt nun blitzschnell seine Arbeit auf. Aus
der jetzigen Position des Flugzeugs, seiner Geschwindigkeit, seinen
Beschleunigungsfähigkeiten und seiner Richtung ergeben sich nur einige
Möglichkeiten, wo es zukünftig sein wird, denn jede Maschine hat
physikalische Grenzen. Die Bewegung, die sich in eine Punkt für Punkt
abgetastete Linie verwandelte, stillgestellt, wird nun auf mögliche
Bewegungen hin untersucht. Gezielt wird in die Zukunft, denn die Zeit, die das
Projektil braucht, um zum Flugzeug zu kommen, muß mit berechnet werden,
bevor sie auf den Weg zu ihm geschickt wird, hin zu dem Punkt, wo das Flugzeug
sein wird. Der Tod findet immer in der Zukunft statt. Nur einen Augenblick
später hat der Pilot einen Ausweichversuch gemacht, doch das Radar
erfaßt seine Position, fügt der Reihe von Punkten einen weiteren
*blip+ an, die Linie, die aus der Vergangenheit in die Gegenwart ragt, hat eine
kleine Beugung bekommen. Aber die Prediktion hat sich wie eine tödliche,
unbarmherzig präzise Krake an dem Flugzeug festgesaugt, seine
Geschwindigkeit bestimmt, die sich auf dem Schirm nur als die Länge des
Abstands zwischen zwei Punkten zeigt. Mit jeder Abtastung, Sekundenbruchteil
für Sekundenbruchteil, steigt die Wahrscheinlichkeit für eine
bestimmte Position, an der das Flugzeug gleich nur noch sein kann. Seine
Bewegung ist schon fast stillgestellt, obwohl es noch durch die Luft
schießt; die Schlinge zieht sich zu, unaufhaltsam ... »Jetzt«
flüstert der General, als ob die computergestützte Prediktion noch
menschliche Befehle bräuchte. Aber er hat fast richtig geraten, die Rakete
startet an einen Ort, an dem das Flugzeug gleich sein wird und die Zeit ist
für den gesichtslosen Piloten zu knapp geworden, um auszuweichen. Der
leuchtende Punkt
verlischt. [1](1)
Einleitung: Technologisches Stillstellen als Abtastung
Tiere reden und übermitteln Informationen. Aber sie schreiben nicht.
Nachkommenden Generationen oder Tieren außerhalb ihres
Kommunikationssystems können sie keine Informationen übermitteln. Das
ist der entscheidende Unterschied zwischen dem Menschen und der restlichen
Tierwelt. William S.
Burroughs [2]Wenn es um das
»Stillstellen« geht, so ist zu betonen, daß eine der
fundamentalen Funktionen, auf denen die sogenannte »Kultur«, ihre
tiefsinnigen Gedanken und feinsinnigen Gedichte beruhen, das Stillstellen,
Speichern, Archivieren von Informationen ist. Stillstellung wird hier nicht als
Absenz von Zeit und Bewegung (man kann auch zeitliche ausgedehnte Prozesse
speichern), sondern als das Geschichte-Werden von Information verstanden. Dieser
Prozeß entreißt die Informationen der Entropie und macht sie
künftigen Generationen zugänglich. Der zivilisatorische und kulturelle
Prozeß ist nur als Folge solcher Aufzeichnungen verständlich. Jede
Epoche gewinnt ihre sogenannte Geschichte und ihr Selbstbild aus den
verfügbaren Aufzeichnungen, dem
Archiv. [3] Die existierenden
Aufzeichnungstechniken und d. h. Speichermedien entscheiden, was für Arten
von Information überhaupt dem Vergessen entrissen werden, an wen sie
weitergegeben werden können und wie die Haltbarkeit, Reproduzierbarkeit,
Mobilität und Wiederlesbarkeit dieser Aufzeichnungen ist. Auch die
Voraussetzung, was »Mensch« ist und nicht vielmehr nicht, wird von
medialen Stillstellungen geformt. Ein Beispiel: Ab dem 6. Dezember 1877 machten
die phonographischen und seit 1887 die grammophonischen Aufzeichnungstechniken
den Klang der Stimme, der bis dahin immer flüchtig verhallte,
plötzlich speicherbar. Seit der Erfindung der Schallplatten–Matrize
1893 wird Stimme auch reproduzierbar. Seitdem konnten also erstmals Stimmen
abgelöst von Körpern auftreten (die göttlichen und die
halluzinatorischen Stimmen seien ausgeklammert): Das Konzept der personalen
Identität und Integrität änderte sich
somit. [4] Es sei die zentrale
These formuliert, daß unterhalb der oft herausgestellten Unterschiede
zwischen den analog-mechanischen, analog-fotochemischen und
analog-elektromagnetischen auf der einen und den digital-elektromagnetischen
sowie digital-magnetooptischen Speichermedien auf der anderen Seite eine
mächtige Kontinuität fortlebt, die das Spezifikum aller (im engeren
Sinne) technologischen Speicher darstellt: Das Paradigma der Stillstellung durch
Abtastung. Die verschiedenen technologischen Speichermedien können je
bestimmte Aspekte des Realen in ihrer stochastischen Streuung erfassen. Diese
Speicherung ist also nicht mehr auf die Vermittlung der menschlichen Wahrnehmung
und von Gedanken angewiesen, wie das die Speicherung in den Symbolismen der
Schrift oder malerischer Zeichen voraussetzte. Mit der technologischen Abtastung
werden die aufgezeichneten Aspekte des Realen der Klassifizierung, Vermessung,
Analyse und anderen Zwecken zugänglich, die für die entsprechenden
diskursiven Praktiken eine neuartige Kontrolle und Machtausübung über
eben jenes Reale ermöglichen. Daran zeigt sich, daß
Machtausübung letztlich auf Formen medialer Kommunikation und Speicherung
basiert, [5] wiewohl sie nicht darauf
reduzierbar ist. Denn die Techniken entscheiden nicht, was zu einem bestimmten
historischen Zeitpunkt als archivierenswert erscheint, wie die gespeicherten
Informationen geordnet werden, welche Aufzeichnungen an wen weiterzugeben
erlaubt ist, ob und, wenn ja, wie die stillgestellten Informationen
verändert werden dürfen oder sollen etc. Und vor allem werden die
Speichertechniken selbst historisch geprägt von politischen oder sozialen
Prozessen, die sich in die technische Struktur einschreiben, was im Folgenden
immer wieder eine Rolle spielen
wird. [6] In der Gegenüberstellung
des ältesten und des neuesten technologischen Mediums, also von Fotografie
und Computer, werden die Kontinuität der Abtastung und ihrer Machteffekte,
aber auch Verschiebungen sichtbar.
(2) Fotografische Abtastung Die Fixierung der mithilfe
lichtempfindlicher Silberverbindungen herstellbaren Bilder gelang erst nach
beträchtlichen Mühen. Thomas Wedgwood hat schon um 1802 fotografisch
Zeichnungen kopiert, aber es gelang ihm nicht die Fixierung der Bilder. Das
älteste erhaltene Foto ist mutmaßlich von 1826. Niépce
speicherte das Licht von ca. 8 Stunden auf diesem Bild, das jedoch nicht auf
Silbersalzen beruhte. Henry Fox Talbot arbeitete ab etwa 1834 mit Bildern auf
Silberchlorid (AgCl)-Basis sowie verschiedenen Chemikalien zur
Fixierung [7] und erzeugte viele bis
heute erhaltene Bilder. Als Fixiermittel für Silberhalogenid-Fotos hat sich
letztlich das 1819 von Herschel erforschte Natriumthiosulfat
(Na 2S 2O 3) durchgesetzt. Nachdem die Fixierung
gelungen war, wurden die Verfahren der fotografischen Abtastung bald erweitert.
Zwei der wichtigsten Entwicklungen waren erstens die am 8. Februar 1841 zum
Patent angemeldete Kalotypie von Henry Fox Talbot, die das uns heute
selbstverständliche Negativ/Positiv–Verfahren und damit die so viel
diskutierte Reproduzierbarkeit des fotografischen Bildes einführte. Die
1839 von Arago offiziell vorgestellte Daguerreotypie erzeugte hingegen Unikate.
Der fotografische Prozeß und die Reproduzierbarkeit sind also nicht
gleichursprünglich (wie sich auch an Polaroids zeigt), sondern historisch
kontingent miteinander verbunden. Die Fotografie hätte ein Medium werden
können, das Unikate hervorbringt, was für die Nutzung der Fotografie
in der diskursiven Praxis »Kunst« günstig gewesen wäre. Die
Daguerreotypie war etwa zwanzig Jahre lang, vor allem wegen ihrer hohen
Auflösung, die bevorzugte Form fotografischer Bilder. Als aber die
Papierbilder qualitativ besser wurden, zeigte sich, daß deren
Reproduzierbarkeit für viele, zum Beispiel ökonomische,
militärische oder polizeiliche Zwecke nützlich war. Zweitens ist
die Entwicklung der Bromsilbergelatine zu nennen: 1871 stellte Richard L. Maddox
ein Verfahren vor, bei dem eine heiße Gelatinelösung, die
Silbernitrat (AgNO 3) und Kaliumbromid (KBr) enthielt, auf eine
Glasplatte aufgetragen und dann getrocknet wurde. 1878 konnte Charles Harper
Bennett die Lichtempfindlichkeit der Emulsion so steigern, daß nur noch
eine Belichtungszeit von 1/25 s erforderlich war. Damit war die Momentfotografie
geboren, und zusammen mit Verbesserungen bei den Verschlußtechniken wurden
schon 1898 Belichtungszeiten von 1/5000 s erreicht. In der dann
vorliegenden und heute immer noch dominanten Form der Fotografie verbanden sich
also drei Größen: Erstens die Indexikalität des neuen Bildes.
Dies bedeutet, daß ein Foto nicht nur ein Bild, sondern buchstäblich
eine Spur, ein Abdruck des fotografierten Gegenstandes ist. Das Licht, welches
der Gegenstand reflektiert, fällt durch die Linse und verändert die
lichtempfindliche Emulsion und wird also chemisch abgetastet. Diese Abtastung,
oder präziser: das Wissen um diese Form der Entstehung der Bilder auf
Seiten des Rezipienten, bedingt den überwältigenden Dokumentcharakter
fotografischer Bilder. [8] Zweitens
erlaubt die kurze Belichtungszeit auch bewegte und flüchtige Phänomene
in stillgestellten Ansichten zu fixieren und so einen Blick auf das mit Augen
nicht Wahrnehmbare (mit Benjamins Wort das
»Optisch-Unbewußte« [9])
zu werfen. Für die auf Warenzirkulation beruhenden
Gesellschaftsformen spielt schließlich die dritte
Eigenschaft der heute dominanten Form der Fotografie eine zentrale Rolle: die
Reproduzierbarkeit. Sir Oliver Wendell Holmes schrieb 1859 begeistert über
seine Erfahrungen mit der stereoskopischen Wiedergabe fotografischer Bilder:
»Form is henceforth divorced from matter. [...] Give us a few negatives of
a thing worth seeing, taken from different points of view, and that is all we
want of it. Pull it down or burn it up if you please. [...] Matter in large
masses must always be fixed and dear; form is cheap and
transportable.« [10]
D. h. die Ansicht ist nun abgelöst von ihrer trägen
Materialität und kann auf dem Markt zirkulieren: »Already a workman
has been traveling about the country with stereographic views of furniture,
showing his employer`s patterns in this way, and taking orders for
them.« [11] Noch heute basiert
jeder IKEA–Katalog auf dieser Grundlage (wenn auch nicht mehr auf
Stereographien). Und dies gilt letztlich auch für Ausstellungskataloge
— auf den Zusammenhang der sogenannten »Kunst« mit den
Dispositiven der Stillstellung komme ich nochmals zurück. Gerade
durch die Kombination von Realabtastung, Momentaufnahme und der (keineswegs
notwendigen) Reproduzierbarkeit wurde die Fotografie schnell zum unentbehrlichen
Hilfsmittel, ja zur konstitutiven Größe der Kriminalistik, der
Kriegsführung, des Journalismus, der Wissenschaft und der
Werbung. [12] Diese Funktion in
Herrschaftsdiskursen zeigt sich am disziplinatorischen Einsatz von Fotografie
und Kinematographie noch deutlicher. Diese abtastenden Medien entstehen kurz
nach der von Foucault beschriebenen Wende zur modernen Bio–Macht. Diese
Machtform setzt nicht mehr in erster Linie auf Repression und den
spektakulären Einsatz des Todes (wie zum Beispiel in öffentlichen
Hinrichtungen), sondern zielt beim einzelnen Körper »auf Steigerung
seiner Fähigkeiten, die Ausnutzung seiner Kräfte, das parallele
Anwachsen seiner Nützlichkeit und seiner Gelehrigkeit, seine Integration in
wirksame und ökonomische Kontrollsysteme. [...] Eine solche Macht muß
[...] qualifizieren, messen, abschätzen,
abstufen.« [13] Mithilfe der
vermessenden Erfassung körperlicher Fähigkeiten und Phänomene und
den daraus ableitbaren Statistiken und Durchschnittswerten werden seit dem 19.
Jahrhundert Normalitätszonen bestimmt, an denen Subjekte sich ausrichten
müssen. [14] Eine besonders
drastische Form der Disziplinierung ist die ab dem späten 19. Jahrhundert
durch Frederick W. Taylor und durch Frank B. Gilbreth entwickelte
Arbeitswissenschaft und ihr *scientific management+. Bei Gilbreth
spielten chronofotografisch und kinematografisch gewonnene Bilder eine zentrale
Rolle, denn sie wurden zur Analyse von Bewegungsabläufen von Arbeitern
eingesetzt. Die optimierten Arbeitsabläufe zeichnete man wiederum
kinematografisch auf, damit sie als Vorbild für alle neuen Arbeitenden
fungieren konnten. [15] Wie sich an
diesem letzten Beispiel zeigt, sind die Disziplinierungsprozeduren, um die
Funktionalität der Körper zu steigern, zentrale Bedingungen für
moderne, kapitalistische
Wirtschaftsordnungen. [16] Die
Arbeitenden waren und sind aber nicht die einzige Bevölkerungsgruppe, die
fotografisch und kinematografisch gewonnene Vorbilder vorgesetzt bekommt. Denn
es gibt gerade in der Werbung massenhaft Bilder immer »junger« und
»schöner«, aber vor allem auch »gesunder«
Model–Körper, die eben zur Körperpflege und d. h. zur
Einsatzfähigkeit erziehen sollen, andererseits Darstellungen intakter,
patriarchaler und vor allem konsumierender Kleinfamilien. Noch vor der
Ausbreitung der Bilder solcher Idealfamilien entstand die Familienfotografie.
Mit Eastman–Kodaks Einführung des Rollfilms nach 1889 und damit der
Befreiung der Amateur–Fotografen von den Mühen chemischer Arbeit
breitete sich rasant der Gebrauch der Fotokamera im alltäglichen Kontext
aus. Der zunehmenden Mobilisierung der Arbeitskräfte im sich entwickelnden
Kapitalismus entspricht ein Medium, das Höhepunkte des Familienlebens
stillstellen und dazu noch reproduzierbar und transportabel machen konnte. Durch
die Familienfotos auf Schreibtischen wird die zunehmende Trennung (zumeist) von
Vätern und dem Rest der Familie medial kompensiert. Durch die Kopplung der
phantasmatischen Idealbilder einer geradezu industriell glücklichen Familie
mit einem je passend rearrangierbaren Familienalbum wird die Kohärenz der
Familie immer wieder neu inszeniert und
produziert. [17] Ich denke es wird
deutlich, daß die Funktionalität der modernen Gesellschaften in
großem Maß von technologischen Speichern abhängt, weswegen
naheliegend ist, daß auch neue Technologien (wie z. B. Computer) für
die dominanten Dispositive zugerichtet werden.
(3) Die Analog/Digital–Wandlung: Von der Digitalisierung zu
Simulation und Interaktivität Eine wichtige technische
Weiterentwicklung der technologischen Abtastung ist die elektromagnetische
Aufzeichnung im späten 19. und dann 20. Jahrhundert. Hier werden erst
Schall- und später Lichtwellen in elektrische Ströme
überführt. Diese Umwandlung in elektrische Ströme ist eine
zentrale Voraussetzung für die Analog/Digital–Wandlung, also jenem
Prozeß, der die Abtastung aller Signalformen, wenn sie nur
frequenzbandbegrenzt sind, mit anschließender Umwandlung der Daten in
einen binären, mathematischen und d. h. algorithmisch operationalisierbaren
Code, bewerkstelligt. Der digitale Computer ist zunächst nur eine
Rechenmaschine, deren Operationen ohne Bezug zu einer wie auch immer gearteten
Welt stehen und lediglich den Gesetzen der Mathematik unterworfen sind (die
Geschwindigkeit der Computer hängt allerdings an ihrer physikalischen
Implementierung). Sobald Computer jedoch Daten aus der realen Welt verarbeiten
sollen, stellt sich die Frage nach der Überführung der abgetasteten
analogen Signale in digitale Daten: »Dieses Bindeglied zwischen Analogwelt
und Digitalwelt wird Analog/Digital–Wandler [...]
genannt.« [18] Brennend wird
das Problem der Verarbeitung von Realdaten durch Computer, wenn es um die
nationale Sicherheit oder gar das Überleben geht (oder zu gehen scheint),
wie im Fall des seit 1961 voll operationalen *Semi–Automatic Ground
Environment+ (= SAGE), das als Vorwarnsystem gegen sowjetische
Raketenangriffe konzipiert war und folglich Radarsignale, Abtastungen des
Luftraums also, verarbeiten können
mußte. [19] Schon 1949/50 hatte
das Air Force Cambridge Research Center Arbeiten an einem System namens DRR (=
Digital Radar Relay) komplettiert, das die Übertragung von digitalen
Radardaten über analoge Telefonleitungen leisten sollte. Im
SAGE–Projekt kam diese Technik erstmals zum praktischen
Einsatz. [20]
An solchen Digitalisierungen zeigt sich, daß der ebenso
beliebte wie schematische Gegensatz zwischen den »referenzlosen«
Zeichen digitaler Medien und den »referentiellen« Zeichen
fotochemischer Medien problematisch
ist. [21] Insofern digitalisierte
Daten Abtastungen sind, sind sie auf die reale Welt bezogen. Die Behauptung der
‘Referenzlosigkeit’ digitaler Daten am Beispiel digitaler Bilder ist
auch dann noch problematisch, wenn die Bilder nicht abgetastet, sondern
algorithmisch *generiert+ sind. Seit der Flugsimulation und insbesondere seitdem
die Filmindustrie ihr Interesse an Computereffekten entdeckt hat, strebt auch
die generierte Grafik beständig dem »Fotorealismus«
entgegen. [22] Der entscheidende
Unterschied zwischen den digitalisierten Daten und den analog-mechanisch,
analog-elektromagnetisch oder analog-fotochemisch abgetasteten Daten liegt nicht
im Weltbezug, sondern in der mathematischen Form. Ein digitalisiertes Bild zum
Beispiel ist anders als alle anderen Bilder ein »array[...] of *values+,
where a value is a collection of numbers describing the attributes of a pixel in
the image.« [23] Die numerische
Form der Daten erlaubt, sie mathematischen Operationen zu
unterwerfen. [24] Dadurch wird zum
Beispiel *Image Processing+ möglich: Militärs und die NASA
bearbeiteten schon frühzeitig ihre digitalisierten Bilder, gerade um sie
referentiell zu machen. [25]
Weiterhin erlaubt der mathematische Charakter der Daten solche Dinge wie die
Fehlerkorrektur bei CD–Playern oder Special Effects wie das aus dem Film
*Terminator 2+ (USA 1991, R: James Cameron) bekannte
Morphing [26] und schließlich
die Computersimulation. Bei Simulationen muß erst »der
reale Prozeß [...] in Mathematik *abgebildet+ werden, um dann mittels
Algorithmen im Rechner simuliert werden zu
können.« [27] Das
heißt aus abgetasteten Meßdaten aller Art und/oder aus
diesen abgeleiteten, mathematisch formulierbaren Gesetzmäßigkeiten
über das Verhalten des Prozesses kann man mathematische Modelle
konstruieren, die den Prozeß mit mehr oder weniger großer
Annäherung beschreiben. Ein Beispiel dafür sind die Atombombentests,
die Frankreich 1995 auf dem Mururoa-Atoll durchführte. Diese Tests wurden
offiziell damit gerechtfertigt, Daten für Simulationen von Atomexplosionen
zu sammeln und damit jeden weiteren Atombombentest überflüssig zu
machen. Es geht bei Computersimulationen also um »ein
logisch–mathematisches Modell, das weniger die phänomenale Seite des
Realen[ [28]] beschreibt als die
Gesetze, die es
beherrschen.« [29] An den
Modellen kann man dann Veränderungen bestimmter Parameter durchspielen, die
Bedingungen und möglichen Entwicklungen der Phänomene testen und so
Handlungsstrategien entwerfen. Genau gesehen sind (zumindest wissenschaftliche)
Simulationen also »realistischer« und referentieller als die Zeichen
der analog-fotochemischen oder analog-elektronischen Medien und beschreiben
nicht nur die vergangene phänomenale Erscheinung des Referenten, sondern
auch seine Tiefenstruktur und (da das Modell beliebig manipulierbar ist) seine
möglichen Verhaltensweisen unter geänderten Bedingungen und somit
seine möglichen zukünftigen Zustände. Dieser
»Realismus« der (wissenschaftlich und militärisch genutzten)
Computersimulation entspringt wieder bei SAGE oder genauer bei dessen
Vorläufer, dem *Project Whirlwind+: Whirlwind war
ursächlich als ein digitaler und universeller Flugsimulator konzipiert,
und Flugsimulatoren machen nur Sinn, wenn sie »realistisch« sind. In
diesem Projekt wurden erstmals Kathodenstrahlröhren als grafisches Display
benutzt. Eines der ersten Test-Programme ließ einen Ball (also einen
Punkt) auf dem Display so hüpfen, *als wäre er den Gesetzen der
Schwerkraft unterlegen+. Entscheidend ist also, daß das Hüpfverhalten
des virtuellen Balls dem Hüpfverhalten realer Bälle abgelesen
war. [30] Eine weitere neue
Eigenschaft, die den digitalisierten Daten zukommt, ist Interaktivität. Die
Mensch/Maschine-Interaktion beginnt historisch wieder bei Whirlwind. Der
hüpfende Ball wurde nämlich später zusätzlich so
programmiert, daß er durch die richtige Wahl entsprechender Parameter in
ein »Loch« in der x–Achse bugsiert werden konnte: Das erste
Computerspiel. Auch beginnt bei Whirlwind die Interaktion von Input
device und grafischem Display: Die bald eingesetzten Lightguns waren Geräte
zur Selektion von diskreten Symbolen auf dem Bildschirm.
»Interaktivität« besagt zunächst nichts anderes, als
daß der User (d.h. dessen/deren Eingaben an Tastatur, Lightgun und
später Joysticks oder Maus) abgetastet wird und diese Daten mit den bereits
vorliegenden Daten (etwa für das grafische Display) verrechnet werden.
Diese funktionale Definition weicht der berechtigten Kritik am Begriff der
Interaktivität aus, die darin besteht, darauf hinzuweisen, daß
natürlich alle Medien insofern schon immer interaktiv waren, als sie die
kognitive Partizipation der Rezipienten benötigten. Bei SAGE wurden die
Lightgun und ihr Nachfolger, der leichtere Lightpen, dann ein Gerät zur
taktischen Echtzeit–Kontrolle eines radarabgetasteten Luftraums. Wenn ein
Offizier ein Flugzeug auf seinem Schirm entdeckte, berührte er den Punkt
mit seinem Lightpen und instruierte damit den Computer, diesem *target+, also
Ziel, von selbst zu folgen. [31] Auf
die Herkunft der Interaktivität aus der Verfolgung von Zielobjekten und die
dadurch implizierte doppelte Abtastung komme ich zurück. (4) Die
Macht der digitalen Stillstellung Es sei betont, daß der Computer
als Rechenmaschine keineswegs »natürlich« in das Paradigma der
Stillstellung durch Abtastung gehört: Historisch kontingente Umstände
wie der *kalte Krieg+ haben jedoch schnell die Verarbeitung abgetasteter
Real-Signale durch digitale Rechner erzwungen. Wie man daran erneut sieht, ist
eine zentrale Bedingung moderner Machtausübung die technologische Abtastung
des Realen und deren Auswertung, also werden die Maschinen in entsprechender
Weise eingesetzt und formiert. Die Auswertung der Daten hat sich mit ihrer
numerischen Speicherung jedoch verändert. Ob und welche neuartigen
Machtformen damit auftreten, ist zum gegenwärtigen Zeitpunkt noch schwer
abzuschätzen. Daher möchte ich dazu nur vorläufige Bemerkungen
machen: a. Universalität der A/D-Wandlung: Dadurch, daß alle
in elektrische Ströme umsetzbaren und frequenzbandbegrenzten Signalformen
digitalisiert werden können, vereinigen digitale Medien verschiedene
mediale Formen auf einer Ebene. Dadurch könnten neue Ordnungen des
Diskurses entstehen, die die tradierten institutionellen Grenzen
überschreiten. [32]
Außerdem erlaubt die numerische Speicherung der Daten zum Beispiel neue
Formen der Sortierung und Analyse von Bildern, die sie möglicherweise nach
anderen Kriterien als etwa nach der kunsthistorischen Größe
»Stil« oder der Verschlagwortung klassifizierbar
macht. [33] Mit solchen
Verschiebungen würde sich unser Bild der Geschichte(n) und auch unser
Selbstbild ändern. b. Computersimulation 1: Insofern die Simulation
die Manipulation von Modellen realer Phänomene ermöglicht und so deren
mögliche Zukünfte genauer prognostizierbar macht, geht mit ihr das
Phantasma einher, die Entwicklung der Phänomene vorwegzunehmen und damit
auf jede Überraschung bereits vorbereitet zu sein: »What sells
simulation technology today is the seductive claim that any image is observable,
that any event is programmable, and thus, in a way
foreseeable.« [34] Gerade im
militärischen Sektor spielt dies in der Vorwegnahme von Flugbahnen,
Truppenbewegungen, Kampfsituationen und strategischen Konstellationen eine
entscheidende Rolle: Wer die schnelleren Rechner hat, kann die wichtigen
Entscheidungen rechtzeitig treffen — und da die Grenze der
Geschwindigkeitssteigerung noch lange nicht erreicht sein dürfte, werden
darüber noch Kämpfe entbrennen. Die zukünftige
Computerentwicklung wird also mutmaßlich von militärischen
Imperativen geprägt bleiben, und d. h. von einem bisher ungekannten Kampf
um die Vorhersagbarkeit der Zukunft. c. Computersimulation 2:
Flugsimulatoren entspringen aus der Reaktion auf katastrophische technologische
Störungen (Flugzeugabstürze). Die Simulationstechnologien können
generell als Antworten auf (potentielle) Katastrophen verstanden werden. In den
von den Simulatoren generierten »control
environments« [35] wird das
Erlernen der Beherrschung von technologischen Apparaturen, sowie das
Durchführen ansonsten unmöglicher Experimente gefahrlos möglich.
Dies bedeutet auch, daß zumindest im Fall der Flugsimulation (und anderer
vergleichbarer Anordnungen) das Subjekt ein diszipliniertes Subjekt ist, dessen
Reaktionen und Körperbewegungen genau so konditioniert werden, daß im
späteren Realfall eine möglichst optimale Reaktion erzielt werden
kann. Solche Simulationen stehen in der Tradition technologischer
Subjektkonditionierungen wie des *scientific managements+, übertreffen sie
aber in der Erschaffung neuartiger *Kontrollumgebungen+. d.
Interaktivität: Die Janusköpfigkeit der Interaktivität besteht
darin, daß sie nicht nur ein Eingriff in die bereits vorliegenden Daten
ist, sondern gleichzeitig auch eine Abtastung des interagierenden Subjekts (in
sogenannter Echtzeit) darstellt. Die problematischen Konsequenzen, die sich
daraus ergeben, sind in den letzten Jahren mit den Diskussionen um die
Datensicherheit im Internet sehr deutlich geworden. Um diesen Zusammenhang zu
präzisieren, sei eine exemplarische technologische Entwicklung
erwähnt, die Anfang 1999 eine erregte Diskussion heraufbeschwor. Intel
kündigte an, alle zukünftigen Pentium III-Prozessoren mit einer
serienmäßigen ID-Nummer auszustatten, die jeden Prozessor und damit
jeden User im Internet eindeutig identifizierbar mache: Dadurch würde die
Sicherheit bei finanziellen Transaktionen erheblich gesteigert (an diesem
Beispiel zeigt sich im übrigen erneut, wie Technologien von Imperativen
einer kapitalistischen Ökonomie geformt werden können). Dieser
Vorschlag Intels hat Proteste bis zur Forderung eines totalen
Intel-Boykotts ausgelöst, weil eine solche Nummer auch die
Identifikation von Nutzern und ihren Bewegungen im Netz erheblich erleichtert.
Das setzt allerdings nur eine Tendenz fort, die schon vorher angelegt war.
Einige Beispiele dafür: Mit jedem Einloggen ins Internet bekommt der eigene
Rechner eine IP-Nummer zugeteilt, die die Zurückverfolgung der eigenen
Bewegung durchs Netz mindestens bis zum Provider möglich macht. Im
Härtefall könnten dann die log-files auf den Servern des Providers
eingesehen werden — eine Möglichkeit, die in Zukunft mutmaßlich
datenschutzrechtlich erleichtert werden wird, um der organisierten
Kriminalität das Handwerk zu legen, aber möglicherweise auch, um User
mit unliebsamen politischen oder sexuellen Vorlieben zu lokalisieren.
Handelsübliche Browser ermöglichen externen Instanzen, fremde
Programme auf dem heimischen PC zu starten oder dort Files abzulegen (zumindest
wenn der Browser in der Default-Konfiguration operiert), wie z. B. sogenannte
Cookies, die u. a. mit der Zeit immer mehr Informationen über das
Kaufverhalten der Konsumenten aufzeichnen. Daß man bei der Buchbestellung
bei http://www.amazon.de als angemeldeter Kunde immer so zuvorkommend
identifiziert und ggf. mit (vermeintlich) passenden Buchtips überhäuft
wird, hat den schlichten Grund in eben einem solchen Cookie auf der eigenen
Festplatte. Diese Form der Überwachung erscheint dann ganz
selbstverständlich als »Service«... Und schon lange bevor
Intel seine Pläne für die Pentium-ID vorstellte, hatte Microsoft ein
bis vor kurzem geheimes System von internen Identifikationsnummern (»Global
Unique Identifier«) eingerichtet, mit dem u.a. mit Microsoft-Programmen
generierte Files eindeutig auf die entsprechenden Lizenznehmer
zurückgeführt werden konnten: Die Frage *Where do you want to go
today?+ war schon immer ebenso ehrlich wie
überflüssig. [36]
Unter dem Regime der Digitalität steht also nicht mehr allein die
Disziplinierung und Normalisierung des Subjekts im Mittelpunkt, wie dies noch in
der fotografischen und kinematografischen Arbeitswissenschaft Taylors und
Gilbreth‘ der Fall war. Die Abtastung der Streuungen eines
»multiplen« oder »flexiblen« Subjekts nimmt eine immer
wichtigere Funktion ein. Deleuze bemerkt zu dem von ihm angenommenen
Übergang von der Disziplinar- zur Kontrollgesellschaft: »Die
Individuen sind *‚dividuell‘+ geworden und die Massen Stichproben,
Daten, Märkte oder
*‚Banken‘+«. [37]
Durch die Aufteilung des im Netz surfenden Subjekts in verschiedene
Identitäten (zumindest Konsumenten-Identitäten) und die mögliche
Verfolgung dieser Spuren und Konsumgewohnheiten kann man ein Relief dieses
»multiplen« Subjekts zeichnen. So kann sich die Kontrolle auf die
Erfassung des kleinsten Aufblitzens verschiedener, sonst vielleicht verborgener,
aber im Netz lebbarer Begehren richten, um das Subjekt vielfältig an die
»Freuden des
Marketings« [38] anzukoppeln.
Der Nutzen solcher und ähnlicher Strategien zur Abtastung und Verfolgung
der User [39] für eine
kapitalistische Ökonomie ist offensichtlich: Statt mühsame Umfragen zu
veranstalten, kann man die Nutzer mit ihren Bewegungen durch verschiedene
Netzangebote einfach selbst das »Benutzerprofil« strukturieren lassen,
d.h. mithilfe der Interaktion wird (jedenfalls prinzipiell) eine
Mikro–Marktsegmentierung bis hin zum Einzelnen möglich, ganz zu
schweigen von den potentiell totalitären politischen Implikationen dieser
Prozesse. Die tragende Rolle der fotochemischen Medien für den Kapitalismus
wird durch die digitalen Netze überboten — mit dem Fernziel des
*reibungslosen Kapitalismus+ (Bill Gates). (5) Zwischenspiel im absurden
Theater der sogenannten »interaktiven Medienkunst«
Wenn man sich eine sehr populäre Form der Medienkunst wie die
‚interaktive Installation‘ ansieht, dann frage ich mich immer, warum
Menschen (Betrachter) von dieser neuen Möglichkeit, sie zu manipulieren,
begeistert sein können. Anscheinend ist Manipulation die einzige
Kommunikationsweise, die sie kennen und schätzen.
Alexei Shulgin [40]Kein
Medium oder Medienverbund erzeugt nur einen Typ von Effekten. Außerdem
hängen die Effekte einer Technik, wie ich anzudeuten versuchte, mindestens
teilweise von der Einbindung der Technik in bestimmte institutionelle,
ökonomische und semantische Gefüge oder Diskurse und den von ihnen
eingeräumten Gebrauchsweisen ab. Insofern sind die hier dargestellten
Machteffekte der abtastenden technologischen Medien überzeichnet. Die
Aufmerksamkeit für solche Machteffekte scheint aber geboten, denn seit die
»elektronische Kommunikation [...] selbst in Tagungsprogrammen zum einzigen
Inhalt von Kommunikation
arriviert« [41] ist, erscheinen
zahlreiche Texte zum Thema »Medien«, die oft jedoch — genau wie
die User von Microsoft Word, also dem Programm, mit dem auch die meisten
Akademiker ihre Texte verfassen — an der »benutzerfreundlichen«
Oberfläche der Medien haften bleiben. Selbstverständlich ist es
notwendig, auch die Oberflächen zu analysieren, weil sich in diesen u.a.
der Anschluß neuer Technologien an vertraute Wahrnehmungsformen,
Medienmetaphern und Ikonographien zeigt, der von entscheidender Bedeutung
für die kommerzielle Distribution ist. Aber eine
Analyse, die nicht zugleich die Geschichte der Hard- und Software und
somit die Diskursformationen berücksichtigt, die sich in die Technologien
eingeschrieben haben, verfällt einer »Ästhetik« (im Sinne
von *aisthesis+) der Reduktion der Phänomene der sogenannten »Neuen
Medien« auf das menschlich
Wahrnehmbare. [42] Ein
Beispiel, an dem sich die Probleme einer rein *ästhetischen+ Diskussion
aufweisen lassen, ist die schon genannte »Interaktivität«. Diese
wird immer als das Kriterium bemüht, das die computerbasierte sogenannte
»interaktive Medienkunst« von Kunst mit anderen Medien unterscheide.
Die medialen Angebote seien nicht mehr, anders als in der Fotografie und anderen
traditionellen Medien, unveränderlich gegeben, sondern bildeten sich erst
im Prozess der Interaktion zwischen Rezipient und dem dann so kaum noch zu
nennenden »Werk«. Allerdings wird »Interaktivität« als
Begriff aber auch außerhalb der diskursiven Praxis »Kunst«
genutzt, um kommerzielle Netzangebote anzupreisen. Oder gar, um die, durch die
— jedenfalls im Prinzip mögliche — lückenlose Verfolgung
des Users erzeugte Mikro-Marktsegmentierung und die kommerzielle Kommunikation
über das Netz zur Utopie des endgültigen Kapitalismus zu
verklären: »Das interaktive Netz wird der Markt in seiner
vollkommensten Gestalt sein. [...] Es wird ein Paradies für Konsumenten
sein.« [43]
Selbstverständlich muß die Benutzung des Begriffs der
»Interaktivität« in verschiedenen diskursiven Praktiken nicht
bedeuten, daß die Implikationen identisch sind. Aber wenn man der
grundsätzlichen These zustimmt, daß die Beschreibung und sogar
Bewertung eines Phänomens nur im Verhältnis zu anderen
vergleichbaren Phänomenen möglich ist, dann muß sich die
interaktive Medien»kunst« nicht nur den buchstäblich
oberflächlichen Bezug zur bisherigen Kunst, sondern auch den zu anderen
Formen der Interaktivität gefallen lassen. Im Lichte dieser Forderung ist
eine Analyse von Medienkunst, die diese nur als Fortsetzung der interaktiven
Versuche der bildenden Kunst
begreift, [44] einseitig. Denn eine
solche Betrachtung rückt die interaktiven Computertechnologien, auf denen
die Medienkunst basiert, aus ihrem historisch-gesellschaftlichen Zusammenhang
heraus und in eine scheinbar isoliert betrachtbare Sphäre der
»Kunst« ein. Diese heikle Trennung zwischen den
Basistechnologien, ihrer Geschichte und den Diskursen auf der einen und ihrer
künstlerischen Applikationen, ihrer Oberflächen auf der anderen Seite
findet sich auch in einem Buch wie *Pioniere interaktiver Kunst von 1970 bis
heute+ von Söke Dinkla. [45] Das
Buch hat unbestritten das Verdienst, die Geschichte der interaktiven Medienkunst
erstmals systematisch aufgearbeitet zu haben. Auch berücksichtigt Dinkla in
einem eigenen Kapitel die Geschichte der interaktiven Computertechnologien.
Jedoch ist dieses Kapitel merkwürdig losgelöst vom Rest des Buches.
Dinkla weist zwar auf die Herkunft der Interaktion mit grafischen Displays aus
der Radarverfolgung von Zielobjekten
hin, [46] jedoch wird diese
Erkenntnis im Laufe des Buches und der Analysen der Medienkunst kaum noch
fruchtbar gemacht. Dinkla begründet dies mit dem schlichten Satz, daß
die Kombination von visuellen Display und Lightpen »nicht nur für
militärische Anwendungen von Bedeutung
ist.« [47] Diese Behauptung
impliziert, daß Technik ein beliebig verwendbares Mittel für
verschiedene Anwendungen und Zwecksetzungen eines von der Technik
unabhängigen Subjekts ist: Die Unhaltbarkeit dieser
»instrumentalen« Auffassung (zumindest als alleiniges
Beschreibungsmodell) hat mindestens schon Heidegger
hervorgehoben [48] und sollte auch
aus dem vorliegenden Aufsatz klar werden. Aus dem instrumentalen
Technikverständnis Dinklas folgt die Annahme einer vollständigen
Ablösbarkeit einer Technik aus ihren historischen Ursprungskontexten.
Tatsächlich ist es eine schwierige Frage, wie sehr Technologien von ihren
(militärischen) Ursprüngen geprägt werden und in welchem
Maße sie aber auch anders gebraucht oder verformt werden können durch
neue Kontexte — ich meine, daß beides der Fall ist. So ist
einerseits richtig, daß bei der Interaktivität des Internets nicht
mehr die Bewegungen von Feindflugzeugen (wie am Beginn der
Mensch/Computer-Interaktion bei SAGE), sondern die von (potentiellen)
Konsumenten abgetastet werden, aber dem Paradigma der Abtastung und Verfolgung
ist man dadurch andererseits noch nicht entkommen: Dinkla erwähnt selbst,
daß Wiener bei der Formulierung des Feed-Back-Prinzips in der Kybernetik,
welches am Anfang der Interaktivität steht und mit der Feindverfolgung
entstanden ist, den Unterschied zwischen Mensch und Maschine funktional
verwarf. [49] Daran
anschließend muß man weiterfragen, ob und inwiefern die
Interaktivität im Kontext des (kommerziell genutzten) Internets
überhaupt etwas mit der Interaktivität im Kontext der Medienkunst zu
tun hat. Um dieses Problem zu verdeutlichen, sei auf ein Beispiel
zurückgegriffen: In ihrer Diskussion von Jeffrey Shaws interaktiver
Installation *The Legible City+ (1988-91) weist Dinkla explizit auf die
Herkunft der Anordnung der Installation (der User sitzt auf einem Fahrrad und
navigiert so durch eine sich verändernde Text-Stadt, die er vor sich als in
Echtzeit gerenderte Grafik auf einem großen Display sieht) aus der
Fahrsimulation hin. [50] Hat diese
Interaktion mit einem Bild irgend etwas mit der Interaktion in Datennetzen zu
tun? Eine Antwort wäre, daß auch das Surfen im Netz seit Anfang der
neunziger Jahre Interaktion mit einem Bild ist. Erst seit der Einführung
grafischer Oberflächen mit dem *World Wide Web+ (1989/1993) und Browsern
wie *Netscape+ (1994) oder dem *Internet Explorer+ hat sich das Internet
explosiv ausgebreitet (dies ist ein gutes Beispiel dafür, daß man die
Oberflächen nicht vernachlässigen sollte). Vor diesem stillschweigend
vorausgesetzten Hintergrund [51]
betont Dinkla dann, daß sich der Rezipient von Shaws Arbeit genauso
zwischen ziellosen Herumstreifen und zielgerichtetem Suchen bewegt, wie ein User
durch das Internet. Sie zieht also selbst die Analogie zwischen der interaktiven
Medienkunst Shaws und der Interaktion im Datennetz heran. So sei *The Legible
City+ eine »Parabel für die veränderten
Rezeptionsbedingungen in
*Datenräumen+.« [52] Diese
Beschreibung muß man aber kritisieren, weil sowohl Shaw als auch Dinkla
übersehen, daß nicht nur der Nutzer die Datenräume rezipiert,
sondern in diesen potentiell selbst rezipiert werden kann: Nämlich als
Zielobjekt einer Nutzerprofilerstellung. Shaw kann man die
Nichtberücksichtigung dieses doppelten Charakters der Interaktion nicht
vorwerfen. *The Legible City+ wurde bereits um 1989 fertiggestellt, also Jahre
vor der explosionsartigen Ausbreitung und Popularisierung des Internets: Er
konnte von der rasenden Kommerzialisierung des Netzes und den zunehmenden
Strategien der Abtastung und Verfolgung nichts wissen. Wohl aber kann man Dinkla
vorwerfen, diese historische Begrenzung von Shaws *The Legible City+ 1997 nicht
thematisiert zu haben. An anderer Stelle fordert sie ja selbst von der
Medienkunst: »Den Benutzern muß vielmehr bewußt werden,
daß sie Teil eines Systems sind, in dem sie zugleich Kontrolleure und
Kontrollierte sind.« [53] Ich
sehe nicht, daß dies von *The Legible City+ eingelöst wird.
(6) Epilog Die Einordnung der interaktiven Medienkunst in den
größeren Kontext der ökonomisch-militärischen Machteffekte
digital stillgestellter Daten erlaubt also, einzelne Medienkunstwerke
historisch-kritisch genauer einzuordnen. Auf diese Weise könnte man einem
Problem entgehen, welches leider viele Diskurse prägt: nämlich der
tendenziell affirmativen und das heißt ahistorischen Haltung
gegenüber der Kunst. [54] Oder
schärfer gesagt: Soll die theoretische Reflexion über die Medienkunst
mehr sein als Werbung für ein neues Segment des Kunstmarktes, was letztlich
ihr »Verenden im
Kulturmanagement« [55] bedeuten
würde, muß sie den Mut haben, vor dem Hintergrund der Geschichte
Medienkunstwerke auch zu kritisieren und auf deren historische Begrenzungen
hinzuweisen. Allgemeiner gesagt unterliegt jede Form der
»autonomen« Kunst dem historischen Apriori der sich verändernden
Formen der Stillstellung von Daten in Speichermedien, ihren Diskursen und deren
Machteffekten: Schon die Idee, daß Kunst »autonom« sein kann
oder soll, hat Benjamin in bezug auf die Malerei als Effekt der Erscheinung der
Fotografie entziffert. [56] Man
könnte sogar eine Relektüre namhafter Texte über
»Kunst« anstreben, um deren technisch-Unbewußtes ans Licht zu
bringen. Ein Beispiel dafür ist eine Passage aus Heideggers berühmten
Text *Der Ursprung des Kunstwerkes+ von 1935/36. Um zu entscheiden, was das Werk
am Kunstwerk ausmacht, setzt Heidegger das Werk vom Ding ab. Und in diesen
Abschnitt sucht er zunächst zu zeigen, was ein Ding ist. Dabei schreibt er:
»Flugzeug und Rundfunkgerät gehören zwar heute zu den
nächsten Dingen, aber wenn wir die letzten Dinge meinen, dann denken wir an
ganz Anderes. Die letzten Dinge, das sind: Tod und
Gericht.« [57] Nur drei Jahre
später werden die nächsten Dinge, die Technologien der Abtastung und
Verfolgung im von Hitlerdeutschland überfallenen Polen über die
letzten Dinge entscheiden... Das Beispiel ist zugestandenermaßen
kursorisch, aber es zeigt den Weg an, auf welchem geforscht werden
könnte. Die historische Aufarbeitung der Geschichte der
Speichermedien und der Diskurse, in denen sie operieren, also der sich
wandelnden Formationen der Stillstellung, ist eine unumgehbare Voraussetzung
für die Analyse kultureller Phänomene, wie mein Seitenblick auf die
Medienkunst und die kurzen Bemerkungen über das technisch-Unbewußte
in Diskursen über »Kunst« anzudeuten versuchten: Denn Kultur ist
gespeichert oder sie ist nicht. Anders gesagt: »Mediengeschichte wäre
nur verkappte Nostalgie, wenn sie auf dem Umweg über Schreibzeuge oder
Nachrichtentechniken wieder bei Dichterreliquien oder Gedanken
ankäme.« [58]
[1] Für die Idee und
für konstruktive Mitarbeit an diesem Prolog danke ich Ulf Schmidt. Und vor
allem danke ich Ihm für ein hervorragendes
Lektorat. [2] William S. Burroughs:
Die elektronische Revolution, Bonn 1986,
5. [3] Vgl. Michel Foucault:
Archäologie des Wissens, Frankfurt a. M. 1995, S. 113-190 und dazu Wolfgang
Ernst: M.edium F.oucault. Weimarer Vorlesungen über Archive,
Archäologie, Monumente und Medien, Weimar
2000. [4] Vgl. Friedrich Kittler:
Grammophon Film Typewriter, Berlin 1986, 37-62 und insbesondere 39 zum
Phonographen: „Denn während es (mit Derrida) den sogenannten Menschen
und sein Bewußtsein ausmacht, sich sprechen zu hören oder sich
schreiben zu sehen, trennen Medien solche Rückkopplungsschleifen
auf.“ Dem französischen Philosoph Jean-Marie Guyau schien es 1880
völlig selbstverständlich, das menschliche Gedächtnis in bezug
auf das Grammophon zu bestimmen, vgl. Jean-Marie Guyau: La mémoire et le
phonographe, in: Revue philosophique de la France et de l'etranger, Jg. 5
(1880), 319-322. Als dann die Fotografie und der Film in den Vordergrund
rückten, folgte die Philosophie schnell nach und beschrieb die Prozesse des
(transzendentalen) Bewußtseins in fotografischen und kinematografischen
Metaphern, vgl. am Beispiel Husserl dazu Iris Därmann: Tod und Bild. Eine
phänomenologische Mediengeschichte, München 1996, Kapitel II.II bis
II.IV. [5] Vgl. Harold Innis:
Empire and Communications, Oxford
1950. [6] Vgl. Hartmut Winkler: Die
prekäre Rolle der Technik, in: Heinz B. Heller /
Matthias Kraus / Thomas Meder / Karl Prümm / Hartmut Winkler (Hg.):
Über Bilder Sprechen. Positionen und Perspektiven der Medienwissenschaft,
Marburg 2000, 9-22. Ich würde grundsätzlich dafür argumentieren,
Macht als »komplexes Netz aus unterschiedlichen Elementen« ohne einen
»Mittelpunkt der Kräfte« (Michel Foucault: Überwachen und
Strafen. Die Geburt des Gefängnisses, Frankfurt a. M. 1994, 396) zu denken,
also auch ohne einen technischen Mittelpunkt (auch wenn im vorliegenden Aufsatz
der technische Aspekt im Vordergrund steht). Zum Problem des Technozentrismus in
bestimmten Formen der Medientheorie, vgl. Jens Schröter: Der König ist
tot, es lebe der König. Zum Phantasma eines technologischen Subjekts der
Geschichte, in: Johannes Angermüller / Katharina Bunzmann / Christina Rauch
(Hg.): Reale Fiktionen, fiktive Realitäten: Medien, Diskurse, Texte,
Hamburg 2000, 13-24. [7] Vgl. Larry
Schaaf: The Photographic Art of Henry Fox Talbot, Princeton and Oxford 2000, S.
19f. [8] Und sobald dieses Wissen
verunsichert wird, etwa durch das Auftreten von Bildern, die zwar genauso wie
Fotografien *aussehen+, aber dennoch ganz anders entstanden sind und daher dem
Verdacht unglaubwürdig zu sein unterliegen, fällt auf jedes
fotografisch aussehende Bild der Schatten des Zweifels. Siehe dazu Wolfgang
Ullrich: Digitaler Nominalismus. Zum Status der Computerfotografie, in:
Fotogeschichte, Jg. 17, H. 64 (1997) 63-73. Zur Präzisierung: Die
Fotografie tastet die Amplitude des Lichts, aber nicht dessen Phase ab, was erst
die Holographie wird leisten können. Außerdem waren viele der
frühen Emulsionen und Salzlösungen nicht im ganzen Spektrum gleich
lichtempfindlich. [9] Vgl. Walter
Benjamin: Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit,
Frankfurt a. M. 1977, 34-36 und kritisch dazu Margaret Iversen: What is a
Photograph?, in: Art History, Vol. 17, No. 3 (1994),
450-464. [10] Sir Oliver Wendell
Holmes: The Stereoscope and the Stereograph, in: Atlantic Monthly, No. 3 (1859)
733-748, hier: 747f. Das Stereoskop war etwa zwischen 1850 und 1880 eine der
dominanten Weisen, in denen fotografische Bilder rezipiert wurden. Auf die
besonderen Implikationen des Stereoskops kann hier nicht eingegangen
werden. [11] Ebd.,
748. [12] Vgl. dazu u.a. Herta
Wolf: Fixieren – Vermessen: Zur Funktion fotografischer Registratur in der
Moderne, in: Norbert Bolz / Cordula Meier / Birgit Richard / Susanne Holschbach
(Hg.): Riskante Bilder. Kunst Literatur Medien, München 1996, 239-262;
Susanne Regener: Fotografische Erfassung. Zur Geschichte medialer Konstruktionen
des Kriminellen, München 1999 und Caroline Brothers: War and Photography: a
Cultural History, London
1997. [13] Michel Foucault:
Sexualität und Wahrheit. Der Wille zum Wissen, Frankfurt a. M. 1986, I, 166
und 172. Vgl. auch Foucault: Überwachen und Strafen, 173-181. Bei Foucault
hat die Bio-Macht noch eine zweite Komponente, die demografische Kontrolle und
Pflege des »Volkskörpers«. Darauf wird hier nicht
eingegangen. [14] Vgl.
Jürgen Link: Versuch über den Normalismus: wie Normalität
produziert wird, Opladen u.a. 1999, insb. 185-312 und 327-333. Vgl. auch Allan
Sekula: The Body and the Archive, in: Richard Bolton (Hg.): The Contest of
Meaning. Critical Histories of Photography, Cambridge/Mass. und London 1993,
343-389, der auf die Rolle der Kompositfotografien Galtons bei der Konstruktion
des »Durchschnittlichen« hinweist.
[15] Vgl. Frank Bunker Gilbreth:
Bewegungsstudien. Vorschläge zur Steigerung der Leistungsfähigkeit des
Arbeiters, Berlin 1921. Vgl. auch schon 1914 W. I. Lenin. Werke. Berlin (Ost)
1984, Bd. XX, 145f. kritisch über das System Taylors: „Systematisch
gelangt der Kinematograph zur Anwendung, um die Arbeit der besten Arbeiter zu
untersuchen. [...] Den neu eintretenden Arbeiter führt man in den Kinoraum
des Betriebs, wo ihm die ‚vorbildliche‘ Ausführung seiner
Arbeit gezeigt wird. Der Arbeiter wird gezwungen, dieses Vorbild
‚einzuholen‘“. Später, nach der Bürokratisierung des
Sozialismus in der Sowjetunion, wird man arbeitswissenschaftlichen
Disziplinierungen leider nicht mehr so abgeneigt
gegenüberstehen... [16] Vgl.
Foucault: Sexualität und Wahrheit, 168.
[17] Vgl. Pierre Bourdieu u.a.:
Eine illegitime Kunst. Die sozialen Gebrauchsweisen der Fotografie, Frankfurt a.
M. 1983 und Barry King: Photo-Consumerism and Mnemonic Labour:
Capturing the Kodak moment“, in:
Afterimage, Nr. 21 (1993),
9-13. [18] Rainer Eckl / Leonhard
Pütgens / Jürgen Walter: A/D- und D/A-Wandler. Grundlagen,
Prinzipschaltungen und Applikationen, München 1990, 11. In diesem Buch
finden sich alle technischen Grundlagen detailliert
erläutert. [19] Zur
Geschichte von SAGE und seinem Vorläufer, dem 1944 noch analog konzipierten
und ab 1946 digitalen Flugsimulator Project Whirlwind, siehe Paul N. Edwards:
The Closed World. Computers and the Politics of Discourse in Cold War America,
Cambridge/Mass. und London 1996,
75-112. [20] Vgl. John V.
Harrington: Radar Data Transmission, in: Annals of the History of Computing,
Vol. 5, No. 4 (1983) 370-374.
[21] Vgl. zum Beispiel Thomas
Wimmer: Die Fabrikation der Fiktion, in: Florian Rötzer (Hg.): Digitaler
Schein. Ästhetik der elektronischen Medien, Frankfurt a. M. 1991, 519-533.
Wimmer spricht von »pure[r] Selbstreferentialität der digitalen
Zeichen« (529). Dies ist schon deswegen absurd, weil ein pur
selbstreferentielles Zeichen gar kein Zeichen ist. Vgl. Jens Schröter:
Intelligence Data. Zum Weltbezug der so genannten »digitalen Bilder«,
in: Berliner Debatte Initial, Jg. 12, Nr. 5 (2001). S.
55-65. [22] Zum Ursprung des
computergrafischen Fotorealismus in der Flugsimulation, vgl. Martin E. Newell /
James F. Blinn: The Progression of Realism in Computer Generated Images, in:
Association for Computing Machinery (Hg.): Proceedings of the Annual Conference
1977, New York 1977, 444-448, insb. 444. Vgl. grundlegend James D. Foley /
Adries van Dam / Steven K. Feiner / John F. Hughes: Computer Graphics.
Principles and Practice, Reading, Mass. u. a. 1990, 605-648. Schließlich
sind bestimmte Algorithmen für realistische Computergrafiken selbst wieder
von empirisch abgetasteten Meßdaten abgeleitet: Vgl. Axel Roch:
Computergrafik und Radartechnologie. Zur Geschichte der Beleuchtungsmodelle in
computergenierten Bildern, in: Manfred Faßler / Wulf R. Halbach (Hg.):
Geschichte der Medien, München 1998, 227-254, insb. 250:
»Tatsächliche, empirische Messungen für Reflexionseigenschaften
an rauhen Oberflächen liegen nämlich besonders ausführlich
für Radar vor. An genau diesen empirischen Kurven orientieren sich die
theoretischen Streuungsfelder von Cook/Torrance.« Roch bezieht sich hier
auf Robert L. Cook / Kenneth E. Torrance: A Reflectance Model for Computer
Graphics, in: ACM Transactions on Graphics, No. 1 (1982)
7-24. [23] Foley u. a.: Computer
Graphics, 816. [24] Um
Mißverständnisse zu vermeiden: Auch generierte Bilder sind
natürlich mathematisch operationalisierbar, insofern sie auf Algorithmen
beruhen – generierte Bilder sind aber als anderes als digitalisierte
Bilder nicht von vorneherein als array of values, als Bitmap, gespeichert. Sie
werden u.U. sehr langsam, oder aber bei geringerer Qualität zum Beispiel
für Computerspiele in Echtzeit gerendert (oft für höhere
Geschwindigkeit durch eine spezielle Hardware auf der Grafikkarte
unterstützt). Ein einmal zuende gerendertes Bild kann selbst wieder als
array of values, als Bitmap, gespeichert
werden. [25] Vgl. Fred C.
Billingsley: Processing Ranger and Mariner Photography, in: Journal [of the]
Society of Photo-Optical Instrumentation Engineers, Vol. 4, No. 4 (1966) 147-155
und ders.: Applications of Digital Image Processing, in: Applied Optics, Vol. 9,
No. 2 (1970) 289-299. Vgl. Jens Schröter: Eine kurze Geschichte der
digitalen Fotografie, in: Wolfgang Hesse und Wolfgang Jaworek (Hg.):
Verwandlungen durch Licht. Fotografieren in Museen & Archiven &
Bibliotheken. Esslingen 2001,
249-257. [26] Vgl. Jens
Schröter: Ein Körper der Zukunft. Zur Geschichte, Semantik und zu den
Implikationen der Morphingkörper, in: Doris Schumacher-Chilla (Hg.): Das
Interesse am Körper, Essen 2000,
250-268. [27] Helmut Neunzert:
Mathematik und Computersimulation: Modelle, Algorithmen, Bilder, in: Valentin
Braitenberg / Inga Hosp (Hg.): Simulation. Computer zwischen Experiment und
Theorie, Reinbek bei Hamburg 1995, 44-55, hier: 44.
[28] An die Fotografie, Film und
Video gekettet sind. [29] Edmond
Couchot: Die Spiele des Realen und des Virtuellen, in: Florian Rötzer
(Hg.): Digitaler Schein. Ästhetik der elektronischen Medien, Frankfurt a.
M. 1991, 346-355, hier: 348. [30]
Vgl. Robert M. Fano u.a.: Retrospectives 1: The Early Years in Computer Graphics
at MIT, Lincoln Lab and Harvard, in: Computer Graphics, Vol. 23, No. 5 (1989)
19-38, hier: 21. Dort wird auch der mathematische Charakter des Ball-Modells
deutlich gemacht: »Charlie Adams [...] invented what we call the Bouncing
Ball Program, the solution of three differential equation«. Strenggenommen
beginnt die Computersimulation aber schon einige Jahre vor Whirlwind: Direkt
nach der Fertigstellung des ENIAC wurden 1946 im Rahmen der Entwicklung der
Wasserstoffbombe sogenannte Monte Carlo-Simulationen durchgeführt, vgl.
Peter Galison: Image and Logic. A Material Culture of Microphysics, Chicago
1997, 689-780 (mit Dank an Herta
Wolf). [31] Vgl. Lev Manovich:
Archäologie des Computerbildschirms, in: Kunstforum International, Bd. 132
(1995) 124-136. [32] Vgl. Hal
Foster: The Archive without Museums, in: October, No. 77 (1996)
97-119. [33] Vgl. Wolfgang Ernst
/ Stefan Heidenreich: Digitale Bildarchivierung: der Wölfflin-Kalkül,
in: Sigrid Schade / Georg Christoph Tholen (Hg.): Konfigurationen. Zwischen
Kunst und Medien, München 1999,
306-320. [34] William Bogard: The
Simulation of Surveillance. Hypercontrol in Telematic Societies, Cambridge 1996,
15f. [35] S.R. Ellis: Nature and
Origins of Virtual Environments. A Bibliographical Essay, in: Computing Systems
in Engineering, Vol. 2, No. 4 (1991) 321-347, hier:
327. [36] Vgl. Christian Persson
/ Peter Siering: Big Brother Bill. Microsofts heimliche ID-Nummern —
angeblich eine Panne, in: c‘t, Nr. 6 (1999) 16-20.
[37] Gilles Deleuze:
Postskriptum über die Kontrollgesellschaften, in: ders.: Unterhandlungen
1972-1990, Frankfurt a. M. 1993, 254-262, hier 258, vgl. auch 260: »Die
Eroberung des Marktes geschieht durch Kontrollergreifung und nicht mehr durch
Disziplinierung.« Schließlich bemerkt Deleuze, daß die
Kontrollgesellschaft den »individuellen [...] Körper durch die Chiffre
eines ‚dividuellen‘ Kontroll-Materials ersetzt«
(262). [38] Ebd.: 262. Zumal die
Weitergabe der gesammelten Daten an Dritte, zumeist andere Firmen, nicht immer
verhindert werden kann. [39] Auch
das allseits beliebte Handy ist eine Technik, die das Subjekt stets erreichbar
und d.h. (im Prinzip) mobilisierbar macht. Außerdem ist es möglich,
großflächig Nutzerbewegungen von Handybesitzern zum Beispiel in
urbanen Räumen aufzuzeichnen: So könnten Konsumentenströme
verfolgt werden, vgl. Jan Kuhlmann: Mobilität unter Kontrolle, in:
Datenschutz-Nachrichten, Nr. 3 (1998)
22-24. [40] Zit. in: Lev
Manovich: Über totalitäre Interaktivität. Beobachtungen vom Feind
des Volkes, in: Telepolis, Nr.1 (1997) 123-127, hier
123. [41] Friedrich Kittler:
Gleichschaltungen. Über Normen und Standards der elektronischen
Kommunikation, in: Manfred Faßler / Wulf Halbach (Hg.): Geschichte der
Medien. München 1998, 255-267, hier:
255. [42] Symptomatisch zeigt
sich dies in einer Diskussion zwischen Paul Virilio und Friedrich
Kittler. (abrufbar unter:
http://www.nettime.org/nettime.w3archive/199601/msg00007.html; letzter Zugriff
1.1.2001). Virilio behauptet, die Überschreitung aller Wahrnehmungsgrenzen
durch Computertechnologien zum Maßstab seiner Bewertung machend: »Ich
glaube, daß wir eine Grenze erreicht haben und die Weltzeit in der Tat das
Ende der Zeit ist, um nicht zu sagen das Ende aller Zeiten, das Wort
‚Apokalypse‘ will ich nicht benutzen. Wir haben in jeder Hinsicht
die Grenzgeschwindigkeit der elektromagnetischen Wellen erreicht«. Darauf
antwortet Kittler zurecht: »Was ich nicht glaube, ist, daß es schon
die letzte Grenze erreicht hat, die Beschleunigung. Daß die Katastrophe
sozusagen in der Unüberbietbarkeit der aktuell herrschenden
Übertragungs- und Berechnungsgeschwindigkeiten steckt, sondern es ist immer
noch strategischer und ökonomischer Gewinn daraus zu ziehen, daß man
ein System hat, das schneller ist als das andere System. Es ist immer noch
möglich zu unterscheiden zwischen geheimen Maschinen und öffentlich
verkauften Maschinen, die sich durch ihre Geschwindigkeit unterscheiden, durch
ihre Leistungsfähigkeit. Und es ist immer noch nicht ausgemacht, wie die
Sachen weitergehen, weil die Lichtgeschwindigkeit zwar eine absolute Grenze, im
Vakuum wohlgemerkt, ist, aber in den real existierenden Technologien läuft
die Elektrizität substantiell langsamer als im Vakuum und es werden
furchtbare Kämpfe noch laufen in Richtung Beschleunigung.« [Text von
mir korrigiert, J.S.]. [43] Bill
Gates: Der Weg nach vorn, München 1996, 27 und 253; vgl. 252-289, wo Gates
die Utopie des »reibungslosen Kapitalismus«
beschwört. [44] Vgl. zum
Beispiel Peter Zec: Kunst auf neuen Wegen: Eine Skizze zur Geschichte der
Medienkunst, in: Faszination in Licht und Ton. Ausstellung in der
Städtischen Galerie im Prinz-Max-Palais Karlsruhe, 11. Oktober - 7.
Dezember 1986 / Holomedia '86. Hg. von der Stadt Karlsruhe, Städt. Galerie,
Karlsruhe 1986, 15-29. [45] Vgl.
Söke Dinkla: Pioniere interaktiver Medienkunst von 1970 bis heute,
Ostfildern 1997. [46] Dinkla:
Pioniere, 50f. [47] Ebd.,
52. [48] Vgl. Martin Heidegger:
Die Frage nach der Technik, in: ders.: Die Technik und die Kehre. Pfullingen
81991, 5-36. [49]
Dinkla: Pioniere, 47. Zu der, von Dinkla leider nicht berücksichtigten,
»Ontologie des Feindes« im Diskurs der Kybernetik, vgl. Peter Galison:
The Ontology of the Enemy: Norbert Wiener and the Cybernetic Vision, in:
Critical Inquiry, Vol. 21 (1994) 228-266 und P. Masani / R. Phillips:
Anti-Aircraft Fire Control and the Emergence of Cybernetics, in: Norbert Wiener.
Collected Works with Commentaries, hg. von P. Masani, Cambridge/Mass. 1985, IV,
141-179. Vgl. auch Axel Roch / Bernhard Siegert: Maschinen, die Maschinen
verfolgen, in: Sigrid Schade / Georg Christoph Tholen (Hg.): Konfigurationen.
Zwischen Kunst und Medien, München 1999,
219-230. [50] Dinkla: Pioniere,
122. [51] Die Begrenzung von
Dinklas Perspektive liegt eben auch darin, daß in den sogenannten
westlichen Kulturen der Umgang mit interaktiver Medienkunst, ob wir wollen oder
nicht, zunehmend von einem positiv bewerteten (»der Markt der
Zukunft«) Umgang mit interaktiven Datennetzen vorgeprägt ist. Daher
muß die interaktive Medienkunst auf diesen Rezeptionshorizont
zurückbezogen werden. In anderen kulturellen Umfeldern können
»Interaktivität« und »interaktive Medienkunst« einen
ganz anderen Stellenwert haben, vgl. dazu Manovich: Totalitäre
Interaktivität. [52] Dinkla:
Pioniere, 117. [53] Ebd., 229.
[54] Vgl. dazu einige kritische
Texte, die sich am Beispiel der Fotografie um die Strategien und Probleme der
»Nobilitierung« zur »Kunst« drehen: Allan Sekula: Das
instrumentalisierte Bild: Steichen im Krieg, in: Fotogeschichte, Jg. 12, H.
45/46 (1992) 55-74; Christopher Phillips: The Judgement Seat of Photography, in:
Annette Michelson u.a (Hg.): October. The First Decade. 1976-1986. Cambridge,
MA und London 1987, 257-293; Abigail Solomon-Godeau: Canon Fodder. Authoring
Eugéne Atget, in: dies., Photography at the Dock. Essays on Photographic
History, Institutions, and Practices, Minneapolis 1991, 28-51 und Rosalind
Krauss: Die diskursiven Räume der Fotografie, in: dies. Die
Originalität der Avantgarde und andere Mythen der Moderne, Amsterdam und
Dresden 2000, 175-196. [55]
Friedrich Kittler: Kulturgeschichte der Kulturwissenschaft, München 2000,
Klappentext. [56] Vgl. Benjamin:
Kunstwerk, 17. Ich möchte darauf hinweisen, daß die moderne
Kunstgeschichte als Disziplin entscheidend von der fotografischen Reproduktion
abhängt: Heinrich Wölfflins vergleichendes Sehen verschiedener
Kunstwerke in den *Kunstgeschichtlichen Grundbegriffen+ (1915) setzt ihre
fotografische Reproduktion an einem Ort zu einer Zeit zwingend voraus und
Wölfflin ist der erste Kunsthistoriker gewesen, der Diaprojektionen zu
didaktischen Zwecken eingesetzt hat, vgl. Ernst / Heidenreich: Digitale
Bildarchivierung. [57] Martin
Heidegger: Der Ursprung des Kunstwerkes, in: ders.: Gesamtausgabe, Bd. 5,
Frankfurt a. M. 1977, 1-74, hier
5. [58] Friedrich Kittler:
Aufschreibesysteme 1800 1900, München 31995, 523. Harsche Kritik
am ganzen Konzept der sogenannten »Medienkunst« übt Kittler:
Gleichschaltungen, 261/262.
|