Jens Schröter


DIE MACHT DER STILLSTELLUNG

Zur technologischen Abtastung und Verfolgung am Beispiel der Fotografie und des Computers.


(0) Prolog im Kriegstheater


Der General starrt schon seit Minuten auf den Radarschirm, verharrt bewegungslos und wartet. Dann, plötzlich: Ein strahlender Punkt, der *blip+ ist im Gefolge des immer rotierenden leuchtenden Elektronenstrahls erschienen, die Radarstrahlen haben ein Ziel gefunden, werden reflektiert. Der Befehl ist klar: Zerstören. Der General weist den Operator an zu tun, was zu tun ist. Mit seiner Lightgun berührt der den *blip+ auf dem Schirm, einen Punkt von dem er weiß, daß er eigentlich kein Punkt ist, sondern eine rasende Symbiose eines Piloten und eines Kampfflugzeuges. Und er weiß auch, daß der Punkt bald, sehr bald verlöschen wird, und mit ihm das Leben des anonymen Piloten, der seit Shannons Vorschlag der Zielverfolgung für das National Defense and Research Commitee unter Leitung von Vannevar Bush gerade noch als Bedienungsfehler, als kleine Abweichung in der unbestechlichen geometrischen Vorhersage zählt. Mit jeder Umdrehung des »Scheibenwischers« wandert der *blip+ ein Stück weiter, formen die Zeitpunkte auf dem Schirm eine Linie aus der Vergangenheit, aus der vergangenen Bewegung. Der Computer nimmt nun blitzschnell seine Arbeit auf. Aus der jetzigen Position des Flugzeugs, seiner Geschwindigkeit, seinen Beschleunigungsfähigkeiten und seiner Richtung ergeben sich nur einige Möglichkeiten, wo es zukünftig sein wird, denn jede Maschine hat physikalische Grenzen. Die Bewegung, die sich in eine Punkt für Punkt abgetastete Linie verwandelte, stillgestellt, wird nun auf mögliche Bewegungen hin untersucht. Gezielt wird in die Zukunft, denn die Zeit, die das Projektil braucht, um zum Flugzeug zu kommen, muß mit berechnet werden, bevor sie auf den Weg zu ihm geschickt wird, hin zu dem Punkt, wo das Flugzeug sein wird. Der Tod findet immer in der Zukunft statt. Nur einen Augenblick später hat der Pilot einen Ausweichversuch gemacht, doch das Radar erfaßt seine Position, fügt der Reihe von Punkten einen weiteren *blip+ an, die Linie, die aus der Vergangenheit in die Gegenwart ragt, hat eine kleine Beugung bekommen. Aber die Prediktion hat sich wie eine tödliche, unbarmherzig präzise Krake an dem Flugzeug festgesaugt, seine Geschwindigkeit bestimmt, die sich auf dem Schirm nur als die Länge des Abstands zwischen zwei Punkten zeigt. Mit jeder Abtastung, Sekundenbruchteil für Sekundenbruchteil, steigt die Wahrscheinlichkeit für eine bestimmte Position, an der das Flugzeug gleich nur noch sein kann. Seine Bewegung ist schon fast stillgestellt, obwohl es noch durch die Luft schießt; die Schlinge zieht sich zu, unaufhaltsam ... »Jetzt« flüstert der General, als ob die computergestützte Prediktion noch menschliche Befehle bräuchte. Aber er hat fast richtig geraten, die Rakete startet an einen Ort, an dem das Flugzeug gleich sein wird und die Zeit ist für den gesichtslosen Piloten zu knapp geworden, um auszuweichen. Der leuchtende Punkt verlischt.[1]


(1) Einleitung: Technologisches Stillstellen als Abtastung

Tiere reden und übermitteln Informationen. Aber sie schreiben nicht. Nachkommenden Generationen oder Tieren außerhalb ihres Kommunikationssystems können sie keine Informationen übermitteln. Das ist der entscheidende Unterschied zwischen dem Menschen und der restlichen Tierwelt.

William S. Burroughs[2]


Wenn es um das »Stillstellen« geht, so ist zu betonen, daß eine der fundamentalen Funktionen, auf denen die sogenannte »Kultur«, ihre tiefsinnigen Gedanken und feinsinnigen Gedichte beruhen, das Stillstellen, Speichern, Archivieren von Informationen ist. Stillstellung wird hier nicht als Absenz von Zeit und Bewegung (man kann auch zeitliche ausgedehnte Prozesse speichern), sondern als das Geschichte-Werden von Information verstanden. Dieser Prozeß entreißt die Informationen der Entropie und macht sie künftigen Generationen zugänglich. Der zivilisatorische und kulturelle Prozeß ist nur als Folge solcher Aufzeichnungen verständlich. Jede Epoche gewinnt ihre sogenannte Geschichte und ihr Selbstbild aus den verfügbaren Aufzeichnungen, dem Archiv.[3] Die existierenden Aufzeichnungstechniken und d. h. Speichermedien entscheiden, was für Arten von Information überhaupt dem Vergessen entrissen werden, an wen sie weitergegeben werden können und wie die Haltbarkeit, Reproduzierbarkeit, Mobilität und Wiederlesbarkeit dieser Aufzeichnungen ist.
Auch die Voraussetzung, was »Mensch« ist und nicht vielmehr nicht, wird von medialen Stillstellungen geformt. Ein Beispiel: Ab dem 6. Dezember 1877 machten die phonographischen und seit 1887 die grammophonischen Aufzeichnungstechniken den Klang der Stimme, der bis dahin immer flüchtig verhallte, plötzlich speicherbar. Seit der Erfindung der Schallplatten–Matrize 1893 wird Stimme auch reproduzierbar. Seitdem konnten also erstmals Stimmen abgelöst von Körpern auftreten (die göttlichen und die halluzinatorischen Stimmen seien ausgeklammert): Das Konzept der personalen Identität und Integrität änderte sich somit.[4]

Es sei die zentrale These formuliert, daß unterhalb der oft herausgestellten Unterschiede zwischen den analog-mechanischen, analog-fotochemischen und analog-elektromagnetischen auf der einen und den digital-elektromagnetischen sowie digital-magnetooptischen Speichermedien auf der anderen Seite eine mächtige Kontinuität fortlebt, die das Spezifikum aller (im engeren Sinne) technologischen Speicher darstellt: Das Paradigma der Stillstellung durch Abtastung. Die verschiedenen technologischen Speichermedien können je bestimmte Aspekte des Realen in ihrer stochastischen Streuung erfassen. Diese Speicherung ist also nicht mehr auf die Vermittlung der menschlichen Wahrnehmung und von Gedanken angewiesen, wie das die Speicherung in den Symbolismen der Schrift oder malerischer Zeichen voraussetzte. Mit der technologischen Abtastung werden die aufgezeichneten Aspekte des Realen der Klassifizierung, Vermessung, Analyse und anderen Zwecken zugänglich, die für die entsprechenden diskursiven Praktiken eine neuartige Kontrolle und Machtausübung über eben jenes Reale ermöglichen.
Daran zeigt sich, daß Machtausübung letztlich auf Formen medialer Kommunikation und Speicherung basiert,[5] wiewohl sie nicht darauf reduzierbar ist. Denn die Techniken entscheiden nicht, was zu einem bestimmten historischen Zeitpunkt als archivierenswert erscheint, wie die gespeicherten Informationen geordnet werden, welche Aufzeichnungen an wen weiterzugeben erlaubt ist, ob und, wenn ja, wie die stillgestellten Informationen verändert werden dürfen oder sollen etc. Und vor allem werden die Speichertechniken selbst historisch geprägt von politischen oder sozialen Prozessen, die sich in die technische Struktur einschreiben, was im Folgenden immer wieder eine Rolle spielen wird.[6] In der Gegenüberstellung des ältesten und des neuesten technologischen Mediums, also von Fotografie und Computer, werden die Kontinuität der Abtastung und ihrer Machteffekte, aber auch Verschiebungen sichtbar.

(2) Fotografische Abtastung

Die Fixierung der mithilfe lichtempfindlicher Silberverbindungen herstellbaren Bilder gelang erst nach beträchtlichen Mühen. Thomas Wedgwood hat schon um 1802 fotografisch Zeichnungen kopiert, aber es gelang ihm nicht die Fixierung der Bilder. Das älteste erhaltene Foto ist mutmaßlich von 1826. Niépce speicherte das Licht von ca. 8 Stunden auf diesem Bild, das jedoch nicht auf Silbersalzen beruhte. Henry Fox Talbot arbeitete ab etwa 1834 mit Bildern auf Silberchlorid (AgCl)-Basis sowie verschiedenen Chemikalien zur Fixierung[7] und erzeugte viele bis heute erhaltene Bilder. Als Fixiermittel für Silberhalogenid-Fotos hat sich letztlich das 1819 von Herschel erforschte Natriumthiosulfat (Na2S2O3) durchgesetzt. Nachdem die Fixierung gelungen war, wurden die Verfahren der fotografischen Abtastung bald erweitert. Zwei der wichtigsten Entwicklungen waren erstens die am 8. Februar 1841 zum Patent angemeldete Kalotypie von Henry Fox Talbot, die das uns heute selbstverständliche Negativ/Positiv–Verfahren und damit die so viel diskutierte Reproduzierbarkeit des fotografischen Bildes einführte. Die 1839 von Arago offiziell vorgestellte Daguerreotypie erzeugte hingegen Unikate. Der fotografische Prozeß und die Reproduzierbarkeit sind also nicht gleichursprünglich (wie sich auch an Polaroids zeigt), sondern historisch kontingent miteinander verbunden. Die Fotografie hätte ein Medium werden können, das Unikate hervorbringt, was für die Nutzung der Fotografie in der diskursiven Praxis »Kunst« günstig gewesen wäre. Die Daguerreotypie war etwa zwanzig Jahre lang, vor allem wegen ihrer hohen Auflösung, die bevorzugte Form fotografischer Bilder. Als aber die Papierbilder qualitativ besser wurden, zeigte sich, daß deren Reproduzierbarkeit für viele, zum Beispiel ökonomische, militärische oder polizeiliche Zwecke nützlich war.
Zweitens ist die Entwicklung der Bromsilbergelatine zu nennen: 1871 stellte Richard L. Maddox ein Verfahren vor, bei dem eine heiße Gelatinelösung, die Silbernitrat (AgNO3) und Kaliumbromid (KBr) enthielt, auf eine Glasplatte aufgetragen und dann getrocknet wurde. 1878 konnte Charles Harper Bennett die Lichtempfindlichkeit der Emulsion so steigern, daß nur noch eine Belichtungszeit von 1/25 s erforderlich war. Damit war die Momentfotografie geboren, und zusammen mit Verbesserungen bei den Verschlußtechniken wurden schon 1898 Belichtungszeiten von 1/5000 s erreicht.

In der dann vorliegenden und heute immer noch dominanten Form der Fotografie verbanden sich also drei Größen: Erstens die Indexikalität des neuen Bildes. Dies bedeutet, daß ein Foto nicht nur ein Bild, sondern buchstäblich eine Spur, ein Abdruck des fotografierten Gegenstandes ist. Das Licht, welches der Gegenstand reflektiert, fällt durch die Linse und verändert die lichtempfindliche Emulsion und wird also chemisch abgetastet. Diese Abtastung, oder präziser: das Wissen um diese Form der Entstehung der Bilder auf Seiten des Rezipienten, bedingt den überwältigenden Dokumentcharakter fotografischer Bilder.[8] Zweitens erlaubt die kurze Belichtungszeit auch bewegte und flüchtige Phänomene in stillgestellten Ansichten zu fixieren und so einen Blick auf das mit Augen nicht Wahrnehmbare (mit Benjamins Wort das »Optisch-Unbewußte«[9]) zu werfen.
Für die auf Warenzirkulation beruhenden Gesellschaftsformen spielt schließlich die dritte Eigenschaft der heute dominanten Form der Fotografie eine zentrale Rolle: die Reproduzierbarkeit. Sir Oliver Wendell Holmes schrieb 1859 begeistert über seine Erfahrungen mit der stereoskopischen Wiedergabe fotografischer Bilder: »Form is henceforth divorced from matter. [...] Give us a few negatives of a thing worth seeing, taken from different points of view, and that is all we want of it. Pull it down or burn it up if you please. [...] Matter in large masses must always be fixed and dear; form is cheap and transportable.«[10] D. h. die Ansicht ist nun abgelöst von ihrer trägen Materialität und kann auf dem Markt zirkulieren: »Already a workman has been traveling about the country with stereographic views of furniture, showing his employer`s patterns in this way, and taking orders for them.«[11] Noch heute basiert jeder IKEA–Katalog auf dieser Grundlage (wenn auch nicht mehr auf Stereographien). Und dies gilt letztlich auch für Ausstellungskataloge — auf den Zusammenhang der sogenannten »Kunst« mit den Dispositiven der Stillstellung komme ich nochmals zurück.

Gerade durch die Kombination von Realabtastung, Momentaufnahme und der (keineswegs notwendigen) Reproduzierbarkeit wurde die Fotografie schnell zum unentbehrlichen Hilfsmittel, ja zur konstitutiven Größe der Kriminalistik, der Kriegsführung, des Journalismus, der Wissenschaft und der Werbung.[12] Diese Funktion in Herrschaftsdiskursen zeigt sich am disziplinatorischen Einsatz von Fotografie und Kinematographie noch deutlicher. Diese abtastenden Medien entstehen kurz nach der von Foucault beschriebenen Wende zur modernen Bio–Macht. Diese Machtform setzt nicht mehr in erster Linie auf Repression und den spektakulären Einsatz des Todes (wie zum Beispiel in öffentlichen Hinrichtungen), sondern zielt beim einzelnen Körper »auf Steigerung seiner Fähigkeiten, die Ausnutzung seiner Kräfte, das parallele Anwachsen seiner Nützlichkeit und seiner Gelehrigkeit, seine Integration in wirksame und ökonomische Kontrollsysteme. [...] Eine solche Macht muß [...] qualifizieren, messen, abschätzen, abstufen.«[13] Mithilfe der vermessenden Erfassung körperlicher Fähigkeiten und Phänomene und den daraus ableitbaren Statistiken und Durchschnittswerten werden seit dem 19. Jahrhundert Normalitätszonen bestimmt, an denen Subjekte sich ausrichten müssen.[14]
Eine besonders drastische Form der Disziplinierung ist die ab dem späten 19. Jahrhundert durch Frederick W. Taylor und durch Frank B. Gilbreth entwickelte Arbeitswissenschaft und ihr *scientific management+. Bei Gilbreth spielten chronofotografisch und kinematografisch gewonnene Bilder eine zentrale Rolle, denn sie wurden zur Analyse von Bewegungsabläufen von Arbeitern eingesetzt. Die optimierten Arbeitsabläufe zeichnete man wiederum kinematografisch auf, damit sie als Vorbild für alle neuen Arbeitenden fungieren konnten.[15] Wie sich an diesem letzten Beispiel zeigt, sind die Disziplinierungsprozeduren, um die Funktionalität der Körper zu steigern, zentrale Bedingungen für moderne, kapitalistische Wirtschaftsordnungen.[16] Die Arbeitenden waren und sind aber nicht die einzige Bevölkerungsgruppe, die fotografisch und kinematografisch gewonnene Vorbilder vorgesetzt bekommt. Denn es gibt gerade in der Werbung massenhaft Bilder immer »junger« und »schöner«, aber vor allem auch »gesunder« Model–Körper, die eben zur Körperpflege und d. h. zur Einsatzfähigkeit erziehen sollen, andererseits Darstellungen intakter, patriarchaler und vor allem konsumierender Kleinfamilien. Noch vor der Ausbreitung der Bilder solcher Idealfamilien entstand die Familienfotografie. Mit Eastman–Kodaks Einführung des Rollfilms nach 1889 und damit der Befreiung der Amateur–Fotografen von den Mühen chemischer Arbeit breitete sich rasant der Gebrauch der Fotokamera im alltäglichen Kontext aus. Der zunehmenden Mobilisierung der Arbeitskräfte im sich entwickelnden Kapitalismus entspricht ein Medium, das Höhepunkte des Familienlebens stillstellen und dazu noch reproduzierbar und transportabel machen konnte. Durch die Familienfotos auf Schreibtischen wird die zunehmende Trennung (zumeist) von Vätern und dem Rest der Familie medial kompensiert. Durch die Kopplung der phantasmatischen Idealbilder einer geradezu industriell glücklichen Familie mit einem je passend rearrangierbaren Familienalbum wird die Kohärenz der Familie immer wieder neu inszeniert und produziert.[17] Ich denke es wird deutlich, daß die Funktionalität der modernen Gesellschaften in großem Maß von technologischen Speichern abhängt, weswegen naheliegend ist, daß auch neue Technologien (wie z. B. Computer) für die dominanten Dispositive zugerichtet werden.

(3) Die Analog/Digital–Wandlung: Von der Digitalisierung zu Simulation und Interaktivität

Eine wichtige technische Weiterentwicklung der technologischen Abtastung ist die elektromagnetische Aufzeichnung im späten 19. und dann 20. Jahrhundert. Hier werden erst Schall- und später Lichtwellen in elektrische Ströme überführt. Diese Umwandlung in elektrische Ströme ist eine zentrale Voraussetzung für die Analog/Digital–Wandlung, also jenem Prozeß, der die Abtastung aller Signalformen, wenn sie nur frequenzbandbegrenzt sind, mit anschließender Umwandlung der Daten in einen binären, mathematischen und d. h. algorithmisch operationalisierbaren Code, bewerkstelligt.

Der digitale Computer ist zunächst nur eine Rechenmaschine, deren Operationen ohne Bezug zu einer wie auch immer gearteten Welt stehen und lediglich den Gesetzen der Mathematik unterworfen sind (die Geschwindigkeit der Computer hängt allerdings an ihrer physikalischen Implementierung). Sobald Computer jedoch Daten aus der realen Welt verarbeiten sollen, stellt sich die Frage nach der Überführung der abgetasteten analogen Signale in digitale Daten: »Dieses Bindeglied zwischen Analogwelt und Digitalwelt wird Analog/Digital–Wandler [...] genannt.«[18]
Brennend wird das Problem der Verarbeitung von Realdaten durch Computer, wenn es um die nationale Sicherheit oder gar das Überleben geht (oder zu gehen scheint), wie im Fall des seit 1961 voll operationalen *Semi–Automatic Ground Environment+ (= SAGE), das als Vorwarnsystem gegen sowjetische Raketenangriffe konzipiert war und folglich Radarsignale, Abtastungen des Luftraums also, verarbeiten können mußte.[19] Schon 1949/50 hatte das Air Force Cambridge Research Center Arbeiten an einem System namens DRR (= Digital Radar Relay) komplettiert, das die Übertragung von digitalen Radardaten über analoge Telefonleitungen leisten sollte. Im SAGE–Projekt kam diese Technik erstmals zum praktischen Einsatz.[20]

An solchen Digitalisierungen zeigt sich, daß der ebenso beliebte wie schematische Gegensatz zwischen den »referenzlosen« Zeichen digitaler Medien und den »referentiellen« Zeichen fotochemischer Medien problematisch ist.[21] Insofern digitalisierte Daten Abtastungen sind, sind sie auf die reale Welt bezogen. Die Behauptung der ‘Referenzlosigkeit’ digitaler Daten am Beispiel digitaler Bilder ist auch dann noch problematisch, wenn die Bilder nicht abgetastet, sondern algorithmisch *generiert+ sind. Seit der Flugsimulation und insbesondere seitdem die Filmindustrie ihr Interesse an Computereffekten entdeckt hat, strebt auch die generierte Grafik beständig dem »Fotorealismus« entgegen.[22]
Der entscheidende Unterschied zwischen den digitalisierten Daten und den analog-mechanisch, analog-elektromagnetisch oder analog-fotochemisch abgetasteten Daten liegt nicht im Weltbezug, sondern in der mathematischen Form. Ein digitalisiertes Bild zum Beispiel ist anders als alle anderen Bilder ein »array[...] of *values+, where a value is a collection of numbers describing the attributes of a pixel in the image.«[23] Die numerische Form der Daten erlaubt, sie mathematischen Operationen zu unterwerfen.[24] Dadurch wird zum Beispiel *Image Processing+ möglich: Militärs und die NASA bearbeiteten schon frühzeitig ihre digitalisierten Bilder, gerade um sie referentiell zu machen.[25] Weiterhin erlaubt der mathematische Charakter der Daten solche Dinge wie die Fehlerkorrektur bei CD–Playern oder Special Effects wie das aus dem Film *Terminator 2+ (USA 1991, R: James Cameron) bekannte Morphing[26] und schließlich die Computersimulation.

Bei Simulationen muß erst »der reale Prozeß [...] in Mathematik *abgebildet+ werden, um dann mittels Algorithmen im Rechner simuliert werden zu können.«[27] Das heißt aus abgetasteten Meßdaten aller Art und/oder aus diesen abgeleiteten, mathematisch formulierbaren Gesetzmäßigkeiten über das Verhalten des Prozesses kann man mathematische Modelle konstruieren, die den Prozeß mit mehr oder weniger großer Annäherung beschreiben. Ein Beispiel dafür sind die Atombombentests, die Frankreich 1995 auf dem Mururoa-Atoll durchführte. Diese Tests wurden offiziell damit gerechtfertigt, Daten für Simulationen von Atomexplosionen zu sammeln und damit jeden weiteren Atombombentest überflüssig zu machen. Es geht bei Computersimulationen also um »ein logisch–mathematisches Modell, das weniger die phänomenale Seite des Realen[[28]] beschreibt als die Gesetze, die es beherrschen.«[29] An den Modellen kann man dann Veränderungen bestimmter Parameter durchspielen, die Bedingungen und möglichen Entwicklungen der Phänomene testen und so Handlungsstrategien entwerfen. Genau gesehen sind (zumindest wissenschaftliche) Simulationen also »realistischer« und referentieller als die Zeichen der analog-fotochemischen oder analog-elektronischen Medien und beschreiben nicht nur die vergangene phänomenale Erscheinung des Referenten, sondern auch seine Tiefenstruktur und (da das Modell beliebig manipulierbar ist) seine möglichen Verhaltensweisen unter geänderten Bedingungen und somit seine möglichen zukünftigen Zustände.
Dieser »Realismus« der (wissenschaftlich und militärisch genutzten) Computersimulation entspringt wieder bei SAGE oder genauer bei dessen Vorläufer, dem *Project Whirlwind+: Whirlwind war ursächlich als ein digitaler und universeller Flugsimulator konzipiert, und Flugsimulatoren machen nur Sinn, wenn sie »realistisch« sind. In diesem Projekt wurden erstmals Kathodenstrahlröhren als grafisches Display benutzt. Eines der ersten Test-Programme ließ einen Ball (also einen Punkt) auf dem Display so hüpfen, *als wäre er den Gesetzen der Schwerkraft unterlegen+. Entscheidend ist also, daß das Hüpfverhalten des virtuellen Balls dem Hüpfverhalten realer Bälle abgelesen war.[30]

Eine weitere neue Eigenschaft, die den digitalisierten Daten zukommt, ist Interaktivität. Die Mensch/Maschine-Interaktion beginnt historisch wieder bei Whirlwind. Der hüpfende Ball wurde nämlich später zusätzlich so programmiert, daß er durch die richtige Wahl entsprechender Parameter in ein »Loch« in der x–Achse bugsiert werden konnte: Das erste Computerspiel. Auch beginnt bei Whirlwind die Interaktion von Input device und grafischem Display: Die bald eingesetzten Lightguns waren Geräte zur Selektion von diskreten Symbolen auf dem Bildschirm. »Interaktivität« besagt zunächst nichts anderes, als daß der User (d.h. dessen/deren Eingaben an Tastatur, Lightgun und später Joysticks oder Maus) abgetastet wird und diese Daten mit den bereits vorliegenden Daten (etwa für das grafische Display) verrechnet werden. Diese funktionale Definition weicht der berechtigten Kritik am Begriff der Interaktivität aus, die darin besteht, darauf hinzuweisen, daß natürlich alle Medien insofern schon immer interaktiv waren, als sie die kognitive Partizipation der Rezipienten benötigten.
Bei SAGE wurden die Lightgun und ihr Nachfolger, der leichtere Lightpen, dann ein Gerät zur taktischen Echtzeit–Kontrolle eines radarabgetasteten Luftraums. Wenn ein Offizier ein Flugzeug auf seinem Schirm entdeckte, berührte er den Punkt mit seinem Lightpen und instruierte damit den Computer, diesem *target+, also Ziel, von selbst zu folgen.[31] Auf die Herkunft der Interaktivität aus der Verfolgung von Zielobjekten und die dadurch implizierte doppelte Abtastung komme ich zurück.

(4) Die Macht der digitalen Stillstellung

Es sei betont, daß der Computer als Rechenmaschine keineswegs »natürlich« in das Paradigma der Stillstellung durch Abtastung gehört: Historisch kontingente Umstände wie der *kalte Krieg+ haben jedoch schnell die Verarbeitung abgetasteter Real-Signale durch digitale Rechner erzwungen. Wie man daran erneut sieht, ist eine zentrale Bedingung moderner Machtausübung die technologische Abtastung des Realen und deren Auswertung, also werden die Maschinen in entsprechender Weise eingesetzt und formiert. Die Auswertung der Daten hat sich mit ihrer numerischen Speicherung jedoch verändert. Ob und welche neuartigen Machtformen damit auftreten, ist zum gegenwärtigen Zeitpunkt noch schwer abzuschätzen. Daher möchte ich dazu nur vorläufige Bemerkungen machen:

a. Universalität der A/D-Wandlung: Dadurch, daß alle in elektrische Ströme umsetzbaren und frequenzbandbegrenzten Signalformen digitalisiert werden können, vereinigen digitale Medien verschiedene mediale Formen auf einer Ebene. Dadurch könnten neue Ordnungen des Diskurses entstehen, die die tradierten institutionellen Grenzen überschreiten.[32] Außerdem erlaubt die numerische Speicherung der Daten zum Beispiel neue Formen der Sortierung und Analyse von Bildern, die sie möglicherweise nach anderen Kriterien als etwa nach der kunsthistorischen Größe »Stil« oder der Verschlagwortung klassifizierbar macht.[33] Mit solchen Verschiebungen würde sich unser Bild der Geschichte(n) und auch unser Selbstbild ändern.

b. Computersimulation 1: Insofern die Simulation die Manipulation von Modellen realer Phänomene ermöglicht und so deren mögliche Zukünfte genauer prognostizierbar macht, geht mit ihr das Phantasma einher, die Entwicklung der Phänomene vorwegzunehmen und damit auf jede Überraschung bereits vorbereitet zu sein: »What sells simulation technology today is the seductive claim that any image is observable, that any event is programmable, and thus, in a way foreseeable.«[34] Gerade im militärischen Sektor spielt dies in der Vorwegnahme von Flugbahnen, Truppenbewegungen, Kampfsituationen und strategischen Konstellationen eine entscheidende Rolle: Wer die schnelleren Rechner hat, kann die wichtigen Entscheidungen rechtzeitig treffen — und da die Grenze der Geschwindigkeitssteigerung noch lange nicht erreicht sein dürfte, werden darüber noch Kämpfe entbrennen. Die zukünftige Computerentwicklung wird also mutmaßlich von militärischen Imperativen geprägt bleiben, und d. h. von einem bisher ungekannten Kampf um die Vorhersagbarkeit der Zukunft.

c. Computersimulation 2: Flugsimulatoren entspringen aus der Reaktion auf katastrophische technologische Störungen (Flugzeugabstürze). Die Simulationstechnologien können generell als Antworten auf (potentielle) Katastrophen verstanden werden. In den von den Simulatoren generierten »control environments«[35] wird das Erlernen der Beherrschung von technologischen Apparaturen, sowie das Durchführen ansonsten unmöglicher Experimente gefahrlos möglich. Dies bedeutet auch, daß zumindest im Fall der Flugsimulation (und anderer vergleichbarer Anordnungen) das Subjekt ein diszipliniertes Subjekt ist, dessen Reaktionen und Körperbewegungen genau so konditioniert werden, daß im späteren Realfall eine möglichst optimale Reaktion erzielt werden kann. Solche Simulationen stehen in der Tradition technologischer Subjektkonditionierungen wie des *scientific managements+, übertreffen sie aber in der Erschaffung neuartiger *Kontrollumgebungen+.

d. Interaktivität: Die Janusköpfigkeit der Interaktivität besteht darin, daß sie nicht nur ein Eingriff in die bereits vorliegenden Daten ist, sondern gleichzeitig auch eine Abtastung des interagierenden Subjekts (in sogenannter Echtzeit) darstellt. Die problematischen Konsequenzen, die sich daraus ergeben, sind in den letzten Jahren mit den Diskussionen um die Datensicherheit im Internet sehr deutlich geworden. Um diesen Zusammenhang zu präzisieren, sei eine exemplarische technologische Entwicklung erwähnt, die Anfang 1999 eine erregte Diskussion heraufbeschwor. Intel kündigte an, alle zukünftigen Pentium III-Prozessoren mit einer serienmäßigen ID-Nummer auszustatten, die jeden Prozessor und damit jeden User im Internet eindeutig identifizierbar mache: Dadurch würde die Sicherheit bei finanziellen Transaktionen erheblich gesteigert (an diesem Beispiel zeigt sich im übrigen erneut, wie Technologien von Imperativen einer kapitalistischen Ökonomie geformt werden können). Dieser Vorschlag Intels hat Proteste bis zur Forderung eines totalen Intel-Boykotts ausgelöst, weil eine solche Nummer auch die Identifikation von Nutzern und ihren Bewegungen im Netz erheblich erleichtert. Das setzt allerdings nur eine Tendenz fort, die schon vorher angelegt war. Einige Beispiele dafür: Mit jedem Einloggen ins Internet bekommt der eigene Rechner eine IP-Nummer zugeteilt, die die Zurückverfolgung der eigenen Bewegung durchs Netz mindestens bis zum Provider möglich macht. Im Härtefall könnten dann die log-files auf den Servern des Providers eingesehen werden — eine Möglichkeit, die in Zukunft mutmaßlich datenschutzrechtlich erleichtert werden wird, um der organisierten Kriminalität das Handwerk zu legen, aber möglicherweise auch, um User mit unliebsamen politischen oder sexuellen Vorlieben zu lokalisieren. Handelsübliche Browser ermöglichen externen Instanzen, fremde Programme auf dem heimischen PC zu starten oder dort Files abzulegen (zumindest wenn der Browser in der Default-Konfiguration operiert), wie z. B. sogenannte Cookies, die u. a. mit der Zeit immer mehr Informationen über das Kaufverhalten der Konsumenten aufzeichnen. Daß man bei der Buchbestellung bei http://www.amazon.de als angemeldeter Kunde immer so zuvorkommend identifiziert und ggf. mit (vermeintlich) passenden Buchtips überhäuft wird, hat den schlichten Grund in eben einem solchen Cookie auf der eigenen Festplatte. Diese Form der Überwachung erscheint dann ganz selbstverständlich als »Service«...
Und schon lange bevor Intel seine Pläne für die Pentium-ID vorstellte, hatte Microsoft ein bis vor kurzem geheimes System von internen Identifikationsnummern (»Global Unique Identifier«) eingerichtet, mit dem u.a. mit Microsoft-Programmen generierte Files eindeutig auf die entsprechenden Lizenznehmer zurückgeführt werden konnten: Die Frage *Where do you want to go today?+ war schon immer ebenso ehrlich wie überflüssig.[36]

Unter dem Regime der Digitalität steht also nicht mehr allein die Disziplinierung und Normalisierung des Subjekts im Mittelpunkt, wie dies noch in der fotografischen und kinematografischen Arbeitswissenschaft Taylors und Gilbreth‘ der Fall war. Die Abtastung der Streuungen eines »multiplen« oder »flexiblen« Subjekts nimmt eine immer wichtigere Funktion ein. Deleuze bemerkt zu dem von ihm angenommenen Übergang von der Disziplinar- zur Kontrollgesellschaft: »Die Individuen sind *‚dividuell‘+ geworden und die Massen Stichproben, Daten, Märkte oder *‚Banken‘+«.[37] Durch die Aufteilung des im Netz surfenden Subjekts in verschiedene Identitäten (zumindest Konsumenten-Identitäten) und die mögliche Verfolgung dieser Spuren und Konsumgewohnheiten kann man ein Relief dieses »multiplen« Subjekts zeichnen. So kann sich die Kontrolle auf die Erfassung des kleinsten Aufblitzens verschiedener, sonst vielleicht verborgener, aber im Netz lebbarer Begehren richten, um das Subjekt vielfältig an die »Freuden des Marketings«[38] anzukoppeln. Der Nutzen solcher und ähnlicher Strategien zur Abtastung und Verfolgung der User[39] für eine kapitalistische Ökonomie ist offensichtlich: Statt mühsame Umfragen zu veranstalten, kann man die Nutzer mit ihren Bewegungen durch verschiedene Netzangebote einfach selbst das »Benutzerprofil« strukturieren lassen, d.h. mithilfe der Interaktion wird (jedenfalls prinzipiell) eine Mikro–Marktsegmentierung bis hin zum Einzelnen möglich, ganz zu schweigen von den potentiell totalitären politischen Implikationen dieser Prozesse. Die tragende Rolle der fotochemischen Medien für den Kapitalismus wird durch die digitalen Netze überboten — mit dem Fernziel des *reibungslosen Kapitalismus+ (Bill Gates).

(5) Zwischenspiel im absurden Theater der sogenannten »interaktiven Medienkunst«

Wenn man sich eine sehr populäre Form der Medienkunst wie die ‚interaktive Installation‘ ansieht, dann frage ich mich immer, warum Menschen (Betrachter) von dieser neuen Möglichkeit, sie zu manipulieren, begeistert sein können. Anscheinend ist Manipulation die einzige Kommunikationsweise, die sie kennen und schätzen.

Alexei Shulgin[40]

Kein Medium oder Medienverbund erzeugt nur einen Typ von Effekten. Außerdem hängen die Effekte einer Technik, wie ich anzudeuten versuchte, mindestens teilweise von der Einbindung der Technik in bestimmte institutionelle, ökonomische und semantische Gefüge oder Diskurse und den von ihnen eingeräumten Gebrauchsweisen ab. Insofern sind die hier dargestellten Machteffekte der abtastenden technologischen Medien überzeichnet.
Die Aufmerksamkeit für solche Machteffekte scheint aber geboten, denn seit die »elektronische Kommunikation [...] selbst in Tagungsprogrammen zum einzigen Inhalt von Kommunikation arriviert«[41] ist, erscheinen zahlreiche Texte zum Thema »Medien«, die oft jedoch — genau wie die User von Microsoft Word, also dem Programm, mit dem auch die meisten Akademiker ihre Texte verfassen — an der »benutzerfreundlichen« Oberfläche der Medien haften bleiben. Selbstverständlich ist es notwendig, auch die Oberflächen zu analysieren, weil sich in diesen u.a. der Anschluß neuer Technologien an vertraute Wahrnehmungsformen, Medienmetaphern und Ikonographien zeigt, der von entscheidender Bedeutung für die kommerzielle Distribution ist. Aber eine Analyse, die nicht zugleich die Geschichte der Hard- und Software und somit die Diskursformationen berücksichtigt, die sich in die Technologien eingeschrieben haben, verfällt einer »Ästhetik« (im Sinne von *aisthesis+) der Reduktion der Phänomene der sogenannten »Neuen Medien« auf das menschlich Wahrnehmbare.[42]

Ein Beispiel, an dem sich die Probleme einer rein *ästhetischen+ Diskussion aufweisen lassen, ist die schon genannte »Interaktivität«. Diese wird immer als das Kriterium bemüht, das die computerbasierte sogenannte »interaktive Medienkunst« von Kunst mit anderen Medien unterscheide. Die medialen Angebote seien nicht mehr, anders als in der Fotografie und anderen traditionellen Medien, unveränderlich gegeben, sondern bildeten sich erst im Prozess der Interaktion zwischen Rezipient und dem dann so kaum noch zu nennenden »Werk«. Allerdings wird »Interaktivität« als Begriff aber auch außerhalb der diskursiven Praxis »Kunst« genutzt, um kommerzielle Netzangebote anzupreisen. Oder gar, um die, durch die — jedenfalls im Prinzip mögliche — lückenlose Verfolgung des Users erzeugte Mikro-Marktsegmentierung und die kommerzielle Kommunikation über das Netz zur Utopie des endgültigen Kapitalismus zu verklären: »Das interaktive Netz wird der Markt in seiner vollkommensten Gestalt sein. [...] Es wird ein Paradies für Konsumenten sein.«[43]
Selbstverständlich muß die Benutzung des Begriffs der »Interaktivität« in verschiedenen diskursiven Praktiken nicht bedeuten, daß die Implikationen identisch sind. Aber wenn man der grundsätzlichen These zustimmt, daß die Beschreibung und sogar Bewertung eines Phänomens nur im Verhältnis zu anderen vergleichbaren Phänomenen möglich ist, dann muß sich die interaktive Medien»kunst« nicht nur den buchstäblich oberflächlichen Bezug zur bisherigen Kunst, sondern auch den zu anderen Formen der Interaktivität gefallen lassen. Im Lichte dieser Forderung ist eine Analyse von Medienkunst, die diese nur als Fortsetzung der interaktiven Versuche der bildenden Kunst begreift,[44] einseitig. Denn eine solche Betrachtung rückt die interaktiven Computertechnologien, auf denen die Medienkunst basiert, aus ihrem historisch-gesellschaftlichen Zusammenhang heraus und in eine scheinbar isoliert betrachtbare Sphäre der »Kunst« ein.

Diese heikle Trennung zwischen den Basistechnologien, ihrer Geschichte und den Diskursen auf der einen und ihrer künstlerischen Applikationen, ihrer Oberflächen auf der anderen Seite findet sich auch in einem Buch wie *Pioniere interaktiver Kunst von 1970 bis heute+ von Söke Dinkla.[45] Das Buch hat unbestritten das Verdienst, die Geschichte der interaktiven Medienkunst erstmals systematisch aufgearbeitet zu haben. Auch berücksichtigt Dinkla in einem eigenen Kapitel die Geschichte der interaktiven Computertechnologien. Jedoch ist dieses Kapitel merkwürdig losgelöst vom Rest des Buches. Dinkla weist zwar auf die Herkunft der Interaktion mit grafischen Displays aus der Radarverfolgung von Zielobjekten hin,[46] jedoch wird diese Erkenntnis im Laufe des Buches und der Analysen der Medienkunst kaum noch fruchtbar gemacht. Dinkla begründet dies mit dem schlichten Satz, daß die Kombination von visuellen Display und Lightpen »nicht nur für militärische Anwendungen von Bedeutung ist.«[47]
Diese Behauptung impliziert, daß Technik ein beliebig verwendbares Mittel für verschiedene Anwendungen und Zwecksetzungen eines von der Technik unabhängigen Subjekts ist: Die Unhaltbarkeit dieser »instrumentalen« Auffassung (zumindest als alleiniges Beschreibungsmodell) hat mindestens schon Heidegger hervorgehoben[48] und sollte auch aus dem vorliegenden Aufsatz klar werden. Aus dem instrumentalen Technikverständnis Dinklas folgt die Annahme einer vollständigen Ablösbarkeit einer Technik aus ihren historischen Ursprungskontexten. Tatsächlich ist es eine schwierige Frage, wie sehr Technologien von ihren (militärischen) Ursprüngen geprägt werden und in welchem Maße sie aber auch anders gebraucht oder verformt werden können durch neue Kontexte — ich meine, daß beides der Fall ist. So ist einerseits richtig, daß bei der Interaktivität des Internets nicht mehr die Bewegungen von Feindflugzeugen (wie am Beginn der Mensch/Computer-Interaktion bei SAGE), sondern die von (potentiellen) Konsumenten abgetastet werden, aber dem Paradigma der Abtastung und Verfolgung ist man dadurch andererseits noch nicht entkommen: Dinkla erwähnt selbst, daß Wiener bei der Formulierung des Feed-Back-Prinzips in der Kybernetik, welches am Anfang der Interaktivität steht und mit der Feindverfolgung entstanden ist, den Unterschied zwischen Mensch und Maschine funktional verwarf.[49]
Daran anschließend muß man weiterfragen, ob und inwiefern die Interaktivität im Kontext des (kommerziell genutzten) Internets überhaupt etwas mit der Interaktivität im Kontext der Medienkunst zu tun hat. Um dieses Problem zu verdeutlichen, sei auf ein Beispiel zurückgegriffen: In ihrer Diskussion von Jeffrey Shaws interaktiver Installation *The Legible City+ (1988-91) weist Dinkla explizit auf die Herkunft der Anordnung der Installation (der User sitzt auf einem Fahrrad und navigiert so durch eine sich verändernde Text-Stadt, die er vor sich als in Echtzeit gerenderte Grafik auf einem großen Display sieht) aus der Fahrsimulation hin.[50] Hat diese Interaktion mit einem Bild irgend etwas mit der Interaktion in Datennetzen zu tun? Eine Antwort wäre, daß auch das Surfen im Netz seit Anfang der neunziger Jahre Interaktion mit einem Bild ist. Erst seit der Einführung grafischer Oberflächen mit dem *World Wide Web+ (1989/1993) und Browsern wie *Netscape+ (1994) oder dem *Internet Explorer+ hat sich das Internet explosiv ausgebreitet (dies ist ein gutes Beispiel dafür, daß man die Oberflächen nicht vernachlässigen sollte). Vor diesem stillschweigend vorausgesetzten Hintergrund[51] betont Dinkla dann, daß sich der Rezipient von Shaws Arbeit genauso zwischen ziellosen Herumstreifen und zielgerichtetem Suchen bewegt, wie ein User durch das Internet. Sie zieht also selbst die Analogie zwischen der interaktiven Medienkunst Shaws und der Interaktion im Datennetz heran. So sei *The Legible City+ eine »Parabel für die veränderten Rezeptionsbedingungen in *Datenräumen+.«[52] Diese Beschreibung muß man aber kritisieren, weil sowohl Shaw als auch Dinkla übersehen, daß nicht nur der Nutzer die Datenräume rezipiert, sondern in diesen potentiell selbst rezipiert werden kann: Nämlich als Zielobjekt einer Nutzerprofilerstellung. Shaw kann man die Nichtberücksichtigung dieses doppelten Charakters der Interaktion nicht vorwerfen. *The Legible City+ wurde bereits um 1989 fertiggestellt, also Jahre vor der explosionsartigen Ausbreitung und Popularisierung des Internets: Er konnte von der rasenden Kommerzialisierung des Netzes und den zunehmenden Strategien der Abtastung und Verfolgung nichts wissen. Wohl aber kann man Dinkla vorwerfen, diese historische Begrenzung von Shaws *The Legible City+ 1997 nicht thematisiert zu haben. An anderer Stelle fordert sie ja selbst von der Medienkunst: »Den Benutzern muß vielmehr bewußt werden, daß sie Teil eines Systems sind, in dem sie zugleich Kontrolleure und Kontrollierte sind.«[53] Ich sehe nicht, daß dies von *The Legible City+ eingelöst wird.

(6) Epilog

Die Einordnung der interaktiven Medienkunst in den größeren Kontext der ökonomisch-militärischen Machteffekte digital stillgestellter Daten erlaubt also, einzelne Medienkunstwerke historisch-kritisch genauer einzuordnen. Auf diese Weise könnte man einem Problem entgehen, welches leider viele Diskurse prägt: nämlich der tendenziell affirmativen und das heißt ahistorischen Haltung gegenüber der Kunst.[54] Oder schärfer gesagt: Soll die theoretische Reflexion über die Medienkunst mehr sein als Werbung für ein neues Segment des Kunstmarktes, was letztlich ihr »Verenden im Kulturmanagement«[55] bedeuten würde, muß sie den Mut haben, vor dem Hintergrund der Geschichte Medienkunstwerke auch zu kritisieren und auf deren historische Begrenzungen hinzuweisen.

Allgemeiner gesagt unterliegt jede Form der »autonomen« Kunst dem historischen Apriori der sich verändernden Formen der Stillstellung von Daten in Speichermedien, ihren Diskursen und deren Machteffekten: Schon die Idee, daß Kunst »autonom« sein kann oder soll, hat Benjamin in bezug auf die Malerei als Effekt der Erscheinung der Fotografie entziffert.[56] Man könnte sogar eine Relektüre namhafter Texte über »Kunst« anstreben, um deren technisch-Unbewußtes ans Licht zu bringen. Ein Beispiel dafür ist eine Passage aus Heideggers berühmten Text *Der Ursprung des Kunstwerkes+ von 1935/36. Um zu entscheiden, was das Werk am Kunstwerk ausmacht, setzt Heidegger das Werk vom Ding ab. Und in diesen Abschnitt sucht er zunächst zu zeigen, was ein Ding ist. Dabei schreibt er: »Flugzeug und Rundfunkgerät gehören zwar heute zu den nächsten Dingen, aber wenn wir die letzten Dinge meinen, dann denken wir an ganz Anderes. Die letzten Dinge, das sind: Tod und Gericht.«[57] Nur drei Jahre später werden die nächsten Dinge, die Technologien der Abtastung und Verfolgung im von Hitlerdeutschland überfallenen Polen über die letzten Dinge entscheiden... Das Beispiel ist zugestandenermaßen kursorisch, aber es zeigt den Weg an, auf welchem geforscht werden könnte.

Die historische Aufarbeitung der Geschichte der Speichermedien und der Diskurse, in denen sie operieren, also der sich wandelnden Formationen der Stillstellung, ist eine unumgehbare Voraussetzung für die Analyse kultureller Phänomene, wie mein Seitenblick auf die Medienkunst und die kurzen Bemerkungen über das technisch-Unbewußte in Diskursen über »Kunst« anzudeuten versuchten: Denn Kultur ist gespeichert oder sie ist nicht. Anders gesagt: »Mediengeschichte wäre nur verkappte Nostalgie, wenn sie auf dem Umweg über Schreibzeuge oder Nachrichtentechniken wieder bei Dichterreliquien oder Gedanken ankäme.«[58]



[1] Für die Idee und für konstruktive Mitarbeit an diesem Prolog danke ich Ulf Schmidt. Und vor allem danke ich Ihm für ein hervorragendes Lektorat.
[2] William S. Burroughs: Die elektronische Revolution, Bonn 1986, 5.
[3] Vgl. Michel Foucault: Archäologie des Wissens, Frankfurt a. M. 1995, S. 113-190 und dazu Wolfgang Ernst: M.edium F.oucault. Weimarer Vorlesungen über Archive, Archäologie, Monumente und Medien, Weimar 2000.
[4] Vgl. Friedrich Kittler: Grammophon Film Typewriter, Berlin 1986, 37-62 und insbesondere 39 zum Phonographen: „Denn während es (mit Derrida) den sogenannten Menschen und sein Bewußtsein ausmacht, sich sprechen zu hören oder sich schreiben zu sehen, trennen Medien solche Rückkopplungsschleifen auf.“ Dem französischen Philosoph Jean-Marie Guyau schien es 1880 völlig selbstverständlich, das menschliche Gedächtnis in bezug auf das Grammophon zu bestimmen, vgl. Jean-Marie Guyau: La mémoire et le phonographe, in: Revue philosophique de la France et de l'etranger, Jg. 5 (1880), 319-322. Als dann die Fotografie und der Film in den Vordergrund rückten, folgte die Philosophie schnell nach und beschrieb die Prozesse des (transzendentalen) Bewußtseins in fotografischen und kinematografischen Metaphern, vgl. am Beispiel Husserl dazu Iris Därmann: Tod und Bild. Eine phänomenologische Mediengeschichte, München 1996, Kapitel II.II bis II.IV.
[5] Vgl. Harold Innis: Empire and Communications, Oxford 1950.
[6] Vgl. Hartmut Winkler: Die prekäre Rolle der Technik, in: Heinz B. Heller / Matthias Kraus / Thomas Meder / Karl Prümm / Hartmut Winkler (Hg.): Über Bilder Sprechen. Positionen und Perspektiven der Medienwissenschaft, Marburg 2000, 9-22. Ich würde grundsätzlich dafür argumentieren, Macht als »komplexes Netz aus unterschiedlichen Elementen« ohne einen »Mittelpunkt der Kräfte« (Michel Foucault: Überwachen und Strafen. Die Geburt des Gefängnisses, Frankfurt a. M. 1994, 396) zu denken, also auch ohne einen technischen Mittelpunkt (auch wenn im vorliegenden Aufsatz der technische Aspekt im Vordergrund steht). Zum Problem des Technozentrismus in bestimmten Formen der Medientheorie, vgl. Jens Schröter: Der König ist tot, es lebe der König. Zum Phantasma eines technologischen Subjekts der Geschichte, in: Johannes Angermüller / Katharina Bunzmann / Christina Rauch (Hg.): Reale Fiktionen, fiktive Realitäten: Medien, Diskurse, Texte, Hamburg 2000, 13-24.
[7] Vgl. Larry Schaaf: The Photographic Art of Henry Fox Talbot, Princeton and Oxford 2000, S. 19f.
[8] Und sobald dieses Wissen verunsichert wird, etwa durch das Auftreten von Bildern, die zwar genauso wie Fotografien *aussehen+, aber dennoch ganz anders entstanden sind und daher dem Verdacht unglaubwürdig zu sein unterliegen, fällt auf jedes fotografisch aussehende Bild der Schatten des Zweifels. Siehe dazu Wolfgang Ullrich: Digitaler Nominalismus. Zum Status der Computerfotografie, in: Fotogeschichte, Jg. 17, H. 64 (1997) 63-73. Zur Präzisierung: Die Fotografie tastet die Amplitude des Lichts, aber nicht dessen Phase ab, was erst die Holographie wird leisten können. Außerdem waren viele der frühen Emulsionen und Salzlösungen nicht im ganzen Spektrum gleich lichtempfindlich.
[9] Vgl. Walter Benjamin: Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit, Frankfurt a. M. 1977, 34-36 und kritisch dazu Margaret Iversen: What is a Photograph?, in: Art History, Vol. 17, No. 3 (1994), 450-464.
[10] Sir Oliver Wendell Holmes: The Stereoscope and the Stereograph, in: Atlantic Monthly, No. 3 (1859) 733-748, hier: 747f. Das Stereoskop war etwa zwischen 1850 und 1880 eine der dominanten Weisen, in denen fotografische Bilder rezipiert wurden. Auf die besonderen Implikationen des Stereoskops kann hier nicht eingegangen werden.
[11] Ebd., 748.
[12] Vgl. dazu u.a. Herta Wolf: Fixieren – Vermessen: Zur Funktion fotografischer Registratur in der Moderne, in: Norbert Bolz / Cordula Meier / Birgit Richard / Susanne Holschbach (Hg.): Riskante Bilder. Kunst Literatur Medien, München 1996, 239-262; Susanne Regener: Fotografische Erfassung. Zur Geschichte medialer Konstruktionen des Kriminellen, München 1999 und Caroline Brothers: War and Photography: a Cultural History, London 1997.
[13] Michel Foucault: Sexualität und Wahrheit. Der Wille zum Wissen, Frankfurt a. M. 1986, I, 166 und 172. Vgl. auch Foucault: Überwachen und Strafen, 173-181. Bei Foucault hat die Bio-Macht noch eine zweite Komponente, die demografische Kontrolle und Pflege des »Volkskörpers«. Darauf wird hier nicht eingegangen.
[14] Vgl. Jürgen Link: Versuch über den Normalismus: wie Normalität produziert wird, Opladen u.a. 1999, insb. 185-312 und 327-333. Vgl. auch Allan Sekula: The Body and the Archive, in: Richard Bolton (Hg.): The Contest of Meaning. Critical Histories of Photography, Cambridge/Mass. und London 1993, 343-389, der auf die Rolle der Kompositfotografien Galtons bei der Konstruktion des »Durchschnittlichen« hinweist.
[15] Vgl. Frank Bunker Gilbreth: Bewegungsstudien. Vorschläge zur Steigerung der Leistungsfähigkeit des Arbeiters, Berlin 1921. Vgl. auch schon 1914 W. I. Lenin. Werke. Berlin (Ost) 1984, Bd. XX, 145f. kritisch über das System Taylors: „Systematisch gelangt der Kinematograph zur Anwendung, um die Arbeit der besten Arbeiter zu untersuchen. [...] Den neu eintretenden Arbeiter führt man in den Kinoraum des Betriebs, wo ihm die ‚vorbildliche‘ Ausführung seiner Arbeit gezeigt wird. Der Arbeiter wird gezwungen, dieses Vorbild ‚einzuholen‘“. Später, nach der Bürokratisierung des Sozialismus in der Sowjetunion, wird man arbeitswissenschaftlichen Disziplinierungen leider nicht mehr so abgeneigt gegenüberstehen...
[16] Vgl. Foucault: Sexualität und Wahrheit, 168.
[17] Vgl. Pierre Bourdieu u.a.: Eine illegitime Kunst. Die sozialen Gebrauchsweisen der Fotografie, Frankfurt a. M. 1983 und Barry King: Photo-Consumerism and Mnemonic Labour: Capturing the Kodak moment“, in: Afterimage, Nr. 21 (1993), 9-13.
[18] Rainer Eckl / Leonhard Pütgens / Jürgen Walter: A/D- und D/A-Wandler. Grundlagen, Prinzipschaltungen und Applikationen, München 1990, 11. In diesem Buch finden sich alle technischen Grundlagen detailliert erläutert.
[19] Zur Geschichte von SAGE und seinem Vorläufer, dem 1944 noch analog konzipierten und ab 1946 digitalen Flugsimulator Project Whirlwind, siehe Paul N. Edwards: The Closed World. Computers and the Politics of Discourse in Cold War America, Cambridge/Mass. und London 1996, 75-112.
[20] Vgl. John V. Harrington: Radar Data Transmission, in: Annals of the History of Computing, Vol. 5, No. 4 (1983) 370-374.
[21] Vgl. zum Beispiel Thomas Wimmer: Die Fabrikation der Fiktion, in: Florian Rötzer (Hg.): Digitaler Schein. Ästhetik der elektronischen Medien, Frankfurt a. M. 1991, 519-533. Wimmer spricht von »pure[r] Selbstreferentialität der digitalen Zeichen« (529). Dies ist schon deswegen absurd, weil ein pur selbstreferentielles Zeichen gar kein Zeichen ist. Vgl. Jens Schröter: Intelligence Data. Zum Weltbezug der so genannten »digitalen Bilder«, in: Berliner Debatte Initial, Jg. 12, Nr. 5 (2001). S. 55-65.
[22] Zum Ursprung des computergrafischen Fotorealismus in der Flugsimulation, vgl. Martin E. Newell / James F. Blinn: The Progression of Realism in Computer Generated Images, in: Association for Computing Machinery (Hg.): Proceedings of the Annual Conference 1977, New York 1977, 444-448, insb. 444. Vgl. grundlegend James D. Foley / Adries van Dam / Steven K. Feiner / John F. Hughes: Computer Graphics. Principles and Practice, Reading, Mass. u. a. 1990, 605-648. Schließlich sind bestimmte Algorithmen für realistische Computergrafiken selbst wieder von empirisch abgetasteten Meßdaten abgeleitet: Vgl. Axel Roch: Computergrafik und Radartechnologie. Zur Geschichte der Beleuchtungsmodelle in computergenierten Bildern, in: Manfred Faßler / Wulf R. Halbach (Hg.): Geschichte der Medien, München 1998, 227-254, insb. 250: »Tatsächliche, empirische Messungen für Reflexionseigenschaften an rauhen Oberflächen liegen nämlich besonders ausführlich für Radar vor. An genau diesen empirischen Kurven orientieren sich die theoretischen Streuungsfelder von Cook/Torrance.« Roch bezieht sich hier auf Robert L. Cook / Kenneth E. Torrance: A Reflectance Model for Computer Graphics, in: ACM Transactions on Graphics, No. 1 (1982) 7-24.
[23] Foley u. a.: Computer Graphics, 816.
[24] Um Mißverständnisse zu vermeiden: Auch generierte Bilder sind natürlich mathematisch operationalisierbar, insofern sie auf Algorithmen beruhen – generierte Bilder sind aber als anderes als digitalisierte Bilder nicht von vorneherein als array of values, als Bitmap, gespeichert. Sie werden u.U. sehr langsam, oder aber bei geringerer Qualität zum Beispiel für Computerspiele in Echtzeit gerendert (oft für höhere Geschwindigkeit durch eine spezielle Hardware auf der Grafikkarte unterstützt). Ein einmal zuende gerendertes Bild kann selbst wieder als array of values, als Bitmap, gespeichert werden.
[25] Vgl. Fred C. Billingsley: Processing Ranger and Mariner Photography, in: Journal [of the] Society of Photo-Optical Instrumentation Engineers, Vol. 4, No. 4 (1966) 147-155 und ders.: Applications of Digital Image Processing, in: Applied Optics, Vol. 9, No. 2 (1970) 289-299. Vgl. Jens Schröter: Eine kurze Geschichte der digitalen Fotografie, in: Wolfgang Hesse und Wolfgang Jaworek (Hg.): Verwandlungen durch Licht. Fotografieren in Museen & Archiven & Bibliotheken. Esslingen 2001, 249-257.
[26] Vgl. Jens Schröter: Ein Körper der Zukunft. Zur Geschichte, Semantik und zu den Implikationen der Morphingkörper, in: Doris Schumacher-Chilla (Hg.): Das Interesse am Körper, Essen 2000, 250-268.
[27] Helmut Neunzert: Mathematik und Computersimulation: Modelle, Algorithmen, Bilder, in: Valentin Braitenberg / Inga Hosp (Hg.): Simulation. Computer zwischen Experiment und Theorie, Reinbek bei Hamburg 1995, 44-55, hier: 44.
[28] An die Fotografie, Film und Video gekettet sind.
[29] Edmond Couchot: Die Spiele des Realen und des Virtuellen, in: Florian Rötzer (Hg.): Digitaler Schein. Ästhetik der elektronischen Medien, Frankfurt a. M. 1991, 346-355, hier: 348.
[30] Vgl. Robert M. Fano u.a.: Retrospectives 1: The Early Years in Computer Graphics at MIT, Lincoln Lab and Harvard, in: Computer Graphics, Vol. 23, No. 5 (1989) 19-38, hier: 21. Dort wird auch der mathematische Charakter des Ball-Modells deutlich gemacht: »Charlie Adams [...] invented what we call the Bouncing Ball Program, the solution of three differential equation«. Strenggenommen beginnt die Computersimulation aber schon einige Jahre vor Whirlwind: Direkt nach der Fertigstellung des ENIAC wurden 1946 im Rahmen der Entwicklung der Wasserstoffbombe sogenannte Monte Carlo-Simulationen durchgeführt, vgl. Peter Galison: Image and Logic. A Material Culture of Microphysics, Chicago 1997, 689-780 (mit Dank an Herta Wolf).
[31] Vgl. Lev Manovich: Archäologie des Computerbildschirms, in: Kunstforum International, Bd. 132 (1995) 124-136.
[32] Vgl. Hal Foster: The Archive without Museums, in: October, No. 77 (1996) 97-119.
[33] Vgl. Wolfgang Ernst / Stefan Heidenreich: Digitale Bildarchivierung: der Wölfflin-Kalkül, in: Sigrid Schade / Georg Christoph Tholen (Hg.): Konfigurationen. Zwischen Kunst und Medien, München 1999, 306-320.
[34] William Bogard: The Simulation of Surveillance. Hypercontrol in Telematic Societies, Cambridge 1996, 15f.
[35] S.R. Ellis: Nature and Origins of Virtual Environments. A Bibliographical Essay, in: Computing Systems in Engineering, Vol. 2, No. 4 (1991) 321-347, hier: 327.
[36] Vgl. Christian Persson / Peter Siering: Big Brother Bill. Microsofts heimliche ID-Nummern — angeblich eine Panne, in: c‘t, Nr. 6 (1999) 16-20.
[37] Gilles Deleuze: Postskriptum über die Kontrollgesellschaften, in: ders.: Unterhandlungen 1972-1990, Frankfurt a. M. 1993, 254-262, hier 258, vgl. auch 260: »Die Eroberung des Marktes geschieht durch Kontrollergreifung und nicht mehr durch Disziplinierung.« Schließlich bemerkt Deleuze, daß die Kontrollgesellschaft den »individuellen [...] Körper durch die Chiffre eines ‚dividuellen‘ Kontroll-Materials ersetzt« (262).
[38] Ebd.: 262. Zumal die Weitergabe der gesammelten Daten an Dritte, zumeist andere Firmen, nicht immer verhindert werden kann.
[39] Auch das allseits beliebte Handy ist eine Technik, die das Subjekt stets erreichbar und d.h. (im Prinzip) mobilisierbar macht. Außerdem ist es möglich, großflächig Nutzerbewegungen von Handybesitzern zum Beispiel in urbanen Räumen aufzuzeichnen: So könnten Konsumentenströme verfolgt werden, vgl. Jan Kuhlmann: Mobilität unter Kontrolle, in: Datenschutz-Nachrichten, Nr. 3 (1998) 22-24.
[40] Zit. in: Lev Manovich: Über totalitäre Interaktivität. Beobachtungen vom Feind des Volkes, in: Telepolis, Nr.1 (1997) 123-127, hier 123.
[41] Friedrich Kittler: Gleichschaltungen. Über Normen und Standards der elektronischen Kommunikation, in: Manfred Faßler / Wulf Halbach (Hg.): Geschichte der Medien. München 1998, 255-267, hier: 255.
[42] Symptomatisch zeigt sich dies in einer Diskussion zwischen Paul Virilio und Friedrich Kittler. (abrufbar unter: http://www.nettime.org/nettime.w3archive/199601/msg00007.html; letzter Zugriff 1.1.2001). Virilio behauptet, die Überschreitung aller Wahrnehmungsgrenzen durch Computertechnologien zum Maßstab seiner Bewertung machend: »Ich glaube, daß wir eine Grenze erreicht haben und die Weltzeit in der Tat das Ende der Zeit ist, um nicht zu sagen das Ende aller Zeiten, das Wort ‚Apokalypse‘ will ich nicht benutzen. Wir haben in jeder Hinsicht die Grenzgeschwindigkeit der elektromagnetischen Wellen erreicht«. Darauf antwortet Kittler zurecht: »Was ich nicht glaube, ist, daß es schon die letzte Grenze erreicht hat, die Beschleunigung. Daß die Katastrophe sozusagen in der Unüberbietbarkeit der aktuell herrschenden Übertragungs- und Berechnungsgeschwindigkeiten steckt, sondern es ist immer noch strategischer und ökonomischer Gewinn daraus zu ziehen, daß man ein System hat, das schneller ist als das andere System. Es ist immer noch möglich zu unterscheiden zwischen geheimen Maschinen und öffentlich verkauften Maschinen, die sich durch ihre Geschwindigkeit unterscheiden, durch ihre Leistungsfähigkeit. Und es ist immer noch nicht ausgemacht, wie die Sachen weitergehen, weil die Lichtgeschwindigkeit zwar eine absolute Grenze, im Vakuum wohlgemerkt, ist, aber in den real existierenden Technologien läuft die Elektrizität substantiell langsamer als im Vakuum und es werden furchtbare Kämpfe noch laufen in Richtung Beschleunigung.« [Text von mir korrigiert, J.S.].
[43] Bill Gates: Der Weg nach vorn, München 1996, 27 und 253; vgl. 252-289, wo Gates die Utopie des »reibungslosen Kapitalismus« beschwört.
[44] Vgl. zum Beispiel Peter Zec: Kunst auf neuen Wegen: Eine Skizze zur Geschichte der Medienkunst, in: Faszination in Licht und Ton. Ausstellung in der Städtischen Galerie im Prinz-Max-Palais Karlsruhe, 11. Oktober - 7. Dezember 1986 / Holomedia '86. Hg. von der Stadt Karlsruhe, Städt. Galerie, Karlsruhe 1986, 15-29.
[45] Vgl. Söke Dinkla: Pioniere interaktiver Medienkunst von 1970 bis heute, Ostfildern 1997.
[46] Dinkla: Pioniere, 50f.
[47] Ebd., 52.
[48] Vgl. Martin Heidegger: Die Frage nach der Technik, in: ders.: Die Technik und die Kehre. Pfullingen 81991, 5-36.
[49] Dinkla: Pioniere, 47. Zu der, von Dinkla leider nicht berücksichtigten, »Ontologie des Feindes« im Diskurs der Kybernetik, vgl. Peter Galison: The Ontology of the Enemy: Norbert Wiener and the Cybernetic Vision, in: Critical Inquiry, Vol. 21 (1994) 228-266 und P. Masani / R. Phillips: Anti-Aircraft Fire Control and the Emergence of Cybernetics, in: Norbert Wiener. Collected Works with Commentaries, hg. von P. Masani, Cambridge/Mass. 1985, IV, 141-179. Vgl. auch Axel Roch / Bernhard Siegert: Maschinen, die Maschinen verfolgen, in: Sigrid Schade / Georg Christoph Tholen (Hg.): Konfigurationen. Zwischen Kunst und Medien, München 1999, 219-230.
[50] Dinkla: Pioniere, 122.
[51] Die Begrenzung von Dinklas Perspektive liegt eben auch darin, daß in den sogenannten westlichen Kulturen der Umgang mit interaktiver Medienkunst, ob wir wollen oder nicht, zunehmend von einem positiv bewerteten (»der Markt der Zukunft«) Umgang mit interaktiven Datennetzen vorgeprägt ist. Daher muß die interaktive Medienkunst auf diesen Rezeptionshorizont zurückbezogen werden. In anderen kulturellen Umfeldern können »Interaktivität« und »interaktive Medienkunst« einen ganz anderen Stellenwert haben, vgl. dazu Manovich: Totalitäre Interaktivität.
[52] Dinkla: Pioniere, 117.
[53] Ebd., 229.
[54] Vgl. dazu einige kritische Texte, die sich am Beispiel der Fotografie um die Strategien und Probleme der »Nobilitierung« zur »Kunst« drehen: Allan Sekula: Das instrumentalisierte Bild: Steichen im Krieg, in: Fotogeschichte, Jg. 12, H. 45/46 (1992) 55-74; Christopher Phillips: The Judgement Seat of Photography, in: Annette Michelson u.a (Hg.): October. The First Decade. 1976-1986. Cambridge, MA und London 1987, 257-293; Abigail Solomon-Godeau: Canon Fodder. Authoring Eugéne Atget, in: dies., Photography at the Dock. Essays on Photographic History, Institutions, and Practices, Minneapolis 1991, 28-51 und Rosalind Krauss: Die diskursiven Räume der Fotografie, in: dies. Die Originalität der Avantgarde und andere Mythen der Moderne, Amsterdam und Dresden 2000, 175-196.
[55] Friedrich Kittler: Kulturgeschichte der Kulturwissenschaft, München 2000, Klappentext.
[56] Vgl. Benjamin: Kunstwerk, 17. Ich möchte darauf hinweisen, daß die moderne Kunstgeschichte als Disziplin entscheidend von der fotografischen Reproduktion abhängt: Heinrich Wölfflins vergleichendes Sehen verschiedener Kunstwerke in den *Kunstgeschichtlichen Grundbegriffen+ (1915) setzt ihre fotografische Reproduktion an einem Ort zu einer Zeit zwingend voraus und Wölfflin ist der erste Kunsthistoriker gewesen, der Diaprojektionen zu didaktischen Zwecken eingesetzt hat, vgl. Ernst / Heidenreich: Digitale Bildarchivierung.
[57] Martin Heidegger: Der Ursprung des Kunstwerkes, in: ders.: Gesamtausgabe, Bd. 5, Frankfurt a. M. 1977, 1-74, hier 5.
[58] Friedrich Kittler: Aufschreibesysteme 1800 1900, München 31995, 523. Harsche Kritik am ganzen Konzept der sogenannten »Medienkunst« übt Kittler: Gleichschaltungen, 261/262.