Jens Schröter



INTELLIGENCE DATA.

Zum Weltbezug der so genannten „digitalen Bilder”.



0. Einleitung


Es wird immer wieder behauptet, dass die gegenwärtige Kultur auf dem Weg zum „post-fotografischen Zeitalter”[1] sei. Der Weltbezug, den das indexikalische, fotografische Bild[2] zu verbürgen schien, soll nun, da es ‚digitale Bilder’ gibt, verloren gehen. So behauptet niemand geringerer als Jean Baudrillard, dass aus dem „synthetischen Bild [...] das Reale bereits verschwunden”[3] sei.

Eine Vorbemerkung: Nichts scheint heikler als über die „Welt”, das „Reale” oder das „Wirkliche” zu sprechen.[4] Sind dies nicht bloß Konstrukte? Ja und Nein. Richtig ist, dass nur nach Maßgabe der zur Verfügung stehenden Medien und/oder systemspezifischer Codes das Reale überhaupt erkannt werden kann und d.h. dass sich mit jeder medientechnologischen und/oder systemischen Veränderung das „Reale” verschiebt. Aber es gibt ein Reales an sich als negativem Horizont, der Systeme oder Diskurse irritieren und stören kann – andernfalls hätte z. B. das Kriterium der Falsifikation (durch Experimente) in den Naturwissenschaften keinen Sinn.[5] Dieses dunkle Reale jedenfalls teilweise – der jeweiligen historischen Konstellation entsprechend – zu analysieren und dadurch kontrollierbar zu machen scheint eine Notwendigkeit jeder sozialen Organisation zu sein. Die fotografischen Bilder bezogen und beziehen einen Großteil ihres Erfolgs gerade aus dem Versprechen durch ihre Indexikalität einen Zugriff auf die Welt zu ermöglichen – kaum verwunderlich, dass sie bald für die Natur- und Humanwissenschaften wie für die Polizei unentbehrlich wurden.[6]

Da die angeblich völlig anderen digitalen Bilder gegebenenfalls phänomenal von den fotografischen Bildern nicht unterschieden werden könnten, scheint kein Bild mehr glaubwürdig zu sein. Die Konsequenzen daraus muten verheerend an: Sind nun alle Bilder, denen wir bis jetzt die Fähigkeit zusprachen, uns Informationen über das Reale oder die Welt zu liefern, leer geworden?


Es soll im Folgenden ein (notwendig selektiver und verkürzter) Überblick über verschiedene technologische Entwicklungen gegeben werden, die zu den „digitalen Bildern” führen. Aus diesen Geschichten lassen sich bestimmte Implikationen ableiten, die das geradezu unaufhörliche Gerede über den (vermeintlichen) Realitätsverlust in der „post-fotografischen” Gegenwart zumindest relativieren können: Man könnte sogar stärker formulieren, dass digitale Bilder zwar „referenzlos” sein können, in dem Sinne, dass sie nichts Reales abbilden, aber oft und abhängig von der diskursiven Praxis, in der sie eingesetzt werden, einen sehr deutlichen, gewünschten und funktionalen Weltbezug besitzen: einen Weltbezug, der sogar umfassender sein kann als jener fotochemisch erzeugter Bilder.


Unter dem Schlagwort „digitale Bilder” werden oft undifferenziert zwei verschiedene Typen von Bildern versammelt: Dies sind einerseits (z. B. mit Scannern) abgetastete, d. h. digitalisierte und andererseits algorithmisch generierte Bilder. Diese beiden Bildtypen haben, bei aller möglichen phänomenalen Ähnlichkeit, verschiedene Genealogien, Funktionen und Implikationen.

In 1) möchte ich mich auf die digitalisierten Bilder beziehen, Bilder, die insofern an die fotografischen Bilder anschließen, weil sie wie diese auf einer Abtastung von Licht beruhen. In 2) sollen die generierten Bilder diskutiert werden. Selbst dieser Typ digitaler Bilder, der so grundverschieden von den fotografischen Bildern ist, kann nicht als frei von Weltbezug verstanden werden. Im Gegenteil: Sofern diese Bilder Visualisierungen militärisch oder gar wissenschaftlich genutzter Simulationen sind, dringen sie tiefer in die Struktur des Wirklichen ein als die Bilder, die bloß auf Abtastungen der Oberflächenerscheinungen realer Phänomene beruhen. Außerdem folgen die generierten Bilder teilweise einer Ästhetik des computergrafischen „Fotorealismus” – ein Begriff, der bereits eine Kontinuität zur Fotografie suggeriert.[7]


1. Digitalisierung / Image Processing


Eine der ersten Technologien, bei der man von einer Digitalisierung von Bildern reden kann, war die Bildtelegrafie. Frühe Formen waren noch halb analoge, halb digitale Techniken. Bei diesen „wird, sofern es sich um gezeichnete Striche handelt, ein Schwarz/Weiß-Übergang gesendet (schwarz = Zeichen, weiß = kein Zeichen, oder umgekehrt); allgemein: ein Übergang ist ein Zeichen. Die zweite gesendete Information ist der Ort eines Schwarz/Weiß-Übergangs. Diese Information legt auch fest, wie lang schwarz gesendet/geschrieben werden soll und wie lang weiß. Hier liegt das analoge Element in der Anordnung, da diese Zeit selbst nicht wieder in diskrete Einheiten zerlegt ist.”[8] Mit der so genannten „statistischen Methode der Zwischenklischees” tritt das erste rein digitale Verfahren der Bildübermittlung auf. Das zu sendende Bild wird in Felder gerastert (heute nennt man dies Scanning), deren unterschiedlichen Helligkeitswerten entsprechende diskrete Zeichen zugeordnet werden (heute: Sampling oder Quantisierung).[9] Diese Zeichen gehen dann durch den Kanal und auf der Empfängerseite werden wieder entsprechende Bildpunkte zugeordnet, wodurch das Bild wieder zu rekombinieren ist. Dieses Verfahren war ab etwa 1909 voll maschinisiert.[10]

Obwohl das Zwischenklischeeverfahren hinsichtlich der Rasterung der späteren Digitalisierung im engeren Sinne sehr ähnlich ist, unterscheidet es sich von dieser vor allem in Folgendem: Bei digitalen Computern werden alle von der Peripherie abgetasteten Werte, also auch Bilder, in einem (Video-)-RAM gespeichert, von wo aus z. B. durch die gegebenen Prozessoren der Bildaufbau auf einem Monitor mit einer gegebenen Bildfrequenz betrieben wird. D. h. erstens, dass das Bild nicht nur während der Übertragung, sondern (jedenfalls bis zum Print) immer ein „array of values”[11] ist, was zweitens bedeutet, dass die gespeicherten Werte mathematischen Operationen unterworfen werden können. Dies ist die zentrale Voraussetzung für Image Processing, also genau jenen Verfahren, die am Anfang der militärischen und astronomischen Nutzung von digitalisierten Bildern stehen.


Der digitale Computer, wie er nach Zuse, Turing und von Neumann vor und im Zweiten Weltkrieg und kurz danach entstand, ist zunächst nur eine Rechenmaschine, deren logische Operationen ohne Bezug zu einer wie auch immer gearteten Welt stehen[12] und lediglich den Gesetzen der Mathematik unterworfen sind: „Um jedoch analoge Signale [z. B. verschieden starke, von einer Vorlage reflektierte Lichtwerte, J. S.] digital verarbeiten zu können, müssen sie erst in eine entsprechende Form gebracht werden. Dieses Bindeglied zwischen Analogwelt und Digitalwelt wird Analog/Digital–Wandler [...] genannt.”[13] Die Grundlagen der A/D-Wandlung werden schon in den zwanziger Jahren durch Nyquists Formulierung des Abtasttheorems in einem Artikel über die Zusammenhänge zwischen Zeit- und Frequenzdarstellung von telegrafischen Signalen gelegt.[14] Um aus den abgetasteten Spannungswerten das ursprüngliche Signal reproduzieren zu können, muss die Abtastfrequenz mindestens doppelt so hoch sein wie die des abgetasteten Signals. Das Abtasttheorem ist für die Anwendung der Informationstheorie auf kontinuierliche Signale fundamental, weil es die Darstellung eines kontinuierlichen Signals endlicher Dauer durch eine endliche Anzahl von Freiheitsgraden, also auch als Binärsignal, gestattet. 1937 entwickelte Alec H. Reeves das – damals praktisch noch nicht verwendbare – PCM-Verfahren zur Digitalisierung der Fernsprechübertragung.[15]


Brennend wird das Problem der Digitalisierung, wenn es um die nationale Sicherheit oder gar das Überleben geht (oder zu gehen scheint), wie im Fall des seit 1954 offiziell so genannten Semi-Automatic Ground Environment (= SAGE), das als amerikanisches Vorwarnsystem gegen sowjetische Raketenangriffe konzipiert war und folglich Radarsignale, Abtastungen des Luftraums also, verarbeiten musste. Schon 1949/50 hatte das Air Force Cambridge Research Center Arbeiten an einem System namens DRR (= Digital Radar Relay) komplettiert, das die digitale Übertragung von Radarbildern über Telefonleitungen leisten sollte. Im SAGE-Projekt kam diese Technik erstmals zum praktischen Einsatz.[16]

Bis in die frühen achtziger Jahre waren die Rechenkapazitäten und die Peripherien wie Scanner[17] oder andere Abtaster zur Digitalisierung, Speicherung und Bearbeitung von Bildern noch so kostspielig, dass elektronisch gewonnene, dann digitalisierte und nachbearbeitete Bilder vorwiegend in den eng mit den Belangen der nationalen Sicherheit und des nationalen Prestiges verbundenen und daher hoch subventionierten Bereichen der Spionage- und Weltraumfotografie eingesetzt wurden.[18]


Schon 1946 stellte die Douglas Airforce Corporation einen Bericht zur möglichen Nutzung von Satelliten u. a. zur „Observation” vor. Erst neun Jahre später griff die Air Force in ihrem General Operational Requirement No. 80 diesen Vorschlag wieder auf. Das Spionagesatellitenprogramm, schließlich Samos genannt, bekam durch den Sputnik-Schock 1957 und durch den Abschuss eines bemannten Aufklärungsbombers am 1. Mai 1960 über der Sowjetunion zusätzlichen Auftrieb. Der erste Satellit vom Samos-Typ wurde am 11. Oktober 1960 gestartet und erreichte, ebenso wie Samos 3 und 4, nicht den Orbit. Samos 2 schickte Bilder zur Erde: Dabei wurden Fotos sofort mit dem „Bimat”-Verfahren von Kodak, das dem Polaroid-Verfahren gleichkommt[19], entwickelt und dann elektronisch abgetastet. Die elektrischen, aber noch analogen Signale wurden zur Erde übertragen und dort wieder in Bilder zurückverwandelt. Hier soll bereits digitale Nachbearbeitung zum Einsatz gekommen sein, jedoch blieb die Bildqualität sehr schlecht.[20] Im zeitgleich forcierten und bis 1995 streng geheimen Corona-Spionagesatellitenprojekt wurden daher doch konventionelle Fotografien von der Sowjetunion aufgenommen und in entsprechenden Boxen an Fallschirmen abgeworfen. Die US Air Force fing diese Boxen ab.[21] Da das ersichtlich ein sehr mühsames Verfahren ist, verlor man das Ziel elektronischer Bildübertragung nie aus den Augen, obwohl es noch bis 1976 dauern sollte, bis dieses Ziel erreicht werden konnte.


In der Weltraumfotografie war die Lösung mit abgeworfenen Filmkanistern naheliegenderweise unpraktikabel. Also setzte man hier von Anbeginn auf elektronische Bildabtastung und -übertragung. In Vorbereitung des Apollo-Programms, also der bemannten Mondlandung, wurde das Ranger-Programm gestartet. Aufgabe der Ranger-Sonden war es, Videobilder von der Mondoberfläche an die Erde zu schicken. Die ersten Ranger-Missionen schlugen jedoch fehl, erst Ranger 7, gestartet am 28. Juli 1964, sendete mit einer neuartigen Vidicon-Röhre[22] Videosignale zur Erde. Dort wurden die Bilder am 1965 auf Betreiben von Dr. Robert Nathan gegründeten Information Processing Laboratory (IPL)desJet Propulsion Laboratory (JPL) der NASA digitalisiert und nachbearbeitet. Dazu kam die später so genannte VICAR (Video Image Communication and Retrieval)-Software auf einem IBM 7094 oder IBM 360 zum Einsatz.[23] Ein ganzes Stockwerk des Jet Propulsion Laboratory der NASA wurde von dem Bildbearbeitungsequipment eingenommen. Am 28. November 1964 startete mit Mariner 4 die erste erfolgreiche Sonde zum Mars. Sie sendete ihre nach dem Samos-Prinzip abgetasteten Bilder erstmals in der Geschichte von Satellitenbildern direkt in digitaler Form zur Erde zurück: Angesichts der Distanz zum Mars wäre ein analoges Signal bei Ankunft vom kosmischen Hintergrundrauschen ununterscheidbar gewesen.[24]

Recht bald kam man am IPL auf die Idee, die Bildbearbeitungsverfahren auch auf die Verbesserung medizinischer Bilder, zunächst Röntgenaufnahmen, anzuwenden. Schon 1967 stellten Nathan und Robert Selzer ihre Ergebnisse dem National Institute of Health vor, wo man so begeistert war, dass man die Forschung am IPL finanziell stützte.[25] Insbesondere die Korrektur der geometrischen Verzerrungen durch Image Warping[26]wurde bald intensiv in der medizinischen Bildverarbeitung, vor allem in der erstmals 1981 klinisch evaluierten Digitalen Subtraktions-Angiographie, eingesetzt, um präzise Diagnosen erstellen zu können.[27] Es ist am Rande interessant, dass das Warping als geometrische Transformationstechnik direkter Vorläufer heutiger Kinotrickeffekte, wie dem aus Terminator 2 (USA 1991, R: James Cameron) wohl bekannten Morphing,ist.[28]


Im April 1970 erscheint im The Bell System Technical Journal ein Aufsatz von Dr. William S. Boyle und Dr. George E. Smith mit dem schlichten Titel Charge Coupled Semiconductor Devices. Am Ende dieses Aufsatzes heißt es: „An imaging device may be made by having a light image incident on the substrate side of the device creating electronhole pairs.”[29] Das am 31. Dezember 1974 patentierte CCD ist eine gitterförmige Anordnung lichtempfindlicher Elemente, die Licht in elektrische Ladungen umwandelt. Je mehr CCD-Elemente, desto höher die Auflösung. Die Ladungswerte, die das CCD liefert, können analog gespeichert werden so wie in den ersten kommerziellen Still-Video-Kameras (wie der Sony Mavica 1981). Oder sie können nach Umwandlung durch einen A/D-Wandler digital – wie eben in digitalen Fotokameras – aufgezeichnet werden.

Am 19. Dezember 1976 wurde der erste Spionagesatellit des Typs KH-11 in den Orbit geschickt. Dieser neue Typ verfügte erstmals über ein CCD-System und funkte die Bilder bereits digitalisiert zur Erde. Dadurch wurde die Übertragungsqualität nach dem Vorbild der Mariner-Sonden stark verbessert, fast eine Echtzeitspionage möglich und mit der rein elektronischen Bilderzeugung jeder Rückgriff auf fotochemische Filme überflüssig.[30] Ferner kamen CCD-Systeme bald in der Weltraumfotografie zum Einsatz, um gleich zum Image Processing vorbereitete Bilder zu liefern.[31]

Einer der Vorteile von CCD-Sensoren gegenüber Videobildröhren ist, dass sie viel kürzere Ansprechzeiten benötigen und lichtempfindlicher sind – eine Voraussetzung für den späteren digitalen snapshot. Dieser ist jedoch nur mit so genannten Flächensensoren bzw. CCD-Arrays, bei denen das ganze Bild auf einmal belichtet wird, möglich. Der zweite Typ von CCDs, die Zeilensensoren, liefert viel höhere Auflösungen (und ist daher auch der in Spionage-, Weltraum-, aber auch Werbefotografie bevorzugte Typus), benötigt aber deutlich längere Belichtungszeiten.[32]


Durch Verbilligung sowohl der CCDs als auch der Personal Computer und – bedingt durch die so genannt „benutzerfreundlichen” Interfaces – deren Ausbreitung wurden die Erstellung digitaler Fotos und die Nachbearbeitung auch für Normal-User eine Option. Ab 1989 gibt es für die sich rasch ausbreitenden PCs die ersten Bildbearbeitungsprogramme, die viele der von Militär und NASA entwickelten Image-Processing-Techniken einschließen. Im Februar 1990 erscheint Version 1.0 des heute allgegenwärtigen Adobe Photoshop.[33] In den letzten Jahren erscheinen in rascher Folge immer neue digitale Kameras auf dem Markt, wobei allerdings eine große qualitative Lücke zwischen Home- und Profibereich klafft (besonders im Hinblick auf die Möglichkeit des Einsatzes von Wechselobjektiven und in der Auflösung).[34] Ebenso wurde die Scannertechnologie, die ab den siebzigern bereits in der Druckindustrie zum Einsatz kam, zunehmend preisgünstig.

Etwa zu dieser Zeit taucht scheinbar der heute viel benutzte Begriff „Digitale Fotografie” überhaupt erst auf. Der Journalismus begann auf die Entwicklung zu reagieren: Seit 1988 veranstaltete die National Press Photographers Association jedes Jahr einen Digital Photography Workshop.[35] Ab dem 9. Juni 1988 findet mit Digital Photography: Captured Images, Volatile Memory, New Montage in San Francisco die mutmaßlich erste „künstlerische” Ausstellung unter jenem Begriff statt.[36] Der schnelle Diffusionsprozess der digitalen Fotografie hängt auch daran, dass sie schon technisch an die bisherigen Formen der Fotografie angeschlossen wird: Ende 1990 stellte Kodak die DCS vor. Es handelt sich um eine modifizierte Nikon F3. Kodak kombinierte also eine bereits vorhandene Spiegelreflexkamera mit einer neuen Rückwand, in der ein CCD-Sensor eingebaut war. Und auch im Bereich der Familienfotografie hat die digitale Fotografie relativ bruchlos an die chemische Fotografie und ihre familysnapshots anschließen können, weswegen es kaum verwunderlich ist, dass in digitalen Kameras für den Homebereich nur CCD-Arrays (Flächensensoren) zum Einsatz kommen: „Das Bild wird [bei Arrays, J. S.] schnell erfasst, wie wir das von der herkömmlichen Fotografie her kennen.”[37]


Es zeigt sich an allen Beispielen aus Spionage, Raumfahrt und auch der Medizin, dass dort das Processing, die Manipulation, gerade Bedingung des referentiellen Bezugs der Bilder war und ist: „However imagery is obtained, it requires processing and interpretation to convert it into intelligence data. Computers can be employed to improve the quantity and quality of the information extracted.”[38] Dies steht offensichtlich allen zeitgenössischen Klagen über den Referentialitätsverlust durch die leichte Manipulierbarkeit digitalisierter Bilder diametral entgegen. In der militärischen und astronomischen Frühgeschichte ist der referentielle Bezug digitalisierter Bilder unstrittig.[39]

Daraus kann man aber auch keine „monotone [...] Finalität”[40] ableiten, der zufolge die Manipulierbarkeit digitaler Bilder niemals ein Problem darstellt: Im Feld des „Journalismus” z. B. hat es einige öffentlich stark diskutierte Skandale um teilweise nur leicht digital abgeänderte Bilder gegeben.[41] Weil zum System der Massenmedien permanent ein „Manipulationsverdacht”[42] gehört, wundert es nicht, dass dort der leichten – und zudem nun dank PC und Adobe auch jedem Amateur zur Verfügung stehenden – Bearbeitbarkeit digitaler Bilder besonderes Augenmerk eingeräumt wird. Daran zeigt sich meines Erachtens, dass der Zweifel an der Glaubwürdigkeit digitaler Bilder in erster Linie von der diskursiven Praxis, in welcher die Bilder operieren, abhängt.


Allgemein lässt sich sagen, dass der ebenso beliebte wie schematische Gegensatz zwischen den „referenzlosen” Zeichen digitaler Medien und den „referentiellen” Zeichen fotochemischer Medien problematisch ist.[43] Sofern digitalisierte Daten Abtastungen (von Licht oder Schall oder anderen Phänomenen) und somit auf eine gewisse Weise immer noch indexikalische Zeichen sind, bleiben sie auf die reale Welt bezogen.[44]

Der entscheidende Unterschied zwischen den digital gespeicherten und den analog-mechanisch, analog-elektromagnetisch oder analog-fotochemisch gespeicherten Daten liegt (zumindest auf der Ebene der Pragmatik) nicht im Weltbezug, sondern in der mathematischen Form der digitalen Daten. Dies zeigt sich besonders deutlich an der Computersimulation und den von ihr hervorgebrachten generierten Bildern.


2. Simulation / generierte Bilder / Fotorealismus


Die Wurzeln der Computersimulation liegen in der zivilen und militärischen Luftfahrt. 1910 geschahen die ersten schweren Flugunfälle, die es notwendig machten, die Ausbildung der Piloten sicherer, effektiver und kostengünstiger zu gestalten. Die ersten Konzeptionen zu Flugsimulatoren (z. B. der Sanders Teacher oder der Billing Trainer) stammen aus dieser Zeit.[45]

Jedoch dauerte es noch bis 1931, bis der erste wirklich einsatzfähige Flugsimulator vorlag, Edwin Links Link-Trainer. Dieser war – gemessen an heutigen Technologien – sehr einfach. Pneumatische Mechanismen, von denen Link durch seinen Vater, der mechanisch-pneumatische Klaviere herstellte, Kenntnis hatte, bewegten den Link-Trainer. Sie erlaubten auch die Vortäuschung einfacher Stellkräfte an den Steuerknüppeln, also ein interaktives Feedback, das jedoch noch sehr grob war. Außerdem war die audiovisuelle Imitation der Flugsituation selbst auf eine Horizontlinie beschränkt.


Die Fortentwicklung der Flugsimulation konnte nun auf zwei Weisen geschehen: einerseits durch eine Steigerung des „Realismus” der audiovisuellen Darstellung der Flugsituation und andererseits durch die Verbesserung der Interaktion von Simulator und Pilot. Man konzentrierte sich zunächst auf das erste Problem. 1939 entwickelte Link, jetzt schon in Diensten des Militärs, den Celestial Navigator, der dazu diente, Bomberpiloten die Orientierung am nächtlichen Sternenhimmel beizubringen. Dafür war eine hinreichend naturgetreue Nachahmung des nächtlichen Sternenhimmels vonnöten, die durch eine bewegliche, mit zahlreichen Lichtern ausgestattete Kuppel realisiert wurde. 1943 wurde im so genannten Silloth Trainer, den die Konkurrenz von Link hergestellt hatte, mit einer Hammondorgel der Fluglärm nachgeahmt. Ende der dreißiger Jahre hatte bereits Fred Waller mit mehreren Filmprojektoren und Leinwänden gearbeitet, um das Gesichtsfeld des Piloten auszufüllen.DiesesCinerama-Verfahren wurde von der US Air Force gefördert.

Das zweite Problem – die realistische Reaktion des Simulators auf die Eingaben des Piloten in Echtzeit – setzte die Lösung komplizierter Differentialgleichungssysteme in kürzester Zeit voraus. Dies konnte jedoch, obwohl Vannevar Bush mit seinem analogen Differential Analyzer von 1930 gezeigt hatte, dass eine maschinelle Lösung solcher Gleichungssysteme im Prinzip möglich ist[46], zunächst noch nicht bewältigt werden. Erst als sich die USA im Zweiten Weltkrieg befand, kam die Entwicklung computergestützter Simulatoren entscheidend voran. Um die ballistischen Tabellen, die zur Vorhersage der Flugbahnen von Bomben und Geschossen notwendig waren, schnell zu berechnen, wurde die Computerentwicklung vorangetrieben. Resultat dieser Anstrengungen unter der Leitung von J. Presper Eckert und John W. Mauchly war der ENIAC, einer der ersten Digitalcomputer der Welt, der Anfang 1946 fertig gestellt wurde. 1943 wurde am MIT die Arbeit an einem Airplane Stability Control Analyzer aufgenommen, der zunächst als analoges Computersystem konzipiert war. Ab 1945 entschloss sich Jay Forrester, der Leiter der Projektgruppe, die noch völlig neuen Möglichkeiten digitaler Rechner zu nutzen, um einen universalen Flugsimulator zu bauen, der je nach Bedarf verschiedene Flugzeuge simulieren konnte (was langfristig eine enorme Kostenersparnis bedeutet).[47] In diesem, Whirlwindgenannten, Projekt wurden erstmals Kathodenstrahlröhren als grafisches Display benutzt. Dabei wurde um 1949 auch der erste Vorläufer der Computerspiele entwickelt: ein hüpfender „Ball” (ein Punkt), der durch richtige Wahl entsprechender Parameter in ein Loch gelenkt werden musste. Entscheidend ist, dass dieser „Ball” annähernd wie ein echter Ball hüpfte.[48] Woolley bezeichnet dieses Ereignis als den Beginn der Computersimulation.[49]


Bei Simulationen muss erst „der reale Prozeß [...] in Mathematik abgebildet werden, um dann mittels Algorithmen im Rechner simuliert werden zu können.”[50] D. h. aus abgetasteten Messdatenaller Artund/oder aus diesen abgeleiteten, mathematisch formulierbaren Gesetzmäßigkeiten über das Verhalten des Prozesses kann man mathematische Modelle konstruieren, die den Prozess mit mehr oder weniger großer Annäherung beschreiben (im Beispiel des Whirlwind-Balles: das Verhalten eines elastischen Körpers unter dem Einfluss einer bestimmten Schwerkraft).[51] Die Modelle können dann verändert werden, z. B. zur Prognose des Verhaltens des simulierten Objektes oder Prozesses unter verschiedenen Bedingungen oder – was besonders interessant ist – zur Vorwegnahme des Verhaltens eines auf dem simulierten Objekt oder Prozess beruhenden möglichen zukünftigen Objektes oder Prozesses.[52] Schließlich werden die Modelle und ihr Verhalten auf verschiedenen (auditiven, visuellen oder sogar haptischen) Displays abgebildet: Die Flugsimulation wie auch die so genannte „wissenschaftliche Visualisierung” sind zwei Resultate.


Der „Realismus”, der Bezug des Modells auf die Struktur eines realen Phänomens, steht am Anfang der Simulation: Flugsimulationen müssen die projektierte spätere Flugsituation so realistisch wie möglich vorwegnehmen, damit eine angemessene Vorbereitung geleistet werden kann. Dieser Realismus der Flugsimulatoren bezieht sich (wie angedeutet) auf zwei verschiedene Aspekte:

Erstens auf das interaktive Verhalten des Simulators bei Aktionen des Piloten etc., d. h. darauf, wie genau und wie schnell der Simulator die Regeln befolgt, die das Verhalten eines realen Flugzeugs beschreiben.[53] Dies gilt auch für das Maß, in welchem sich die dargestellte „Landschaft”, durch die das „Flugzeug” fliegt, mit der gewählten Flugroute ändert. Zweitens bezieht sich der Realismus aber auch auf den Charakter des Displays, durch das der Pilot die „Landschaft”, durch die er vermeintlich fliegt, und gegebenenfalls die „Gegner”, gegen die er vermeintlich kämpft, sieht und/oder hört.Hier geht es darum, unabhängig von der Echtzeit-veränderung der dargestellten Grafik, wie „realistisch” die Flugsituation aussieht oder sich anhört. Damit beginnt das Streben nach „Realismus” oder „Fotorealismus”, das große Teile der Computergrafik prägt.[54] Im Übrigen mündet dieses Streben im Diskurs der Informatik oft in dem utopischen „goal of simulating reality”.[55]

Sofern z. B. Beleuchtungsmodellen empirisch gewonnene Kenntnisse über das Verhalten des Lichts an Oberflächen zugrunde liegen, ist der computergrafische Realismus als Simulation zu bezeichnen: Es liegt also auch auf dieser Ebene ein Weltbezug vor.[56] Der Realismus des Displays geht aber nicht vollständig in der Konzeption von Simulation als Computermodell eines realen Phänomens auf: Wie schon der Begriff „Fotorealismus”, der in den Diskursen über Computergrafik immer wieder auftaucht[57], nahe legt, beziehen sich Teile des Realismus der Computergrafik auf die Übernahme bereits etablierter Konventionen aus der Fotografie und dem Film.[58] Zwei der wichtigsten dieser Konventionen möchte ich erwähnen. Erstens ist die Bildorganisation gemäß den Regeln der Zentralperspektive zu nennen – diese Organisation ist bei Fotoapparaten in der Hardware verankert, bei Computern ist sie jedoch optional.[59] Zweitens wird angestrebt, den Reichtum „zufälliger Details” in fotografischen Bildern, die ihren – wie man mit Barthes sagen könnte – „effet du réel”[60] ausmachen, nachzuahmen: Viele generierte Grafiken werden gerade deshalb als noch nicht „realistisch” genug eingestuft, weil sie zu „clean” erscheinen, also zu wenig Kratzer, Flecken u. ä. auf den Oberflächen aufweisen.[61] So kann der Weltbezug generierter Bilder auch darin liegen, dass sie sich zwar nicht auf einen konkreten Referenten, wohl aber auf die ihnen vorhergehenden fotografischen Bilder und ihre Ästhetiken beziehen.


3. Einige kurze Bemerkungen zur Politik digitaler Bilder.


Ich möchte noch auf eine andere Implikation der Geschichte der Simulationstechnologien hinweisen: Flugsimulatoren entspringen der Reaktion auf katastrophische technologische Störungen (Flugzeugabstürze). Die Simulationstechnologien können als Antworten auf (potentielle) Katastrophen verstanden werden. Sie sollen als „control environment”[62] operieren. In diesem environment werden das Erlernen der Beherrschung von technologischen Apparaturen oder das Durchführen von Experimenten gefahrlos möglich.[63] Simulatoren sollen Vorhersagen liefern, um militärisches, wissenschaftliches oder wirtschaftliches Handeln auf ein gesichertes Fundament zu stellen.

Flugsimulatoren dienen dazu, die Reaktionen und Körperbewegungen des Piloten so zu konditionieren, dass im späteren Realfall eine möglichst optimale Reaktion erzielt wird. Foley beschreibt Testreihen mit Versuchspersonen, die belegen, dass ein gesteigerter Realismus des Displays zu schnelleren Reaktionen seitens der User führt: Der „Realismus” der Visualisierungen ist auch eine Technologie der Disziplinierung.[64]


In den Simulationstechnologien materialisiert sich so gesehen ein Wunsch nach einem „anderen wirklichen Raum, der so vollkommen, so sorgfältig, so wohlgeordnet ist wie der unsrige ungeordnet, missraten und wirr ist”.[65] Der Raum der Simulation, der als Kontrollinstanz gegenüber dem wirklichen Raum dienen kann, mag dieser „andere wirkliche Raum” sein. Die Funktion von Simulationen als Kontrollinstanz zeigt sich z. B. in der Verwendung von Simulationen in der Teilchenphysik. Die Ergebnisse von Simulationen zukünftiger Versuche dienen dort als Vergleichsmaßstab, vor dem die Ergebnisse realer Experimente erst bewertet werden können.[66]

Im Fall von Simulationen kann man eine Verschiebung des Verhältnisses zwischen den Bildern und der Welt lokalisieren. Anders als die fotografischen und die digitalisierten Bilder, die ihrem Referenten immer nachfolgen, können die Bilder der Simulation in gewisser Weise ihrem Referenten vorausgehen. Flugsimulationen sind keine Abbilder eines Flugs, der stattgefunden hat, sondern Vorbilder, die den Piloten für einen zukünftigen Flug vorbereiten. In der Architektur, im Maschinenbau und im Design dienen Simulationen oft dazu, neue Produkte erst einmal am Rechner zu entwerfen, potentiellen Kunden vorzustellen oder sogar um die neuen Produkte zu testen, bevor sie dann wirklich hergestellt werden. Sofern Simulationen auf Modellen realer Phänomene beruhen, sind sie noch Abbilder. Wenn die Modelle verändert werden, um mögliche oder zukünftige Phänomene zu modellieren, werden sie Vorbilder: und zwar Vorbilder in einem radikaleren Sinn, als es die bisherigen Bilder waren, die etwa als Handlungsanweisungen oder idealisierte Körperbilder fungieren konnten – also das Imaginäre der rezipierenden Subjekte adressierten.


Vielleicht besteht das ideologische Moment in der Debatte über digitale Bilder gerade darin, deren verschiedene Formen von Weltbezug zu leugnen. Die Betonung der repressiven Machtfunktion der Möglichkeiten digitaler Bilder, also die Unterdrückung von Wahrheiten durch Manipulation, verstellt tendenziell den Blick auf die – im Sinne Foucaults[67]produktiven Machteffekte der neuen Bilder: Sowohl Image Processing als auch die Computersimulation und die von ihr erzeugten Bilder sind mächtige Mittel, um sich einem Realen anzunähern, es zu analysieren und somit zu kontrollieren – das Militär, die kapitalistische Wirtschaft und die Wissenschaftler haben das immer gewusst. Wenn das von Batchen beschriebene „Begehren zu Fotografieren”[68] gelesen werden kann als das Begehren nach einem Bild, das als Abtastung des Realen dieses Reale messbar, analysierbar und mithin kontrollierbar macht, dann existiert dieses Begehren noch immer – auch im ‚post-fotografischen Zeitalter’.

Und die zielgerichtete digitale Manipulation mag – etwa im Feld künstlerischer Praktiken – dazu dienen, eine unsichtbare und verdrängte Wirklichkeit in den Bildern aufzudecken und so einen kritischen Weltbezug herzustellen.[69] Manipulation ist also keineswegs das Gegenteil von Weltbezug, sondern kann gerade dessen Bedingung sein: Der Verdacht drängt sich auf, dass die polemische Trennung von beidem Symptom einer sozialen Realität ist, die ein geradezu Freud’sches Unbehagen gegenüber den Potentialen digitaler Bildtechnologien hat, die Oberflächen des Sichtbaren zu durchstoßen.





[Anmerkungen]



1 Zum Begriff des Post-Fotografischen, vgl. W. J. T. Mitchell: The Reconfigured Eye. Visual Truth in the Post-photographic Era. Cambridge, Mass./London: MIT Press 1992 und Geoffrey Batchen. On Post-Photography. In: Afterimage, Vol. 20, Nr. 3, 1992, S. 17.

[2] „Indexikalisch” ist ein Begriff aus der Semiotik von Charles Sanders Peirce und meint Zeichen, die kausal mit dem Bezeichneten verbunden sind – wie das fotografische Bild, das über das Licht, welches von dem fotografierten Objekt reflektiert wurde und sich in die lichtempfindliche Emulsion einschrieb, mit diesem Objekt verbunden ist. Vgl. Charles S. Peirce. Phänomen und Logik der Zeichen. Frankfurt a. M.: Suhrkamp 1993, S. 64–67.

[3] Jean Baudrillard. Das perfekte Verbrechen. In: Hubertus von Amelunxen (Hrsg.). Theorie der Fotografie IV 1980–1995. München: Schirmer/Mosel 2000, S. 256–260, hier: S. 258. Mir ist unklar, was Baudrillard mit „synthetisches Bild” meint, da meines Erachtens alle Bilder synthetisch genannt werden müssen (Spiegelbilder vielleicht ausgenommen – aber sind das Bilder? Vgl. dazu Umberto Eco. Über Spiegel. In: ders., Über Spiegel und andere Phänomene. München/Wien: Hanser 1993, S. 26–61). Wahrscheinlich ist im Zusammenhang des Zitats, dass Baudrillard computergenerierte Bilder (s. u.) meint – was aber immer noch keinen Sinn macht, weil gezeigt werden kann, dass auch aus generierten Bildern keineswegs das Reale verschwunden ist.

[4] Vorausgesetzt man kann sich überhaupt über diese Begriffe verständigen.

[5] Vgl. in aller Kürze zu dieser schwierigen Frage zwei Beispiele ‚konstruktivistischer’ Theorien, die trotz aller Betonung der Konstruktivität des Erkennens keineswegs dieses negative An-Sich leugnen. Erstens Niklas Luhmann. Soziale Systeme. Frankfurt a.M.: Suhrkamp, S. 145: „Die Differenz von System und Umwelt, die ein System praktiziert, überlagert sich einer durchlaufenden Realität und setzt diese voraus.” Zweitens Ernesto Laclau / Chantal Mouffe. Hegemonie und radikale Demokratie. Zur Dekonstruktion des Marxismus. Wien: Passagen 22000, S. 144: „Die Tatsache, daß jedes Objekt als Objekt des Diskurses konstituiert ist, hat überhaupt nichts zu tun mit dem Gegensatz von Realismus und Idealismus oder damit, ob es eine Welt außerhalb unseres Denkens gibt.”

[6] Vgl. Herta Wolf: Fixieren – Vermessen: Zur Funktion fotografischer Registratur in der Moderne. In: Norbert Bolz, Cordula Meier, Birgit Richard und Susanne Holschbach (Hrsg.). Riskante Bilder. Kunst Literatur Medien, München: Fink 1995, S. 239-261 und Susanne Regener. Fotografische Erfassung. Zur Geschichte medialer Konstruktionen des Kriminelle. München: Fink 1999.

[7] Das „Fotografische” kann in der Art der Entstehung eines Bildes, der (indexikalischen) Einschreibung von Licht (sei es in eine chemische Emulsion oder auf die Oberfläche eines CCD mit anschließender Umwandlung der Werte in digitalen Code) verortet werden oder im „Look” eines Bildes, seinem konventionalisierten und historisch wandelbaren „fotografischen Aussehen”, vgl. dazu Wolfgang Ullrich. Digitaler Nominalismus. Zum Status der Computerfotografie. In: Fotogeschichte, Jg. 17, H. 64, S. 63–73. Vgl. auch Geoffrey Batchen. Burning with Desire. The Conception of Photography. Cambridge, Mass./London: MIT Press 1997, S. 206–216, dem zufolge vielleicht die fotochemische Fotografie, nicht aber das „Fotografische” verschwindet. Zur Simulation des fotografischen „Looks” in Teilen der Computergrafik, siehe 2.

[8] Birgit Schneider / Peter Berz. Bildtexturen. Punkte, Zeilen, Spalten. Vortrag auf dem Symposion „Mimesis. Zur Krise des Bildbegriffs”, Kassel, 5. Februar 1999, http://waste.informatik.hu-berlin.de/MTG/mtg4/Schneider_Berz/textil.html (Letzter Zugriff: Juli 2001), Teil 2: „Bildtelegrafie” (Peter Berz).

[9] D. h. man muss bei der Frage nach der Auflösung der Digitalisierung eines Bildes zwischen dem Definitionsbereich,also der Menge der Bildpunkte, und dem Wertebereich, das ist die Zahl der diskreten Tonwertstufen, unterscheiden, vgl. Jost J. Marchesi. Handbuch der Fotografie, Band 3, Gilching: Verlag Photographie 1998, S. 248.

[10] Vgl. Schneider / Berz, a. a. O.

[11] James D. Foley / Adries van Dam / Steven K. Feiner / John F. Hughes. Computer Graphics. Principles and Practice. Reading, Mass. u. a.: Addison Wesley 1990, S. 816.

[12] Natürlich hängt die Ausführungsgeschwindigkeit der Programme an der physikalischen Implementierung.

[13] Rainer Eckl, Leonhard Pütgens und Jürgen Walter. A/D- und D/A-Wandler. Grundlagen, Prinzipschaltungen und Applikationen. München: Franzis 1990, S. 11. In diesem Buch werden alle technischen Grundlagen detailliert erläutert.

[14] Harry Nyquist. Certain Topics in Telegraph Transmission Theory. In: Transaction of the American Institute of Electric Engineers, Vol. 47, 1928, S. 617–644. Siehe auch Claude Elwood Shannon. Communication in the Presence of Noise. In: Proceedings of the Institute of Radio Engineers (=Proc. IRE), Vol. 37, No. 1, 1949, S. 10–21.

[15] Vgl. E. Maurice Deloraine / Alec H. Reeves. 25 Jahre Pulscodemodulation. In: Elektrisches Nachrichtenwesen, Bd. 40, Nr. 4, 1965, S. 434–447.

[16] Auf SAGE gehe ich gleich nochmals ein. Zu DRR siehe John V. Harrington. Radar Data Transmission. In: IEEE Annals of the History of Computing, Vol. 5, No. 4, 1983, S. 370–374. Harringtons Gruppe hat die ersten Modems entwickelt, eine Technik, die das Militär später zugunsten volldigitaler Übertragungsmethoden aufgab. Im Consumer-Bereich kommen Modems jedoch noch bis in die jüngste Gegenwart zum Einsatz, um digitale Daten für analoge Telefonleitungen umzuwandeln. Das gilt auch für den Transfer digitalisierter Fotografien im Internet.

[17] Bestimmte Formen der Bildtelegrafie waren im Hinblick auf die technische Anordnung der Abtastung (Trommelverfahren) den Mitte der fünfziger Jahre erstmals entwickelten ersten Scannern sehr ähnlich, vgl. Scchneider / Berz, a.a.O. Vgl. R. A. Kirsch / L. Cahn / C. Ray / G. H. Urban. Experiments in Processing Pictorial Information with a Digital Computer. In: Proceedings of the Eastern Joint Computer Conference (=EJCC) 1957, S. 221–229, insb. S. 222 und Russell Kirsch. SEAC and the Start of Image Processing at the National Bureau of Standards. In: IEEE Annals of the History of Computing, Vol. 20, No. 2, 1998, S. 7–13. Vgl. Marchesi, a. a. O., S. 262–264.

[18] Vgl. zum Folgenden Jeffrey T. Richelson. U.S. Satellite Imagery, 1960–1999. National Security Archive Electronic Briefing Book No. 13, http://www.gwu.edu/~nsarchiv/NSAEBB/NSAEBB13/index.html (Letzter Zugriff: Juli 2001.) Allerdings wurden digitale Verfahren auch schon während des Zweiten Weltkriegs bei der Nachbearbeitung von Radarsignalen eingesetzt. Da es in diesem Aufsatz jedoch um die Vorgeschichte der digitalen Fotografie geht, werde ich auf diese Entwicklungen nicht detailliert eingehen.

[19] Es ist am Rande bemerkenswert, dass der Erfinder der Polaroid-Fotografie, Edwin Land, eine wichtige Rolle bei der Errichtung des Spionagesatellitensystems der USA spielte. Die Kameras des Corona-Systems sind von ihm maßgeblich mitentworfen worden. Vgl. Victor McElheny. Insisting on the Impossible: The Life of Edwin Land. Cambridge, Mass.: Perseus Books 1999, S. 322–340.

[20] Vgl. Curtis Peebles. Guardians. Strategic Reconnaissance Satellites. Novato: Presidio 1987, S. 61–65 und 71.

[21] Vgl. zu Corona: Kevin C. Ruffner (Hrsg.). Corona. America´s First Satellite Program. Washington D.C.: CIA History Staff 1995, S. 3–39 und insb. S. 7: „Recognizing the need for resolution to meet the intelligence objectives, it was concluded that physical film recovery offered the most promising approach for a usable photographic return in the interim time period.”

[22] Vgl. http://nssdc.gsfc.nasa.gov/nmc/tmp/1964-041A-1.html (Letzter Zugriff: Juli 2001). Vgl. zur Verfahrensweise von Vidicon-Röhren George Wolberg. Digital Image Warping. Los Alamitos: IEEE Computer Society Press 1990, S. 33/34.

[23] Vgl. Fred C. Billingsley. Processing Ranger and Mariner Photography. In: Journal [of the] Society of Photo-Optical Instrumentation Engineers, Vol. 4, No. 4, April/May 1966, S. 147–155. Billingsley, S. 147, spricht vom IBM 7094, während Ken Sheldon. Probing Space by Camera. The Development of Image Processing at NASA´s Jet Propulsion Laboratory. In: Byte. März 1987, S. 143–148, hier S. 145, behauptet, man hätte am IPL einen IBM 360/44 eingesetzt.

[24] Sheldon, a. a. O., S. 144. Vgl. D. R: Montgomery and L .A. Adams. Optics and the Mariner Imaging Instrument. In: Journal of Applied Optics, Vol. 9, No. 2, February 1970, S. 277–287.

[25] Ebd., S.145–147.

[26] Vgl. Billingsley 1966, S. 153/154 und Fred C. Billingsley. Applications of Digital Image Processing. In: Applied Optics, Vol. 9, No. 2, February 1970, S. 289–299, insb. S. 292–294. Vgl. zu den mathematischen und informatischen Grundlagen des Warpings ausführlich Wolberg, a. a. O.

[27] Vgl. zu DSA Erik H.W. Meijering / Karel J. Zuiderveld / Max A. Viergever. A Fast Technique for Motion Correction in DSA [= Digital Subtraction Angiography] using a Feature Based, Irregular Grid. In: William M. Wells / Alan Colchester / Scott Delp (Hrsg.). Medical Image Computing and Computer-Assisted Intervention. MICCAI 98 Proceedings. Berlin u. a.: Springer 1998, S. 590–597.

[28] Vgl. zum Rückgriff auf diese Techniken im sog. Morphing, dessen genauere Bezeichnung Two-Pass Mesh Warping lautet, Wolberg, a.a.O, S. 222–240. Vgl. auch Jens Schröter. Ein Körper der Zukunft. Zur Geschichte, Semantik und den Implikationen der Morphingkörper. In: Doris Schumacher-Chilla (Hrsg.). Das Interesse am Körper. Essen: Klartext-Verlag 2000, S. 250–268.

[29] W. S. Boyle und G. E. Smith. Charge Coupled Semiconductor Devices. In: The Bell Systems Technical Journal, Vol. 49.1, No. 4, 1970, S. 587–593, hier: S. 592.

[30] Vgl. Peebles, a. a. O., S. 118. Vgl. Jeffrey T. Richelson. America´s Secret Eyes in Space. New York: Ballinger 1990, S. 123–143. Richelson weist auf die Rolle des Image Processings auch für die von KH-11 Satelliten gelieferten Bilder hin.

[31] In Nigel Henbest / Michael Marten. Die neue Astronomie. Basel u. a.: Birkhäuser 1984, S. 53, heißt es denn auch begeistert: „Was [...] CCD liefer[t], ist in einem Computer zugriffsbereit gespeichert, so dass Astronomen es für alle Darstellungstricks der Bildverarbeitung mit falschen Farben aufrufen können.” Vgl. auch Peebles, a. a. O., S. 119.

[32] Vgl. Marchesi, a. a. O., S. 255–261.

[33] Vgl. Jeff Seideman. Digital Image Processing. A Short History. In: Journal of the Photographic Historical Society of New England, No. 157, 2/1999, S. 8–11 und 18, hier: S. 11.

[34] Vgl. Marchesi, a. a. O., S. 266–276.

[35] In einer E-Mail vom 22.08.2000 schrieb mir Bradley Wilson, Executive Director der National Press Photographers Association:„Our digital photography workshop got started in 1988. When I look back at News Photographer columns from 1987, I see references to ‘digital imaging’ primarily. ‘Electronic picture desks’ pop in in Nov. 1987. I see ‘Digital images’ in 1988 too. I even see ‘Scitexing’ as a verb. There was also The Digital Photography and Editing Conference that got started with NPPA in 1989 but was founded in 1985. Later, I see references to ‘Electronic Imaging’ around 1989. In fact, our ethics policy was built around ‘electronic imaging’ and ‘electronic manipulation’ and ‘photographic manipulation.’ In 1993, I see ‘electronic photojournalism’ and references to digital cameras. The fifth Electronic Photojournalism Workshop was in 1993. Last year, we released our ethics tape, ‘Ethics in the Age of Digital Photography.’ So bottom line, I can’t tell you when digital photography first made it into the vocabulary of the photojournalist. However, as someone that’s been in the digital photography/technology business since it came around, it’s a common part of the vocabulary now. In fact, in some circles, of you don’t specify film, they assume you’re talking digital.”

[36] Vgl. Marnie Gillett / Paul Berger (Hrsg.). Digital Photography: Captured Image, Volatile Memory, New Montage. San Francisco: SF Camerawork 1988.

[37] Marchesi, a. a. O., S. 258.

[38] Richelson, a. a. O. Hervorhebung, J. S. Vgl. Billingsley, a. a. O. [Applications of Digital Image Processing], S. 289. Vgl. auch Jeffrey Star. Introduction to Image Processing. In: Byte, Februar 1985, S. 163–170, insb. S. 185: „The principal idea behind image processing is to make an image more informative, or, in communications jargon, to extract more signal from noise.” Zur Bildbearbeitung bei der Auswertung auch anderer Satellitendaten wie der von Wettersatelliten siehe Robert M. Haralick. Automatic Remote Sensor Image Processing. In: Azriel Rosenfeld (Hrsg.). Digital Picture Analysis (Topics in Applied Physics, Vol. 11). Berlin u. a.: Springer 1976, S. 5–63.

[39] Der offizielle Bericht der NASA über ihre Ranger 7-Mission (deren Erfolg die endgültige Einstellung des Ranger-Programms verhinderte) verschweigt die Bildbearbeitung vollständig. Man kann dies als Zeichen dafür interpretieren, dass die Bearbeitung überhaupt nicht als Problem gesehen wurde. Vgl. National Aeronautics and Space Administration. Ranger VII. Special Report to Congress, Aug. 4, 1964. Washington, D.C.: National Aeronautics and Space Administration 1964. Zur militärischen Lektüre von Fotografien, die den Zweck verfolgt „ein mehrdeutiges zweidimensionales Bild in ein eindeutiges Wissen über seinen dreidimensionalen Referenten zu verwandeln”, vgl. Allan Sekula. Das instrumentalisierte Bild: Steichen im Krieg. In: Fotogeschichte, Jg. 12, H. 45/46, 1992, S. 55–74, hier S. 58.

[40] Michel Foucault. Nietzsche, die Genealogie, die Historie. In: ders., Von der Subversion des Wissens. Frankfurt a. M.: Fischer 1987, S. 69–90, hier: S. 69.

[41] Einige Beispiele dafür werden in Martha Rosler. Bildsimulationen, Computermanipulationen. In: Hubertus v. Amelunxen, Stefan Iglhaut und Florian Rötzer: Fotografie nach der Fotografie. Dresden, Basel: Verlag der Kunst 1995, S. 36–57, genannt. Der Wirbel um diese digitalen Bearbeitungen ist schon deswegen verwunderlich, weil – wie Rosler auch betont – die Manipulation und Bearbeitung ebenso die Geschichte der foto-chemischen Fotografie von Anfang an begleitet.

[42] Niklas Luhmann. Die Realität der Massenmedien. Opladen: Westdeutscher Verlag, 2. Auflage, 1996, S. 9 und 31.

[43] Vgl. zum Beispiel Thomas Wimmer. Die Fabrikation der Fiktion. In: Florian Rötzer (Hrsg.). Digitaler Schein. Ästhetik der elektronischen Medien, Frankfurt a. M.: Suhrkamp 1991, S. 519–533. Wimmer spricht von „pure[r] Selbstreferentialität der digitalen Zeichen” (529). Dies ist schon deswegen absurd, weil ein pur selbstreferentielles Zeichen gar kein Zeichen ist.

[44] Streng genommen ist jedes digitalisierte Bild eine Art „Fotografie”, insofern das von der Vorlage (und sei sie ein Gemälde) reflektierte Licht abgetastet und dann in digitalen Code umgewandelt wird.

[45 ] Vgl. J.M. Rolfe, / K.J. Staples. Flight Simulation. Cambridge u. a.: Cambridge University Press. 1986, S. 14–17.

[46] Vgl. Robert Owens. Vannevar Bush and the Differential Analyzer. The Text and Context of an Early Computer. In: James M. Nyce / Paul Kahn (Hrsg.). From Memex to Hypertext. Vannevar Bush and the Mind’s Machine. Boston u. a.: Academic Press 1991, S. 3–38.

[47] Everett, einer der Mitarbeiter am Whirlwind-Projekt, bemerkt: „The idea was to build a generalized trainer, which would actually solve the equations of motion and aerodynamics of an aircraft” (Robert Everett. Whirlwind. In: M. Metropolis u. a. (Hrsg.). A History of Computing in the Twentieth Century. New York: Academic Press 1980, S. 365–384, hier S. 365.Zur Geschichte von Whirlwind, siehe Paul N. Edwards. The Closed World. Computers and the Politics of Discourse in Cold War America. Cambridge, Mass./London: MIT Press 1996, S. 75–112, und Karl L. Wildes / Nilo A. Lindgren. A Century of Electrical Engineering and Computer Science at MIT, 1882–1982. Cambridge, Mass. /London: MIT Press 1986, S. 228–235 und S. 280–301.

[48] Vgl. SIGGRAPH Proceedings 1989 II, 31.7.–4.8., Boston, Mass.. In: Computer Graphics, Vol. 23, No. 5, Dezember 1989, hier S. 21.

[49] Vgl. Benjamin Woolley. Die Wirklichkeit der virtuellen Welten. Basel, Boston und Berlin: Birkhäuser 1994, S. 46. Allerdings hat Woolley hier Unrecht: Die ersten Simulationen (sog. „Monte Carlos”) wurden bereits ab Dezember 1945 auf dem ENIAC im Rahmen der amerikanischen Forschung an der Wasserstoffbombe durchgeführt, vgl. Peter Galison. Image and Logic. A Material Culture of Microphysics. Chicago und London: Chicago University Press 1997, S. 689–780. Mit Dank an Herta Wolf.

[50 ] Helmut Neunzert. Mathematik und Computersimulation: Modelle, Algorithmen, Bilder. In: Valentin Braitenberg und Inga Hosp(Hrsg.). Simulation. Computer zwischen Experiment und Theorie. Reinbek bei Hamburg: Rowohlt 1995, S. 44–55, hier S. 44. Zu den frühen Diskussionen um das Verhältnis von Simulationen und der Natur, vgl. Galison, a. a. O., S. 738–746 und S. 776–780. Zu den verschiedenen Formen von Computersimulation vgl. Michael M. Woolfson / G.J. Pert. An Introduction to Computer Simulation. Oxford u. a.: Oxford University Press 1999.

[51 ] Vgl. SIGGRAPH Proceedings 1989 II, a. a. O., S. 21 zum mathematischen Charakter des Ball-Modells: „Charlie Adams [...] invented what we call the Bouncing Ball Program, the solution of three differential equations.”

Ein Beispiel für das Abtasten von Daten sind die Atombombentests, die Frankreich 1995 auf dem Mururoa-Atoll durchführte. Diese Tests wurden damit gerechtfertigt, dass sie dazu dienen würden, Daten für Simulationen von Atomexplosionen zu sammeln, um so jeden weiteren realen Atombombentest überflüssig zu machen. Auch bei den amerikanischen Forschungen an der Wasserstoffbombe nach 1945 wurden den Simulationen bekannte Messergebnisse und die daraus ableitbaren Gesetzmäßigkeiten zugrunde gelegt: „Before the calculation could begin, Metropolis and his collaborators wrote out a handful of differential equations giving a simplified description of the deposition of energy by photons and nuclei, the release of energy by nuclear fusion, and the hydrodynamics of the simulated bomb.” (Galison, a. a. O., S. 699). Ein weiteres Beispiel findet man in Ivan Sutherland / Henri Gouraud. Les Images Electroniques. In: La Recherche, No. 29, 1972, S. 1055–1061, hier S.1058, wo es um die Computermodellierung eines VW geht: „Avant de pouvoir générer une ‚image électronique’ d’un objet il est nécessaire d’en entrer la définition dans l’ordinateur. Dans le cas où l’objet existe, cela peut être fait en mesurant la position dans l’espace de points situés sur sa surface.”

[52 ] Vgl. Everett, a. a. O., S. 365, der zum Project Whirlwind bemerkt, dass sich der Simulator bei der Eingabe der entsprechenden Daten auch wie ein „airplane not yet built” verhalten könne.

[53] Zur Geschichte der Interaktion mit Computerdisplays, die bei Whirlwind begann und auf die ich hier nicht eingehe, vgl. Lev Manovich. Eine Archäologie des Computerbildschirms. In: Kunstforum International, Bd. 132, 1995, S. 124–136.

[54] Vgl. Martin E. Newell / James F. Blinn. The Progression of Realism in Computer-Generated Images. In: ACM 77. Proceedings of the Annual Conference. New York: ACM 1977, S. 444–448, hier S. 444: „In the mid-sixties techniques for photograph-like images of modelled three dimensional scenes started to emerge. The initial motivation for these was in flight simulation, where the illusion of reality is important.” (Hervorhebung, J. S.). Die Techniken des computergrafischen „Fotorealismus” bis 1990 werden in Foley et al., a. a. O., S. 605–648 ausführlich dargestellt.

[55 ] Newell / Blinn, a. a. O., S. 448. Auf die Utopien, die mit der Computersimulation sowohl in informatischen als auch in populären Diskursen verbunden sind und die als Endziel der „fotorealistischen” Ausrichtung eine Simulation imaginieren, die in nichts mehr von der wirklichen Welt unterschieden werden kann, wird hier nicht eingegangen.

[56] Vgl. Axel Roch. Computergrafik und Radartechnologie. Zur Geschichte der Beleuchtungsmodelle in computergenerierten Bildern. In: Manfred Faßler und Wulf Halbach (Hrsg.). Geschichte der Medien. München: Fink (UTB) 1998, S. 227–254, hier S. 250: „Tatsächliche, empirische Messungen für Reflexionseigenschaften an rauhen Oberflächen liegen nämlich besonders ausführlich für Radar vor. An genau diesen empirischen Kurven orientieren sich die theoretischen Streuungsfelder von Cook/Torrance.” Roch bezieht sich hier auf Robert L. Cook / Kenneth E. Torrance. A Reflectance Model for Computer Graphics. In: ACM Transactions on Graphics, No. 1, 1982, S. 7–24. Vgl. auch Axel Roch. Die Wasseroberfläche. Medialität und Ästhetik der elektronischen Reflexion. In: Manfred Faßler(Hrsg.). Ohne Spiegel leben. Sichtbarkeit und posthumane Menschenbilder. München: Fink 2000, S. 123–140.

[57] Zu den Grenzen des so genannten „Fotorealismus”, vgl. Lev Manovich. Realitätseffekte in der Computeranimation. In: Stefan Iglhaut / Florian Rötzer / Elisabeth Schweeger (Hrsg.). Illusion und Simulation. Begegnung mit der Realität. Ostfildern: Edition Cantz 1995, S. 49–60 und Friedrich Kittler. Computergrafik. Eine halbtechnische Einführung. Vortrag, gehalten in Basel, Juni 1998, http://sophie7.culture.hu-berlin.de/aesthetic/graphik.htm (Letzter Zugriff: Juli 2001).

[58 ] Vgl. Manovich, a. a. O., S. 56.

[59] Computergenerierte Bilder könnten natürlich auch jeder anderen Form von Projektion unterliegen, folgen aber, wenn sie „fotorealistisch” sein wollen, der perspektivischen Organisation, vgl. Foley et al., a. a. O., S. 230–237, insb.: 231: „The visual effect of a perspective projection is similar to that of photographic systems.” Im Zusammenhang mit der zentralperspektivischen Organisation von generierten Bildern wird immer wieder die bezeichnende Metapher der „virtuellen Kamera”, die das Bild „aufnimmt”, genutzt, vgl. Mitchell, a.a.O, S. 117–135.

Zu den Implikationen der Zentralperspektive vgl. immer noch die Diskussionen der Apparatus-Theorie, bündig summiert in: Hartmut Winkler. Der filmische Raum und die Zuschauer. ‚Apparatus’ – Semantik – ‚Ideology’. Heidelberg: Winter 1992, S. 19–76.

[60] Vgl. Roland Barthes. L’effet du réel. In: Communications, No. 11, 1968, S. 84–89, insb. S. 87/88.

[61] Vgl. Newell / Blinn, a. a. O., S. 445/446.

[62 ] Vgl. S. R. Ellis. Nature and Origins of Virtual Environments. A Bibliographical Essay. In: Computing Systems in Engineering. Vol. 2, No. 4, 1991, S. 321–347, hier S. 327. Vgl. auch William Bogard: The Simulation of Surveillance. Hypercontrol in Telematic Societies, Cambridge: Cambridge Univ. Press 1996, der Simulationstechnologien generell als Kontrolltechnologien beschreibt.

[63] Dies gilt übrigens auch für die so genannten Telepräsenztechnologien, vgl. Howard Rheingold. Virtuelle Welten. Reisen im Cyberspace. Reinbek bei Hamburg: Rowohlt, S. 548/549.

[64] Vgl. James D. Foley. Interfaces for Advanced Computing. In: Scientific American, October 1987, S. 82–90, hier S. 90. Er spricht auch explizit davon, dass die „maximization of user efficiency” (83) das Ziel verbesserter, interaktiver Interfaces sei. So gesehen, stehen die Simulatoren in einer längeren Tradition der Normalisierung und Disziplinierung, die in den arbeitswissenschaftlichen Forschungen Taylors und Gilbreths einen besonders markanten Ausdruck findet, vgl. zum Einsatz fotografischer Medien dabei Suren Lalvani. Photography, Vision, and the Production of Modern Bodies. Albany: State Univ. of New York Press 1996.

[65 ]Vgl. Michel Foucault. Andere Räume. In: Karlheinz Barck / Peter Gente / Heidi Paris / Stefan Richter (Hrsg.) Aisthesis. Wahrnehmung heute oder Perspektiven einer anderen Ästhetik. Leipzig: Reclam 1991, S. 34–46, hier S. 45.

[66] Vgl. Galison, a. a. O., S. 680 und 750.

[67] Vgl. Michel Foucault. Sexualität und Wahrheit. Bd. 1. Der Wille zum Wissen. Frankfurt a. M.: Suhrkamp 1986.

[68] Vgl. Batchen, Burning with Desire, a. a. O.

[69] Es sei hier an Bertolt Brecht erinnert, der in einem anderen Zusammenhang schon darauf verwies, dass „weniger denn je eine einfache ‚Wiedergabe der Realität’ etwas über die Realität aussagt. Eine Photographie der Kruppwerke oder der AEG ergibt beinahe nichts über diese Institute. [...] Es ist also tatsächlich etwas aufzubauen, etwas ‚Künstliches’, ‚Gestelltes’” (Gesammelte Werke. Frankfurt a. M.: Suhrkamp 1968. Bd. 18, S. 160/161). In Brechts Augen wären also vor allem offenkundige Manipulationen von fotografischen Bildern – wie z. B. in den Fotocollagen von John Heartfield – in der Lage, die soziale Realität hinter den bloßen Oberflächenerscheinungen aufzudecken: Eine bleibende Aufgabe für KünstlerInnen, die mit Image Processing arbeiten ...