Virtuelle Kamera
Zum Fortbestand fotografischer Medien in computergenerierten Bildern

Jens Schröter
Die Simulation ist das Phantasma selbst,
das heißt der Effekt des Funktionierens des
Trugbildes als Maschinerie.

Gilles Deleuze.[1]


Post-Fotografie – Ende der Fotografie ?

1991 oder 1992 wurde das ‚post-fotografische Zeitalter’ ausgerufen.[2] Mit dieser Deklamation ging die Befürchtung einher, nun drohe der Verlust des zwar theoretisch bestreitbaren, aber dennoch für viele Praktiken unverzichtbaren ‚Wirklichkeitsbezugs’ der durch fotografische Medien erzeugten Bilder. Bereits 1982 hatte die Zeitschrift National Geographic einen Eklat ausgelöst, als sie auf einem Titelblatt – der Gestaltung halber – die Pyramiden von Gizeh näher aneinanderrückte (Abb. 1). Ungleich schwerer wiegt der Fall der Time vom 27. Juni 1994, auf deren Titelseite der des Mordes verdächtigte O. J. Simpson – während des laufenden Prozesses – computermanipuliert schwärzer erschien als auf dem Umschlagbild von Newsweek des selben Tages (Abb. 2).
Fred Ritchin mahnte schon lange vor diesem Beispiel, dass der Bildjournalismus und seine – natürlich immer von begleitenden Kommentaren abhängige – Funktion der Bezeugung realer Vorgänge mit dem Einzug des Computers am Ende sei.[3] Denn wenn es digital manipulierte Fotos oder gar gänzlich anders erzeugte ‚synthetische’ Bilder gibt, die von Fotografien ununterscheidbar sind, kann keinem fotografisch erscheinendem Bild mehr der Status als Spur und Dokument eines vergangenen Wirklichen angesehen werden. Gerade diese Klage zeigt aber, dass ‚post-fotografische’ Bilder – obwohl ihre technologischen und epistemologischen Grundlagen in vielerlei Hinsicht neuartig sind[4] – die fotografischen Medien beerben, denn die (angebliche) Bedrohung des Dokument-Charakters fotografischer Bilder ist ja nur möglich, weil bestimmte Arten digital erzeugter Bilder eben aussehen wie fotografische Bilder. Den technischen Umbruch von analog zu digital überdauert also ein historisch gewachsenes, foto- oder filmtypisches „Vokabular von Konventionen“.[5] Dies zeigt sich insbesondere an dem in der professionellen computergrafischen Bildgenerierung[6] angestrebten Fotorealismus. Anders gesagt: Es ist auffällig, dass gerade in Bildern, die weitgehend von denen der fotografischen Medien verschieden sind – den computergenerierten, „synthetischen“ Bildern, von denen Baudrillard behauptet, aus ihnen sei „das Reale bereits verschwunden“[7] – eine Rhetorik des Fotografischen bemüht wird. Dies widerspricht der Behauptung, mit dem Auftauchen der neuen Bildtypen werde „sogar die Rhetorik der Wahrhaftigkeit [verworfen], die so ein wichtiger Teil des kulturellen Erfolges der Fotografie war“.[8] Im Folgenden soll der historischen Entstehung des computergrafischen Fotorealismus, seinen Funktionen und der Frage, ob die Rhetorik der Wahrhaftigkeit auch ein wichtiger Bestandteil des kulturellen Erfolges der generierten Bilder ist, nachgegangen werden.


Vorgeschichte: Flugsimulation.

Die ersten Anfänge fotorealistischer Grafiken liegen in der zivilen und militärischen Luftfahrt. 1910 geschahen die ersten schweren Flugunfälle, die es notwendig machten, die Ausbildung der Piloten sicherer, effektiver und kostengünstiger zu gestalten. Die ersten Konzeptionen zu Flugtrainingsmaschinen (z. B. der Sanders Teacher oder der Billing Trainer) stammen aus dieser Zeit.[9] Jedoch dauerte es noch bis 1931, bis der erste wirklich einsatzfähige Flugimitator vorlag, Edwin Links Link-Trainer (Abb. 3). Pneumatische Mechanismen, von denen Link durch seinen Vater, der mechanisch-pneumatische Klaviere herstellte, Kenntnis hatte, bewegten die Maschine. Sie erlaubten auch die Vortäuschung einfacher Stellkräfte an den Steuerknüppeln. Die audiovisuelle Imitation der Flugsituation selbst war auf eine Horizontlinie beschränkt. Die Fortentwicklung des Flugtrainings konnte auf zwei Weisen geschehen. Einerseits durch eine Steigerung des ‚Realismus’ der audiovisuellen Darstellung der Flugsituation und andererseits durch die Verbesserung der Interaktion von Maschine und Pilot. Man konzentrierte sich zunächst auf das erste Problem. 1939 entwickelte Link, jetzt schon in Diensten des Militärs, den Celestial Navigator, der dazu diente, Bomberpiloten die Orientierung am nächtlichen Sternenhimmel beizubringen. Dafür war eine hinreichend naturgetreue Nachahmung des nächtlichen Sternenhimmels vonnöten, die durch eine bewegliche, mit zahlreichen Lichtern ausgestattete Kuppel realisiert wurde. Ende der dreißiger Jahre hatte Fred Waller – von der US-Air Force gefördert – mit mehreren Filmprojektoren und Leinwänden gearbeitet, um das Gesichtsfeld des Piloten mit ‚realistischen’ Bildern auszufüllen (‚Cinerama’-Verfahren). An diese kinematographischen Vorgaben wird die Computergrafik anschließen (s. u.). Das zweite Problem, die realistische Reaktion des Trainingsgeräts auf die Eingaben des Piloten in Echtzeit (‚Interaktivität’) setzte die Lösung komplizierter Differentialgleichungssysteme in kürzester Zeit voraus, was zunächst nicht bewältigt werden konnte.[10]
Als sich die USA jedoch im Zweiten Weltkrieg befanden, wurde die Entwicklung der Rechner beschleunigt – durch die militärische Notwendigkeit ballistische Tabellen, die zur Vorhersage der Flugbahnen von Bomben und Geschossen notwendig waren, schnell zu berechnen. Resultat dieser Anstrengungen war der ENIAC, einer der ersten Digitalcomputer der Welt, der Anfang 1946 unter der Leitung von J. Presper Eckert und John W. Mauchly fertiggestellt wurde. Etwa zeitgleich, 1943, wurde am Massachusetts Institute of Technology die Arbeit an einem Airplane Stability Control Analyzer aufgenommen, der zunächst als analoges Computersystem konzipiert war. Ab 1945 entschloss sich Jay Forrester, der Leiter der Projektgruppe, die gerade entwickelten Möglichkeiten digitaler Rechner zu nutzen, um einen universalen Flugsimulator zu bauen, der je nach Bedarf verschiedene Flugzeuge simulieren konnte, was langfristig eine enorme Kostenersparnis bedeutet.[11] In diesem Whirlwind genannten Projekt wurden erstmals Kathodenstrahlröhren als grafisches Display benutzt. Dabei entwickelte man um 1949 auch den ersten Vorläufer der Computerspiele: ein hüpfender ‚Ball’ (ein Punkt), der durch richtige Wahl entsprechender Parameter ‚interaktiv’ in ein Loch gelenkt werden musste (Abb. 4).[12] Wichtiger als die Interaktivität ist hier, dass dieser ‚virtuelle Ball’ annähernd wie ein realer Ball hüpfte: Woolley bezeichnet dieses Ereignis als den Beginn der Computersimulation.[13]


Computersimulation und ‚Realismus’.


Bei Simulationen muss „der reale Prozeß [...] in Mathematik abgebildet werden, um dann mittels Algorithmen im Rechner simuliert werden zu können“.[14] D. h. aus Messdaten aller Art und aus diesen abgeleiteten, mathematisch formulierbaren Gesetzmäßigkeiten über das Verhalten des Prozesses werden mathematische Modelle konstruiert, die den Prozess mit mehr oder weniger großer Annäherung beschreiben.[15] Der ‚Realismus’, der Bezug des mathematischen Modells auf die Struktur eines realen Phänomens, steht also am Anfang der Computersimulation.
Simulationen erzeugen Modelle, d. h. virtuelle Objekte. Es kann hier nicht die ganze Geschichte des Begriffs des Virtuellen, sondern nur sein Auftauchen und seine Verwendung im Diskurs der Informatik umrissen werden. ‚Virtuell’ wird dort zuerst im Kontext der Forschung an virtuellen Speichern (virtual memory) verwendet.[16] Spätestens ab 1962 nimmt virtual memory die heute geläufige Bedeutung an: Das Hauptproblem elektronischer Computer war, dass Speicher mit kurzer Zugriffszeit teuer waren. Folglich mussten aktuell nicht benötigte Informationen aus dem Hauptspeicher (main memory) in Hilfsspeicher ausgelagert werden. Speicherallokation bezeichnet den Prozess, mit dem entschieden wird, welche Daten aktuell im Hauptspeicher benötigt werden und welche in Hilfsspeicher ausgelagert werden können. In den ersten Jahren der Computerprogrammierung musste die Allokation vom Programmierer durch entsprechende Routinen selbst bewerkstelligt werden. Als Mitte der fünfziger Jahre höhere Programmiersprachen zum Einsatz kamen und die Programme komplexer wurden, stellte sich dieses Verfahren als Hemmnis heraus. Es gab eine Reihe von Lösungsvorschlägen, von denen sich letztlich das Konzept des virtual memory durchsetzte.[17] Es ist ein automatisches Verfahren der Speicherallokation, das zum ersten Mal im 1961 entwickelten Atlas-Computer zum Einsatz kam. Virtuelle Speicher erzeugen die Illusion eines großen, verfügbaren Speichers. Der Programmierer kann über den address oder name space[18] verfügen, als ob dieser einen zusammenhängenden Speicher bezeichnete. Das Computersystem ordnet, für den Programmierer unsichtbar, den virtual addresses mit Hilfe einer address-translation function[19] die realen Adressen im memory space[20] zu. Nur die Programmteile oder Daten, die vom Programm gerade benötigt werden, lädt das Computersystem in den tatsächlichen Hauptspeicher. Virtuelle Speicher operieren also auf der Basis der Trennung des logischen Adressraums vom materiellen Speicherraum.
Diese Trennung von logischer Struktur und materiellem Substrat ist der Kern des Virtuellen, zumindest im Diskurs der Informatik.[21] Schon die Differenz zwischen Soft- und Hardware ist so betrachtet eine Virtualisierung. Ein Computer führt Software – eine logische Struktur – aus, womit es z. B. möglich wird, einen anderen Computer zu simulieren (so erzeugt man eine virtual machine).[22] Die wissenschaftlich, medizinisch oder militärisch genutzte Computersimulation eines realen Objekts oder Prozesses besteht darin, dass – je nach Fragestellung verschiedene – mathematisch formalisierbare Strukturen von der Materialität des Objekts abgelöst werden (am Beispiel Whirlwind: das Hüpfverhalten eines Balls von dem materiellen Ball aus Gummi), um dann als Grundlage eines Modells zu dienen (am Beispiel Whirlwind: es wird ein Ball-Modell, ein ‚virtueller Ball’ erzeugt).[23] Die Modelle können dann verändert werden, z. B. zur Prognose des Verhaltens des simulierten Prozesses unter verschiedenen Bedingungen oder – was besonders interessant ist – zur Vorwegnahme des Verhaltens eines auf dem simulierten Prozess beruhenden möglichen zukünftigen Prozesses. Schließlich werden die Modelle und ihr Verhalten auf verschiedenen (auditiven, visuellen oder sogar haptischen) Displays abgebildet. Dabei muss der visuelle Output nicht unbedingt ‚fotorealistisch’ sein – bei der Simulation etwa von molekularen Prozessen würde das keinen Sinn machen.
Mit Deleuze könnte formuliert werden: „Die Struktur ist die Realität des Virtuellen.“[24] Mithin steht das Virtuelle anders als das Fiktive nicht dem Realen gegenüber, sondern dem Aktuellen. Die Unterscheidung real/fiktiv und die Unterscheidung aktuell/virtuell liegen quer zueinander – so wird auch die Phantasie einer anderen, zugleich realen und fiktiven Welt – der ‚Virtuellen Realität’ möglich.[25]


Fotorealismus


Das virtuelle Objekt einer Simulation ist also eine je nach Zweck von der Materie abgelöste mathematisch formalisierte und im Computer näherungsweise repräsentierte Struktur eines ‚Realen’. Bei Flugsimulationen, also virtuellen Flügen, muss die projektierte spätere Flugsituation so realistisch wie nötig vorweggenommen werden, damit eine angemessene Vorbereitung möglich ist. Neben der hier ausgeklammerten Interaktivität bezieht sich dieser Realismus auf den Charakter des Displays, durch das der Pilot die ‚Landschaft’, durch die er vermeintlich fliegt, und gegebenenfalls die ‚Gegner’, gegen die er vermeintlich kämpft, sieht und/oder hört. Die Strukturen ‚realer’ Seherfahrung müssen also virtuell modellierbar werden. Generierte Bilder werden dadurch an das ‚natürliche Sehen’ angenähert, indem z. B. Verfahren zur Erzeugung von Beleuchtungseffekten in generierten Bildern auf empirisch gewonnene Kenntnisse über das Verhalten des Lichts an Oberflächen zurückgreifen: Eine Simulation, mit der ein virtuelles Licht erzeugt wird.[26]
Doch gerade mit der Flugsimulation beginnt das Streben nach Fotorealismus, das große Teile der Computergrafik prägt. So schreiben die Informatiker Newell und Blinn explizit in einem Rückblick: „In der Mitte der sechziger Jahre tauchten Techniken [zur Produktion von] Fotografien gleichenden Bildern dreidimensional modellierter Szenen auf. Die anfängliche Motivation dafür lag in der Flugsimulation, wo die Illusion der Realität wichtig ist.“[27] D. h. der computergrafische Realismus geht nicht vollständig in der Konzeption von Simulation als Computermodell eines realen Phänomens auf, sondern umfasst oft zwei nicht deckungsgleiche Zielsetzungen: „Ziel der realistischen Bildsynthese ist es, Bilder zu erzeugen, die nicht von Fotos oder von visuellen Eindrücken tatsächlicher Szenen unterschieden werden können.“[28] Dass das Ziel eine Computergrafik zu erzeugen, die den ‚natürlichen’ Seheindruck wiedergibt von jenem perfekt Fotografie oder Film zu simulieren, nicht immer klar getrennt wird, ist der Beleg für die paradigmatische Funktion fotografischer Medien auch im digitalen Zeitalter. Daher bezieht sich die Forschung am Fotorealismus[29] auch auf die Übernahme bereits etablierter Konventionen aus der Fotografie und dem Film. So bedeutet ‚realistisch’ eben eine Anlehnung des generierten Bildes an die von Fotografien und Filmen geprägten Sehkonventionen.[30] Dabei ist diese Anlehnung soweit selbst Simulation, wie die Eigenschaften (bestimmter Ausprägungen) von Fotografie und Film empirisch vermessen und diese Daten den Rechnermodellen zugrundegelegt werden. D. h. das Fotografische des Fotorealismus ist keineswegs nur rhetorisch in dem Sinne, dass oberflächliche Zeichen der Fotografie nachgeahmt werden – wie z. B. in der künstlerischen Strömung der fotorealistischen Malerei (Abb. 5), die etwa zeitgleich mit den ersten fotorealistischen Bemühungen der Computergrafiker entstand. Vielmehr werden die Eigenschaften der fotografischen (und auch kinematographischen) Apparate simuliert und d.h. nach der oben nahegelegten Definition des Virtuellen, dass eine virtuelle Kamera eine wirkliche Kamera ist – nicht bloß eine scheinhafte Imitation oder gar bloße Fiktion – die je nach Maßgabe der zur Verfügung stehenden Daten immer mehr ihrem materiellen Vorbild angenähert, aktualisiert werden kann. Diese virtuelle Kamera wird nun benutzt, um ein virtuelles Objektfeld, das von einer virtuellen Lichtquelle beleuchtet wird, virtuell zu fotografieren (Abb. 6).[31]
Virtuelle Fotografien oder Filme müssten in Hinsicht auf ihre bildliche Erscheinung[32] mithin den fundamentalen Charakteristika der chemischen Fotografie folgen, von denen sich mindestens vier benennen lassen – Fotogramme ausgenommen: Erstens der Reichtum an unintendierten Details, die den – wie man mit Barthes sagen könnte – „effet du réel“[33] ausmachen. Viele generierte Grafiken werden gerade deshalb als noch nicht realistisch genug eingestuft, weil sie zu ‚clean’ erscheinen, also zuwenig Kratzer, Flecken u.ä. auf den Oberflächen aufweisen.[34] Zweitens sind die durch die Kameraoptik bedingten Effekte zu nennen, vor allem die Bildorganisation gemäß den Regeln der Zentralperspektive, denn computergenerierte Bilder könnten auch jeder anderen Projektion gehorchen, folgen aber, wenn sie fotorealistisch sein wollen, der durch Fotografie und Film tradierten perspektivischen Organisation.[35] In der computergrafischen Forschung wird überdies angestrebt, nicht nur die perspektivische Projektion, sondern die spezifischen Effekte der Kameras, wie die empirisch messbaren Verzerrungen und Schärfeneffekte von Linsen und Blenden oder die von der Verschlusszeit abhängige Bewegungsunschärfe (motion blur), d. h. das Verwischen von schnell bewegten Objekten, zu simulieren (mit der Simulation des ‚Motion Blur’ wird ex negativo auf die scharfe Momenthaftigkeit der meisten fotografischen Bilder verwiesen).[36] Drittens ist die Ausschnitthaftigkeit der fotografischen und filmischen Bilder zu nennen, denn bis auf seltene, vorwiegend im Diskurs der so genannten Kunst anzutreffende inszenatorische Strategien, die den Raum dieser Bilder abzuschließen suchen, sind sie zentrifugal organisiert – abgeschnittene Objekte, Blicke aus dem Bildraum etc. verweisen auf verschiedene Formen des Off.[37] Viertens sind es die Eigenschaften der fotografischen Emulsion selbst, z. B. die körnige Struktur des Bildes insbesondere bei Vergrößerungen oder sehr lichtempfindlichen Filmen, die man in der fotorealistischen Computergrafik virtuell zu modellieren sucht.[38] Fotografische Bilder können jenseits dieser vier grundlegenden, wenn auch nicht immer in gleichem Maße anzutreffenden Eigenschaften sehr unterschiedlich aussehen – ganz zu schweigen von den zahllosen sogenannten Stilen, die sich in der künstlerischen Fotografie bzw. dem künstlerischen Film ausdifferenziert haben. Die Vorstellung aber, die viele Computergrafiker begleitet, wenn sie ‚fotorealistische’ Bilder herstellen wollen, läuft offenbar auf eine ‚normale’ – hundert ASA – Kodak-Farbfotografie, scharf mit einem Standardobjektiv (50 mm) aufgenommen oder auf ein Bild aus einem ‚normalen’ 16 oder 35 mm-Kinofilm hinaus.[39]
Historisch ist der erste wichtige Schritt zum Fotorealismus der Übergang von der Vektor- zur Rastergrafik, seitdem erst Computerbilder nicht mehr nur aus Linien bestehen, sondern als Menge von einzeln adressierbaren Punkten existieren (Abb. 7) – so erst werden gefüllte Flächen, vielfältige Farben, Schatten etc. möglich. In der Folge gelangen immer neue Entwicklungen auf dem Gebiet der Beleuchtung der Szene und des Schattenwurfs, der Transparenz der Objekte und der Textur.[40] Abb. 8 stellt eine Computergrafik dar, die auf das 1975 entwickelte Verfahren des ‚Phong-Shadings’ zurückgreift. Da im Algorithmus von Phong Highlights weiß sind, sehen die Objekte aus, als bestünden sie aus Plastik. In Abb. 9 sieht man ein Beispielbild auf der Basis komplexerer Algorithmen, die auch Texturen darstellen können und bei denen die Highlights die Farbe der Objekte annehmen, wodurch die Objekte metallisch erscheinen. Die paradigmatische Funktion fotografischer Bilder für die Entwicklung von Computergrafik wird schließlich an Abb. 10 aus einem Standardwerk zur Computergrafik deutlich – ein Foto einer Szene wird mit einer gleichartigen berechneten Szene verglichen – quod erat demonstrandum. Es darf aber nicht verschwiegen werden, dass die Herkunft des computergrafischen Realismus aus der Flugsimulation zur Folge hatte, dass vorrangig Verfahren zur Generierung von Objekten wie Bäumen oder Wolken entwickelt wurden. So blieb Realismus eines computergrafischen Bildes lange Zeit „partial und gewichtet“.[41]
Die Annäherung der computergenerierten an standardisierte fotografische und kinematographische Bilder ist – wie das Beispiel Flugsimulation schon zeigte – institutionell und ökonomisch bedingt. Ab den späteren siebziger Jahren wird die Forschung an realistischer Computergrafik immer weniger vom Militär, sondern in steigendem Maß von der Filmindustrie gefördert. Z. B. geht 1979 Edwin Catmull, einer der führenden Entwickler von Computergrafik in den siebziger Jahren, der zuvor direkt oder indirekt für das Militär gearbeitet hatte, zu Lucasfilm, um dort die Computer Graphics Division zu leiten. Für zahlreiche militärische Applikationen ist fotorealistische Grafik gar nicht geeignet, weil sie zu viele Informationen liefert, weshalb oft komplexitätsreduzierte Displays zum Einsatz kommen (siehe Abb. 11).[42] Wenn hingegen generierte Bilder als special effect in einen Film oder auch in eine Print-Werbung eingefügt werden sollen – es sei denn die Künstlichkeit der Bilder ist narrativ motiviert – müssen sie ausreichend vom fotografisch-filmischen Kontext ununterscheidbar sein.[43] Inzwischen werden die meisten Fortschritte der fotorealistischen Computergrafik durch die Entertainment-Industrie angestoßen, die auf militärische Interessen nicht direkt Rücksicht nehmen muss.


Funktionen generierter Bilder


Die generierten Bilder in ihrer gegenwärtig vorherrschenden Form beziehen sich auf eine der Fotografie und dem Film abgeluchste Rhetorik des Wahrhaftigen – sei es um die Realitätseffekte des illusionistischen Kinos zu unterstützen oder um zur ‚wahrhaftigen’ Rekonstruktion oder Prognose von Ereignissen und Prozessen zu dienen. Letzteres ist im Zusammenhang mit katastrophalen Ereignissen wie dem 11. September, aber auch schon beim Wetterbericht immer häufiger im Fernsehen zu bestaunen. Aber die ‚synthetischen Bilder’ beziehen sich auch tatsächlich auf die so genannte Wirklichkeit, sofern sie die visuelle Darstellung von Simulationen sind, die reale Phänomene nachbilden. So werden etwa aus Daten von Weltraumsonden Bilder von Himmelskörpern generiert (Abb. 12), die keineswegs das zeigen müssen, was für Menschen wirklich sichtbar gewesen wäre, sondern das, was für eine bestimmte Praxis operational und insofern ‚wahr’ ist. Abb. 13 etwa stellt ein generiertes Bild des Vorbeiflugs einer Sonde am Uranus dar – die Schattenseite des Planeten müsste eigentlich völlig schwarz sein, ist aber für den Zweck der besseren Verständlichkeit des Bildes leicht erleuchtet.
Soweit Simulationen auf Modellen realer Phänomene beruhen, sind sie noch Abbilder und – wenn man so will – ‚realistischer’ als die Bilder, die nur auf der Abtastung des von der Oberfläche der Objekte reflektierten Lichts beruhen. Wenn die Modelle jedoch verändert werden, um mögliche oder zukünftige Phänomene zu beschreiben, können Simulationen Vorbilder liefern und erzeugen damit die ersten Bilder, die nicht bloß semantisch auf die Zukunft verweisen können – auch das unterscheidet das Virtuelle vom Fiktiven. Simulatoren sollen Vorhersagen über eine zukünftige Realität liefern, um militärisches, wissenschaftliches oder wirtschaftliches Handeln auf ein gesichertes Fundament zu stellen, d. h. sie sollen als „Kontrollumgebung“[44] fungieren. Z. B. dienen in der Teilchenphysik die Ergebnisse von Simulationen zukünftiger Versuche als Vergleichsmaßstab, vor dem die Ergebnisse der dann real durchgeführten Experimente erst bewertet werden können und das gilt nicht nur für die frühen Forschungen an Atom- und Wasserstoffbombe.[45] In der Architektur, im Maschinenbau und im Design dienen Simulationen oft dazu, neue Produkte am Rechner zu entwerfen, zu testen, um sie schließlich potentiellen Kunden vorzustellen, bevor sie wirklich hergestellt werden. Auch dies ist eine gewichtige Motivation für die fotorealistische Ausrichtung generierter Bilder – erfüllen sie doch ähnliche Funktionen, wie sie vordem die Werbefotografie wahrnahm.
Diese Vorbild- und Kontroll-Funktionen werden bei Flugsimulatoren besonders deutlich. Flugsimulationen sind keine Abbilder eines Flugs, der stattgefunden hat, sondern Vorbilder, die den Piloten auf einen zukünftigen Flug vorbereiten. D. h. die generierten realistischen Bilder dienen dazu, die Reaktionen und Körperbewegungen des Piloten so zu konditionieren, dass im späteren Realfall eine möglichst optimale Reaktion erzielt werden kann: Foley spricht unverhohlen von der „Maximierung der Benutzer-Effizienz“[46] als einem Ziel der Maximierung des computergrafischen Realismus (mit der schon genannten Einschränkung, dass zuviel Realismus auch zu komplex sein kann). So gesehen führen die Simulatoren den Einsatz fotografischer Medien im Dienste der Disziplinierung fort, die in den arbeitswissenschaftlichen Forschungen Taylors und besonders Gilbreths am Anfang des zwanzigsten Jahrhunderts einen besonders markanten Ausdruck fand.[47] Ähnliches gilt für die diskursive Praxis der Medizin: Ohne die Verarbeitung durch Computer könnte man – anders als bei einfachem Einsatz von Röntgenstrahlen – weder in der Computertomographie, noch beim Magnet-Resonanz-Imaging Bilder erhalten. Diese Körperbilder können als Grundlage von Simulationsmodellen von Körpern und Körperteilen dienen. Die spektakulärste Form zur Zeit ist das ‚Visible Human Project’.[48] Ein in Texas zum Tode verurteilter Mann vererbte seinen Körper der Medizin. Dieser wurde geröntgt, einem MRI unterzogen, schließlich tiefgefroren und in 1878 je ein Millimeter dicke Scheiben zersägt. Diese wurden je einzeln als digitale Fotos aufgezeichnet. So liegt jetzt ein Modell eines männlichen Körpers vor (genannt ‚Adam’; inzwischen ist auch ‚Eva’ hinzugekommen), der virtuell aus allen Blickwinkeln betrachtet werden kann. Und: „Steht für die Datenmanipulation die Rechenleistung von Supercomputern zur Verfügung, lassen sich auch Körperbewegungen und Verdauungsvorgänge simulieren.“[49] Ein gespenstisches Leben des Toten erhebt sich aus dem Rechner. Jenseits der Dichotomie von Leben und Tod – und somit jenseits der dem Tod verhafteten Fotografie – werden die Simulationen zu normativen Modellen realer Körper, denn sie bilden die Grundlage von Trainings-Simulatoren mithilfe derer angehende Mediziner geschult werden.


Die Kontinuität des Fotografischen und die universelle Maschine

Wenn die chemische Fotografie auch nicht verschwindet, so wird sie durch das Auftauchen und die Ausbreitung des Computers doch einen neuen Platz im System der Medien einnehmen.[50] Ihre Produkte werden vielleicht nur noch in der so genannten Kunst oder im Bereich eines puristischen Fotojournalismus zu finden sein. Die Rolle der Fotografie als Paradigma scheint jedoch ungebrochen. Auch wenn der Computer das neue Leitmedium sein sollte, sind die mit ihm erstellten Bilder, sowohl hinsichtlich ihres Erscheinens als auch in Bezug auf ihre Funktionen, noch immer in starkem Maß der Fotografie und dem Kino verpflichtet.
Es stellt sich die Frage, ob diese Anlehnung lediglich eine „Durchgangsphase [ist], eine historische Kompromißbildung, die die Rechner einer an Visualität gewöhnten Öffentlichkeit anbieten.“[51] So betrachtet wären alle digitale Fotografie und aller Fotorealismus aus oberflächlich ökonomischen Zwecksetzungen – der Distribution von Rechnern – entstanden und müssten bald, wenn die spezifischen Potentiale des Rechners allgemein verstanden sind, verschwinden.
Dem steht aber entgegen, dass digitale Computer als universelle Maschinen gerade keine Spezifik besitzen, die sich im Laufe der Geschichte gegen die anfängliche Anlehnung der neuen Maschine an vorhergehende Maschinen durchsetzen könnte, denn „das digitale Medium ek-sistiert in seiner vielgestaltigen Metaphorizität“.[52] In verschiedenen diskursiven Praktiken stehen Rechner im Rahmen je unterschiedlicher und bisweilen auch konfligierender Metaphorisierungen, die umschreiben, wozu die Maschinen dienlich und nützlich sein sollen. In Folge solcher oft auch impliziter Zielsetzungen werden Computer – im Rahmen des technisch Möglichen – mit je anderer Hardware (Peripherien) verbunden und mit je anderer Software programmiert. Beispiele dafür wären die Vorstellung von Rechnern als ‚Elektronengehirn’ in den fünfziger Jahren – d.h. einem Modell des Computers als Optimierung des menschlichen Denkens, eine Metapher, die sich ebenso an den Konferenzen zur Künstlichen Intelligenz (Darthmouth-Konferenz 1956), wie an zeitgenössischen Kinofilmen bis zu Kubricks 2001 von 1968 ablesen ließe. In den Sechzigern jedoch wurde der Computer auch als Medium entdeckt – lange vor der medientheoretischen Diskussion aus den frühen Neunzigern.[53] So beschrieb schon 1967 Michael Noll den Computer as a creative medium für die bilderzeugenden Künste und forderte entsprechende Soft- und Hardwareentwicklungen.[54] Diese Metaphorisierung hatte aus ökonomischen Gründen (d. i. die Preise für entsprechende Technologien) eine lange Latenzzeit, bis sie in unserer Gegenwart zur selbstverständlichen Vorstellung von Computern wurde und eine entsprechende Ausrichtung bewirkte. Computer als Medien können Bild-, Ton-, Schriftmedien sein – oder auch alles gleichzeitig. Sie besitzen so gesehen keine Medienspezifik, sondern sind je nach diskursiver Praxis – mit einem Wort von Deleuze und Guattari – ein je anderes Aussagen- und Maschinengefüge, das bestimmte Möglichkeiten eröffnet und andere verschließt.[55] Dabei können Programmroutinen, die in einer spezifischen diskursiven Praxis zentral sind, buchstäblich zu Hardware sedimentieren, denn jede Software kann als Verschaltung logischer Gatter Hardware werden, wie Shannon schon 1938 bewiesen hatte.[56] Ein hier sehr passendes Beispiel ist die von der Film- und dann Computerspielindustrie geförderte Entwicklung von Grafikchips, die Algorithmen für die Generierung von Bildern in Hardware gießen und so beschleunigen. Um es anders zu sagen: Computer als programmierbare Maschinen können alles an den traditionellen Medien tradieren, was mathematisch darstellbar ist (und das ist abgesehen von der Rezeption so gut wie alles) und diese Tradierung kann die Form von Hardware annehmen. Zu deren Teil werden zunehmend auch die virtuellen Kameras, die perspektivische Projektion und die Rhetorik der Wahrhaftigkeit.[57]
Müsste man also nicht, statt von ‚digitaler Revolution’ und ‚Post-Fotografie’ daherzureden, eher sagen, dass die ‚Digitale Fotografie’ und der computergrafische ‚Fotorealismus’ noch lange bestehen bleiben, weil fotografisch und kinematographisch erscheinende Bilder – so Manovich lakonisch – „sehr effizient für die kulturelle Kommunikation“[58] sind? D. h. die fotorealistische Bildgenerierung übernimmt und steigert wichtige Funktionen ihrer fotografischen und kinematografischen Vorgänger, nicht nur in der Unterhaltungsindustrie, sondern auch in den (teilweise genannten) militärischen, medizinischen und ökonomischen diskursiven Praktiken: Und zwar hinsichtlich der Speicherung, Verarbeitung und Darstellung vom Information, wodurch Klassifikationen, Analysen, Prognosen und damit auch Kontrolle und Optimierung möglich werden.[59] Die Fortdauer des Fotografischen und seiner Rhetorik der Wahrheit in den digitalen Medien würde so auf eine Einschreibung bestimmter, nicht von der Fotografie allein ausgelöster, aber mit ihr historisch einhergehender Macht/Wissens-Dispositive in die programmierbare Maschine Computer hinweisen. Es geht also nicht nur um die oberflächlich ökonomische Zielsetzung mehr Rechner zu verkaufen, sondern um fundamentalere Funktionen der Kontrolle. Das zeigt sich symptomatisch daran, dass die Tendenz des Fotorealismus in dem quasi-utopischen „Ziel der Simulation der Realität“[60] mündet, d. h. einer im Wortstamm von virtuell (u. a. macht- und kraftvoll) anklingenden Phantasie totaler Kontrolle, die nicht nur in den lebenden Toten des Visible Human Project, sondern auch in den Diskursen zur so genannten Virtuellen Realität – die im Virtuellen die Vereinigung des Fiktiven mit dem Realen und so eine andere, bessere Realität verspricht – immer wieder aufblitzt.[61]


Fazit

Vor diesem Hintergrund wird deutlich: Das ideologische Moment in der Debatte über das angebliche Ende der Referenz im post-fotografischen Zeitalter besteht gerade darin, den vielfältigen Wirklichkeitsbezug generierter (und auch digitalisierter) Bilder zu leugnen und gleichzeitig die Bildbearbeitungen, Manipulationen und Fälschungen in der Geschichte der Fotografie zu verdrängen – also einen übertriebenen Kontrast zwischen fotografischen und post-fotografischen Medien aufzubauen. Die Betonung der repressiven Effekte der Unterdrückung oder Verzerrung durch Manipulation – wie im anfangs genannten Fall O. J. Simpson – verstellt tendenziell den Blick auf die – im Sinne Foucaults – produktiven Funktionen der neuen Bilder. Die generierten (und die digitalisierten) Bilder können „mächtige[...] Hilfsmittel“[62] sein, um sich einem – entsprechend definierten – Realen, und sei es ein Pilotenkörper oder ein Konsument, anzunähern, es zu analysieren, zu formieren und so zu kontrollieren. Die Funktionalität der neuen Bilder muss jenseits einer Polarisierung in die angeblich referentiellen und a-referentiellen (‚post-fotografischen’) Bilder untersucht werden.
Schließlich bleibt als eine Perspektive, dass künstlerische Praktiken den mathematischen Charakter der virtuellen Kameras verfremdend nutzen könnten – jenseits der lächerlichen Montagen und Retuschen z. B. eines Dieter Huber (Abb. 14), von Aziz / Cucher (Abb. 15) u.a. Sie könnten virtuelle Kameras erzeugen, die realiter niemals existieren könnten und zerstörten damit auch die standardisierten und ideologisch verengenden Klischees, die der Militärisch-Unterhaltungsindustrielle-Komplex von den fotografischen Medien malt. Sie könnten neue Fragen stellen: Welche Bilder werden mit einem zehntausend Meter langen Teleobjektiv möglich, wie fotografiert, wie filmt es sich am Ereignishorizont eines schwarzen Lochs, was ist ‚Fotografie’ überhaupt je gewesen und was kann sie sein ... ? Das von Flusser in seiner Philosophie der Fotografie als Form der Freiheit gepriesene Spielen gegen den Fotoapparat ist mit der Virtualisierung der Fotografie erst wirklich, wenn auch nicht aktuell möglich geworden.[63]


Abbildungsverzeichnis:

Abb. 1 Cover von National Geographic, Februar 1982 (aus: Fred Ritchin, In our own Image. The Coming Revolution in Photography, New York, 1990, S. 15).
Abb. 2 Cover der Time und der Newsweek vom 27. Juni 1994 (aus: Hubertus v. Amelunxen et. al. (Hrsg.), Fotografie nach der Fotografie, Dresden und Basel, 1995, S. 74).
Abb. 3 Schematische Darstellung des Link-Trainers aus dem am 29. September 1931 bewilligten Patent (aus: Benjamin Woolley, Die Wirklichkeit der virtuellen Welten, Basel u.a., 1994, S. 50).
Abb. 4 Whirlwind-Display des „Bouncing Ball“-Programms (aus: Norman H. Taylor u.a., Retrospectives: The Early Years in Computer Graphics at MIT, Lincoln Lab and Harvard, in: SIGGRAPH Proceedings 1989 (= Computer Graphics, Vol. 23, No. 5), S. 21).
Abb. 5 Richard Estes, Rappaports Pharmacy, 1976.
Abb. 6 Schema der virtuellen Kamera (aus: Timothy Binkley, Refiguring Culture, in: Philip Hayward; Tana Wollen (Hrsg.), Future Visions. New Technologies of the Screen, London, 1993, S. 104).
Abb. 7 Computergrafik, Vektorgrafik (aus: W. J. T. Mitchell, The Reconfigured Eye. Visual Truth in the Post-Photographic Era, Cambridge, Mass. / London, 1992, S. 138).
Abb. 8 Computergrafik, Phong-Shading (aus: W. J. T. Mitchell, The Reconfigured Eye. Visual Truth in the Post-Photographic Era, Cambridge, Mass. / London, 1992, S. 144).
Abb. 9 Computergrafik, Texturiert und mit Spiegelungen (aus: W. J. T. Mitchell, The Reconfigured Eye. Visual Truth in the Post-Photographic Era, Cambridge, Mass. / London, 1992, S. 144).
Abb. 10 Ein Beispiel für Fotorealismus, Vergleich von Foto und Computergrafik (aus: James D. Foley et. al., Computer Graphics. Principles and Practice, Reading, Mass. u.a., 1990, Plate III. 19).
Abb. 11 Sicht des Piloten durch das Head Mounted Display des Super-Cockpit-Programms (aus: Sven Bormann, Virtuelle Realität. Genese und Evaluation, Bonn u. a., 1994, S. 42).
Abb. 12 Generiertes Bild der Venus aus Magellan- und Venera-Satellitendaten (aus: W. J. T. Mitchell, The Reconfigured Eye. Visual Truth in the Post-Photographic Era, Cambridge, Mass. / London, 1992, S. 65).
Abb. 13 Generiertes Bild des Uranus von Jim Blinn (aus: James D. Foley et. al., Computer Graphics. Principles and Practice, Reading, Mass. u.a., 1990, Plate II. 20).
Abb. 14 Dieter Huber, Klone # 92, 1997 (aus: Fotogalerie Wien (Hrsg.), Körper, Wien, 2000, S. 28).
Abb. 15 Anthony Aziz; Sammy Cucher, Ken, 1994 (aus: Hubertus v. Amelunxen et. al. (Hrsg.), Fotografie nach der Fotografie, Dresden und Basel, 1995, S. 129).



[1] Gilles Deleuze, Platon und das Trugbild, in: ders., Logik des Sinns, Frankfurt a. M., 1993, S. 311-324, hier S. 321.
[2] Der Begriff ‚post-fotografisch’ wird meines Erachtens erstmals 1991 von Trisha Ziff, Pedro Meyer. Post-photographic Photography, in: Paul Wombell (Hrsg.), Photovideo. Photography in the Age of the Computer, London, 1991, S. 150/151, hier S. 151 gebraucht. Popularisiert wurde er aber durch William J. Mitchell, The Reconfigured Eye. Visual Truth in the Post-Photographic Era, Cambridge, Mass. und London, 1992.
[3] Vgl. Fred Ritchin, In Our Image: The Coming Revolution in Photography; How Computer Technology is Changing Our View of the World, New York, 1990; ders., The End of Photography as We Have Known It, in: Wombell, Photovideo, S. 8-15 und ders., Photojournalism in the Age of Computers, in: Carol Squiers (Hrsg.), The Critical Image. Essays on Contemporary Photography, Seattle, 1990, S. 28-37.
[4] Vgl. Wolfgang Hagen, Die Entropie der Fotografie. Skizzen zu einer Genealogie der digital-elektronischen Bildaufzeichnung, unter: http://www.whagen.de/get.php?page=vortraege/EntropieDerFotografie/edf.htm#_ftn2, Letzter Zugriff Juli 2002.
[5] Geoffrey Batchen, On Post-Photography, in: Afterimage, Vol. 20, No. 3, 1992, S. 17. Übers. J. S.
[6] Von den generierten muss man die digitalisierten Bilder unterscheiden, die auf einer Abtastung von Licht mithilfe von CCDs beruhen (siehe dazu den Text von Hagen, Fußnote 4) und somit auf der Ebene der Bildgenese die Fotografie beerben. Auf diese Bilder gehe ich hier nicht ein, vgl. Jens Schröter, Intelligence Data. Zum Weltbezug der sogenannten digitalen Bilder, in: Berliner Debatte Initial, Heft 5/2001, S. 55-65.
[7] Jean Baudrillard, Das perfekte Verbrechen, in: Hubertus von Amelunxen (Hrsg.), Theorie der Fotografie IV 1980–1995, München, 2000, S. 256-260, hier: S. 258. Es bleibt undeutlich, was Baudrillard mit ‚synthetischen Bildern’ eigentlich meint – denn strenggenommen muss doch jedes Bild (außer Spiegelbildern) als synthetisch bezeichnet werden.
[8] Geoffrey Batchen, Burning with Desire. The Conception of Photography, Cambridge, Mass. und London, 1997, S. 211; Übers. J. S.
[9] Vgl. J. M. Rolfe, K. J. Staples, Flight Simulation, Cambridge u. a., 1986, S. 14-17.
[10] Den Aspekt der Interaktivität werde ich im folgenden ausklammern. Vgl. Lev Manovich, Eine Archäologie des Computerbildschirms, in: Kunstforum International, Bd. 132, 1995, S. 124-136.
[11] Vgl. Robert Everett, Whirlwind, in: M. Metropolis u. a. (Hrsg.), A History of Computing in the Twentieth Century, New York, 1980, S. 365-384.
[12] Vgl. SIGGRAPH Proceedings 1989 II ( = Computer Graphics, Vol. 23, No. 5), S. 21.
[13] Vgl. Benjamin Woolley, Die Wirklichkeit der virtuellen Welten, Basel, Boston und Berlin, 1994, S. 46. Woolley erwähnt allerdings nicht, dass die ersten Simulationen (so genannte ‚Monte Carlos’) bereits ab Dezember 1945 im Rahmen der Forschung an der Wasserstoffbombe auf dem ENIAC durchgeführt wurden, vgl. Peter Galison, Image and Logic. A Material Culture of Microphysics, Chicago und London, 1997, S. 689-780.
[14] Helmut Neunzert, Mathematik und Computersimulation: Modelle, Algorithmen, Bilder, in: Valentin Braitenberg und Inga Hosp (Hrsg.), Simulation. Computer zwischen Experiment und Theorie, Reinbek bei Hamburg, 1995, S. 44-55, hier S. 44. Zu den frühen Diskussionen um das Verhältnis von Simulationen und der Natur vgl. Galison, (Anm. 13), S. 738-746 und S. 776-780. Zu den verschiedenen Formen von Computersimulation vgl. Michael M. Woolfson, G.J. Pert, An Introduction to Computer Simulation, Oxford u. a., 1999.
[15] Ein Beispiel dafür, dass generierten Bildern Daten zugrunde liegen, findet man in Ivan Sutherland, Henri Gouraud, Les Images Electroniques, in: La Recherche, No. 29, 1972, S. 1055-1061, hier S.1058, wo es um die Computermodellierung eines VW geht: „Bevor man ein ‚elektronisches Bild’ eines Objektes generieren kann, ist es notwendig, die Definition des Objekts in den Rechner einzugeben. Für den Fall, dass das Objekt existiert, kann dies vielleicht durch die Messung der Raumkoordinaten von Punkten auf der Oberfläche des Objekts gemacht werden.“ Übers. J. S.
[16] Der Terminus virtual memory wird laut Oxford English Dictionary 1959 in einem Vortrag eingeführt, der im Rahmen der Eastern Joint Computer Conference gehalten wurde, vgl. John Cocke, Harwood G. Kolsky, The Virtual Memory in the STRETCH Computer, in: Proceedings of the 1959 Eastern Joint Computer Conference. Papers presented at the Joint IRE-AIEE-ACM Computer Conference, Boston, Massachusetts, 1959, S. 82-93. Allerdings ist in diesem Text mit virtual memory etwas anderes gemeint als in der heute üblichen Verwendung des Begriffs. Der Text von 1959 beschreibt als look-ahead unit das, was man heute cache memory nennt – ein kleiner Zwischenspeicher, der besonders schnell reagiert und vom Prozessor häufig gebrauchte Daten bereithält.
[17] Vgl. Peter J. Denning, Virtual Memory, in: ACM Computing Surveys, Vol. 2, No. 3, 1970, S. 153-189.
[18] Ebenda, S.157.
[19] Ebenda, S.158.
[20] Der sowohl den realen Hauptspeicher als auch Hilfsspeicher (z. B. Festplatten) einschließt.
[21] Diese Bedeutung von virtuell lässt sich auch begriffsgeschichtlich stützen. In einer amtlichen Schrift an Christian Gottlob Voigt vom 24/25. November 1795 schrieb Goethe: „Billig ziehen nun auch die Bibliotheken unsere Aufmerksamkeit auf sich. Wir haben ihrer viere: die hiesige, die Jenaisch Akademische; die Buderische und Büttnerische welche alle der Stiftung, der Anstalt und dem Platz nach, wohl immer getrennt bleiben werden, deren virtuale Vereinigung aber man wünscht und man sich möglich gedacht hat.“ (Johann Wolfgang von Goethe, Sämtliche Werke nach Epochen seines Schaffens. Münchner Ausgabe, hg. von Karl Richter et. al. München u. a., 1985 ff., Band 4.2, S. 880). In einem Brief an Schiller vom 9. Dezember 1797 heißt es: „Vielleicht habe ich in Bibliothekssachen künftig einigen Einfluß, sagen Sie ob Sie die Idee vor tulich halten mit der ich mich schon lange trage: die hiesige, die Büttnische und Akademische Bibliothek, virtualiter, in Ein [sic] Korpus zu vereinigen [...]“ (ebenda: Band 8.1, S. 462). Goethe schlägt also keine physische Vereinigung der Bibliotheken, sondern (wie man dem Kommentar zu dieser Stelle in ebenda, Band 8.2, S. 380 entnehmen kann) einen gemeinsamen Katalog vor, der als einheitlicher ‚address space’ fungiert, wiewohl die physische Verortung der Bücher (der ‚memory space’) heterogen bleibt.
[22] Vgl. Woolley, (Anm. 13), S. 79/80. Die exakte Simulation eines Computersystems durch ein anderes wird im Unterschied zur stets nur näherungsweisen Simulation von Natur- oder gar Sozialphänomenen Emulation genannt.
[23] Diese Ablösung von der Materialität bezieht sich auf das virtuelle Objekt im Verhältnis zum Realobjekt, nicht aber auf die Hardware, die jedem Rechenprozess zugrunde liegt und z. B. die Rechnergeschwindigkeit begrenzt, was bei der Simulation hochkomplexer Phänomene eine entscheidende Rolle spielen kann.
[24] Gilles Deleuze, Differenz und Wiederholung, München, 1992, S. 264 und auf derselben Seite: „Das Virtuelle muss selber als ein strikt dem Realobjekt zugehöriger Teil definiert werden – als ob das Objekt einen seiner Teile im Virtuellen hätte und darin wie in einer objektiven Dimension eingelassen wäre“ – diese objektive Dimension ist die der mathematischen Formalisierbarkeit!
[25] Vgl. Elena Esposito, Illusion und Virtualität. Kommunikative Veränderungen der Fiktion, in: Werner Rammert (Hrsg.), Soziologie und Künstliche Intelligenz. Produkte und Probleme einer Hochtechnologie, Frankfurt a. M. und New York, 1995, S. 187-216.
[26] Vgl. Axel Roch, Computergrafik und Radartechnologie. Zur Geschichte der Beleuchtungsmodelle in computergenerierten Bildern, in: Manfred Faßler, Wulf Halbach (Hrsg.), Geschichte der Medien, München, 1998, S. 227-254, hier S. 250: „Tatsächliche, empirische Messungen für Reflexionseigenschaften an rauhen Oberflächen liegen nämlich besonders ausführlich für Radar vor. An genau diesen empirischen Kurven orientieren sich die theoretischen Streuungsfelder von Cook/Torrance.“ Roch bezieht sich hier auf Robert L. Cook, Kenneth E. Torrance, A Reflectance Model for Computer Graphics, in: ACM Transactions on Graphics, No. 1, 1982, S. 7-24. Vgl. auch Axel Roch, Die Wasseroberfläche. Medialität und Ästhetik der elektronischen Reflexion, in: Manfred Faßler (Hrsg.), Ohne Spiegel leben. Sichtbarkeit und posthumane Menschenbilder, München, 2000, S. 123-140 und James D. Foley et al., Computer Graphics. Principles and Practice, Reading, Mass. u. a., 1990, S. 793 ff. zu den ‚radiosity’-Beleuchtungsmodellen. Dazu, dass bei solchen Simulationen miteinander inkompatible Verfahren zum Einsatz kommen und so der absolute Realismus ein schwierig zu erreichendes Ziel bleibt, vgl. Friedrich Kittler, Computergraphik. Eine halbtechnische Einführung, Vortrag 1998, unter: http://waste.informatik.hu-berlin.de/mtg/mtg4/kittler.htm, Letzter Zugriff Juli 2002.
[27] Vgl. Martin E. Newell, James F. Blinn, The Progression of Realism in Computer-Generated Images, in: ACM 77. Proceedings of the Annual Conference, New York, 1977, S. 444-448, hier S. 444. Hervorhebung J. S.; Übers. J. S.
[28] Konrad F. Karner, Assessing the Realism of Local and Global Illumination Models, Wien und München, 1996, S. 10, Hervorhebung J. S.
[29] Vgl. u. a. E. Nakamae, K. Tadamura, Photorealism in Computer Graphics - Past and Present, in: Computer and Graphics, Vol. 19, No. 1, 1995, S. 119-130.
[30] Vgl. Gary W. Meyer, Holly E. Rushmeier, Michael F. Cohen, Donald P. Greenberg, Kenneth E. Torrance, An Experimental Evaluation of Computer Graphics Imagery, in: ACM Transactions on Graphics, Vol. 5, No. 1, 1986, S. 30-50. Der Text beschreibt ein Experiment zur Bewertung des realistischen Charakters von Computerbildern: Ein Videobild einer einfachen, realen Anordnung von Gegenständen und ihrer Beleuchtung wird neben einem Videobild einer generierten Grafik, welches diese Anordnung darstellt, Versuchspersonen präsentiert: Können diese nicht mehr mit Sicherheit sagen, was das Bild der realen Anordnung ist, gilt das Bild als realistisch – unter eben ständiger Voraussetzung des Videobildes, das hier, obwohl elektronisch, zu den fotografischen Medien gezählt wird, insofern es auf der Speicherung von Licht beruht.
[31] Vgl. Mitchell, (Anm. 2), S. 117-135. Vgl. Timothy Binkley, Refiguring Culture, in: Philip Hayward and Tana Wollen (Hrsg.), Future Visions. New Technologies of the Screen, London, 1993, S. 92-122 S. 103-105.
[32] Von Montageregeln etc. beim Film sei hier abgesehen.
[33] Vgl. Roland Barthes, L’effet du réel, in: Communications, No. 11, 1968, S. 84-89, insb. S. 87/88. Die Masse unintendierter Details hat die Zeitgenossen der Erfindung der Fotografie beeindruckt. Z. B. beschrieb Sir Oliver Wendell Holmes die „erschreckende Fülle von Details“, vgl. ders., Das Stereoskop und der Stereograph, [1859], in: Wolfgang Kemp (Hrsg.), Theorie der Fotografie, Bd. 1, 1839-1912, München, 1980, S. 114-121, hier S. 116.
[34] Vgl. Newell, Blinn, (Anm. 27), S. 445/446.
[35] Vgl. Foley et al., (Anm. 26), S. 230-237, insb. 231: „Der visuelle Effekt einer perspektivischen Projektion gleicht dem fotografischer Systeme.“ Übers. J. S.
[36] Vgl. zur Simulation von Kamera und Bewegungsunschärfe Michael Potmesil, Indranil Chakravarty, Synthetic Image Generation with a Lens and Aperture Camera Model, in: ACM Transactions on Graphics, Vol. 1, No. 2, 1982, S. 85-108; dies., Modeling Motion Blur in Computer-Generated Images, in: SIGGRAPH Proceedings 1983 (= Computer Graphics, Vol. 17, No. 3), S. 389-399.
[37] Die klassische Formulierung der Unterscheidung zwischen einem zentrifugalen und zentripetalen Bild stammt noch immer von André Bazin, Painting and Cinema, in: ders., What is Cinema?, Vol. 1, Berkeley, 1967, S. 164-169.
[38] Vgl. Joe Geigel, F. Kenton Musgrave, A Model for Simulating the Photographic Development Process on Digital Images, in: SIGGRAPH Proceedings 1997, S. 135-142. In ihrem Vorschlag berufen sich die Autoren übrigens nicht nur auf empirisch gewonnene Daten über das Verhalten von Fotoemulsionen, sondern auch auf die Anregungen von Ansel Adams!
[39] Vgl. ebenda, S. 136, wo sich die Autoren auf ein „generalisiertes fotografisches Modell“ beziehen.
[40] Einen detaillierten Überblick über die Verfahren zur Generierung ‚realistischer’ Computerbilder liefert neben Foley et al. (Anm. 26), S. 605-648 auch W.D. Fellner, Computergrafik, Mannheim u. a. 1992, S. 299-348.
[41] Vgl. Lev Manovich, Realitätseffekte in der Computeranimation, in: Stefan Iglhaut, Florian Rötzer, Elisabeth Schweeger (Hrsg.), Illusion und Simulation. Begegnung mit der Realität, Ostfildern, 1995, S. 49-60, hier S. 59 und Geoffrey T. Gardner, Visual Simulation of Clouds, in: Computer Graphics, Vol. 19, No. 3, 1985, S. 297-303.
[42] Vgl. Foley et al., (Anm. 26), S. 605 und 607.
[43] Übrigens ist es angesichts dieser Funktionen der fotorealistischen Computergrafik nicht verwunderlich, dass sich unter ‚künstlerisch’ ambitionierten Computergrafikern schon ein Trend zum non-photorealistic rendering herausgebildet hat, bei dem u. a. Verfahren wie Malerei oder Tuschezeichnung, aber auch Stile von Künstlern gezielt simuliert werden, vgl. Bruce Gooch, Amy Gooch, Non-Photorealistic Rendering, Natick, Mass., 2001. Allerdings werden diese Verfahren nicht nur zur Simulation von Malerei u. ä. verwendet, sondern auch zu der von Cartoons, was wiederum einen Einsatz nicht-fotorealistischer Verfahren für die Filmindustrie interessant macht – nicht zuletzt hat Disney daran geforscht.
[44] Vgl. S.R. Ellis, Nature and Origins of Virtual Environments. A Bibliographical Essay, in: Computing Systems in Engineering. Vol. 2, No. 4, 1991, S. 321-347, hier S. 327. Übers. J. S.
[45] Vgl. Galison, (Anm. 13), S. 746-752 zur Rolle von Simulationen in der Teilchenphysik. Computergestützte Detektoren lösen im Feld der Teilchenphysik übrigens jahrzehntelang etablierte fotografische Techniken wie Blasenkammern etc. ab – und überbieten deren analytische Potenz.
[46] Vgl. James D. Foley, Interfaces for Advanced Computing, in: Scientific American, October 1987, S. 82-90, hier S. 83.
[47] Vgl. Suren Lalvani, Photography, Vision, and the Production of Modern Bodies, Albany, 1996.
[48] Vgl. http://www.uke.uni-hamburg.de/institute/imdm/idv/forschung/vhp/, Letzter Zugriff Juli 2002.
[49] Frankfurter Allgemeine Zeitung, 14.12.1994, Nr. 290, S. N3.
[50] Vgl. Friedrich Kittler, Geschichte der Kommunikationsmedien, in: Jörg Huber und Alois Müller (Hrsg.), Raum und Verfahren, Basel, 1993, S. 169-188, hier S. 178: „Neue Medien machen alte nicht obsolet, sie weisen ihnen andere Systemplätze zu.“
[51] Hartmut Winkler, Docuverse. Zur Medientheorie der Computer, München, 1997, S. 187.
[52] Vgl. Georg Christoph Tholen, Überschneidungen. Konturen einer Theorie der Medialität, in: ders., Sigrid Schade (Hrsg.), Konfigurationen Zwischen Kunst und Medien, München, 1999, S. 15-34, hier S. 21.
[53] Vgl. z. B. Norbert Bolz, Friedrich Kittler, Georg-Christoph Tholen (Hrsg.), Computer als Medium, München, 1994.
[54] Vgl. Michael A. Noll, The Digital Computer as a Creative Medium, in: IEEE Spectrum, Vol. 4, No. 10, 1967, S. 89-95.
[55] Vgl. Gilles Deleuze, Felix Guattari, Tausend Plateaus. Kapitalismus und Schizophrenie, Berlin, 1980, S. 549-558 und 698-700.
[56] Vgl. Claude Elwood Shannon, A Symbolic Analysis of Relay and Switching Circuits, in: Transactions American Institute of Electrical Engineers, Nr. 57, 1938, S. 713-723.
[57] Übrigens spielen schon auf der Ebene der Herstellung der Hardware fotografische Prozesse eine Rolle, insofern die Strukturen von hochintegrierten Mikrochips mithilfe photolithographischer Verfahren erzeugt werden, vgl. Wayne M. Moreau, Semiconductor Lithography. Principles, Practices, and Materials, New York u. a., 1988.
[58] Lev Manovich, The Language of New Media, Cambridge, Mass. und London, 2001, S. 180/181.
[59] Vgl. neben Lalvani (Anm. 47) zu den vielfältigen Machtfunktionen fotografischer Medien, David Green, On Foucault: Disciplinary Power and Photography, in: Camerawork, No. 32, 1985, S. 6-9; Alan Sekula, The Body and the Archive, in: Richard Bolton (Hrsg.), The Contest of Meaning. On Photographies and Histories, Cambridge, Mass. und London, 1988, S. 343-389 und Geoffrey Batchen, Photography, Power and Representation, in: Afterimage, Jg. 16, Nr. 7, 1989, S. 4-9.
[60] Newell, Blinn (Anm. 27), S. 448. Übers. J. S.
[61] Vgl. Kevin Robins, The Virtual Unconscious in Post-Photography, in: Science as Culture, Nr. 14, 1992, S. 99-115, hier S. 104-111.
[62] Neunzert, (Anm. 14), S. 55.
[63] Vgl. Vilém Flusser, Für eine Philosophie der Fotografie, Göttingen, 1983, S. 73/74. Übrigens werden solche Experimente in der neuen E-Musik schon länger durchgeführt. Im so genannten ‚Physical Modeling’ werden die Eigenschaften realer Instrumente so exakt wie möglich nachgebildet, um dann durch Modifikation der Parameter völlig neue, da physisch unmögliche Instrumente und Klänge zu erzeugen.
Rosalind Krauss hat in jüngerer Zeit die Idee vertreten, dass Künstler wie William Kentridge oder James Coleman deswegen zu beachten seien, da sie ihre Medien neu erfinden. Und zwar in dem Sinne, dass solche Künstler medienhistorisch obsolete Formen – wie die Zeichnung und den ‚primitiven Film’ oder die Dia-Show – neu nutzen und so Benjamins Überlegung, dass Technologien gerade im Moment ihrer Obsoleszenz noch einmal ein utopisches Potential entfalten, aufgreifen, vgl. Rosalind Krauss, Reinventing the Medium, in: Critical Inquiry, Nr. 25, 1999, S. 2