Virtuelle Kamera Zum Fortbestand
fotografischer Medien in computergenerierten Bildern
Jens
Schröter
Die Simulation ist das Phantasma selbst, das heißt
der Effekt des Funktionierens des Trugbildes als Maschinerie.
Gilles
Deleuze. [1]Post-Fotografie
– Ende der Fotografie ?1991 oder 1992 wurde das
‚post-fotografische Zeitalter’
ausgerufen. [2] Mit dieser Deklamation
ging die Befürchtung einher, nun drohe der Verlust des zwar theoretisch
bestreitbaren, aber dennoch für viele Praktiken unverzichtbaren
‚Wirklichkeitsbezugs’ der durch fotografische Medien erzeugten
Bilder. Bereits 1982 hatte die Zeitschrift National Geographic einen
Eklat ausgelöst, als sie auf einem Titelblatt – der Gestaltung halber
– die Pyramiden von Gizeh näher aneinanderrückte (Abb. 1).
Ungleich schwerer wiegt der Fall der Time vom 27. Juni 1994, auf deren
Titelseite der des Mordes verdächtigte O. J. Simpson – während
des laufenden Prozesses – computermanipuliert schwärzer
erschien als auf dem Umschlagbild von Newsweek des selben Tages (Abb.
2). Fred Ritchin mahnte schon lange vor diesem Beispiel, dass der
Bildjournalismus und seine – natürlich immer von begleitenden
Kommentaren abhängige – Funktion der Bezeugung realer Vorgänge
mit dem Einzug des Computers am Ende
sei. [3] Denn wenn es digital
manipulierte Fotos oder gar gänzlich anders erzeugte
‚synthetische’ Bilder gibt, die von Fotografien ununterscheidbar
sind, kann keinem fotografisch erscheinendem Bild mehr der Status als Spur
und Dokument eines vergangenen Wirklichen angesehen werden. Gerade diese
Klage zeigt aber, dass ‚post-fotografische’ Bilder – obwohl
ihre technologischen und epistemologischen Grundlagen in vielerlei Hinsicht
neuartig sind [4] – die
fotografischen Medien beerben, denn die (angebliche) Bedrohung des
Dokument-Charakters fotografischer Bilder ist ja nur möglich, weil
bestimmte Arten digital erzeugter Bilder eben aussehen wie fotografische
Bilder. Den technischen Umbruch von analog zu digital überdauert also
ein historisch gewachsenes, foto- oder filmtypisches „Vokabular von
Konventionen“. [5] Dies zeigt
sich insbesondere an dem in der professionellen computergrafischen
Bild generierung[6] angestrebten
Fotorealismus. Anders gesagt: Es ist auffällig, dass gerade in
Bildern, die weitgehend von denen der fotografischen Medien verschieden sind
– den computergenerierten, „synthetischen“ Bildern, von denen
Baudrillard behauptet, aus ihnen sei „das Reale bereits
verschwunden“ [7] – eine
Rhetorik des Fotografischen bemüht wird. Dies widerspricht der Behauptung,
mit dem Auftauchen der neuen Bildtypen werde „sogar die Rhetorik der
Wahrhaftigkeit [verworfen], die so ein wichtiger Teil des kulturellen Erfolges
der Fotografie war“. [8] Im
Folgenden soll der historischen Entstehung des computergrafischen Fotorealismus,
seinen Funktionen und der Frage, ob die Rhetorik der Wahrhaftigkeit auch ein
wichtiger Bestandteil des kulturellen Erfolges der generierten Bilder ist,
nachgegangen werden. Vorgeschichte: Flugsimulation.Die
ersten Anfänge fotorealistischer Grafiken liegen in der zivilen und
militärischen Luftfahrt. 1910 geschahen die ersten schweren
Flugunfälle, die es notwendig machten, die Ausbildung der Piloten sicherer,
effektiver und kostengünstiger zu gestalten. Die ersten Konzeptionen zu
Flugtrainingsmaschinen (z. B. der Sanders Teacher oder der Billing
Trainer) stammen aus dieser
Zeit. [9] Jedoch dauerte es noch bis
1931, bis der erste wirklich einsatzfähige Flugimitator vorlag, Edwin Links
Link-Trainer (Abb. 3). Pneumatische Mechanismen, von denen Link durch
seinen Vater, der mechanisch-pneumatische Klaviere herstellte, Kenntnis hatte,
bewegten die Maschine. Sie erlaubten auch die Vortäuschung einfacher
Stellkräfte an den Steuerknüppeln. Die audiovisuelle Imitation der
Flugsituation selbst war auf eine Horizontlinie beschränkt. Die
Fortentwicklung des Flugtrainings konnte auf zwei Weisen geschehen. Einerseits
durch eine Steigerung des ‚Realismus’ der audiovisuellen Darstellung
der Flugsituation und andererseits durch die Verbesserung der Interaktion von
Maschine und Pilot. Man konzentrierte sich zunächst auf das erste Problem.
1939 entwickelte Link, jetzt schon in Diensten des Militärs, den
Celestial Navigator, der dazu diente, Bomberpiloten die Orientierung am
nächtlichen Sternenhimmel beizubringen. Dafür war eine hinreichend
naturgetreue Nachahmung des nächtlichen Sternenhimmels vonnöten, die
durch eine bewegliche, mit zahlreichen Lichtern ausgestattete Kuppel realisiert
wurde. Ende der dreißiger Jahre hatte Fred Waller – von der US-Air
Force gefördert – mit mehreren Filmprojektoren und Leinwänden
gearbeitet, um das Gesichtsfeld des Piloten mit ‚realistischen’
Bildern auszufüllen (‚Cinerama’-Verfahren). An diese
kinematographischen Vorgaben wird die Computergrafik anschließen (s. u.).
Das zweite Problem, die realistische Reaktion des Trainingsgeräts auf die
Eingaben des Piloten in Echtzeit (‚Interaktivität’)
setzte die Lösung komplizierter Differentialgleichungssysteme in
kürzester Zeit voraus, was zunächst nicht bewältigt werden
konnte. [10] Als sich die USA
jedoch im Zweiten Weltkrieg befanden, wurde die Entwicklung der Rechner
beschleunigt – durch die militärische Notwendigkeit ballistische
Tabellen, die zur Vorhersage der Flugbahnen von Bomben und Geschossen notwendig
waren, schnell zu berechnen. Resultat dieser Anstrengungen war der ENIAC,
einer der ersten Digitalcomputer der Welt, der Anfang 1946 unter der Leitung von
J. Presper Eckert und John W. Mauchly fertiggestellt wurde. Etwa zeitgleich,
1943, wurde am Massachusetts Institute of Technology die Arbeit an einem
Airplane Stability Control Analyzer aufgenommen, der zunächst als
analoges Computersystem konzipiert war. Ab 1945 entschloss sich Jay Forrester,
der Leiter der Projektgruppe, die gerade entwickelten Möglichkeiten
digitaler Rechner zu nutzen, um einen universalen Flugsimulator zu bauen, der je
nach Bedarf verschiedene Flugzeuge simulieren konnte, was langfristig eine
enorme Kostenersparnis bedeutet. [11]
In diesem Whirlwind genannten Projekt wurden erstmals
Kathodenstrahlröhren als grafisches Display benutzt. Dabei entwickelte man
um 1949 auch den ersten Vorläufer der Computerspiele: ein hüpfender
‚Ball’ (ein Punkt), der durch richtige Wahl entsprechender Parameter
‚interaktiv’ in ein Loch gelenkt werden musste (Abb.
4). [12] Wichtiger als die
Interaktivität ist hier, dass dieser ‚virtuelle Ball’
annähernd wie ein realer Ball hüpfte: Woolley bezeichnet dieses
Ereignis als den Beginn der
Computersimulation .[13]
Computersimulation und
‚Realismus’.
Bei Simulationen muss „der reale Prozeß [...] in Mathematik
abgebildet werden, um dann mittels Algorithmen im Rechner simuliert
werden zu können“. [14] D.
h. aus Messdaten aller Art und aus diesen abgeleiteten,
mathematisch formulierbaren Gesetzmäßigkeiten über das Verhalten
des Prozesses werden mathematische Modelle konstruiert, die den Prozess
mit mehr oder weniger großer Annäherung
beschreiben. [15] Der
‚Realismus’, der Bezug des mathematischen Modells auf die Struktur
eines realen Phänomens, steht also am Anfang der Computersimulation.
Simulationen erzeugen Modelle, d. h. virtuelle Objekte. Es kann hier
nicht die ganze Geschichte des Begriffs des Virtuellen, sondern nur sein
Auftauchen und seine Verwendung im Diskurs der Informatik umrissen werden.
‚Virtuell’ wird dort zuerst im Kontext der Forschung an virtuellen
Speichern ( virtual memory)
verwendet. [16] Spätestens ab
1962 nimmt virtual memory die heute geläufige Bedeutung an: Das
Hauptproblem elektronischer Computer war, dass Speicher mit kurzer Zugriffszeit
teuer waren. Folglich mussten aktuell nicht benötigte Informationen aus dem
Hauptspeicher ( main memory) in Hilfsspeicher ausgelagert werden.
Speicherallokation bezeichnet den Prozess, mit dem entschieden wird,
welche Daten aktuell im Hauptspeicher benötigt werden und welche in
Hilfsspeicher ausgelagert werden können. In den ersten Jahren der
Computerprogrammierung musste die Allokation vom Programmierer durch
entsprechende Routinen selbst bewerkstelligt werden. Als Mitte der
fünfziger Jahre höhere Programmiersprachen zum Einsatz kamen und die
Programme komplexer wurden, stellte sich dieses Verfahren als Hemmnis heraus. Es
gab eine Reihe von Lösungsvorschlägen, von denen sich letztlich das
Konzept des virtual memory
durchsetzte. [17] Es ist ein
automatisches Verfahren der Speicherallokation, das zum ersten Mal im 1961
entwickelten Atlas-Computer zum Einsatz kam. Virtuelle Speicher erzeugen
die Illusion eines großen, verfügbaren Speichers. Der Programmierer
kann über den address oder name
space[18] verfügen,
als ob dieser einen zusammenhängenden Speicher bezeichnete. Das
Computersystem ordnet, für den Programmierer unsichtbar, den virtual
addresses mit Hilfe einer address-translation
function[19] die realen
Adressen im memory
space[20] zu. Nur die
Programmteile oder Daten, die vom Programm gerade benötigt werden,
lädt das Computersystem in den tatsächlichen Hauptspeicher. Virtuelle
Speicher operieren also auf der Basis der Trennung des logischen Adressraums vom
materiellen Speicherraum. Diese Trennung von logischer Struktur und
materiellem Substrat ist der Kern des Virtuellen, zumindest im Diskurs der
Informatik. [21] Schon die Differenz
zwischen Soft- und Hardware ist so betrachtet eine Virtualisierung. Ein Computer
führt Software – eine logische Struktur – aus, womit es z. B.
möglich wird, einen anderen Computer zu simulieren (so erzeugt man eine
virtual machine). [22] Die
wissenschaftlich, medizinisch oder militärisch genutzte Computersimulation
eines realen Objekts oder Prozesses besteht darin, dass – je nach
Fragestellung verschiedene – mathematisch formalisierbare Strukturen von
der Materialität des Objekts abgelöst werden (am Beispiel
Whirlwind: das Hüpfverhalten eines Balls von dem materiellen Ball
aus Gummi), um dann als Grundlage eines Modells zu dienen (am Beispiel
Whirlwind: es wird ein Ball-Modell, ein ‚virtueller Ball’
erzeugt). [23] Die Modelle
können dann verändert werden, z. B. zur Prognose des Verhaltens des
simulierten Prozesses unter verschiedenen Bedingungen oder – was besonders
interessant ist – zur Vorwegnahme des Verhaltens eines auf dem simulierten
Prozess beruhenden möglichen zukünftigen Prozesses. Schließlich
werden die Modelle und ihr Verhalten auf verschiedenen (auditiven, visuellen
oder sogar haptischen) Displays abgebildet. Dabei muss der visuelle Output nicht
unbedingt ‚fotorealistisch’ sein – bei der Simulation etwa von
molekularen Prozessen würde das keinen Sinn machen. Mit Deleuze
könnte formuliert werden: „Die Struktur ist die Realität des
Virtuellen.“ [24] Mithin steht
das Virtuelle anders als das Fiktive nicht dem Realen gegenüber, sondern
dem Aktuellen. Die Unterscheidung real/fiktiv und die Unterscheidung
aktuell/virtuell liegen quer zueinander – so wird auch die Phantasie einer
anderen, zugleich realen und fiktiven Welt – der ‚Virtuellen
Realität’
möglich. [25]
Fotorealismus
Das virtuelle Objekt einer Simulation ist also eine je nach Zweck von
der Materie abgelöste mathematisch formalisierte und im Computer
näherungsweise repräsentierte Struktur eines ‚Realen’. Bei
Flugsimulationen, also virtuellen Flügen, muss die projektierte
spätere Flugsituation so realistisch wie nötig vorweggenommen
werden, damit eine angemessene Vorbereitung möglich ist. Neben der hier
ausgeklammerten Interaktivität bezieht sich dieser Realismus auf den
Charakter des Displays, durch das der Pilot die
‚Landschaft’, durch die er vermeintlich fliegt, und gegebenenfalls
die ‚Gegner’, gegen die er vermeintlich kämpft, sieht und/oder
hört. Die Strukturen ‚realer’ Seherfahrung
müssen also virtuell modellierbar werden. Generierte Bilder werden dadurch
an das ‚natürliche Sehen’ angenähert, indem z. B.
Verfahren zur Erzeugung von Beleuchtungseffekten in generierten Bildern auf
empirisch gewonnene Kenntnisse über das Verhalten des Lichts an
Oberflächen zurückgreifen: Eine Simulation, mit der ein virtuelles
Licht erzeugt wird. [26] Doch
gerade mit der Flugsimulation beginnt das Streben nach Fotorealismus, das
große Teile der Computergrafik prägt. So schreiben die Informatiker
Newell und Blinn explizit in einem Rückblick: „In der Mitte der
sechziger Jahre tauchten Techniken [zur Produktion von] Fotografien
gleichenden Bildern dreidimensional modellierter Szenen auf. Die
anfängliche Motivation dafür lag in der Flugsimulation, wo die
Illusion der Realität wichtig
ist.“ [27] D. h. der
computergrafische Realismus geht nicht vollständig in der Konzeption von
Simulation als Computermodell eines realen Phänomens auf, sondern umfasst
oft zwei nicht deckungsgleiche Zielsetzungen: „Ziel der realistischen
Bildsynthese ist es, Bilder zu erzeugen, die nicht von Fotos oder von
visuellen Eindrücken tatsächlicher Szenen unterschieden werden
können.“ [28] Dass das
Ziel eine Computergrafik zu erzeugen, die den ‚natürlichen’
Seheindruck wiedergibt von jenem perfekt Fotografie oder Film zu simulieren,
nicht immer klar getrennt wird, ist der Beleg für die
paradigmatische Funktion fotografischer Medien auch im digitalen Zeitalter.
Daher bezieht sich die Forschung am
Fotorealismus [29] auch auf die
Übernahme bereits etablierter Konventionen aus der Fotografie und dem Film.
So bedeutet ‚realistisch’ eben eine Anlehnung des generierten Bildes
an die von Fotografien und Filmen geprägten
Sehkonventionen. [30] Dabei ist diese
Anlehnung soweit selbst Simulation, wie die Eigenschaften (bestimmter
Ausprägungen) von Fotografie und Film empirisch vermessen und diese Daten
den Rechnermodellen zugrundegelegt werden. D. h. das Fotografische des
Fotorealismus ist keineswegs nur rhetorisch in dem Sinne, dass
oberflächliche Zeichen der Fotografie nachgeahmt werden – wie z. B.
in der künstlerischen Strömung der fotorealistischen Malerei (Abb. 5),
die etwa zeitgleich mit den ersten fotorealistischen Bemühungen der
Computergrafiker entstand. Vielmehr werden die Eigenschaften der fotografischen
(und auch kinematographischen) Apparate simuliert und d.h. nach der oben
nahegelegten Definition des Virtuellen, dass eine virtuelle Kamera eine
wirkliche Kamera ist – nicht bloß eine scheinhafte Imitation oder
gar bloße Fiktion – die je nach Maßgabe der zur Verfügung
stehenden Daten immer mehr ihrem materiellen Vorbild angenähert,
aktualisiert werden kann. Diese virtuelle Kamera wird nun benutzt, um ein
virtuelles Objektfeld, das von einer virtuellen Lichtquelle beleuchtet wird,
virtuell zu fotografieren (Abb.
6). [31] Virtuelle Fotografien
oder Filme müssten in Hinsicht auf ihre bildliche
Erscheinung [32] mithin den
fundamentalen Charakteristika der chemischen Fotografie folgen, von denen sich
mindestens vier benennen lassen – Fotogramme ausgenommen: Erstens der
Reichtum an unintendierten Details, die den – wie man mit Barthes sagen
könnte – „effet du
réel“ [33] ausmachen.
Viele generierte Grafiken werden gerade deshalb als noch nicht realistisch genug
eingestuft, weil sie zu ‚clean’ erscheinen, also zuwenig Kratzer,
Flecken u.ä. auf den Oberflächen
aufweisen. [34] Zweitens sind die
durch die Kameraoptik bedingten Effekte zu nennen, vor allem die
Bildorganisation gemäß den Regeln der Zentralperspektive, denn
computergenerierte Bilder könnten auch jeder anderen Projektion gehorchen,
folgen aber, wenn sie fotorealistisch sein wollen, der durch Fotografie und Film
tradierten perspektivischen
Organisation. [35] In der
computergrafischen Forschung wird überdies angestrebt, nicht nur die
perspektivische Projektion, sondern die spezifischen Effekte der Kameras, wie
die empirisch messbaren Verzerrungen und Schärfeneffekte von Linsen und
Blenden oder die von der Verschlusszeit abhängige Bewegungsunschärfe
( motion blur), d. h. das Verwischen von schnell bewegten Objekten, zu
simulieren (mit der Simulation des ‚Motion Blur’ wird ex
negativo auf die scharfe Momenthaftigkeit der meisten fotografischen Bilder
verwiesen). [36] Drittens ist die
Ausschnitthaftigkeit der fotografischen und filmischen Bilder zu nennen, denn
bis auf seltene, vorwiegend im Diskurs der so genannten Kunst anzutreffende
inszenatorische Strategien, die den Raum dieser Bilder abzuschließen
suchen, sind sie zentrifugal organisiert – abgeschnittene Objekte, Blicke
aus dem Bildraum etc. verweisen auf verschiedene Formen des
Off. [37] Viertens sind es die
Eigenschaften der fotografischen Emulsion selbst, z. B. die körnige
Struktur des Bildes insbesondere bei Vergrößerungen oder sehr
lichtempfindlichen Filmen, die man in der fotorealistischen Computergrafik
virtuell zu modellieren sucht. [38]
Fotografische Bilder können jenseits dieser vier grundlegenden, wenn auch
nicht immer in gleichem Maße anzutreffenden Eigenschaften sehr
unterschiedlich aussehen – ganz zu schweigen von den zahllosen sogenannten
Stilen, die sich in der künstlerischen Fotografie bzw. dem
künstlerischen Film ausdifferenziert haben. Die Vorstellung aber, die viele
Computergrafiker begleitet, wenn sie ‚fotorealistische’ Bilder
herstellen wollen, läuft offenbar auf eine ‚normale’ –
hundert ASA – Kodak-Farbfotografie, scharf mit einem Standardobjektiv (50
mm) aufgenommen oder auf ein Bild aus einem ‚normalen’ 16 oder 35
mm-Kinofilm
hinaus. [39]
Historisch ist der erste wichtige Schritt zum Fotorealismus der
Übergang von der Vektor- zur Rastergrafik, seitdem erst Computerbilder
nicht mehr nur aus Linien bestehen, sondern als Menge von einzeln adressierbaren
Punkten existieren (Abb. 7) – so erst werden gefüllte Flächen,
vielfältige Farben, Schatten etc. möglich. In der Folge gelangen immer
neue Entwicklungen auf dem Gebiet der Beleuchtung der Szene und des
Schattenwurfs, der Transparenz der Objekte und der
Textur. [40] Abb. 8 stellt eine
Computergrafik dar, die auf das 1975 entwickelte Verfahren des
‚Phong-Shadings’ zurückgreift. Da im Algorithmus von Phong
Highlights weiß sind, sehen die Objekte aus, als bestünden sie aus
Plastik. In Abb. 9 sieht man ein Beispielbild auf der Basis komplexerer
Algorithmen, die auch Texturen darstellen können und bei denen die
Highlights die Farbe der Objekte annehmen, wodurch die Objekte metallisch
erscheinen. Die paradigmatische Funktion fotografischer Bilder für die
Entwicklung von Computergrafik wird schließlich an Abb. 10 aus einem
Standardwerk zur Computergrafik deutlich – ein Foto einer Szene wird mit
einer gleichartigen berechneten Szene verglichen – quod erat
demonstrandum. Es darf aber nicht verschwiegen werden, dass die Herkunft des
computergrafischen Realismus aus der Flugsimulation zur Folge hatte, dass
vorrangig Verfahren zur Generierung von Objekten wie Bäumen oder Wolken
entwickelt wurden. So blieb Realismus eines computergrafischen Bildes lange Zeit
„partial und
gewichtet“. [41] Die
Annäherung der computergenerierten an standardisierte fotografische und
kinematographische Bilder ist – wie das Beispiel Flugsimulation schon
zeigte – institutionell und ökonomisch bedingt. Ab den späteren
siebziger Jahren wird die Forschung an realistischer Computergrafik immer
weniger vom Militär, sondern in steigendem Maß von der Filmindustrie
gefördert. Z. B. geht 1979 Edwin Catmull, einer der führenden
Entwickler von Computergrafik in den siebziger Jahren, der zuvor direkt oder
indirekt für das Militär gearbeitet hatte, zu Lucasfilm,
um dort die Computer Graphics Division zu leiten. Für zahlreiche
militärische Applikationen ist fotorealistische Grafik gar nicht geeignet,
weil sie zu viele Informationen liefert, weshalb oft komplexitätsreduzierte
Displays zum Einsatz kommen (siehe Abb.
11). [42] Wenn hingegen generierte
Bilder als special effect in einen Film oder auch in eine Print-Werbung
eingefügt werden sollen – es sei denn die Künstlichkeit der
Bilder ist narrativ motiviert – müssen sie ausreichend vom
fotografisch-filmischen Kontext ununterscheidbar
sein. [43] Inzwischen werden die
meisten Fortschritte der fotorealistischen Computergrafik durch die
Entertainment-Industrie angestoßen, die auf militärische Interessen
nicht direkt Rücksicht nehmen muss.
Funktionen generierter Bilder
Die generierten Bilder in ihrer gegenwärtig vorherrschenden Form
beziehen sich auf eine der Fotografie und dem Film abgeluchste Rhetorik des
Wahrhaftigen – sei es um die Realitätseffekte des illusionistischen
Kinos zu unterstützen oder um zur ‚wahrhaftigen’ Rekonstruktion
oder Prognose von Ereignissen und Prozessen zu dienen. Letzteres ist im
Zusammenhang mit katastrophalen Ereignissen wie dem 11. September, aber auch
schon beim Wetterbericht immer häufiger im Fernsehen zu bestaunen. Aber die
‚synthetischen Bilder’ beziehen sich auch tatsächlich auf die
so genannte Wirklichkeit, sofern sie die visuelle Darstellung von Simulationen
sind, die reale Phänomene nachbilden. So werden etwa aus Daten von
Weltraumsonden Bilder von Himmelskörpern generiert (Abb. 12), die
keineswegs das zeigen müssen, was für Menschen wirklich sichtbar
gewesen wäre, sondern das, was für eine bestimmte Praxis operational
und insofern ‚wahr’ ist. Abb. 13 etwa stellt ein generiertes Bild
des Vorbeiflugs einer Sonde am Uranus dar – die Schattenseite des Planeten
müsste eigentlich völlig schwarz sein, ist aber für den Zweck der
besseren Verständlichkeit des Bildes leicht erleuchtet. Soweit
Simulationen auf Modellen realer Phänomene beruhen, sind sie noch Abbilder
und – wenn man so will – ‚realistischer’ als die Bilder,
die nur auf der Abtastung des von der Oberfläche der Objekte reflektierten
Lichts beruhen. Wenn die Modelle jedoch verändert werden, um mögliche
oder zukünftige Phänomene zu beschreiben, können Simulationen
Vorbilder liefern und erzeugen damit die ersten Bilder, die nicht
bloß semantisch auf die Zukunft verweisen können – auch das
unterscheidet das Virtuelle vom Fiktiven. Simulatoren sollen Vorhersagen
über eine zukünftige Realität liefern, um militärisches,
wissenschaftliches oder wirtschaftliches Handeln auf ein gesichertes Fundament
zu stellen, d. h. sie sollen als
„Kontrollumgebung“ [44]
fungieren. Z. B. dienen in der Teilchenphysik die Ergebnisse von Simulationen
zukünftiger Versuche als Vergleichsmaßstab, vor dem die Ergebnisse
der dann real durchgeführten Experimente erst bewertet werden können
und das gilt nicht nur für die frühen Forschungen an Atom- und
Wasserstoffbombe. [45] In der
Architektur, im Maschinenbau und im Design dienen Simulationen oft dazu, neue
Produkte am Rechner zu entwerfen, zu testen, um sie schließlich
potentiellen Kunden vorzustellen, bevor sie wirklich hergestellt werden. Auch
dies ist eine gewichtige Motivation für die fotorealistische Ausrichtung
generierter Bilder – erfüllen sie doch ähnliche Funktionen, wie
sie vordem die Werbefotografie wahrnahm. Diese Vorbild- und
Kontroll-Funktionen werden bei Flugsimulatoren besonders deutlich.
Flugsimulationen sind keine Abbilder eines Flugs, der stattgefunden hat, sondern
Vorbilder, die den Piloten auf einen zukünftigen Flug vorbereiten. D. h.
die generierten realistischen Bilder dienen dazu, die Reaktionen und
Körperbewegungen des Piloten so zu konditionieren, dass im späteren
Realfall eine möglichst optimale Reaktion erzielt werden kann: Foley
spricht unverhohlen von der „Maximierung der
Benutzer-Effizienz“ [46] als
einem Ziel der Maximierung des computergrafischen Realismus (mit der schon
genannten Einschränkung, dass zuviel Realismus auch zu komplex sein kann).
So gesehen führen die Simulatoren den Einsatz fotografischer Medien im
Dienste der Disziplinierung fort, die in den arbeitswissenschaftlichen
Forschungen Taylors und besonders Gilbreths am Anfang des zwanzigsten
Jahrhunderts einen besonders markanten Ausdruck
fand. [47] Ähnliches gilt
für die diskursive Praxis der Medizin: Ohne die Verarbeitung durch Computer
könnte man – anders als bei einfachem Einsatz von
Röntgenstrahlen – weder in der Computertomographie, noch beim
Magnet-Resonanz-Imaging Bilder erhalten. Diese Körperbilder können als
Grundlage von Simulationsmodellen von Körpern und Körperteilen dienen.
Die spektakulärste Form zur Zeit ist das ‚Visible Human
Project’. [48] Ein in Texas zum
Tode verurteilter Mann vererbte seinen Körper der Medizin. Dieser wurde
geröntgt, einem MRI unterzogen, schließlich tiefgefroren und in 1878
je ein Millimeter dicke Scheiben zersägt. Diese wurden je einzeln als
digitale Fotos aufgezeichnet. So liegt jetzt ein Modell eines männlichen
Körpers vor (genannt ‚Adam’; inzwischen ist auch
‚Eva’ hinzugekommen), der virtuell aus allen Blickwinkeln betrachtet
werden kann. Und: „Steht für die Datenmanipulation die Rechenleistung
von Supercomputern zur Verfügung, lassen sich auch Körperbewegungen
und Verdauungsvorgänge
simulieren.“ [49] Ein
gespenstisches Leben des Toten erhebt sich aus dem Rechner. Jenseits der
Dichotomie von Leben und Tod – und somit jenseits der dem Tod verhafteten
Fotografie – werden die Simulationen zu normativen Modellen realer
Körper, denn sie bilden die Grundlage von Trainings-Simulatoren mithilfe
derer angehende Mediziner geschult werden. Die Kontinuität
des Fotografischen und die universelle MaschineWenn die chemische
Fotografie auch nicht verschwindet, so wird sie durch das Auftauchen und die
Ausbreitung des Computers doch einen neuen Platz im System der Medien
einnehmen. [50] Ihre Produkte werden
vielleicht nur noch in der so genannten Kunst oder im Bereich eines puristischen
Fotojournalismus zu finden sein. Die Rolle der Fotografie als Paradigma scheint
jedoch ungebrochen. Auch wenn der Computer das neue Leitmedium sein sollte, sind
die mit ihm erstellten Bilder, sowohl hinsichtlich ihres Erscheinens als auch in
Bezug auf ihre Funktionen, noch immer in starkem Maß der Fotografie und
dem Kino verpflichtet. Es stellt sich die Frage, ob diese Anlehnung
lediglich eine „Durchgangsphase [ist], eine historische
Kompromißbildung, die die Rechner einer an Visualität gewöhnten
Öffentlichkeit
anbieten.“ [51] So betrachtet
wären alle digitale Fotografie und aller Fotorealismus aus
oberflächlich ökonomischen Zwecksetzungen – der Distribution von
Rechnern – entstanden und müssten bald, wenn die spezifischen
Potentiale des Rechners allgemein verstanden sind, verschwinden. Dem
steht aber entgegen, dass digitale Computer als universelle Maschinen gerade
keine Spezifik besitzen, die sich im Laufe der Geschichte gegen die
anfängliche Anlehnung der neuen Maschine an vorhergehende Maschinen
durchsetzen könnte, denn „das digitale Medium ek-sistiert in seiner
vielgestaltigen
Metaphorizität“. [52] In
verschiedenen diskursiven Praktiken stehen Rechner im Rahmen je
unterschiedlicher und bisweilen auch konfligierender Metaphorisierungen, die
umschreiben, wozu die Maschinen dienlich und nützlich sein sollen. In Folge
solcher oft auch impliziter Zielsetzungen werden Computer – im Rahmen des
technisch Möglichen – mit je anderer Hardware (Peripherien) verbunden
und mit je anderer Software programmiert. Beispiele dafür wären die
Vorstellung von Rechnern als ‚Elektronengehirn’ in den
fünfziger Jahren – d.h. einem Modell des Computers als Optimierung
des menschlichen Denkens, eine Metapher, die sich ebenso an den Konferenzen zur
Künstlichen Intelligenz (Darthmouth-Konferenz 1956), wie an
zeitgenössischen Kinofilmen bis zu Kubricks 2001 von 1968 ablesen
ließe. In den Sechzigern jedoch wurde der Computer auch als Medium
entdeckt – lange vor der medientheoretischen Diskussion aus den
frühen Neunzigern. [53] So
beschrieb schon 1967 Michael Noll den Computer as a creative medium
für die bilderzeugenden Künste und forderte entsprechende Soft-
und Hardwareentwicklungen. [54] Diese
Metaphorisierung hatte aus ökonomischen Gründen (d. i. die Preise
für entsprechende Technologien) eine lange Latenzzeit, bis sie in unserer
Gegenwart zur selbstverständlichen Vorstellung von Computern wurde und eine
entsprechende Ausrichtung bewirkte. Computer als Medien können Bild-, Ton-,
Schriftmedien sein – oder auch alles gleichzeitig. Sie besitzen so gesehen
keine Medienspezifik, sondern sind je nach diskursiver Praxis – mit einem
Wort von Deleuze und Guattari – ein je anderes Aussagen- und
Maschinen gefüge, das bestimmte Möglichkeiten eröffnet und
andere verschließt. [55] Dabei
können Programmroutinen, die in einer spezifischen diskursiven Praxis
zentral sind, buchstäblich zu Hardware sedimentieren, denn jede Software
kann als Verschaltung logischer Gatter Hardware werden, wie Shannon schon 1938
bewiesen hatte. [56] Ein hier sehr
passendes Beispiel ist die von der Film- und dann Computerspielindustrie
geförderte Entwicklung von Grafikchips, die Algorithmen für die
Generierung von Bildern in Hardware gießen und so beschleunigen. Um es
anders zu sagen: Computer als programmierbare Maschinen können alles an den
traditionellen Medien tradieren, was mathematisch darstellbar ist (und das ist
abgesehen von der Rezeption so gut wie alles) und diese Tradierung kann die Form
von Hardware annehmen. Zu deren Teil werden zunehmend auch die virtuellen
Kameras, die perspektivische Projektion und die Rhetorik der
Wahrhaftigkeit. [57] Müsste
man also nicht, statt von ‚digitaler Revolution’ und
‚Post-Fotografie’ daherzureden, eher sagen, dass die ‚Digitale
Fotografie’ und der computergrafische ‚Fotorealismus’ noch
lange bestehen bleiben, weil fotografisch und kinematographisch erscheinende
Bilder – so Manovich lakonisch – „sehr effizient für die
kulturelle Kommunikation“ [58]
sind? D. h. die fotorealistische Bildgenerierung übernimmt und steigert
wichtige Funktionen ihrer fotografischen und kinematografischen Vorgänger,
nicht nur in der Unterhaltungsindustrie, sondern auch in den (teilweise
genannten) militärischen, medizinischen und ökonomischen diskursiven
Praktiken: Und zwar hinsichtlich der Speicherung, Verarbeitung und Darstellung
vom Information, wodurch Klassifikationen, Analysen, Prognosen und damit auch
Kontrolle und Optimierung möglich
werden. [59] Die Fortdauer des
Fotografischen und seiner Rhetorik der Wahrheit in den digitalen Medien
würde so auf eine Einschreibung bestimmter, nicht von der Fotografie allein
ausgelöster, aber mit ihr historisch einhergehender
Macht/Wissens-Dispositive in die programmierbare Maschine Computer hinweisen. Es
geht also nicht nur um die oberflächlich ökonomische Zielsetzung mehr
Rechner zu verkaufen, sondern um fundamentalere Funktionen der Kontrolle. Das
zeigt sich symptomatisch daran, dass die Tendenz des Fotorealismus in dem
quasi-utopischen „Ziel der Simulation der
Realität“ [60]
mündet, d. h. einer im Wortstamm von virtuell (u. a. macht- und
kraftvoll) anklingenden Phantasie totaler Kontrolle, die nicht nur in den
lebenden Toten des Visible Human Project, sondern auch in den Diskursen
zur so genannten Virtuellen Realität – die im Virtuellen die
Vereinigung des Fiktiven mit dem Realen und so eine andere, bessere
Realität verspricht – immer wieder
aufblitzt. [61]
FazitVor diesem Hintergrund wird deutlich: Das
ideologische Moment in der Debatte über das
angebliche Ende der Referenz im post-fotografischen Zeitalter besteht gerade
darin, den vielfältigen Wirklichkeitsbezug generierter (und auch
digitalisierter) Bilder zu leugnen und gleichzeitig die Bildbearbeitungen,
Manipulationen und Fälschungen in der Geschichte der Fotografie zu
verdrängen – also einen übertriebenen Kontrast zwischen
fotografischen und post-fotografischen Medien aufzubauen. Die Betonung der
repressiven Effekte der Unterdrückung oder Verzerrung durch
Manipulation – wie im anfangs genannten Fall O. J. Simpson –
verstellt tendenziell den Blick auf die – im Sinne Foucaults –
produktiven Funktionen der neuen Bilder. Die
generierten (und die digitalisierten) Bilder können
„mächtige[...]
Hilfsmittel“ [62] sein, um sich
einem – entsprechend definierten – Realen, und sei es ein
Pilotenkörper oder ein Konsument, anzunähern, es zu analysieren, zu
formieren und so zu kontrollieren. Die Funktionalität der neuen Bilder muss
jenseits einer Polarisierung in die angeblich referentiellen und
a-referentiellen (‚post-fotografischen’) Bilder untersucht
werden. Schließlich bleibt als eine Perspektive, dass
künstlerische Praktiken den mathematischen Charakter der virtuellen Kameras
verfremdend nutzen könnten – jenseits der lächerlichen Montagen
und Retuschen z. B. eines Dieter Huber (Abb. 14), von Aziz / Cucher (Abb. 15)
u.a. Sie könnten virtuelle Kameras erzeugen, die realiter niemals
existieren könnten und zerstörten damit auch die standardisierten und
ideologisch verengenden Klischees, die der
Militärisch-Unterhaltungsindustrielle-Komplex von den fotografischen Medien
malt. Sie könnten neue Fragen stellen: Welche Bilder werden mit einem
zehntausend Meter langen Teleobjektiv möglich, wie fotografiert, wie filmt
es sich am Ereignishorizont eines schwarzen Lochs, was ist
‚Fotografie’ überhaupt je gewesen und was kann sie sein ... ?
Das von Flusser in seiner Philosophie der Fotografie als Form der
Freiheit gepriesene Spielen gegen den Fotoapparat ist mit der Virtualisierung
der Fotografie erst wirklich, wenn auch nicht aktuell möglich
geworden. [63]
Abbildungsverzeichnis:
Abb. 1 Cover von National Geographic, Februar 1982 (aus: Fred
Ritchin, In our own Image. The Coming Revolution in Photography, New
York, 1990, S. 15).
Abb. 2 Cover der Time und der Newsweek vom 27. Juni 1994
(aus: Hubertus v. Amelunxen et. al. (Hrsg.), Fotografie nach der
Fotografie, Dresden und Basel, 1995, S. 74).
Abb. 3 Schematische Darstellung des Link-Trainers aus dem am 29. September
1931 bewilligten Patent (aus: Benjamin Woolley, Die Wirklichkeit der
virtuellen Welten, Basel u.a., 1994, S. 50).
Abb. 4 Whirlwind-Display des „Bouncing Ball“-Programms (aus:
Norman H. Taylor u.a., Retrospectives: The Early Years in Computer Graphics at
MIT, Lincoln Lab and Harvard, in: SIGGRAPH Proceedings 1989 (= Computer
Graphics, Vol. 23, No. 5), S. 21). Abb. 5 Richard Estes, Rappaports
Pharmacy, 1976.
Abb. 6 Schema der virtuellen Kamera (aus: Timothy Binkley, Refiguring
Culture, in: Philip Hayward; Tana Wollen (Hrsg.), Future Visions. New
Technologies of the Screen, London, 1993, S. 104).
Abb. 7 Computergrafik, Vektorgrafik (aus: W. J. T. Mitchell, The
Reconfigured Eye. Visual Truth in the Post-Photographic Era, Cambridge,
Mass. / London, 1992, S. 138).
Abb. 8 Computergrafik, Phong-Shading (aus: W. J. T. Mitchell, The
Reconfigured Eye. Visual Truth in the Post-Photographic Era, Cambridge,
Mass. / London, 1992, S. 144).
Abb. 9 Computergrafik, Texturiert und mit Spiegelungen (aus: W. J. T.
Mitchell, The Reconfigured Eye. Visual Truth in the Post-Photographic
Era, Cambridge, Mass. / London, 1992, S. 144).
Abb. 10 Ein Beispiel für Fotorealismus, Vergleich von Foto und
Computergrafik (aus: James D. Foley et. al., Computer Graphics. Principles
and Practice, Reading, Mass. u.a., 1990, Plate III. 19).
Abb. 11 Sicht des Piloten durch das Head Mounted Display des
Super-Cockpit-Programms (aus: Sven Bormann, Virtuelle Realität. Genese
und Evaluation, Bonn u. a., 1994, S. 42).
Abb. 12 Generiertes Bild der Venus aus Magellan- und Venera-Satellitendaten
(aus: W. J. T. Mitchell, The Reconfigured Eye. Visual Truth in the
Post-Photographic Era, Cambridge, Mass. / London, 1992, S. 65).
Abb. 13 Generiertes Bild des Uranus von Jim Blinn (aus: James D. Foley et.
al., Computer Graphics. Principles and Practice, Reading, Mass. u.a.,
1990, Plate II. 20).
Abb. 14 Dieter Huber, Klone # 92, 1997 (aus: Fotogalerie Wien (Hrsg.),
Körper, Wien, 2000, S. 28).
Abb. 15 Anthony Aziz; Sammy Cucher, Ken, 1994 (aus: Hubertus v. Amelunxen
et. al. (Hrsg.), Fotografie nach der Fotografie, Dresden und Basel, 1995,
S. 129).
[1] Gilles Deleuze, Platon und
das Trugbild, in: ders., Logik des Sinns, Frankfurt a. M., 1993, S.
311-324, hier S. 321. [2] Der
Begriff ‚post-fotografisch’ wird meines Erachtens erstmals 1991 von
Trisha Ziff, Pedro Meyer. Post-photographic Photography, in: Paul Wombell
(Hrsg.), Photovideo. Photography in the Age of the Computer, London,
1991, S. 150/151, hier S. 151 gebraucht. Popularisiert wurde er aber durch
William J. Mitchell, The Reconfigured Eye. Visual Truth in the
Post-Photographic Era, Cambridge, Mass. und London,
1992. [3] Vgl. Fred Ritchin, In
Our Image: The Coming Revolution in Photography; How Computer Technology is
Changing Our View of the World, New York, 1990; ders., The End of
Photography as We Have Known It, in: Wombell, Photovideo, S. 8-15 und
ders., Photojournalism in the Age of Computers, in: Carol Squiers (Hrsg.),
The Critical Image. Essays on Contemporary Photography, Seattle, 1990, S.
28-37. [4] Vgl. Wolfgang Hagen, Die
Entropie der Fotografie. Skizzen zu einer Genealogie der digital-elektronischen
Bildaufzeichnung, unter:
http://www.whagen.de/get.php?page=vortraege/EntropieDerFotografie/edf.htm#_ftn2,
Letzter Zugriff Juli 2002. [5]
Geoffrey Batchen, On Post-Photography, in: Afterimage, Vol. 20, No. 3,
1992, S. 17. Übers. J. S. [6]
Von den generierten muss man die digitalisierten Bilder unterscheiden, die auf
einer Abtastung von Licht mithilfe von CCDs beruhen (siehe dazu den Text von
Hagen, Fußnote 4) und somit auf der Ebene der Bildgenese die Fotografie
beerben. Auf diese Bilder gehe ich hier nicht ein, vgl. Jens Schröter,
Intelligence Data. Zum Weltbezug der sogenannten digitalen Bilder, in:
Berliner Debatte Initial, Heft 5/2001, S. 55-65.
[7] Jean Baudrillard, Das perfekte
Verbrechen, in: Hubertus von Amelunxen (Hrsg.), Theorie der Fotografie IV
1980–1995, München, 2000, S. 256-260, hier: S. 258. Es bleibt
undeutlich, was Baudrillard mit ‚synthetischen Bildern’ eigentlich
meint – denn strenggenommen muss doch jedes Bild (außer
Spiegelbildern) als synthetisch bezeichnet
werden. [8] Geoffrey Batchen,
Burning with Desire. The Conception of Photography, Cambridge, Mass. und
London, 1997, S. 211; Übers. J.
S. [9] Vgl. J. M. Rolfe, K. J.
Staples, Flight Simulation, Cambridge u. a., 1986, S.
14-17. [10] Den Aspekt der
Interaktivität werde ich im folgenden ausklammern. Vgl. Lev Manovich, Eine
Archäologie des Computerbildschirms, in: Kunstforum International,
Bd. 132, 1995, S. 124-136. [11]
Vgl. Robert Everett, Whirlwind, in: M. Metropolis u. a. (Hrsg.), A History of
Computing in the Twentieth Century, New York, 1980, S.
365-384. [12] Vgl. SIGGRAPH
Proceedings 1989 II ( = Computer Graphics, Vol. 23, No. 5), S. 21.
[13] Vgl. Benjamin Woolley,
Die Wirklichkeit der virtuellen Welten, Basel, Boston und Berlin, 1994,
S. 46. Woolley erwähnt allerdings nicht, dass die ersten Simulationen (so
genannte ‚Monte Carlos’) bereits ab Dezember 1945 im Rahmen der
Forschung an der Wasserstoffbombe auf dem ENIAC durchgeführt wurden, vgl.
Peter Galison, Image and Logic. A Material Culture of Microphysics,
Chicago und London, 1997, S.
689-780. [14] Helmut Neunzert,
Mathematik und Computersimulation: Modelle, Algorithmen, Bilder, in: Valentin
Braitenberg und Inga Hosp (Hrsg.), Simulation. Computer zwischen
Experiment und Theorie, Reinbek bei Hamburg, 1995, S. 44-55, hier S. 44. Zu
den frühen Diskussionen um das Verhältnis von Simulationen und der
Natur vgl. Galison, (Anm. 13), S. 738-746 und S. 776-780. Zu den verschiedenen
Formen von Computersimulation vgl. Michael M. Woolfson, G.J. Pert, An
Introduction to Computer Simulation, Oxford u. a.,
1999. [15] Ein Beispiel
dafür, dass generierten Bildern Daten zugrunde liegen, findet man in Ivan
Sutherland, Henri Gouraud, Les Images Electroniques, in: La Recherche,
No. 29, 1972, S. 1055-1061, hier S.1058, wo es um die Computermodellierung eines
VW geht: „Bevor man ein ‚elektronisches Bild’ eines Objektes
generieren kann, ist es notwendig, die Definition des Objekts in den Rechner
einzugeben. Für den Fall, dass das Objekt existiert, kann dies vielleicht
durch die Messung der Raumkoordinaten von Punkten auf der Oberfläche des
Objekts gemacht werden.“ Übers. J.
S. [16] Der Terminus virtual
memory wird laut Oxford English Dictionary 1959 in einem Vortrag
eingeführt, der im Rahmen der Eastern Joint Computer Conference
gehalten wurde, vgl. John Cocke, Harwood G. Kolsky, The Virtual Memory in
the STRETCH Computer, in: Proceedings of the 1959 Eastern Joint Computer
Conference. Papers presented at the Joint IRE-AIEE-ACM Computer Conference,
Boston, Massachusetts, 1959, S. 82-93. Allerdings ist in diesem Text mit
virtual memory etwas anderes gemeint als in der heute üblichen
Verwendung des Begriffs. Der Text von 1959 beschreibt als look-ahead unit
das, was man heute cache memory nennt – ein kleiner
Zwischenspeicher, der besonders schnell reagiert und vom Prozessor häufig
gebrauchte Daten
bereithält. [17] Vgl. Peter
J. Denning, Virtual Memory, in: ACM Computing Surveys, Vol. 2,
No. 3, 1970, S. 153-189. [18]
Ebenda, S.157. [19] Ebenda,
S.158. [20] Der sowohl den
realen Hauptspeicher als auch Hilfsspeicher (z. B. Festplatten)
einschließt. [21] Diese
Bedeutung von virtuell lässt sich auch begriffsgeschichtlich stützen.
In einer amtlichen Schrift an Christian Gottlob Voigt vom 24/25. November 1795
schrieb Goethe: „Billig ziehen nun auch die Bibliotheken unsere
Aufmerksamkeit auf sich. Wir haben ihrer viere: die hiesige, die Jenaisch
Akademische; die Buderische und Büttnerische welche alle der Stiftung, der
Anstalt und dem Platz nach, wohl immer getrennt bleiben werden, deren virtuale
Vereinigung aber man wünscht und man sich möglich gedacht hat.“
(Johann Wolfgang von Goethe, Sämtliche Werke nach Epochen seines
Schaffens. Münchner Ausgabe, hg. von Karl Richter et. al. München
u. a., 1985 ff., Band 4.2, S. 880). In einem Brief an Schiller vom 9. Dezember
1797 heißt es: „Vielleicht habe ich in Bibliothekssachen
künftig einigen Einfluß, sagen Sie ob Sie die Idee vor tulich halten
mit der ich mich schon lange trage: die hiesige, die Büttnische und
Akademische Bibliothek, virtualiter, in Ein [sic] Korpus zu vereinigen
[...]“ (ebenda: Band 8.1, S. 462). Goethe schlägt also keine
physische Vereinigung der Bibliotheken, sondern (wie man dem Kommentar zu dieser
Stelle in ebenda, Band 8.2, S. 380 entnehmen kann) einen gemeinsamen Katalog
vor, der als einheitlicher ‚address space’ fungiert, wiewohl die
physische Verortung der Bücher (der ‚memory space’) heterogen
bleibt. [22] Vgl. Woolley, (Anm.
13), S. 79/80. Die exakte Simulation eines Computersystems durch ein anderes
wird im Unterschied zur stets nur näherungsweisen Simulation von Natur-
oder gar Sozialphänomenen Emulation
genannt. [23] Diese Ablösung
von der Materialität bezieht sich auf das virtuelle Objekt im
Verhältnis zum Realobjekt, nicht aber auf die Hardware, die jedem
Rechenprozess zugrunde liegt und z. B. die Rechnergeschwindigkeit begrenzt, was
bei der Simulation hochkomplexer Phänomene eine entscheidende Rolle spielen
kann. [24] Gilles Deleuze,
Differenz und Wiederholung, München, 1992, S. 264 und auf derselben
Seite: „Das Virtuelle muss selber als ein strikt dem Realobjekt
zugehöriger Teil definiert werden – als ob das Objekt einen seiner
Teile im Virtuellen hätte und darin wie in einer objektiven Dimension
eingelassen wäre“ – diese objektive Dimension ist die der
mathematischen Formalisierbarkeit!
[25] Vgl. Elena Esposito,
Illusion und Virtualität. Kommunikative Veränderungen der Fiktion, in:
Werner Rammert (Hrsg.), Soziologie und Künstliche Intelligenz. Produkte
und Probleme einer Hochtechnologie, Frankfurt a. M. und New York, 1995, S.
187-216. [26] Vgl. Axel Roch,
Computergrafik und Radartechnologie. Zur Geschichte der Beleuchtungsmodelle in
computergenerierten Bildern, in: Manfred Faßler, Wulf Halbach (Hrsg.),
Geschichte der Medien, München, 1998, S. 227-254, hier S. 250:
„Tatsächliche, empirische Messungen für Reflexionseigenschaften
an rauhen Oberflächen liegen nämlich besonders ausführlich
für Radar vor. An genau diesen empirischen Kurven orientieren sich die
theoretischen Streuungsfelder von Cook/Torrance.“ Roch bezieht sich hier
auf Robert L. Cook, Kenneth E. Torrance, A Reflectance Model for Computer
Graphics, in: ACM Transactions on Graphics, No. 1, 1982, S. 7-24. Vgl.
auch Axel Roch, Die Wasseroberfläche. Medialität und Ästhetik der
elektronischen Reflexion, in: Manfred Faßler (Hrsg.), Ohne
Spiegel leben. Sichtbarkeit und posthumane Menschenbilder, München,
2000, S. 123-140 und James D. Foley et al., Computer Graphics. Principles and
Practice, Reading, Mass. u. a., 1990, S. 793 ff. zu den
‚radiosity’-Beleuchtungsmodellen. Dazu, dass bei solchen
Simulationen miteinander inkompatible Verfahren zum Einsatz kommen und so der
absolute Realismus ein schwierig zu erreichendes Ziel bleibt, vgl. Friedrich
Kittler, Computergraphik. Eine halbtechnische Einführung, Vortrag 1998,
unter: http://waste.informatik.hu-berlin.de/mtg/mtg4/kittler.htm, Letzter
Zugriff Juli 2002. [27] Vgl.
Martin E. Newell, James F. Blinn, The Progression of Realism in
Computer-Generated Images, in: ACM 77. Proceedings of the Annual
Conference, New York, 1977, S. 444-448, hier S. 444. Hervorhebung J. S.;
Übers. J. S. [28] Konrad F.
Karner, Assessing the Realism of Local and Global Illumination Models,
Wien und München, 1996, S. 10, Hervorhebung J.
S. [29] Vgl. u. a. E. Nakamae, K.
Tadamura, Photorealism in Computer Graphics - Past and Present, in: Computer
and Graphics, Vol. 19, No. 1, 1995, S. 119-130.
[30] Vgl. Gary W. Meyer, Holly
E. Rushmeier, Michael F. Cohen, Donald P. Greenberg, Kenneth E. Torrance, An
Experimental Evaluation of Computer Graphics Imagery, in: ACM Transactions on
Graphics, Vol. 5, No. 1, 1986, S. 30-50. Der Text beschreibt ein Experiment
zur Bewertung des realistischen Charakters von Computerbildern: Ein Videobild
einer einfachen, realen Anordnung von Gegenständen und ihrer Beleuchtung
wird neben einem Videobild einer generierten Grafik, welches diese Anordnung
darstellt, Versuchspersonen präsentiert: Können diese nicht mehr mit
Sicherheit sagen, was das Bild der realen Anordnung ist, gilt das Bild als
realistisch – unter eben ständiger Voraussetzung des Videobildes, das
hier, obwohl elektronisch, zu den fotografischen Medien gezählt wird,
insofern es auf der Speicherung von Licht beruht.
[31] Vgl. Mitchell, (Anm. 2), S.
117-135. Vgl. Timothy Binkley, Refiguring Culture, in: Philip Hayward and Tana
Wollen (Hrsg.), Future Visions. New Technologies of the Screen, London,
1993, S. 92-122 S. 103-105.
[32] Von Montageregeln etc. beim
Film sei hier abgesehen. [33]
Vgl. Roland Barthes, L’effet du réel, in: Communications,
No. 11, 1968, S. 84-89, insb. S. 87/88. Die Masse unintendierter Details hat die
Zeitgenossen der Erfindung der Fotografie beeindruckt. Z. B. beschrieb Sir
Oliver Wendell Holmes die „erschreckende Fülle von Details“,
vgl. ders., Das Stereoskop und der Stereograph, [1859], in: Wolfgang Kemp
(Hrsg.), Theorie der Fotografie, Bd. 1, 1839-1912, München, 1980, S.
114-121, hier S. 116. [34] Vgl.
Newell, Blinn, (Anm. 27), S.
445/446. [35] Vgl. Foley et al.,
(Anm. 26), S. 230-237, insb. 231: „Der visuelle Effekt einer
perspektivischen Projektion gleicht dem fotografischer Systeme.“
Übers. J. S. [36] Vgl. zur
Simulation von Kamera und Bewegungsunschärfe Michael Potmesil, Indranil
Chakravarty, Synthetic Image Generation with a Lens and Aperture Camera Model,
in: ACM Transactions on Graphics, Vol. 1, No. 2, 1982, S. 85-108; dies.,
Modeling Motion Blur in Computer-Generated Images, in: SIGGRAPH
Proceedings 1983 (= Computer Graphics, Vol. 17, No. 3), S. 389-399.
[37] Die klassische Formulierung
der Unterscheidung zwischen einem zentrifugalen und zentripetalen Bild stammt
noch immer von André Bazin, Painting and Cinema, in: ders., What is
Cinema?, Vol. 1, Berkeley, 1967, S.
164-169. [38] Vgl. Joe Geigel, F.
Kenton Musgrave, A Model for Simulating the Photographic Development Process on
Digital Images, in: SIGGRAPH Proceedings 1997, S. 135-142. In ihrem
Vorschlag berufen sich die Autoren übrigens nicht nur auf empirisch
gewonnene Daten über das Verhalten von Fotoemulsionen, sondern auch auf die
Anregungen von Ansel Adams! [39]
Vgl. ebenda, S. 136, wo sich die Autoren auf ein „generalisiertes
fotografisches Modell“
beziehen. [40] Einen
detaillierten Überblick über die Verfahren zur Generierung
‚realistischer’ Computerbilder liefert neben Foley et al. (Anm. 26),
S. 605-648 auch W.D. Fellner, Computergrafik, Mannheim u. a. 1992, S.
299-348. [41] Vgl. Lev Manovich,
Realitätseffekte in der Computeranimation, in: Stefan Iglhaut, Florian
Rötzer, Elisabeth Schweeger (Hrsg.), Illusion und Simulation. Begegnung
mit der Realität, Ostfildern, 1995, S. 49-60, hier S. 59 und Geoffrey
T. Gardner, Visual Simulation of Clouds, in: Computer Graphics, Vol. 19,
No. 3, 1985, S. 297-303. [42]
Vgl. Foley et al., (Anm. 26), S. 605 und
607. [43] Übrigens ist es
angesichts dieser Funktionen der fotorealistischen Computergrafik nicht
verwunderlich, dass sich unter ‚künstlerisch’ ambitionierten
Computergrafikern schon ein Trend zum non-photorealistic rendering
herausgebildet hat, bei dem u. a. Verfahren wie Malerei oder
Tuschezeichnung, aber auch Stile von Künstlern gezielt simuliert werden,
vgl. Bruce Gooch, Amy Gooch, Non-Photorealistic Rendering, Natick, Mass.,
2001. Allerdings werden diese Verfahren nicht nur zur Simulation von Malerei u.
ä. verwendet, sondern auch zu der von Cartoons, was wiederum einen Einsatz
nicht-fotorealistischer Verfahren für die Filmindustrie interessant macht
– nicht zuletzt hat Disney daran geforscht.
[44] Vgl. S.R. Ellis, Nature and
Origins of Virtual Environments. A Bibliographical Essay, in: Computing
Systems in Engineering. Vol. 2, No. 4, 1991, S. 321-347, hier S. 327.
Übers. J. S. [45] Vgl.
Galison, (Anm. 13), S. 746-752 zur Rolle von Simulationen in der Teilchenphysik.
Computergestützte Detektoren lösen im Feld der Teilchenphysik
übrigens jahrzehntelang etablierte fotografische Techniken wie
Blasenkammern etc. ab – und überbieten deren analytische
Potenz. [46] Vgl. James D. Foley,
Interfaces for Advanced Computing, in: Scientific American, October 1987,
S. 82-90, hier S. 83. [47] Vgl.
Suren Lalvani, Photography, Vision, and the Production of Modern Bodies,
Albany, 1996. [48] Vgl.
http://www.uke.uni-hamburg.de/institute/imdm/idv/forschung/vhp/, Letzter
Zugriff Juli 2002. [49]
Frankfurter Allgemeine Zeitung, 14.12.1994, Nr. 290, S.
N3. [50] Vgl. Friedrich Kittler,
Geschichte der Kommunikationsmedien, in: Jörg Huber und Alois
Müller (Hrsg.), Raum und Verfahren, Basel, 1993, S. 169-188,
hier S. 178: „Neue Medien machen alte nicht obsolet, sie weisen ihnen
andere Systemplätze
zu.“ [51] Hartmut Winkler,
Docuverse. Zur Medientheorie der Computer, München, 1997, S. 187.
[52] Vgl. Georg Christoph
Tholen, Überschneidungen. Konturen einer Theorie der Medialität, in:
ders., Sigrid Schade (Hrsg.), Konfigurationen Zwischen Kunst und Medien,
München, 1999, S. 15-34, hier S.
21. [53] Vgl. z. B. Norbert Bolz,
Friedrich Kittler, Georg-Christoph Tholen (Hrsg.), Computer als Medium,
München, 1994. [54] Vgl.
Michael A. Noll, The Digital Computer as a Creative Medium, in: IEEE
Spectrum, Vol. 4, No. 10, 1967, S.
89-95. [55] Vgl. Gilles Deleuze,
Felix Guattari, Tausend Plateaus. Kapitalismus und Schizophrenie, Berlin,
1980, S. 549-558 und
698-700. [56] Vgl. Claude Elwood
Shannon, A Symbolic Analysis of Relay and Switching Circuits, in:
Transactions American Institute of Electrical Engineers, Nr. 57, 1938, S.
713-723. [57] Übrigens
spielen schon auf der Ebene der Herstellung der Hardware fotografische Prozesse
eine Rolle, insofern die Strukturen von hochintegrierten Mikrochips mithilfe
photolithographischer Verfahren erzeugt werden, vgl. Wayne M. Moreau,
Semiconductor Lithography. Principles, Practices, and Materials, New York
u. a., 1988. [58] Lev Manovich,
The Language of New Media, Cambridge, Mass. und London, 2001, S. 180/181.
[59] Vgl. neben Lalvani (Anm.
47) zu den vielfältigen Machtfunktionen fotografischer Medien, David Green,
On Foucault: Disciplinary Power and Photography, in: Camerawork, No. 32,
1985, S. 6-9; Alan Sekula, The Body and the Archive, in: Richard Bolton (Hrsg.),
The Contest of Meaning. On Photographies and Histories, Cambridge, Mass.
und London, 1988, S. 343-389 und Geoffrey Batchen, Photography, Power and
Representation, in: Afterimage, Jg. 16, Nr. 7, 1989, S.
4-9. [60] Newell, Blinn (Anm.
27), S. 448. Übers. J.
S. [61] Vgl. Kevin Robins, The
Virtual Unconscious in Post-Photography, in: Science as Culture, Nr. 14,
1992, S. 99-115, hier S.
104-111. [62] Neunzert, (Anm.
14), S. 55. [63] Vgl.
Vilém Flusser, Für eine Philosophie der Fotografie,
Göttingen, 1983, S. 73/74. Übrigens werden solche Experimente in der
neuen E-Musik schon länger durchgeführt. Im so genannten
‚Physical Modeling’ werden die Eigenschaften realer Instrumente so
exakt wie möglich nachgebildet, um dann durch Modifikation der Parameter
völlig neue, da physisch unmögliche Instrumente und Klänge zu
erzeugen. Rosalind Krauss hat in jüngerer Zeit die Idee vertreten, dass
Künstler wie William Kentridge oder James Coleman deswegen zu beachten
seien, da sie ihre Medien neu erfinden. Und zwar in dem Sinne, dass
solche Künstler medienhistorisch obsolete Formen – wie die Zeichnung
und den ‚primitiven Film’ oder die Dia-Show – neu nutzen und
so Benjamins Überlegung, dass Technologien gerade im Moment ihrer
Obsoleszenz noch einmal ein utopisches Potential entfalten, aufgreifen, vgl.
Rosalind Krauss, Reinventing the Medium, in: Critical Inquiry, Nr. 25,
1999, S. 2 |