Jens Schröter

Computer/Simulation

Kopie ohne Original oder das Original kontrollierende Kopie?[1]

Oder man schafft einen anderen Raum,
einen anderen wirklichen Raum,
der so vollkommen, so sorgfältig, so
wohlgeordnet ist wie der unsrige
ungeordnet, mißraten und wirr ist.

Michel Foucault, 1967.[2]

Simulation is "In".

John Raser, 1972.[3]


Abb. 1, Visualisierung einer Simulation eines Higgs-Ereignisses,
http://www.desy.de/pr-info/desyhome/gfx/presse/fotos/tesla/300dpi/teilchenspuren2.jpg
(Stand: Juli 2003)

So – oder so ähnlich – soll er also aussehen (Abb. 1): Der heilige Gral der Quantenphysik. Es gibt – z. B. im Internet – noch weit mehr solche Bilder, die alle etwas zeigen, was noch gar nicht stattgefunden hat, aber so oder so ähnlich stattfinden soll, ja sogar muss, wenn die gegenwärtige Elementarteilchenphysik nicht in eine missliche Situation geraten will. Sie zeigen Visualisierungen simulierter Teilchenstoßereignisse, bei denen sich laut der Theorie das so genannte Higgs-Boson gebildet hat. Die von der Theorie vorhergesagten Ereignisse finden in der Form solcher Computersimulationen sozusagen schon statt, bevor sie sich wirklich ereignen. Simulationen sind für die Quantenphysik schlechthin unverzichtbar.[4] Aber auch viele andere Natur- oder sogar Sozialwissenschaften und vor allem: das Militär, die Ökonomie sowie die Politik haben sich nach 1945 in stets steigendem Maß auf Simulationen gestützt, um überhaupt Daten und Theorien zu erhalten, Vorhersagen und Strategien entwerfen zu können. Dutton und Starbuck beschreiben am Beispiel der Computersimulation von menschlichem Verhalten den explosiven Anstieg der diesbezüglichen Literatur nach 1945 und insbesondere ab 1960.[5] Diese Inflation kann jederzeit durch eine kleine Literaturrecherche geprüft werden – bei der Eingabe von 'Simulation' als Stichwort im Karlsruher Virtuellen Katalog werfen manche Bibliotheksverbünde als Antwort 'Zu viele Treffer' aus, in der TIB Hannover bekommt man 16702, bei der Deutschen Bibliothek immerhin noch 5141 Hits.[6]
Dieser explosive Anstieg lässt den Schluss zu, dass die Computersimulation nicht nur "one of the main fields of application of digital computers"[7] ist, vielmehr muss sie als ein entscheidendes Instrument hegemonialer diskursiver Praktiken nach 1945 verstanden werden. Um 1967 bezeichnete der Informatiker J.C.R. Licklider die Entstehung rechnergestützter Simulationen gar als das wichtigste Ereignis für Wissenschaft und Technologie seit der Erfindung des Schreibens.[8] Das mag übertrieben sein, aber dennoch könnte man mit Fug und Recht die Zeit nach 1945 zur 'Ära der Simulation' ausrufen – aber in einem etwas anderem Sinn, als es die bekannt gewordenen Thesen Jean Baudrillards suggerieren.
Mit Blick auf die massenmediale Erzeugung von 'hyperrealen' Images ohne referenziellen Bezug definierte Baudrillard die Simulation oder genauer das Simulakrum als 'Kopie ohne Original'.[9] Durch die Proliferation solcher Simulakren drohe die Überdeckung, ja Auflösung der Wirklichkeit. 1983 erschien in New York sein Band Simulation und die Übersetzung eines für die Simulationsdebatten wichtigen Aufsatzes von Gilles Deleuze in der für die Kunstszene bedeutenden Zeitschrift October.[10] Diese Anregungen wurden bald von der manchmal auch Simulationismus genannten Appropriation Art der achtziger Jahre aufgegriffen.[11] So wurde der Begriff der 'Simulation' schnell populär und gehörte Ende der achtziger Jahre zum Standardjargon der Kunstkritik und der so genannten postmodernen Theoriebildung. Obwohl die Kritik an der Überformung und vielleicht sogar Verdrängung eines angeblich 'Realen' durch die Inflation massenmedialer Images und Styles sicher notwendig und richtig war, so war sie doch überpointiert. Baudrillards These, dass das "Simulationsprinzip [...] das Realitätsprinzip"[12] mittlerweile überwinde, ist zunächst darin problematisch, weil letztlich die Wirkmächtigkeit, also Realität, nur auf 'die Simulation' verschoben wird.[13] Außerdem schien (vielleicht passend zum Wirtschaftsboom und der Yuppie-Kultur dieser Zeit) die Realität der 'Realität' bzw. die Historizität der Geschichte allzu sehr unterschätzt zu werden.[14] Seine Überlegungen zum 'Simulationsprinzip' bezogen sich keineswegs nur auf die televisuellen Massenmedien, sondern – meist eher metaphorisch – auch auf Computer.[15] In Anschluß an Baudrillards anti-realistisches Konzept der Simulation wurde so auch bald abgeleitet, digitale Zeichen hätten – darin von ihren fotografischen Vorläufern verschieden – keinerlei Weltbezug mehr.[16] Diese einseitige Betonung verdeckt aber die Funktionen der Computersimulation für hegemoniale Diskurse. Denn mit Computersimulationen werden – jedenfalls zunächst – mitnichten Kopien ohne Original erzeugt: Vielmehr produzieren Simulationen formale, dynamische und gleichsam antizipative Kopien, Modelle, die der Kontrolle des Originals dienen sollen. Diese, im Sinne Foucaults produktive Machtfunktion der Computersimulation, deren ungleiche Entwicklung eine Rolle für die Wiederkehr der Geschichte, d.h. das Ende des Ost/West-Konflikts gespielt hat, soll im Folgenden skizziert und mit den Funktionen anderer Praktiken des Sekundären kontrastiert werden.

1. Zur Geschichte und Verfahren der Computersimulation

Simulationen sind nicht nur das wichtigste, sondern – neben der Kryptoanalyse – auch eines der ersten Einsatzgebiete digitaler Computer.[17] 1943 wurde am MIT die Arbeit an einem Airplane Stability Control Analyzer aufgenommen, der zunächst als analoges Computersystem konzipiert war. Ab 1945 entschloss sich Jay Forrester die gerade entwickelten Möglichkeiten digitaler Rechner zu nutzen – der ENIAC war Anfang 1946 fertiggestellt worden, um einen universalen Flugsimulator zu bauen. Dieser sollte je nach Bedarf verschiedene Flugzeuge simulieren – langfristig eine enorme Kostenersparnis für die zivile Luftfahrt, aber auch für die Militärs.[18] In dem Whirlwind genannten Projekt wurden erstmals Kathodenstrahlröhren als grafisches Display benutzt. Dabei entwickelte man um 1949 auch den ersten Vorläufer der Computerspiele: Ein hüpfender 'Ball' (ein Punkt auf dem Display) musste durch richtige Wahl entsprechender Parameter in ein 'Loch' der x-Achse gelenkt werden. Entscheidend ist, dass dieser 'Ball' annähernd wie ein realer Ball hüpfte. Woolley bezeichnet dieses Ereignis als den Beginn der Computersimulation.[19] Im (letztlich allerdings unvollendeten) Whirlwind-Projekt wurden in der Tat zum ersten Mal die Potentiale der Computersimulation mit der Ansteuerung eines Displays verbunden. Überdies war die Simulation hier – bei Flugsimulatoren naheliegend – interaktiv, was nicht für jeden Typ von Simulation notwendig ist, wie sich zeigen wird. Allerdings hat Woolley in einem Punkt unrecht: Die Nutzung von Computersimulationen begann bereits im Dezember 1945 auf dem ENIAC im Rahmen der amerikanischen Forschung an der Wasserstoffbombe. Da im Bereich der Kernfusion – bis heute – kaum kontrollierte Laborexperimente möglich sind, anders als übrigens bei der Kernspaltung (dem Bau der Atombombe gingen ab etwa 1942 Fermis Versuche mit dem ersten Atomreaktor voraus), wurde der ENIAC für stochastische Simulationen, so genannte Monte Carlos, eingesetzt. Nur so war die Konstruktion der H-Bombe möglich.[20]
An der H-Bombe wie an der Flugsimulation zeigt sich, dass bestimmte, überspitzte Thesen Baudrillards, wie z. B. "die Ära der Simulation" zeichne sich durch "Liquidierung aller Referentiale"[21] aus, problematisch sind. Ohne Bezug auf eine 'Realität' macht das Konzept der Simulation, zumindest so wie es sich nach 1945 ausgehend von der militärischen Forschung entwickelt hat, schlechthin keinen Sinn, wie Churchman schon 1963 betonte. Und "auch Lehrbücher der reinen Mathematik [kommen] beim Kapitel 'Simulation' plötzlich auf eine Wirklichkeit und deren Gefahr zu sprechen."[22] Bei der Erstellung von Computersimulationen wird Realität strikt operational begriffen: Es muss ein Beobachtungsausschnitt eingegrenzt und dessen Input- und Outputbedingungen beobachtet werden.

Abb. 2, Das 'Realsystem', aus: Bernhard Zeigler et al.: Theory of Modeling and Simulation, San Diego: Acad. Press 1976, S. 28

So wird bei Simulationen ein operational definierter "reale[r] Prozeß [...] in Mathematik abgebildet [...], um dann mittels Algorithmen im Rechner simuliert werden zu können."[23] Das heisst auf der Basis von gesammelten oder abgetasteten Daten verschiedener Art kann man Gesetz- oder wenigstens Regelmäßigkeiten des Verhaltens eines Objekts oder Prozesses, eine Theorie ('base model'), ableiten – im Fall des Whirlwind-Balles: das Verhalten eines elastischen Körpers unter dem Einfluss einer bestimmten Schwerkraft. Das Basismodell wird dann in ein vereinfachtes, rechnerausführbares mathematisches Modell übersetzt ('lumped model'). Dieses formalisierte Modell muss dann, im Abgleich mit experimentellen Daten oder den Ergebnissen vorheriger und alternativer Simulationen, validiert werden.[24]

Abb. 3, Schematische Darstellung der Elemente einer Simulation, aus: Bernhard Zeigler et al.: Theory of Modeling and Simulation, San Diego: Acad. Press 1976, S. 48

Der unter Umständen sehr schwierige Prozess der formalisierten Modellbildung erfuhr eine Vereinfachung, als Gordon 1962 einen General Purpose Systems Simulator vorstellte, der es ermöglichte ein Modell in Form eines Blockdiagramms darzustellen – ein Verfahren, das auch heute noch benutzt wird. Abb. 4 zeigt ein Blockdiagramm aus seinem Text, bei dem es ausgerechnet um eine mögliche Simulation des so genannten 'Supermarkt-Problems' geht, d. h. um die Frage, wie der Fluss von Konsumenten durch den Supermarkt, die Verteilung der Einkaufskörbe, die Zahl der Kassen etc. optimal aufeinander abgestimmt werden können.

Abb. 4, Blockdiagramm des 'Supermarket Problems', aus: G. Gordon: A General Purpose Systems Simulator, in: IBM Systems Journal, September 1962, S. 27.

Infolge dieser vereinfachten Konzeption, verbunden mit der zunehmenden Ausbreitung immer preiswerterer und immer leistungsfähigerer Computer und – last, but not least – durch gewichtige politische, militärische und ökonomische Umstände (s. u.), kam es ab Mitte der sechziger Jahre zu der exponentiellen Steigerung der Nutzung von Simulationen.

2. Kopie, Reproduktion und die zwei Formen der Simulation

Simulationen als Modellierungen sind erstens immer nur approximativ, schon weil die theoretischen Beschreibungen diskretisiert, also auf eine überschau- und vor allem berechenbare Menge von Raum- und Zeitstellen reduziert werden müssen. Simulationen sind zweitens selektiv, da sie sich, je nach Fragestellung, nur auf bestimmte Aspekte der Strukturen des realen Phänomens beziehen. Lackner hat daher schon 1962 von der unumgänglichen 'Weltanschauung' gesprochen, die jedem Simulationsmodell zugrunde liegt.[25] Folglich kommen für verschiedene Problemstellungen verschiedene Typen von Simulation bzw. Simulationssprachen zum Einsatz.[26] Eine vollständige Verdoppelung eines gegebenen Phänomens, eine Implosion der Differenz zwischen Realem und Simulation (in einer 'Hyperrealität'), ist also nicht nur unmöglich,[27] sondern auch explizit unerwünscht – sie widerspricht vollkommen dem Gedanken der Modellierung. Eine totale und vollständige Flugsimulation z. B. wäre eine Absurdität, denn sie würde ja auch den möglichen Tod durch Abstürzen einschließen.
Um die historische Spezifik der Simulation genauer zu konturieren, sei im Folgenden der Versuch eines Vergleichs mit anderen Praktiken des Sekundären gewagt. Kopien können als die möglichst identische Nachahmung eines Originals in annähernd ähnlicher Form und Materie beschrieben werden – Beispiele wären Gipskopien von Skulpturen, gemalte Kopien von Gemälden oder Fotokopien von Texten auf Papier.[28] Reproduktionen erscheinen demgegenüber als Ablösung bestimmter Information von der Materie des Originals bei gleichzeitiger Unterwerfung unter eine andere, spezifische Materie. Ein Beispiel wäre eine fotografische Reproduktion eines Gemäldes, die die Bildinformation zwar teilweise von der Materie des Gemäldes löst, aber nur um sie den spezifischen Limitationen fotografischer Materialität zu unterwerfen. Es sei nicht unerwähnt, dass Kopien und Reproduktionen immer schon zur Kontrolle des Originals dienten. So wurden z. B. Skulpturen durch Gipskopien substituiert, um das wertvolle Original nicht der Öffentlichkeit aussetzen zu müssen; ein anderes Beispiel ist die von Malraux analysierte Rolle der fotografischen Reproduktion für die Konstruktion der kunsthistorischen 'Wahrheit' der Originale.[29]
Simulationen hingegen bestehen darin, dass je nach Fragestellung und Mess- bzw. Abtastverfahren unterschiedliche, mathematisch formalisierbare Strukturen von der Materie des Objekts oder Prozesses 'abgelöst' werden, um dann als Grundlage eines numerischen, virtuellen Modells zu dienen.[30] Frei nach Deleuze ist "[d]ie Struktur [...] die Realität des Virtuellen".[31] Natürlich hängt die Leistungsfähigkeit einer Simulation von der Rechengeschwindigkeit der Hardware und von den verfügbaren formalen Beschreibungen (Software) ab, aber die Simulation wird damit keiner spezifischen Materie unterworfen, sondern nur den Grenzen der Wandelbarkeit einer gerade unspezifischen Materie – der im Rahmen des Formalisierbaren universellen Maschine Computer. So gesehen kann der Fortgang von Kopie zu Simulation als zunehmende Dematerialisierung und Formalisierung des Sekundären umschrieben werden.[32] Diese Steigerung erlaubt eine Operationalisierung, die den bisherigen Kopier- und Reproduktionsverfahren nur begrenzt zugängig war.
Denn sofern Simulationen auf Modellen realer Phänomene beruhen, sind sie in gewisser Weise noch Ab-Bilder.[33] Die mathematischen Modelle können aber nun genutzt werden, um zukünftige und/oder alternative Zustände des Phänomens zu erzeugen. Das meint: Entweder lässt man – geleitet von theoretischen Extrapolationen – das Modell sich relativ 'eigenständig' entwickeln, was im Übrigen auch erhebliche Zeitkompressionen erlaubt, um zu sehen, wie das modellierte Phänomen mutmaßlich sein wird; und/oder es werden von Anfang an bestimmte Parameter modifiziert, etwa um zu prüfen, wie sich das Phänomen unter anderen Bedingungen verhalten würde.[34] Im Unterschied zur traditionellen Modellzeichnung bzw. zum Modellbau – die ja auch Zukünftiges vor-bilden – können Simulationsmodelle also eigendynamische Prozesse darstellen, weswegen oft von 'dynamic modeling' gesprochen wird.[35]
In dieser Hinsicht könnte tatsächlich von 'Kopien ohne Original' gesprochen werden, weil solche dynamischen Simulationen ja computererzeugte Darstellungen von Phänomenen sind, die zwar nicht existieren, denen aber unterstellt wird, dass sie im Prinzip real existieren könnten – andernfalls wäre die Simulation eben bloße Fiktion. So gesehen sind sie "vorbildender Anblick"[36] eines Originals, das noch nicht gefunden wurde und überdies nur dank der simulierten Nachstellung – wenn überhaupt – gefunden werden kann (siehe etwa die Rolle von Simulationen in der Teilchenphysik). Dies scheint an bestimmte Formulierungen Baudrillards anschließbar zu sein, so wenn dieser über die "Simulakren der dritten Ordnung", die aus "Modellen" durch eine "leichte Modulation von Differenzen" hervorgingen, schreibt: "Nur die Zugehörigkeit zum Modell ergibt einen Sinn, nichts geht mehr einem Ziel entsprechend vor, alles geht aus dem Modell hervor, dem Referenz-Signifikanten, auf den sich alles bezieht, der eine Art von vorweggenommener Finalität und die einzige Wahrscheinlichkeit hat."[37] Tatsächlich ist gerade die Quantenphysik ein gutes Beispiel dafür, dass 'Realität' nur mehr in Bezug auf Modelle bzw. Simulationen bestimmt werden kann. Jedoch erzeugen die Modelle keine Wirklichkeit, denn sie müssen an empirischen Daten (oder zumindest in Bezug auf alternative Simulationen) validiert werden. Das Higgs-Boson wurde durch die Simulation ja nicht einfach in die Welt gesetzt; vielmehr muss es in leider sehr realen und vor allem immer teureren Beschleunigerexperimenten erst noch gefunden werden. Wenn kein zur Simulation passendes Ereignis entdeckt werden kann, dann sind Simulation, Modell, Theorie schlicht falsch. Ein Verlust des Realitätsprinzips ist hier also nicht zu beklagen, vielmehr handelt es sich um eine neue Form der wissenschaftlichen Vorhersage, die wie jede andere im Prinzip experimentell falsifiziert werden kann.[38] Das macht Simulationen für die Wissenschaften interessant: Bei der Entwicklung der H-Bombe wurden sie bemüht, weil eine analytische Lösung mit Differentialgleichungen kaum zu leisten war. Die stochastische Simulation erlaubte hingegen Näherungen. Simulationen sind ein neuartiger, dritter Fall zwischen Theorie und Experiment. Schon in einem der frühesten Texte zur 'Monte Carlo'-Simulation taucht eine seltsame Formulierung auf: "These experiments will of course be performed not with any physical apparatus, but theoretically".[39] Dies ermöglicht die Durchführung ansonsten gefährlicher, zu teurer, unter anderen Bedingungen unwiederholbarer oder praktisch unmöglicher Experimente und Tests.[40]
Von der dynamischen unterschied schon Licklider die interaktive Simulation.[41] Man bekommt eine solche, wenn mehrere Parameter des Modells durch Inputdaten in Echtzeit modifiziert werden, wie z. B. in Flugsimulatoren. Das Subjekt – etwa das Verhalten des Pilots – wird selbst einer der Parameter der Simulation. Und dadurch wirkt diese, insofern sie zum Milieu, zum Raum geworden ist, wieder auf das Subjekt zurück. In dynamischen Simulationen ist der Raum der Simulation gegenüber den Beobachtern relativ geschlossen, der Prozess läuft ab, um Daten für Voraussagen über das Verhalten realer Phänomene zu treffen – z. B. darüber, wie hoch die Wahrscheinlichkeit für das Auftreten von Tornados in einer bestimmten Region ist. In interaktiven Simulationen ist der Beobachter Teil der Simulation, sie dienen meist eher dazu, den oder die Beobachter/in, die/der dann kein solcher mehr ist, zu verändern – z. B. indem diese/r lernt, wie er/sie auf ein im Flugsimulator nachgestelltes Unwetter, das sich zwar annährend wie ein 'wirkliches' Unwetter verhalten soll, aber natürlich kein spezifisches reales Ereignis voraussagt, zu reagieren hat.

3. Dynamische, interaktive Simulationen und der Kalte Krieg

Ausgehend von dieser Unterscheidung seien im Folgenden die Funktionen der verschiedenen Simulationstypen für spezifische diskursive Praktiken skizziert. Die ersten Computersimulationen waren offenkundig den Zielsetzungen des beginnenden Kalten Krieges untergeordnet. Die Wasserstoffbombe sollte die USA vor der (tatsächlichen oder vermeintlichen) Katastrophe des Kommunismus schützen.[42] Simulationen wurden in Zeiten der drohenden thermonuklearen Konfrontation, aber vor allem auch der ökonomischen Systemkonkurrenz, schnell zu einer zentralen Technik der Prognose und Kontrolle.
1. Prognose: Nur mit Hilfe von Simulationen sind angesichts der enormen Komplexität nationaler oder globaler militärischer, ökonomischer und politischer Prozesse Entscheidungen möglich.[43] In dieser Hinsicht basieren dynamische Simulationen auf einer viel älteren Tradition etwa der Kriegsspiele und anderer 'scientific gaming'-Verfahren.[44] Die rasche Ausbreitung von Simulationen hatte also gute Gründe: Zwischen Mitte der fünfziger und Mitte der sechziger Jahre eskalierte der Kalte Krieg (Sputnik-Schock, Berliner Mauer, Kubakrise). Die Komplexität der Probleme und die Risiken bei Fehlentscheidungen – entweder vom feindlichen System überrannt oder gleich nuklear ausgelöscht zu werden – waren einfach zu groß.[45] Angetrieben von der Systemkonkurrenz versuchten beide Blöcke ihre Entscheidungs- und Planungsprozesse zu optimieren. 1957, also etwa zeitgleich zu jenem Sputnik-Schock, der die USA an der Überlegenheit ihres Gesellschaftssystems zweifeln ließ, wurde die erste Simulationsstudie des amerikanischen Wirtschaftssystems erstellt – man hoffte auf Voraussagen und damit mögliche Optimierungen.[46] Und nicht zufällig war eine der treibenden Kräfte bei der Entwicklung der Computersimulation und ihrer Visualisierungen in den sechziger Jahren General Motors.[47] Denn Simulationen erleichtern das Produktdesign, also die Erzeugung von Modellen, aus denen dann reale Produkte generiert werden. Obwohl von sowjetischen Wissenschaftlern schon früh als zentrales Prognose- und Steuerungsinstrument gerade der Planwirtschaft erkannt, wurde die Kybernetik (und mit ihr mathematische Modellierungsverfahren) bis zur um 1956 langsam einsetzenden Entstalinisierung verdammt.[48] Aber selbst nach dieser Wende fehlte es – trotz immer wiederholter Forderungen[49] – sowohl an hinreichend leistungsfähigen Computern als auch an Zuverlässigkeit der ökonomischen und demographischen Daten. Diese Unfähigkeit, effiziente Simulationen zu entwickeln, dürfte ein Grund für die Niederlage der UdSSR im Kampf der Systeme gewesen sein.[50]
Im Feld der amerikanischen Innenpolitik erregten Computersimulationen ab 1961 große Aufmerksamkeit, als in Zusammenhang mit der Präsidentschaftswahl in den USA das so genannte Simulmatics-Project in Angriff genommen wurde. Ithiel de Sola Pool und sein Team sammelten Daten über die Verhaltensmuster von verschiedenen Wählertypen und die von ihm erstellte Computersimulation sagte das tatsächliche Wahlergebnis genauer voraus als jede andere Prognose.[51] Die politische Klasse ist seitdem an Simulationen hochinteressiert – schon deswegen, weil sich durch Veränderung des Modells möglicherweise ableiten lässt, wie das Wahlergebnis z. B. bei anders gewichteten Wahlkampfthemen ausgefallen wäre, was letztlich eine beunruhigende Perspektive eröffnet: "[I]ssues could be so androitly selected and presented as to achieve mass persuasion more dicriminating and potent than anything Goebbels ever imagined."[52] Übrigens wurde diese spektakuläre Entwicklung schon bald in der Literatur reflektiert, so z. B. in Eugene Burdicks Roman The 480 von 1964.
2. Kontrolle: Nach 1945 wurden ständig neue Hochrisikotechnologien (Kernkraft, Hochgeschwindigkeitszüge, Flugzeuge, Raumfahrt etc.) entwickelt, die die militärische Macht und ökonomische Hegemonie der Blöcke sichern sollten. Diese rasante Entwicklung erzwingt geradezu die parallele Bereitstellung von virtuellen "control environment[s]"[53], die Menschen zu funktionalen Bestandteilen, Bedienern dieser Maschinen machen – sonst drohen technologische Großkatastrophen. Diese geschehen allerdings immer noch und wieder, was auf die Grenzen der Simulation – und sei es schlichtes 'menschliches Versagen' – verweist. Flugsimulationen trainieren direkt die Körper. Foley beschreibt Testreihen mit Versuchspersonen, die belegen, dass ein gesteigerter Realismus des Displays zu schnelleren Reaktionen seitens der User führt: eine Disziplinierungstechnologie.[54] Dies steht einerseits in Kontinuität zum Einsatz von Fotografie und Film: Historisch zwingendstes Beispiel dafür sind arbeitswissenschaftliche Bewegungsstudien, etwa diejenigen von Frank Bunker Gilbreth.[55] Andererseits gibt es zwischen der fotografischen Arbeitswissenschaft und der computerbasierten Flugsimulation auch eine deutliche Differenz, die vor allem in der Interaktivität letzterer gründet. In der Arbeitswissenschaft werden Bewegungen von Arbeitenden möglichst genau aufgezeichnet und analytisch zerlegt, um einen optimierten Bewegungsablauf zu erzeugen, der dann den Arbeitenden zur Nachahmung anempfohlen oder aufgezwungen wird. Demgegenüber schafft die Flugsimulation ein veränderliches 'control environment', in dem das Subjekt sich selbst anpassen, verändern muss. Das erste Verfahren erzeugt Gehorsam durch das Kopieren von Verhalten, das zweite, in dem eine immaterielle Umgebung die Bedingungen für eine dynamische Genese des richtigen Verhaltens bereitstellt – oder um es diesmal mit Baudrillard zu sagen: "Die Dispositive der Macht und des direkten Zwangs machen überall den diffuseren Dispositiven des Ambientes Platz."[56] So könnte man auch die heutigen Computerspiele, die in mancher Hinsicht Abkömmlinge der Flugsimulation sind, als Trainingsdispositive bezeichnen, welche die Hand/Auge-Koordinaten und den raschen Umgang mit sich verändernden Interfaces einüben. In indirekterer Form zeigt sich dies an Simulationen, mit deren Hilfe die Strukturen von Unternehmen oder Einkaufszentren etc. geplant werden. Ausgehend von reichem Datenmaterial über Informations- und Kommunikationsflüsse, Verhaltensmuster etc. sollen die Environments optimiert und so die scheinbar zwanglose Lenkung und Optimierung von Subjekten ermöglicht werden – nicht zufällig wählte Gordon als Beispiel für seine generelle Simulatorsprache das bereits erwähnte Supermarkt-Problem: Wie optimiert man den Verkauf?

4. Exkurs: Totale Simulation?

Dieses 'Dispositiv des Ambientes', das Bestreben, ein kontrolliertes Environment zu erzeugen, bringt das Phantasma eines vollkommen generierten und so gesehen total kontrollierten Raumes hervor – etwas, das sich Goebbels wohl wirklich nicht erträumt hätte. Das jüngste Beispiel ist The Matrix (USA 1999, Larry und Andy Wachowski). Zur Handlung: Der Krieg zwischen den Menschen und fortgeschrittenen Künstlichen Intelligenzen ist hier zugunsten letzterer entschieden. Die Menschen dienen nur noch als Energiequelle. Sie leben 'schlafend' in Tanks voller Nährlösung, angeschlossen an Systeme, die ihre vegetativen Funktionen aufrechterhalten und sind vernetzt mit einem gigantischen Simulationssystem (der 'Matrix'), welches ihren Bewusstseinen vorspiegelt, ein ganz normales Leben im späten 20. Jahrhundert mit all seinen Wonnen und Widrigkeiten zu führen.[57]
In The Matrix wird Computersimulationen etwas als selbstverständlich unterstellt, was sie gar nicht können und in ihren wissenschaftlichen, militärischen etc. Verwendungen meist auch nicht einmal sollen, selbst wenn es möglich wäre: nämlich die so genannte 'Realität' oder jedenfalls Segmente aus ihr komplett zu verdoppeln. Übrigens folgt auch Baudrillard dieser irrigen Annahme (an einer der wenigen Stellen, wo er sich auf konkrete Simulatoren bezieht), wenn er unterstellt, dass "die Simulatoren von heute versuchen, das Reale, das gesamte Reale, mit ihren Simulationsmodellen zur Deckung zu bringen".[58] In The Matrix wird eine Opposition zwischen einer 'falschen', simulierten und einer 'wahren' realen Welt konstruiert, denn es geht ja um nichts anderes, als aus der Simulation in die 'reale Welt' zu kommen – obwohl es sich dort eigentlich weit unangenehmer lebt. Diese in der Tradition des Kalten Kriegs zur Flucht in die 'freie Welt' aufgebauschte Dichotomie verdeckt aber gerade die zunehmende Voraus-Regulation der realen Welt (der Kinozuschauer) durch selektive Computersimulationen, die man mit Heidegger als eine Form der "Steuerung und Sicherung des Bestandes" bezeichnen kann, welche im Zeitalter des "Ge-stells" alles "Entbergen" präge.[59] Nicht nur wird in operationalen Computersimulationen keineswegs angestrebt, eine gegebene Realität einfach zu verdoppeln, da dies überflüssig wäre. Sondern es ist ebenso sinnlos, außer in eskapistischen Entertainment-Parks, eine vollkommen irreale Scheinwelt zu errichten, denn Subjekte sollen mit Simulationen ja für ihren Einsatz in der realen Welt optimiert werden.[60]

5. Fazit

Baudrillard bemerkte 1976: "Die wirkliche Definition des Realen lautet: das, wovon man eine äquivalente Reproduktion herstellen kann." Er bezog sich dabei auf die Laborexperimente der Wissenschaft, "die postuliert, dass ein Vorgang unter gegebenen Bedingungen exakt reproduziert werden kann."[61] Erst durch eine Kopie wird die Realität des zunächst als Ereignis vorauslaufenden Originals bestimmbar. Heidegger aber hatte schon 1938 die Signatur der kommenden 'Ära der Simulation' genauer erfasst. Er bemerkte: "Die Forschung verfügt über das Seiende, wenn es dieses entweder in seinem künftigen Verlauf vorausberechnen oder als Vergangenes nachrechnen kann. In der Vorausberechnung wird die Natur, in der historischen Nachrechnung wird die Geschichte gleichsam gestellt. [...] Nur was dergestalt Gegenstand wird, ist, gilt als seiend."[62] Wichtiger noch als das Experiment ist also der mathematische Charakter der Wissenschaft, durch den jene Vorhersagen erstellt werden können, die im Experiment gegebenenfalls zu validieren oder falsifizieren sind.[63] Aus diesem mathematischen 'Grundriß' ist mit der Computersimulation eine neuartige Form zwischen Theorie und Experiment hervorgegangen. Wenn man so will, können mit Simulationen – insofern jedes "Realobjekt einen seiner Teile im Virtuellen" hat "und darin wie in einer objektiven Dimension eingelassen"[64] ist – Kopien von (gegebenenfalls zukünftigen oder alternativen) Originalen erstellt werden. Wenn das Original erscheint, ist sein Raum bereits operational eingeräumt. Es ist kontrolliert, bevor es existiert.
Doch Simulationen sind – ob dies nun beruhigt oder beunruhigt – nur so gut wie die Theorien und Modelle, die hinter ihnen stehen und so schnell wie die Rechner, auf denen sie ablaufen. Noch stehen Computer "einer kontinuierlichen Umwelt aus Wolken, Kriegen und Wellen gegenüber".[65] D.h. es gibt sowohl extrem komplexe Naturphänomene (die Wolken) wie erst recht soziale Prozesse (die Kriege), die sich kaum formalisieren, simulieren, vorhersagen und somit kontrollieren lassen.[66] Es mag ein zusätzlicher Schrecken des unvorhergesehenen 11.09.2001 gewesen sei, dass ausgerechnet aus dem blauen Himmel mit seinen amorphen Wolken ein bislang ungekannter Krieg in Form zweier Flugzeuge auf die zwei Türme des binären World Trade Center hereinbrach – gleich einer schrecklichen Metapher für die Grenzen der Kontrollier- und Stabilisierbarkeit der 'Neuen Weltordnung' durch die digitale Simulation. Es gibt – frei nach The Matrix – doch noch eine Wüste des Realen.[67]


[1] Es sei Bernhard Ebersohl für Korrekturen, Scans und Recherchen und Christian Spies für kritische Anmerkungen gedankt.
[2] Michel Foucault: Andere Räume. [1967], in: Karlheinz Barck/Peter Gente/Heidi Paris/Stefan Richter (Hg.): Aisthesis. Wahrnehmung heute oder Perspektiven einer anderen Ästhetik, Leipzig 1991, S. 34-46 (hier: S. 45).
[3] John Raser: Simulation and Society. An Exploration of Scientific Gaming, Boston 1972, S. ix.
[4] Vgl. Peter Galison: Image and Logic. A Material Culture of Microphysics, Chicago und London 1997, S. 746-752.
[5] Vgl. William H. Starbuck/John M. Dutton: The History of Simulation Models, in: dies.: Computer Simulation of Human Behavior, New York u.a. 1971, S. 9-102. Der größte Teil dieses Textes (ab S. 31) ist eine selektive (!) Bibliographie zur Simulation menschlichen Verhaltens (also zu im weiteren Sinne soziologischen, psychologischen und anthropologischen Simulationen) bis 1969.
[6] Alle Bibliotheksangaben vom 18.04.2003. Recherchiert über http://www.ubka.uni-karlsruhe.de/kvk.html.
[7] J. C. R. Licklider: Interactive Dynamic Modeling, in: George Shapiro/Milton Rogers (Hg.): Prospects for Simulation and Simulators of Dynamic Systems, New York/London 1967, S. 281-289 (hier S. 282).
[8] Ebd., S. 289.
[9] Wörtlich scheint dieser vielbenutzte Ausdruck bei Baudrillard nicht zu finden zu sein. Er spricht z. B. eher von „Generierung eines Realen ohne Ursprung oder Realität“, vgl. Jean Baudrillard: Die Präzession der Simulakra, in: ders., Agonie des Realen, Berlin 1978, S. 7-69 (hier S. 7). Vgl. übrigens schon Günther Anders: Die Antiquiertheit des Menschen [1956], München 1980, S. 191, der in vielem Baudrillards Thesen – auch die einer Quasi-Auslöschung der Wirklichkeit – bereits vorwegnimmt.
[10] Vgl. Jean Baudrillard: Simulations [1981], New York: Semiotext(e) 1983 (dies ist eine unvollständige Übersetzung von Simulacra et Simulation, welches 1981 in Paris bei den Editions Galilée erschien; die vollständige amerikanische Übersetzung erschien als Jean Baudrillard, Simulacra and Simulation [1981], Ann Arbor 1994) und Gilles Deleuze: Plato and the Simulacrum, in: October 27 (Winter 1983), S. 44-56. Zwischen Baudrillard und Deleuze gibt es hinsichtlich des Konzepts der Simulation aber Differenzen, vgl. dazu Brian Massumi: Realer than Real. The Simulacrum According to Deleuze and Guattari, in: Copyright 1/1987, S. 90-97.
[11] Vgl. Eleanor Heartney: Simulationism, in: Art News 86/1 (1987), S. 130-137 (insb.: S. 133).
[12] Vgl. Jean Baudrillard: Die Simulation, in: Wolfgang Welsch (Hg.): Wege aus der Moderne. Schlüsseltexte der Postmoderne-Diskussion, Weinheim 1988, S. 153-162 (hier S. 162).
[13] Vgl. Georg Christoph Tholen: Platzverweis. Unmögliche Zwischenspiele zwischen Mensch und Maschine, in: Norbert Bolz/Friedrich Kittler/Georg-Christoph Tholen (Hg.): Computer als Medium, München 1994, S. 111-135 (hier S. 117).
[14] So behauptete Baudrillard 1984 ausgerechnet in Berlin, dass in "den kommunistischen Regimen [...] die Geschichte endgültig stillsteht" (Jean Baudrillard: Das Jahr 2000 findet nicht statt, Berlin 1990, S. 27).
[15] Vgl. schon 1976 in Jean Baudrillard: Der symbolische Tausch und der Tod [1976], München 1982, S. 90, 91, 110 (wo das Binärprinzip als die "göttliche Form der Simulation" bestimmt wird), 115 und passim. Der Bezug auf Computer wurde auch in Texten zur 'Simulation Art' hergestellt, vgl. Rosetta Brooks: From the Night of Consumerism to the Dawn of Simulation, in: Artforum 23/1985, S. 76-82 (hier: S. 80).
[16] Vgl. zum Beispiel Thomas Wimmer: Die Fabrikation der Fiktion, in: Florian Rötzer (Hg.): Digitaler Schein. Ästhetik der elektronischen Medien, Frankfurt/M. 1991, S. 519-533. Wimmer spricht von "pure[r] Selbstreferentialität der digitalen Zeichen" (S. 529). Das ist schon deswegen absurd, weil ein pur selbstreferentielles Zeichen gar kein Zeichen ist.
[17] Simulationen wurden zuvor auch auf analogen Computern durchgeführt, die sogar für bestimmte Fragestellungen geeigneter sind, vgl. Walter W. Soroka: Analog Methods in Computation and Simulation, New York u. a. 1954.
[18] Vgl. Karl Wildes/Nilo A. Lindgren: A Century of Electrical Engineering and Computer Science at MIT, 1882-1982, Cambridge, MA/London 1986, S. 280-301.
[19] Vgl. Benjamin Woolley: Die Wirklichkeit der virtuellen Welten, Basel/Boston/Berlin 1994, S. 46.
[20] Vgl. Galison: Image and Logic (Anm. 4), S. 692-727.
[21] Baudrillard: Die Präzession der Simulakra (Anm. 9), S. 9. Zur Kritik an Baudrillard, vgl. auch Lorenz Engell: Das Gespenst der Simulation. Ein Beitrag zur Überwindung der "Medientheorie" durch Analyse ihrer Logik und Ästhetik, Weimar 1994.
[22] Friedrich Kittler: Fiktion und Simulation, in: Barck et al. (Hg.): Aisthesis (Anm. 2), S. 196-213 (hier: S. 207). Vgl. C. West Churchman: An Analysis of the Concept of Simulation, in: Austin Curwood Hoggatt und Frederick E. Balderston (Hg.): Symposium on Simulation Models: Methodology and Applications to the Behavioral Sciences, Cincinnati u.a. 1963, S. 1-12.
[23] Helmut Neunzert: Mathematik und Computersimulation. Modelle, Algorithmen, Bilder, in: Valentin Braitenberg/Inga Hosp (Hg.): Simulation. Computer zwischen Experiment und Theorie, Reinbek bei Hamburg 1995, S. 44-55 (hier: S. 44).
[24] Vgl. Eric Winsberg: Sanctioning Models: The Epistemology of Simulation, in: Science in Context 12/2 (1999), S. 275-292.
[25] Vgl. Michael R. Lackner: Toward a General Simulation Capability, in: Proceedings of the Joint Computer Conference (1962), S. 1-14 (hier S. 1 und 3). Lackner schreibt "Weltansicht" (im Original deutsch), was aber im Deutschen besser mit 'Weltanschauung' wiedergegeben ist. Stanislaw Ulam: On General Formulations of Simulation and Model Construction, in: George Shapiro/Milton Rogers (Hg.): Prospects for Simulation and Simulators of Dynamic Systems, New York/London 1967, S. 3-8 (hier S. 4) weist darauf hin, dass Modelle dem 'Referenzsystem' keineswegs vollständig entsprechen müssen. Er nennt diese 'schwache' Äquivalenz 'ε-Morphismus'. Zur grundsätzlichen Definition und dazu, dass Modelle notwendig approximativ und selektiv sind, vgl. Herbert Stachowiak: Allgemeine Modelltheorie, Wien und New York 1973, insb. S. 341 zum Simulationsmodell.
[26] Vgl. H. S. Krasnow: Dynamic Presentation in Discrete Interaction Simulation Languages, in: Digital Simulation in Operational Research: A Conference under the Aegis of the Scientific Affairs Division of NATO, Hamburg 6-10.9.1965, London 1967, S. 77-92. Zu den verschiedenen Formen von Computersimulation, vgl. auch Michael M. Woolfson/G. J. Pert: An Introduction to Computer Simulation, Oxford u. a. Press 1999.
[27] Eine Ausnahme ist die Möglichkeit ein genau bestimmtes diskretes System (z. B. einen Computer) vollständig zu simulieren – solche Fälle werden in Absetzung von der stets approximativen Simulation meistens Emulation genannt.
[28] Weswegen es nur bei Kopien von – im Sinne Nelsons Goodmans – autographischen Medien Fälschungen geben kann. Nur dort kann die Kopie als das Original auftreten. Vgl. Nelson Goodman: Sprachen der Kunst [1968], Frankfurt/M. 1995, S. 101-124.
[29] Vgl. André Malraux: Das imaginäre Museum [1947], Frankfurt/M./New York 1987.
[30] Im Übrigen können so auch andere Medien simuliert werden. Bei der heute im Special Effects-Kino geschätzten 'fotorealistischen' Computergrafik wird ja nicht die optische Erscheinung einer oder mehrerer Fotografien kopiert, sondern die materiellen Strukturen und dadurch gegebenen Verhaltensweisen fotografischer Apparate aufgrund gesammelter Daten mathematisch formalisiert und somit simuliert – in diesem ausgezeichneten Sinne sind Computer universelle Medien. Vgl. Jens Schröter: Virtuelle Kamera. Zum Fortbestand fotografischer Medien in computergenerierten Bildern, in: Fotogeschichte 23/88 (2003), S. 3-16. Dort sind auch detailliertere Informationen zur Genese des Diskurses des 'Virtuellen' in der Informatik zu finden.
[31] Gilles Deleuze: Differenz und Wiederholung [1968], München 1997, S. 264. Mithin steht das Virtuelle anders als das Fiktive nicht dem Realen gegenüber, sondern dem Aktuellen. Die Unterscheidung real/fiktiv und die Unterscheidung aktuell/virtuell liegen quer zueinander, vgl. Elena Esposito: Fiktion und Virtualität, in: Sybille Krämer (Hg.): Medien Computer Realität. Wirklichkeitsvorstellungen und neue Medien, Frankfurt/M. 1998, S. 269-296.
[32] Eine gewisse Dematerialisierung spielte schon bei Fotografie eine Rolle. So bemerkte 1859 Sir Oliver Wendell Holmes über stereofotografische Bilder: "Die Form ist in Zukunft von der Materie getrennt. In der Tat ist die Materie in sichtbaren Gegenständen nicht mehr von großem Nutzen, ausgenommen, sie dient als Vorlage, nach [der] die Form gebildet wird. Man gebe uns ein paar Negative eines Gegenstandes, aus verschiedenen Perspektiven aufgenommen – mehr brauchen wir nicht. Man reiße dann das Objekt ab oder zünde es an, wenn man will" ((Das Stereoskop und der Stereograph, in: Wolfgang Kemp (Hg.): Theorie der Fotografie I. 1839-1912, München 1980, S. 114-122, hier: S. 119). Auch die Formalisierung war bereits angelegt – es sei auf die Vermessungsfotografie verwiesen.
[33] "Abbild" soll im Folgenden nicht auf Visualität eingeengt, sondern als (zumindest so verstandene) relativ isomorphe Relation aufgefasst werden – so wie eine Partitur als Vorbild einer Aufführung und diese als (mehr oder weniger isomorphes) Abbild der Partitur bezeichnet wird.
[34] Die Veränderung der Modelle erlaubt buchstäblich Unerhörtes: In der elektronischen Musik werden seit etwa 1983 Instrumente virtuell simuliert. Die Abwandlung ihrer Parameter erlaubte am Horizont "eine Riesentrompete oder eine auf dem Mond gestrichene Balalaika" (Claudius Brüse: Das Model und der Spieler – Physical Modeling – Die neue Klangsynthese, in: Keyboards, 4/1994, S. 44-73 (hier S. 60)).
[35] Vgl. Licklider: Interactive Dynamic Modeling (Anm. 7), S. 281: "A 'dynamic' model is a model that performs [...]." Vgl. auch Lackner: General Simulation (Anm. 25), S. 1 und Raser: Simulation and Society (Anm. 3), S. 10.
[36] Martin Heidegger: Kant und das Problem der Metaphysik [1929]. Bd. 3 der Gesamtausgabe, Frankfurt/M. 1991, S. 92.
[37] Baudrillard: Der symbolische Tausch und der Tod (Anm. 15), S. 89.
[38] Vgl. grundsätzlich Karl Raimund Popper: Logik der Forschung. Zur Erkenntnistheorie der modernen Naturwissenschaft, Wien 1935.
[39] Nicholas Metropolis/Stanislaw Ulam: The Monte Carlo Method, in: Journal of the American Statistical Association 44/247 (1949), S. 335-341 (hier: S. 337). Vgl. Galison: Image and Logic (Anm. 4), S. 738-746 zu den Auseinandersetzungen über den 'Weltbezug' von stochastischen Simulationen (gegenüber analytischen Lösungen). Vgl. auch Eric Winsberg: Simulated Experiments: Methodology for a Virtual World, in: Philosophy of Science 70/2003, S. 105-125.
[40] Der Verfasser ist zur Zeit Mitarbeiter des Forschungsprojektes 'Virtualisierung von Skulptur' im Rahmen des Forschungskollegs 615 "Medienumbrüche" der Universität Siegen. In diesem Rahmen ist u. a. vorgesehen, die Skulpturengruppen Gianlorenzo Berninis in der Villa Borghese (Rom) zu scannen und sie so in dem ebenfalls virtuell zu rekonstruierenden Raum der Villa frei nachzubilden. So könnten die Gruppen frei verschoben werden, um kunsthistorische Fragen nach ihrer ursprünglichen Aufstellung zu klären – ein in Wirklichkeit wohl kaum durchführbares Experiment.
[41] Vgl. Licklider: Interactive Dynamic Modeling (Anm. 7). Die Unterscheidung ist etwas unglücklich, denn natürlich sind auch interaktive Simulationen dynamisch.
[42] Vgl. als Zeitdokument das vehemente Eintreten des Chemikers Harold Urey für den Bau der H-Bombe (Harold Urey: Should America Build the H-Bomb?, in: Bulletin of Atomic Scientists 6/1950, S. 72/73).
[43] Vgl. als Beispiele aus der nachgerade unüberschaubaren Literatur Thomas H. Naylor: Computer Simulation Experiments with Models of Economic Systems, New York 1971, insb. S. 12: "As a tool for testing the effects of alternative managerial or governmental policies on the behavior of particular economic systems, simulation has achieved a noteworthy record in only a short period of time". Vgl. auch D. Meadows/J. M. Robinson (Hg.): The Electronic Oracle: Computer Models and Social Decisions. New York 1985 und S. M. Bremer (Hg.): The Globus Model. Computer Simulation of Worldwide Political and Economical Developments, Boulder 1987.
[44] Zur Vorgeschichte der Simulationsverfahren im Scientific Gaming, siehe Raser: Simulation and Society (Anm. 3), S. 46-65.
[45] Vgl. Ithiel de Sola Pool/Allan, Kessler: The Kaiser, the Tsar and The Computer: Information Processing in a Crisis. In: American Behavioral Scientist 8/9 (1965), S. 31-39. Dort geht es um die Simulation von eventuell kriegsauslösenden Entscheidungsprozessen. Als Beispiel ziehen die Autoren (S. 33) den Konflikt USA – Kuba heran, was drei Jahre nach der beinahe zu einem Atomkrieg eskalierten Kubakrise nicht erstaunt.
[46] Vgl. Guy H. Orcutt/Martin Greenberger/John Korbel/Alice M. Rivlin: Microanalysis of Socioeconomic Systems. A Simulation Study, New York 1961.
[47] Vgl. Fred N. Krull: The Origin of Computer Graphics within General Motors, in: Annals of the History of Computing 16/3 (1994), S. 40-56.
[48] Vgl. zur Verdammung der Kybernetik Slava Gerovitch: From Newspeak to Cyberspeak: A History of Soviet Cybernetics, Cambridge, MA/London 2002, S. 118-131. Vgl. Igor A. Apokin: The Development of Electronic Computers in the USSR, in: Georg Trogemann/Alexander Y. Nitussov/Wolfgang Ernst (Hg.): Computing in Russia. The History of Computer Devices and Information Technology Revealed, Braunschweig/Wiesbaden 2001, S. 76-104, hier: S. 78: "The rejection of the theoretical foundations of cybernetics really did cause unreasonable difficulties [...] with the modeling of social or economical processes with the use of computers".
[49] Vgl. Abel Aganbegyan: Econometrics Vital to Economic Expansion, in: Soviet Cybernetics Review 2/2 (1972), S. 42-47.
[50] Vgl. Manuel Castells: Das Informationszeitalter, Bd. 3: Jahrtausendwende, Opladen 2003, S. 27-39.
[51] Vgl. Ithiel de Sola Pool/Robert Abelson: The Simulmatics Project, in: Public Opinion Quarterly 25/2 (1961), S. 167-183.
[52] Raser: Simulation and Society (Anm. 3), S. 92.
[53] S. R. Ellis: Nature and Origins of Virtual Environments. A Bibliographical Essay, in: Computing Systems in Engineering 2/4 (1991), S. 321-347 (hier S. 327).
[54] Vgl. James D. Foley: Interfaces for Advanced Computing, in: Scientific American, October 1987, S. 82-90 (hier S. 90).
[55] Vgl. Frank Bunker Gilbreth: Motion Study: A Method for Increasing the Efficiency of the Workman, New York 1911.
[56] Baudrillard: Der symbolische Tausch und der Tod (Anm. 15), S. 113.
[57] Ein sehr ähnliches Thema hat der 1964, also zur Zeit des ersten Booms der Computersimulation, entstandene Roman Simulacron-3 von Daniel Galouye: Simulacron-3 [1964], München 1983. So brandneu ist die Idee von The Matrix also nicht.
[58] Baudrillard: Präzession der Simulakra (Anm. 21; Hervorhebung J. S.), S. 8. Übrigens wird in The Matrix offen auf Baudrillard angespielt. Es gibt zu Beginn eine Szene, in der Neo illegale Drogen aus einem Versteck holt – dieses Versteck ist ein innen leeres Buch, das Titelblatt ist 'Simulacra and Simulation'...
[59] Martin Heidegger: Die Frage nach der Technik [1955], in: ders.: Die Technik und die Kehre, Pfullingen 1991, S. 5-36 (hier S. 27).
[60] Und ist es nicht eine bezeichnende Pointe von The Matrix, dass die Mitglieder der Untergrundbewegung in der 'realen' Welt Computersimulationen nicht nur als Trainingsumgebungen für Kampf, sondern auch – wie aber nur am Rande erwähnt wird – als Übungsräume zum Erlernen der Steuerung ihres Schiffs (der 'Nebukadnezar') einsetzen.
[61] Baudrillard: Der symbolische Tausch und der Tod (Anm. 15), S. 116. Siehe kritisch zur Idee der Wiederholbarkeit von Experimenten Ian Hacking: Representing and Intervening. Introductory Topics in the Philosophy of Natural Science, Cambridge, MA u. a. 1983, S. 229-232.
[62] Martin Heidegger: Die Zeit des Weltbildes [1938], in ders.: Holzwege, Frankfurt/M. 1994, S. 75-114 (hier: S. 86/87).
[63] Ebd., S. 78-80.
[64] Deleuze: Differenz und Wiederholung (Anm. 31), S. 264.
[65] Friedrich Kittler: Es gibt keine Software, in: ders.: Draculas Vermächtnis. Technische Schriften, Leipzig 1993, S. 225-242 (hier: S. 240).
[66] Zur Problematik der Simulation von Kriegen, vgl. Gustaaf Geeraerts: War, Hypercomplexity and Computer Simulation, Brüssel 1994. Zu den generellen Problemen der Simulation extrem komplexer Naturphänomene, vgl. Michael Conrad: The Price of Programmability, in: Ralf Herken: The Universal Turing Maschine. A Half-Century Survey, Wien/New York 1995, S. 261-282.
[67] Vgl. Slavoj Žižek: Welcome to the Desert of the Real, London/New York 2002, S. 33: "[T]he shattering impact of the bombings can be accounted for only against the background of the border which today separates the digitalized First World from the Third World 'desert of the Real'." Vgl. Baudrillard: Der symbolische Tausch (Anm. 15), S. 110/111 zur Binarität des WTC und Baudrillard: Die Präzession der Simulakra (Anm. 9), S. 8, wo er von der „Wüste des Realen“ spricht.