Jens Schröter
Computer/Simulation
Kopie ohne Original oder das Original kontrollierende
Kopie? [1]
Oder man schafft einen anderen Raum,
einen anderen wirklichen Raum,
der so vollkommen, so sorgfältig, so
wohlgeordnet ist wie der unsrige
ungeordnet, mißraten und wirr
ist.Michel Foucault,
1967.[2]
Simulation is
"In".John Raser,
1972.[3]
Abb. 1, Visualisierung einer Simulation eines
Higgs-Ereignisses,http://www.desy.de/pr-info/desyhome/gfx/presse/fotos/tesla/300dpi/teilchenspuren2.jpg
(Stand: Juli 2003)So – oder so ähnlich –
soll er also aussehen (Abb. 1): Der heilige Gral der Quantenphysik. Es gibt
– z. B. im Internet – noch weit mehr solche Bilder, die alle etwas
zeigen, was noch gar nicht stattgefunden hat, aber so oder so ähnlich
stattfinden soll, ja sogar muss, wenn die gegenwärtige
Elementarteilchenphysik nicht in eine missliche Situation geraten will. Sie
zeigen Visualisierungen simulierter Teilchenstoßereignisse, bei
denen sich laut der Theorie das so genannte Higgs-Boson gebildet hat. Die von
der Theorie vorhergesagten Ereignisse finden in der Form solcher
Computersimulationen sozusagen schon statt, bevor sie sich wirklich ereignen.
Simulationen sind für die Quantenphysik schlechthin
unverzichtbar. [4] Aber auch viele
andere Natur- oder sogar Sozialwissenschaften und vor allem: das Militär,
die Ökonomie sowie die Politik haben sich nach 1945 in stets steigendem
Maß auf Simulationen gestützt, um überhaupt Daten und Theorien
zu erhalten, Vorhersagen und Strategien entwerfen zu können. Dutton und
Starbuck beschreiben am Beispiel der Computersimulation von menschlichem
Verhalten den explosiven Anstieg der diesbezüglichen Literatur nach 1945
und insbesondere ab 1960. [5] Diese
Inflation kann jederzeit durch eine kleine Literaturrecherche geprüft
werden – bei der Eingabe von 'Simulation' als Stichwort im Karlsruher
Virtuellen Katalog werfen manche Bibliotheksverbünde als Antwort 'Zu
viele Treffer' aus, in der TIB Hannover bekommt man 16702, bei der Deutschen
Bibliothek immerhin noch 5141 Hits. [6]
Dieser explosive Anstieg lässt den Schluss zu, dass die
Computersimulation nicht nur "one of the main fields of application of digital
computers" [7] ist, vielmehr muss sie
als ein entscheidendes Instrument hegemonialer diskursiver Praktiken nach
1945 verstanden werden. Um 1967 bezeichnete der Informatiker J.C.R. Licklider
die Entstehung rechnergestützter Simulationen gar als das wichtigste
Ereignis für Wissenschaft und Technologie seit der Erfindung des
Schreibens. [8] Das mag
übertrieben sein, aber dennoch könnte man mit Fug und Recht die Zeit
nach 1945 zur 'Ära der Simulation' ausrufen – aber in einem etwas
anderem Sinn, als es die bekannt gewordenen Thesen Jean Baudrillards
suggerieren. Mit Blick auf die massenmediale Erzeugung von 'hyperrealen'
Images ohne referenziellen Bezug definierte Baudrillard die Simulation oder
genauer das Simulakrum als 'Kopie ohne
Original'. [9] Durch die Proliferation
solcher Simulakren drohe die Überdeckung, ja Auflösung der
Wirklichkeit. 1983 erschien in New York sein Band Simulation und die
Übersetzung eines für die Simulationsdebatten wichtigen Aufsatzes von
Gilles Deleuze in der für die Kunstszene bedeutenden Zeitschrift
October. [10] Diese Anregungen
wurden bald von der manchmal auch Simulationismus genannten
Appropriation Art der achtziger Jahre
aufgegriffen. [11] So wurde der
Begriff der 'Simulation' schnell populär und gehörte Ende der
achtziger Jahre zum Standardjargon der Kunstkritik und der so genannten
postmodernen Theoriebildung. Obwohl die Kritik an der Überformung und
vielleicht sogar Verdrängung eines angeblich 'Realen' durch die Inflation
massenmedialer Images und Styles sicher notwendig und richtig war, so war sie
doch überpointiert. Baudrillards These, dass das "Simulationsprinzip [...]
das Realitätsprinzip" [12]
mittlerweile überwinde, ist zunächst darin problematisch, weil
letztlich die Wirkmächtigkeit, also Realität, nur auf 'die
Simulation' verschoben wird. [13]
Außerdem schien (vielleicht passend zum Wirtschaftsboom und der
Yuppie-Kultur dieser Zeit) die Realität der 'Realität' bzw. die
Historizität der Geschichte allzu sehr unterschätzt zu
werden .[14]
Seine Überlegungen zum 'Simulationsprinzip' bezogen sich keineswegs nur auf
die televisuellen Massenmedien, sondern – meist eher metaphorisch –
auch auf
Computer. [15]
In Anschluß an Baudrillards anti-realistisches Konzept der
Simulation wurde so auch bald abgeleitet, digitale
Zeichen hätten – darin von ihren fotografischen Vorläufern
verschieden – keinerlei Weltbezug
mehr. [16] Diese einseitige Betonung
verdeckt aber die Funktionen der Computersimulation für hegemoniale
Diskurse. Denn mit Computersimulationen werden – jedenfalls zunächst
– mitnichten Kopien ohne Original erzeugt: Vielmehr produzieren
Simulationen formale, dynamische und gleichsam antizipative Kopien,
Modelle, die der Kontrolle des Originals dienen sollen. Diese, im Sinne
Foucaults produktive Machtfunktion der Computersimulation, deren ungleiche
Entwicklung eine Rolle für die Wiederkehr der Geschichte, d.h. das Ende des
Ost/West-Konflikts gespielt hat, soll im Folgenden skizziert und mit den
Funktionen anderer Praktiken des Sekundären kontrastiert
werden .1. Zur Geschichte und Verfahren der
Computersimulation Simulationen sind nicht nur das wichtigste, sondern
– neben der Kryptoanalyse – auch eines der ersten Einsatzgebiete
digitaler Computer. [17] 1943 wurde
am MIT die Arbeit an einem Airplane Stability Control Analyzer
aufgenommen, der zunächst als analoges Computersystem konzipiert war. Ab
1945 entschloss sich Jay Forrester die gerade entwickelten Möglichkeiten
digitaler Rechner zu nutzen – der ENIAC war Anfang 1946 fertiggestellt
worden, um einen universalen Flugsimulator zu bauen. Dieser sollte je nach
Bedarf verschiedene Flugzeuge simulieren – langfristig eine enorme
Kostenersparnis für die zivile Luftfahrt, aber auch für die
Militärs. [18] In dem
Whirlwind genannten Projekt wurden erstmals Kathodenstrahlröhren als
grafisches Display benutzt. Dabei entwickelte man um 1949 auch den ersten
Vorläufer der Computerspiele: Ein hüpfender 'Ball' (ein Punkt auf dem
Display) musste durch richtige Wahl entsprechender Parameter in ein 'Loch' der
x-Achse gelenkt werden. Entscheidend ist, dass dieser 'Ball' annähernd
wie ein realer Ball hüpfte. Woolley bezeichnet dieses Ereignis als den
Beginn der Computersimulation. [19]
Im (letztlich allerdings unvollendeten) Whirlwind-Projekt wurden in der Tat zum
ersten Mal die Potentiale der Computersimulation mit der Ansteuerung eines
Displays verbunden. Überdies war die Simulation hier – bei
Flugsimulatoren naheliegend – interaktiv, was nicht für jeden Typ von
Simulation notwendig ist, wie sich zeigen wird. Allerdings hat Woolley in einem
Punkt unrecht: Die Nutzung von Computersimulationen begann bereits im Dezember
1945 auf dem ENIAC im Rahmen der amerikanischen Forschung an der
Wasserstoffbombe. Da im Bereich der Kernfusion – bis heute – kaum
kontrollierte Laborexperimente möglich sind, anders als übrigens bei
der Kernspaltung (dem Bau der Atombombe gingen ab etwa 1942 Fermis Versuche mit
dem ersten Atomreaktor voraus), wurde der ENIAC für stochastische
Simulationen, so genannte Monte Carlos, eingesetzt. Nur so war die Konstruktion
der H-Bombe möglich. [20] An
der H-Bombe wie an der Flugsimulation zeigt sich, dass bestimmte,
überspitzte Thesen Baudrillards, wie z. B. "die Ära der Simulation"
zeichne sich durch "Liquidierung aller
Referentiale" [21] aus, problematisch
sind. Ohne Bezug auf eine 'Realität' macht das Konzept der Simulation,
zumindest so wie es sich nach 1945 ausgehend von der militärischen
Forschung entwickelt hat, schlechthin keinen Sinn, wie Churchman schon 1963
betonte. Und "auch Lehrbücher der reinen Mathematik [kommen] beim Kapitel
'Simulation' plötzlich auf eine Wirklichkeit und deren Gefahr zu
sprechen." [22] Bei der Erstellung
von Computersimulationen wird Realität strikt operational begriffen:
Es muss ein Beobachtungsausschnitt eingegrenzt und dessen Input- und
Outputbedingungen beobachtet werden. Abb.
2, Das 'Realsystem', aus: Bernhard Zeigler et al.: Theory of Modeling and
Simulation, San Diego: Acad. Press 1976, S. 28So wird bei
Simulationen ein operational definierter "reale[r] Prozeß [...] in
Mathematik abgebildet [...], um dann mittels Algorithmen im Rechner
simuliert werden zu
können." [23] Das heisst auf der
Basis von gesammelten oder abgetasteten Daten verschiedener Art
kann man Gesetz- oder wenigstens Regelmäßigkeiten des Verhaltens
eines Objekts oder Prozesses, eine Theorie ('base model'), ableiten
– im Fall des Whirlwind-Balles: das Verhalten eines elastischen
Körpers unter dem Einfluss einer bestimmten Schwerkraft. Das Basismodell
wird dann in ein vereinfachtes, rechnerausführbares mathematisches Modell
übersetzt ('lumped model'). Dieses formalisierte Modell muss dann, im
Abgleich mit experimentellen Daten oder den Ergebnissen vorheriger und
alternativer Simulationen, validiert
werden. [24]
Abb. 3, Schematische Darstellung der Elemente einer Simulation, aus:
Bernhard Zeigler et al.: Theory of Modeling and Simulation, San Diego: Acad.
Press 1976, S. 48
Der unter Umständen sehr schwierige Prozess
der formalisierten Modellbildung erfuhr eine Vereinfachung, als Gordon 1962
einen General Purpose Systems Simulator vorstellte, der es
ermöglichte ein Modell in Form eines Blockdiagramms darzustellen –
ein Verfahren, das auch heute noch benutzt wird. Abb. 4 zeigt ein Blockdiagramm
aus seinem Text, bei dem es ausgerechnet um eine mögliche Simulation des so
genannten 'Supermarkt-Problems' geht, d. h. um die Frage, wie der Fluss von
Konsumenten durch den Supermarkt, die Verteilung der Einkaufskörbe, die
Zahl der Kassen etc. optimal aufeinander abgestimmt werden
können.
Abb.
4, Blockdiagramm des 'Supermarket Problems', aus: G. Gordon: A General Purpose
Systems Simulator, in: IBM Systems Journal, September 1962, S.
27.Infolge dieser vereinfachten Konzeption, verbunden mit der
zunehmenden Ausbreitung immer preiswerterer und immer leistungsfähigerer
Computer und – last, but not least – durch gewichtige politische,
militärische und ökonomische Umstände (s. u.), kam es ab Mitte
der sechziger Jahre zu der exponentiellen Steigerung der Nutzung von
Simulationen.
2. Kopie, Reproduktion und die zwei Formen der
Simulation Simulationen als Modellierungen sind erstens immer nur
approximativ, schon weil die theoretischen Beschreibungen diskretisiert,
also auf eine überschau- und vor allem berechenbare Menge von Raum- und
Zeitstellen reduziert werden müssen. Simulationen sind zweitens
selektiv, da sie sich, je nach Fragestellung, nur auf bestimmte Aspekte
der Strukturen des realen Phänomens beziehen. Lackner hat daher schon 1962
von der unumgänglichen 'Weltanschauung' gesprochen, die jedem
Simulationsmodell zugrunde
liegt. [25] Folglich kommen für
verschiedene Problemstellungen verschiedene Typen von Simulation bzw.
Simulationssprachen zum Einsatz. [26]
Eine vollständige Verdoppelung eines gegebenen Phänomens, eine
Implosion der Differenz zwischen Realem und Simulation (in einer
'Hyperrealität'), ist also nicht nur
unmöglich, [27] sondern auch
explizit unerwünscht – sie widerspricht vollkommen dem Gedanken der
Modellierung. Eine totale und vollständige Flugsimulation z. B. wäre
eine Absurdität, denn sie würde ja auch den möglichen Tod durch
Abstürzen einschließen. Um die historische Spezifik der
Simulation genauer zu konturieren, sei im Folgenden der Versuch eines Vergleichs
mit anderen Praktiken des Sekundären gewagt. Kopien können als
die möglichst identische Nachahmung eines Originals in annähernd
ähnlicher Form und Materie beschrieben werden – Beispiele wären
Gipskopien von Skulpturen, gemalte Kopien von Gemälden oder Fotokopien von
Texten auf Papier. [28]
Reproduktionen erscheinen demgegenüber als Ablösung bestimmter
Information von der Materie des Originals bei gleichzeitiger Unterwerfung unter
eine andere, spezifische Materie. Ein Beispiel wäre eine fotografische
Reproduktion eines Gemäldes, die die Bildinformation zwar teilweise von der
Materie des Gemäldes löst, aber nur um sie den spezifischen
Limitationen fotografischer Materialität zu unterwerfen. Es sei nicht
unerwähnt, dass Kopien und Reproduktionen immer schon zur Kontrolle des
Originals dienten. So wurden z. B. Skulpturen durch Gipskopien substituiert, um
das wertvolle Original nicht der Öffentlichkeit aussetzen zu müssen;
ein anderes Beispiel ist die von Malraux analysierte Rolle der fotografischen
Reproduktion für die Konstruktion der kunsthistorischen 'Wahrheit' der
Originale. [29]Simulationen
hingegen bestehen darin, dass je nach Fragestellung und Mess- bzw.
Abtastverfahren unterschiedliche, mathematisch formalisierbare Strukturen von
der Materie des Objekts oder Prozesses 'abgelöst' werden, um dann als
Grundlage eines numerischen, virtuellen Modells zu
dienen. [30] Frei nach Deleuze ist
"[d]ie Struktur [...] die Realität des
Virtuellen". [31] Natürlich
hängt die Leistungsfähigkeit einer Simulation von der
Rechengeschwindigkeit der Hardware und von den verfügbaren formalen
Beschreibungen (Software) ab, aber die Simulation wird damit keiner
spezifischen Materie unterworfen, sondern nur den Grenzen der
Wandelbarkeit einer gerade unspezifischen Materie – der im Rahmen
des Formalisierbaren universellen Maschine Computer. So gesehen kann der
Fortgang von Kopie zu Simulation als zunehmende Dematerialisierung und
Formalisierung des Sekundären umschrieben
werden. [32] Diese Steigerung erlaubt
eine Operationalisierung, die den bisherigen Kopier- und Reproduktionsverfahren
nur begrenzt zugängig war. Denn sofern Simulationen auf Modellen realer
Phänomene beruhen, sind sie in gewisser Weise noch
Ab-Bilder. [33] Die
mathematischen Modelle können aber nun genutzt werden, um
zukünftige und/oder alternative Zustände des
Phänomens zu erzeugen. Das meint: Entweder lässt man – geleitet
von theoretischen Extrapolationen – das Modell sich relativ
'eigenständig' entwickeln, was im Übrigen auch erhebliche
Zeitkompressionen erlaubt, um zu sehen, wie das modellierte Phänomen
mutmaßlich sein wird; und/oder es werden von Anfang an bestimmte
Parameter modifiziert, etwa um zu prüfen, wie sich das Phänomen unter
anderen Bedingungen verhalten
würde. [34] Im Unterschied zur
traditionellen Modellzeichnung bzw. zum Modellbau – die ja auch
Zukünftiges vor-bilden – können Simulationsmodelle also
eigendynamische Prozesse darstellen, weswegen oft von 'dynamic modeling'
gesprochen wird. [35] In dieser
Hinsicht könnte tatsächlich von 'Kopien ohne Original' gesprochen
werden, weil solche dynamischen Simulationen ja computererzeugte
Darstellungen von Phänomenen sind, die zwar nicht existieren, denen aber
unterstellt wird, dass sie im Prinzip real existieren könnten
– andernfalls wäre die Simulation eben bloße Fiktion. So
gesehen sind sie "vorbildender
Anblick" [36] eines Originals, das
noch nicht gefunden wurde und überdies nur dank der simulierten
Nachstellung – wenn überhaupt – gefunden werden kann (siehe
etwa die Rolle von Simulationen in der Teilchenphysik). Dies scheint an
bestimmte Formulierungen Baudrillards anschließbar zu sein, so wenn dieser
über die "Simulakren der dritten Ordnung", die aus "Modellen" durch eine
"leichte Modulation von Differenzen" hervorgingen, schreibt: "Nur die
Zugehörigkeit zum Modell ergibt einen Sinn, nichts geht mehr einem Ziel
entsprechend vor, alles geht aus dem Modell hervor, dem Referenz-Signifikanten,
auf den sich alles bezieht, der eine Art von vorweggenommener Finalität und
die einzige Wahrscheinlichkeit
hat." [37] Tatsächlich ist
gerade die Quantenphysik ein gutes Beispiel dafür, dass 'Realität' nur
mehr in Bezug auf Modelle bzw. Simulationen bestimmt werden kann. Jedoch
erzeugen die Modelle keine Wirklichkeit, denn sie müssen an empirischen
Daten (oder zumindest in Bezug auf alternative Simulationen) validiert werden.
Das Higgs-Boson wurde durch die Simulation ja nicht einfach in die Welt gesetzt;
vielmehr muss es in leider sehr realen und vor allem immer teureren
Beschleunigerexperimenten erst noch gefunden werden. Wenn kein zur Simulation
passendes Ereignis entdeckt werden kann, dann sind Simulation, Modell, Theorie
schlicht falsch. Ein Verlust des Realitätsprinzips ist hier also
nicht zu beklagen, vielmehr handelt es sich um eine neue Form der
wissenschaftlichen Vorhersage, die wie jede andere im Prinzip experimentell
falsifiziert werden kann. [38] Das
macht Simulationen für die Wissenschaften interessant: Bei der Entwicklung
der H-Bombe wurden sie bemüht, weil eine analytische Lösung mit
Differentialgleichungen kaum zu leisten war. Die stochastische Simulation
erlaubte hingegen Näherungen. Simulationen sind ein neuartiger, dritter
Fall zwischen Theorie und Experiment. Schon in
einem der frühesten Texte zur 'Monte Carlo'-Simulation taucht eine seltsame
Formulierung auf: "These experiments will of course be performed not with any
physical apparatus, but
theoretically". [39] Dies
ermöglicht die Durchführung ansonsten gefährlicher, zu teurer,
unter anderen Bedingungen unwiederholbarer oder praktisch unmöglicher
Experimente und Tests. [40] Von
der dynamischen unterschied schon Licklider die interaktive
Simulation. [41] Man bekommt eine
solche, wenn mehrere Parameter des Modells durch Inputdaten in Echtzeit
modifiziert werden, wie z. B. in Flugsimulatoren. Das Subjekt – etwa das
Verhalten des Pilots – wird selbst einer der Parameter der Simulation. Und
dadurch wirkt diese, insofern sie zum Milieu, zum Raum geworden ist, wieder auf
das Subjekt zurück. In dynamischen Simulationen ist der Raum der
Simulation gegenüber den Beobachtern relativ geschlossen, der Prozess
läuft ab, um Daten für Voraussagen über das Verhalten
realer Phänomene zu treffen – z. B. darüber, wie hoch die
Wahrscheinlichkeit für das Auftreten von Tornados in einer bestimmten
Region ist. In interaktiven Simulationen ist der Beobachter Teil
der Simulation, sie dienen meist eher dazu, den oder die Beobachter/in, die/der
dann kein solcher mehr ist, zu verändern – z. B. indem diese/r lernt,
wie er/sie auf ein im Flugsimulator nachgestelltes Unwetter, das sich zwar
annährend wie ein 'wirkliches' Unwetter verhalten soll, aber natürlich
kein spezifisches reales Ereignis voraussagt, zu reagieren hat.
3. Dynamische, interaktive Simulationen und der Kalte
Krieg Ausgehend von dieser Unterscheidung seien im Folgenden die
Funktionen der verschiedenen Simulationstypen für spezifische diskursive
Praktiken skizziert. Die ersten Computersimulationen waren offenkundig den
Zielsetzungen des beginnenden Kalten Krieges untergeordnet. Die Wasserstoffbombe
sollte die USA vor der (tatsächlichen oder vermeintlichen) Katastrophe des
Kommunismus schützen. [42]
Simulationen wurden in Zeiten der drohenden thermonuklearen Konfrontation, aber
vor allem auch der ökonomischen Systemkonkurrenz, schnell zu einer
zentralen Technik der Prognose und Kontrolle. 1. Prognose: Nur mit
Hilfe von Simulationen sind angesichts der enormen Komplexität nationaler
oder globaler militärischer, ökonomischer und politischer Prozesse
Entscheidungen möglich. [43] In
dieser Hinsicht basieren dynamische Simulationen auf einer viel älteren
Tradition etwa der Kriegsspiele und anderer 'scientific
gaming'-Verfahren. [44] Die rasche
Ausbreitung von Simulationen hatte also gute Gründe: Zwischen Mitte der
fünfziger und Mitte der sechziger Jahre eskalierte der Kalte Krieg
(Sputnik-Schock, Berliner Mauer, Kubakrise). Die Komplexität der Probleme
und die Risiken bei Fehlentscheidungen – entweder vom feindlichen System
überrannt oder gleich nuklear ausgelöscht zu werden – waren
einfach zu groß. [45]
Angetrieben von der Systemkonkurrenz versuchten beide Blöcke ihre
Entscheidungs- und Planungsprozesse zu optimieren. 1957, also etwa zeitgleich zu
jenem Sputnik-Schock, der die USA an der Überlegenheit ihres
Gesellschaftssystems zweifeln ließ, wurde die erste Simulationsstudie des
amerikanischen Wirtschaftssystems erstellt – man hoffte auf Voraussagen
und damit mögliche
Optimierungen. [46] Und nicht
zufällig war eine der treibenden Kräfte bei der Entwicklung der
Computersimulation und ihrer Visualisierungen in den sechziger Jahren General
Motors. [47] Denn Simulationen
erleichtern das Produktdesign, also die Erzeugung von Modellen, aus denen dann
reale Produkte generiert werden. Obwohl von sowjetischen Wissenschaftlern schon
früh als zentrales Prognose- und Steuerungsinstrument gerade der
Planwirtschaft erkannt, wurde die Kybernetik (und mit ihr mathematische
Modellierungsverfahren) bis zur um 1956 langsam einsetzenden Entstalinisierung
verdammt. [48] Aber selbst nach
dieser Wende fehlte es – trotz immer wiederholter
Forderungen [49] – sowohl an
hinreichend leistungsfähigen Computern als auch an Zuverlässigkeit der
ökonomischen und demographischen Daten. Diese Unfähigkeit, effiziente
Simulationen zu entwickeln, dürfte ein Grund für die Niederlage
der UdSSR im Kampf der Systeme gewesen
sein. [50] Im Feld der
amerikanischen Innenpolitik erregten Computersimulationen ab 1961 große
Aufmerksamkeit, als in Zusammenhang mit der Präsidentschaftswahl in den USA
das so genannte Simulmatics-Project in Angriff genommen wurde. Ithiel de
Sola Pool und sein Team sammelten Daten über die Verhaltensmuster von
verschiedenen Wählertypen und die von ihm erstellte Computersimulation
sagte das tatsächliche Wahlergebnis genauer voraus als jede andere
Prognose. [51] Die politische Klasse
ist seitdem an Simulationen hochinteressiert – schon deswegen, weil sich
durch Veränderung des Modells möglicherweise ableiten lässt, wie
das Wahlergebnis z. B. bei anders gewichteten Wahlkampfthemen ausgefallen
wäre, was letztlich eine beunruhigende Perspektive eröffnet: "[I]ssues
could be so androitly selected and presented as to achieve mass persuasion more
dicriminating and potent than anything Goebbels ever
imagined." [52] Übrigens wurde
diese spektakuläre Entwicklung schon bald in der Literatur reflektiert, so
z. B. in Eugene Burdicks Roman The 480 von 1964. 2. Kontrolle:
Nach 1945 wurden ständig neue Hochrisikotechnologien (Kernkraft,
Hochgeschwindigkeitszüge, Flugzeuge, Raumfahrt etc.) entwickelt, die die
militärische Macht und ökonomische Hegemonie der Blöcke sichern
sollten. Diese rasante Entwicklung erzwingt geradezu die parallele
Bereitstellung von virtuellen "control
environment[s]" [53], die Menschen zu
funktionalen Bestandteilen, Bedienern dieser Maschinen machen – sonst
drohen technologische Großkatastrophen. Diese geschehen allerdings immer
noch und wieder, was auf die Grenzen der Simulation – und sei es
schlichtes 'menschliches Versagen' – verweist. Flugsimulationen trainieren
direkt die Körper. Foley beschreibt Testreihen mit Versuchspersonen, die
belegen, dass ein gesteigerter Realismus des Displays zu schnelleren Reaktionen
seitens der User führt: eine
Disziplinierungstechnologie. [54]
Dies steht einerseits in Kontinuität zum Einsatz von Fotografie und Film:
Historisch zwingendstes Beispiel dafür sind arbeitswissenschaftliche
Bewegungsstudien, etwa diejenigen von Frank Bunker
Gilbreth. [55] Andererseits gibt es
zwischen der fotografischen Arbeitswissenschaft und der computerbasierten
Flugsimulation auch eine deutliche Differenz, die vor allem in der
Interaktivität letzterer gründet. In der Arbeitswissenschaft
werden Bewegungen von Arbeitenden möglichst genau aufgezeichnet und
analytisch zerlegt, um einen optimierten Bewegungsablauf zu erzeugen, der dann
den Arbeitenden zur Nachahmung anempfohlen oder aufgezwungen wird.
Demgegenüber schafft die Flugsimulation ein veränderliches 'control
environment', in dem das Subjekt sich selbst anpassen, verändern
muss. Das erste Verfahren erzeugt Gehorsam durch das Kopieren von Verhalten, das
zweite, in dem eine immaterielle Umgebung die Bedingungen für eine
dynamische Genese des richtigen Verhaltens bereitstellt – oder um es
diesmal mit Baudrillard zu sagen: "Die Dispositive der Macht und des
direkten Zwangs machen überall den diffuseren Dispositiven des Ambientes
Platz." [56] So könnte man auch
die heutigen Computerspiele, die in mancher Hinsicht Abkömmlinge der
Flugsimulation sind, als Trainingsdispositive bezeichnen, welche die
Hand/Auge-Koordinaten und den raschen Umgang mit sich verändernden
Interfaces einüben. In indirekterer Form zeigt sich dies an Simulationen,
mit deren Hilfe die Strukturen von Unternehmen oder Einkaufszentren etc. geplant
werden. Ausgehend von reichem Datenmaterial über Informations- und
Kommunikationsflüsse, Verhaltensmuster etc. sollen die Environments
optimiert und so die scheinbar zwanglose Lenkung und Optimierung von Subjekten
ermöglicht werden – nicht zufällig wählte Gordon als
Beispiel für seine generelle Simulatorsprache das bereits erwähnte
Supermarkt-Problem: Wie optimiert man den Verkauf?
4. Exkurs: Totale Simulation? Dieses 'Dispositiv des Ambientes',
das Bestreben, ein kontrolliertes Environment zu erzeugen, bringt das Phantasma
eines vollkommen generierten und so gesehen total kontrollierten Raumes hervor
– etwas, das sich Goebbels wohl wirklich nicht erträumt hätte.
Das jüngste Beispiel ist The Matrix (USA 1999, Larry und Andy
Wachowski). Zur Handlung: Der Krieg zwischen den Menschen und fortgeschrittenen
Künstlichen Intelligenzen ist hier zugunsten letzterer entschieden. Die
Menschen dienen nur noch als Energiequelle. Sie leben 'schlafend' in Tanks
voller Nährlösung, angeschlossen an Systeme, die ihre vegetativen
Funktionen aufrechterhalten und sind vernetzt mit einem gigantischen
Simulationssystem (der 'Matrix'), welches ihren Bewusstseinen vorspiegelt, ein
ganz normales Leben im späten 20. Jahrhundert mit all seinen Wonnen und
Widrigkeiten zu
führen. [57]In The
Matrix wird Computersimulationen etwas als selbstverständlich
unterstellt, was sie gar nicht können und in ihren wissenschaftlichen,
militärischen etc. Verwendungen meist auch nicht einmal sollen, selbst wenn
es möglich wäre: nämlich die so genannte 'Realität' oder
jedenfalls Segmente aus ihr komplett zu verdoppeln. Übrigens folgt auch
Baudrillard dieser irrigen Annahme (an einer der wenigen Stellen, wo er sich auf
konkrete Simulatoren bezieht), wenn er unterstellt, dass "die Simulatoren von
heute versuchen, das Reale, das gesamte Reale, mit ihren
Simulationsmodellen zur Deckung zu
bringen". [58] In The Matrix
wird eine Opposition zwischen einer 'falschen', simulierten und einer 'wahren'
realen Welt konstruiert, denn es geht ja um nichts anderes, als aus der
Simulation in die 'reale Welt' zu kommen – obwohl es sich dort eigentlich
weit unangenehmer lebt. Diese in der Tradition des Kalten Kriegs zur Flucht in
die 'freie Welt' aufgebauschte Dichotomie verdeckt aber gerade die zunehmende
Voraus-Regulation der realen Welt (der Kinozuschauer) durch selektive
Computersimulationen, die man mit Heidegger als eine Form der "Steuerung und
Sicherung des Bestandes" bezeichnen kann, welche im Zeitalter des "Ge-stells"
alles "Entbergen" präge. [59]
Nicht nur wird in operationalen Computersimulationen keineswegs angestrebt, eine
gegebene Realität einfach zu verdoppeln, da dies überflüssig
wäre. Sondern es ist ebenso sinnlos, außer in eskapistischen
Entertainment-Parks, eine vollkommen irreale Scheinwelt zu errichten,
denn Subjekte sollen mit Simulationen ja für ihren Einsatz in der
realen Welt optimiert
werden. [60] 5.
Fazit Baudrillard bemerkte 1976: "Die wirkliche
Definition des Realen lautet: das, wovon man eine äquivalente Reproduktion
herstellen kann." Er bezog sich dabei auf die Laborexperimente der Wissenschaft,
"die postuliert, dass ein Vorgang unter gegebenen Bedingungen exakt reproduziert
werden kann." [61] Erst durch eine
Kopie wird die Realität des zunächst als Ereignis vorauslaufenden
Originals bestimmbar. Heidegger aber hatte schon 1938 die Signatur der kommenden
'Ära der Simulation' genauer erfasst. Er bemerkte: "Die Forschung
verfügt über das Seiende, wenn es dieses entweder in seinem
künftigen Verlauf vorausberechnen oder als Vergangenes nachrechnen kann. In
der Vorausberechnung wird die Natur, in der historischen Nachrechnung wird die
Geschichte gleichsam gestellt. [...] Nur was dergestalt Gegenstand wird,
ist, gilt als seiend." [62]
Wichtiger noch als das Experiment ist also der mathematische Charakter
der Wissenschaft, durch den jene Vorhersagen erstellt werden können, die im
Experiment gegebenenfalls zu validieren oder falsifizieren
sind. [63] Aus diesem mathematischen
'Grundriß' ist mit der Computersimulation eine neuartige Form zwischen
Theorie und Experiment hervorgegangen. Wenn man so will, können mit
Simulationen – insofern jedes "Realobjekt einen seiner Teile im
Virtuellen" hat "und darin wie in einer objektiven Dimension
eingelassen" [64] ist – Kopien
von (gegebenenfalls zukünftigen oder alternativen) Originalen erstellt
werden. Wenn das Original erscheint, ist sein Raum bereits operational
eingeräumt. Es ist kontrolliert, bevor es existiert. Doch
Simulationen sind – ob dies nun beruhigt oder beunruhigt – nur so
gut wie die Theorien und Modelle, die hinter ihnen stehen und so schnell wie die
Rechner, auf denen sie ablaufen. Noch stehen Computer "einer kontinuierlichen
Umwelt aus Wolken, Kriegen und Wellen
gegenüber". [65] D.h. es gibt
sowohl extrem komplexe Naturphänomene (die Wolken) wie erst recht soziale
Prozesse (die Kriege), die sich kaum formalisieren, simulieren, vorhersagen und
somit kontrollieren lassen. [66] Es
mag ein zusätzlicher Schrecken des unvorhergesehenen 11.09.2001 gewesen
sei, dass ausgerechnet aus dem blauen Himmel mit seinen amorphen Wolken ein
bislang ungekannter Krieg in Form zweier Flugzeuge auf die zwei Türme des
binären World Trade Center hereinbrach – gleich einer schrecklichen
Metapher für die Grenzen der Kontrollier- und Stabilisierbarkeit der 'Neuen
Weltordnung' durch die digitale Simulation. Es gibt – frei nach The
Matrix – doch noch eine Wüste des
Realen. [67]
[1] Es sei Bernhard Ebersohl
für Korrekturen, Scans und Recherchen und Christian Spies für
kritische Anmerkungen gedankt.
[2] Michel Foucault: Andere
Räume. [1967], in: Karlheinz Barck/Peter Gente/Heidi Paris/Stefan Richter
(Hg.): Aisthesis. Wahrnehmung heute oder Perspektiven einer anderen
Ästhetik, Leipzig 1991, S. 34-46 (hier: S. 45).
[3] John Raser: Simulation and
Society. An Exploration of Scientific Gaming, Boston 1972, S.
ix. [4] Vgl. Peter Galison: Image
and Logic. A Material Culture of Microphysics, Chicago und London 1997, S.
746-752. [5] Vgl. William H.
Starbuck/John M. Dutton: The History of Simulation Models, in: dies.: Computer
Simulation of Human Behavior, New York u.a. 1971, S. 9-102. Der
größte Teil dieses Textes (ab S. 31) ist eine selektive (!)
Bibliographie zur Simulation menschlichen Verhaltens (also zu im weiteren Sinne
soziologischen, psychologischen und anthropologischen Simulationen) bis
1969. [6] Alle Bibliotheksangaben
vom 18.04.2003. Recherchiert über
http://www.ubka.uni-karlsruhe.de/kvk.html. [7]
J. C. R. Licklider: Interactive Dynamic Modeling, in: George Shapiro/Milton
Rogers (Hg.): Prospects for Simulation and Simulators of Dynamic Systems, New
York/London 1967, S. 281-289 (hier S.
282). [8] Ebd., S.
289. [9] Wörtlich scheint
dieser vielbenutzte Ausdruck bei Baudrillard nicht zu finden zu sein. Er spricht
z. B. eher von „Generierung eines Realen ohne Ursprung oder
Realität“, vgl. Jean Baudrillard: Die Präzession der Simulakra,
in: ders., Agonie des Realen, Berlin 1978, S. 7-69 (hier S. 7). Vgl.
übrigens schon Günther Anders: Die Antiquiertheit des Menschen [1956],
München 1980, S. 191, der in vielem Baudrillards Thesen – auch die
einer Quasi-Auslöschung der Wirklichkeit – bereits
vorwegnimmt. [10] Vgl. Jean
Baudrillard: Simulations [1981] , New York: Semiotext(e) 1983 (dies ist
eine unvollständige Übersetzung von Simulacra et Simulation,
welches 1981 in Paris bei den Editions Galilée erschien; die
vollständige amerikanische Übersetzung erschien als Jean Baudrillard,
Simulacra and Simulation [1981], Ann Arbor 1994) und Gilles Deleuze:
Plato and the Simulacrum, in: October 27 (Winter 1983), S. 44-56. Zwischen
Baudrillard und Deleuze gibt es hinsichtlich des Konzepts der Simulation aber
Differenzen, vgl. dazu Brian Massumi: Realer than Real. The Simulacrum According
to Deleuze and Guattari, in: Copyright 1/1987, S.
90-97. [11] Vgl. Eleanor
Heartney: Simulationism, in: Art News 86/1 (1987), S. 130-137 (insb.: S. 133).
[12] Vgl. Jean Baudrillard: Die
Simulation, in: Wolfgang Welsch (Hg.): Wege aus der Moderne. Schlüsseltexte
der Postmoderne-Diskussion, Weinheim 1988, S. 153-162 (hier S. 162).
[13] Vgl. Georg Christoph
Tholen: Platzverweis. Unmögliche Zwischenspiele zwischen Mensch und
Maschine, in: Norbert Bolz/Friedrich Kittler/Georg-Christoph Tholen (Hg.):
Computer als Medium, München 1994, S. 111-135 (hier S.
117). [14] So behauptete
Baudrillard 1984 ausgerechnet in Berlin, dass in "den kommunistischen Regimen
[...] die Geschichte endgültig stillsteht" (Jean Baudrillard: Das Jahr 2000
findet nicht statt, Berlin 1990, S.
27). [15] Vgl. schon 1976 in Jean
Baudrillard: Der symbolische Tausch und der Tod [1976], München 1982, S.
90, 91, 110 (wo das Binärprinzip als die "göttliche Form der
Simulation" bestimmt wird), 115 und passim. Der Bezug auf Computer wurde auch in
Texten zur 'Simulation Art' hergestellt, vgl. Rosetta Brooks: From the Night of
Consumerism to the Dawn of Simulation, in: Artforum 23/1985, S. 76-82 (hier: S.
80). [16] Vgl. zum Beispiel
Thomas Wimmer: Die Fabrikation der Fiktion, in: Florian Rötzer (Hg.):
Digitaler Schein. Ästhetik der elektronischen Medien, Frankfurt/M. 1991, S.
519-533. Wimmer spricht von "pure[r] Selbstreferentialität der digitalen
Zeichen" (S. 529). Das ist schon deswegen absurd, weil ein pur
selbstreferentielles Zeichen gar kein Zeichen
ist. [17] Simulationen wurden
zuvor auch auf analogen Computern durchgeführt, die sogar für
bestimmte Fragestellungen geeigneter sind, vgl. Walter W. Soroka: Analog Methods
in Computation and Simulation, New York u. a. 1954.
[18] Vgl. Karl Wildes/Nilo A.
Lindgren: A Century of Electrical Engineering and Computer Science at MIT,
1882-1982, Cambridge, MA/London 1986, S.
280-301. [19] Vgl. Benjamin
Woolley: Die Wirklichkeit der virtuellen Welten, Basel/Boston/Berlin 1994, S.
46. [20] Vgl. Galison: Image and
Logic (Anm. 4), S. 692-727. [21]
Baudrillard: Die Präzession der Simulakra (Anm. 9), S. 9. Zur Kritik an
Baudrillard, vgl. auch Lorenz Engell: Das Gespenst der Simulation. Ein Beitrag
zur Überwindung der "Medientheorie" durch Analyse ihrer Logik und
Ästhetik, Weimar 1994. [22]
Friedrich Kittler: Fiktion und Simulation, in: Barck et al. (Hg.): Aisthesis
(Anm. 2), S. 196-213 (hier: S. 207). Vgl. C. West Churchman: An Analysis of the
Concept of Simulation, in: Austin Curwood Hoggatt und Frederick E. Balderston
(Hg.): Symposium on Simulation Models: Methodology and Applications to the
Behavioral Sciences, Cincinnati u.a. 1963, S.
1-12. [23] Helmut Neunzert:
Mathematik und Computersimulation. Modelle, Algorithmen, Bilder, in: Valentin
Braitenberg/Inga Hosp (Hg.): Simulation. Computer zwischen Experiment und
Theorie, Reinbek bei Hamburg 1995, S. 44-55 (hier: S. 44).
[24] Vgl. Eric Winsberg:
Sanctioning Models: The Epistemology of Simulation, in: Science in Context
12/2 (1999), S. 275-292. [25]
Vgl. Michael R. Lackner: Toward a General Simulation Capability, in: Proceedings
of the Joint Computer Conference (1962), S. 1-14 (hier S. 1 und 3). Lackner
schreibt "Weltansicht" (im Original deutsch), was aber im Deutschen besser mit
'Weltanschauung' wiedergegeben ist. Stanislaw Ulam: On General Formulations of
Simulation and Model Construction, in: George Shapiro/Milton Rogers (Hg.):
Prospects for Simulation and Simulators of Dynamic Systems, New York/London
1967, S. 3-8 (hier S. 4) weist darauf hin, dass Modelle dem 'Referenzsystem'
keineswegs vollständig entsprechen müssen. Er nennt diese 'schwache'
Äquivalenz 'ε-Morphismus'. Zur grundsätzlichen Definition und
dazu, dass Modelle notwendig approximativ und selektiv sind, vgl. Herbert
Stachowiak: Allgemeine Modelltheorie, Wien und New York 1973, insb. S. 341 zum
Simulationsmodell. [26] Vgl. H.
S. Krasnow: Dynamic Presentation in Discrete Interaction Simulation Languages,
in: Digital Simulation in Operational Research: A Conference under the Aegis of
the Scientific Affairs Division of NATO, Hamburg 6-10.9.1965, London 1967, S.
77-92. Zu den verschiedenen Formen von Computersimulation, vgl. auch Michael M.
Woolfson/G. J. Pert: An Introduction to Computer Simulation, Oxford u. a. Press
1999. [27] Eine Ausnahme ist die
Möglichkeit ein genau bestimmtes diskretes System (z. B. einen Computer)
vollständig zu simulieren – solche Fälle werden in Absetzung von
der stets approximativen Simulation meistens Emulation
genannt. [28] Weswegen es nur bei
Kopien von – im Sinne Nelsons Goodmans – autographischen Medien
Fälschungen geben kann. Nur dort kann die Kopie als das
Original auftreten. Vgl. Nelson Goodman: Sprachen der Kunst [1968], Frankfurt/M.
1995, S. 101-124. [29] Vgl.
André Malraux: Das imaginäre Museum [1947], Frankfurt/M./New York
1987. [30] Im Übrigen
können so auch andere Medien simuliert werden. Bei der heute im Special
Effects-Kino geschätzten 'fotorealistischen' Computergrafik wird ja nicht
die optische Erscheinung einer oder mehrerer Fotografien kopiert, sondern
die materiellen Strukturen und dadurch gegebenen Verhaltensweisen fotografischer
Apparate aufgrund gesammelter Daten mathematisch formalisiert und somit
simuliert – in diesem ausgezeichneten Sinne sind Computer
universelle Medien. Vgl. Jens Schröter: Virtuelle Kamera. Zum Fortbestand
fotografischer Medien in computergenerierten Bildern, in: Fotogeschichte 23/88
(2003), S. 3-16. Dort sind auch detailliertere Informationen zur Genese des
Diskurses des 'Virtuellen' in der Informatik zu
finden. [31] Gilles Deleuze:
Differenz und Wiederholung [1968], München 1997, S. 264. Mithin steht das
Virtuelle anders als das Fiktive nicht dem Realen gegenüber, sondern dem
Aktuellen. Die Unterscheidung real/fiktiv und die Unterscheidung
aktuell/virtuell liegen quer zueinander, vgl. Elena Esposito: Fiktion und
Virtualität, in: Sybille Krämer (Hg.): Medien Computer Realität.
Wirklichkeitsvorstellungen und neue Medien, Frankfurt/M. 1998, S. 269-296.
[32] Eine gewisse
Dematerialisierung spielte schon bei Fotografie eine Rolle. So bemerkte 1859 Sir
Oliver Wendell Holmes über stereofotografische Bilder: "Die Form ist in
Zukunft von der Materie getrennt. In der Tat ist die Materie in sichtbaren
Gegenständen nicht mehr von großem Nutzen, ausgenommen, sie dient als
Vorlage, nach [der] die Form gebildet wird. Man gebe uns ein paar Negative eines
Gegenstandes, aus verschiedenen Perspektiven aufgenommen – mehr brauchen
wir nicht. Man reiße dann das Objekt ab oder zünde es an, wenn man
will" ((Das Stereoskop und der Stereograph, in: Wolfgang Kemp (Hg.): Theorie der
Fotografie I. 1839-1912, München 1980, S. 114-122, hier: S. 119). Auch die
Formalisierung war bereits angelegt – es sei auf die Vermessungsfotografie
verwiesen. [33] "Abbild" soll im
Folgenden nicht auf Visualität eingeengt, sondern als (zumindest so
verstandene) relativ isomorphe Relation aufgefasst werden – so wie eine
Partitur als Vorbild einer Aufführung und diese als (mehr oder weniger
isomorphes) Abbild der Partitur bezeichnet
wird. [34] Die Veränderung
der Modelle erlaubt buchstäblich Unerhörtes: In der
elektronischen Musik werden seit etwa 1983 Instrumente virtuell simuliert. Die
Abwandlung ihrer Parameter erlaubte am Horizont "eine Riesentrompete oder eine
auf dem Mond gestrichene Balalaika" (Claudius Brüse: Das Model und der
Spieler – Physical Modeling – Die neue Klangsynthese, in: Keyboards,
4/1994, S. 44-73 (hier S.
60)). [35] Vgl. Licklider:
Interactive Dynamic Modeling (Anm. 7), S. 281: "A 'dynamic' model is a model
that performs [...]." Vgl. auch Lackner: General Simulation (Anm. 25), S. 1 und
Raser: Simulation and Society (Anm. 3), S.
10. [36] Martin Heidegger: Kant
und das Problem der Metaphysik [1929]. Bd. 3 der Gesamtausgabe, Frankfurt/M.
1991, S. 92. [37] Baudrillard:
Der symbolische Tausch und der Tod (Anm. 15), S.
89. [38] Vgl. grundsätzlich
Karl Raimund Popper: Logik der Forschung. Zur Erkenntnistheorie der modernen
Naturwissenschaft, Wien
1935. [39] Nicholas
Metropolis/Stanislaw Ulam: The Monte Carlo Method, in: Journal of the American
Statistical Association 44/247 (1949), S. 335-341 (hier: S. 337). Vgl. Galison:
Image and Logic (Anm. 4), S. 738-746 zu den Auseinandersetzungen über den
'Weltbezug' von stochastischen Simulationen (gegenüber analytischen
Lösungen). Vgl. auch Eric Winsberg: Simulated Experiments: Methodology for
a Virtual World, in: Philosophy of Science 70/2003, S.
105-125. [40] Der Verfasser ist
zur Zeit Mitarbeiter des Forschungsprojektes 'Virtualisierung von Skulptur' im
Rahmen des Forschungskollegs 615 "Medienumbrüche" der Universität
Siegen. In diesem Rahmen ist u. a. vorgesehen, die Skulpturengruppen Gianlorenzo
Berninis in der Villa Borghese (Rom) zu scannen und sie so in dem ebenfalls
virtuell zu rekonstruierenden Raum der Villa frei nachzubilden. So könnten
die Gruppen frei verschoben werden, um kunsthistorische Fragen nach ihrer
ursprünglichen Aufstellung zu klären – ein in Wirklichkeit wohl
kaum durchführbares
Experiment. [41] Vgl. Licklider:
Interactive Dynamic Modeling (Anm. 7). Die Unterscheidung ist etwas
unglücklich, denn natürlich sind auch interaktive Simulationen
dynamisch. [42] Vgl. als
Zeitdokument das vehemente Eintreten des Chemikers Harold Urey für den Bau
der H-Bombe (Harold Urey: Should America Build the H-Bomb?, in: Bulletin of
Atomic Scientists 6/1950, S. 72/73).
[43] Vgl. als Beispiele aus der
nachgerade unüberschaubaren Literatur Thomas H. Naylor: Computer Simulation
Experiments with Models of Economic Systems, New York 1971, insb. S. 12: "As a
tool for testing the effects of alternative managerial or governmental policies
on the behavior of particular economic systems, simulation has achieved a
noteworthy record in only a short period of time". Vgl. auch D. Meadows/J. M.
Robinson (Hg.): The Electronic Oracle: Computer Models and Social Decisions. New
York 1985 und S. M. Bremer (Hg.): The Globus Model. Computer Simulation of
Worldwide Political and Economical Developments, Boulder
1987. [44] Zur Vorgeschichte der
Simulationsverfahren im Scientific Gaming, siehe Raser: Simulation and Society
(Anm. 3), S. 46-65. [45] Vgl.
Ithiel de Sola Pool/Allan, Kessler: The Kaiser, the Tsar and The Computer:
Information Processing in a Crisis. In: American Behavioral Scientist 8/9
(1965), S. 31-39. Dort geht es um die Simulation von eventuell
kriegsauslösenden Entscheidungsprozessen. Als Beispiel ziehen die Autoren
(S. 33) den Konflikt USA – Kuba heran, was drei Jahre nach der beinahe zu
einem Atomkrieg eskalierten Kubakrise nicht
erstaunt. [46] Vgl. Guy H.
Orcutt/Martin Greenberger/John Korbel/Alice M. Rivlin: Microanalysis of
Socioeconomic Systems. A Simulation Study, New York 1961.
[47] Vgl. Fred N. Krull: The
Origin of Computer Graphics within General Motors, in: Annals of the History of
Computing 16/3 (1994), S.
40-56. [48] Vgl. zur Verdammung
der Kybernetik Slava Gerovitch: From Newspeak to Cyberspeak: A History of Soviet
Cybernetics, Cambridge, MA/London 2002, S. 118-131. Vgl. Igor A. Apokin: The
Development of Electronic Computers in the USSR, in: Georg Trogemann/Alexander
Y. Nitussov/Wolfgang Ernst (Hg.): Computing in Russia. The History of Computer
Devices and Information Technology Revealed, Braunschweig/Wiesbaden 2001, S.
76-104, hier: S. 78: "The rejection of the theoretical foundations of
cybernetics really did cause unreasonable difficulties [...] with the modeling
of social or economical processes with the use of
computers". [49] Vgl. Abel
Aganbegyan: Econometrics Vital to Economic Expansion, in: Soviet Cybernetics
Review 2/2 (1972), S. 42-47. [50]
Vgl. Manuel Castells: Das Informationszeitalter, Bd. 3: Jahrtausendwende,
Opladen 2003, S. 27-39. [51] Vgl.
Ithiel de Sola Pool/Robert Abelson: The Simulmatics Project, in: Public Opinion
Quarterly 25/2 (1961), S.
167-183. [52] Raser: Simulation
and Society (Anm. 3), S. 92. [53]
S. R. Ellis: Nature and Origins of Virtual Environments. A Bibliographical
Essay, in: Computing Systems in Engineering 2/4 (1991), S. 321-347 (hier S.
327). [54] Vgl. James D. Foley:
Interfaces for Advanced Computing, in: Scientific American, October 1987, S.
82-90 (hier S. 90). [55] Vgl.
Frank Bunker Gilbreth: Motion Study: A Method for Increasing the Efficiency of
the Workman, New York 1911. [56]
Baudrillard: Der symbolische Tausch und der Tod (Anm. 15), S.
113. [57] Ein sehr ähnliches
Thema hat der 1964, also zur Zeit des ersten Booms der Computersimulation,
entstandene Roman Simulacron-3 von Daniel Galouye: Simulacron-3 [1964],
München 1983. So brandneu ist die Idee von The Matrix also
nicht. [58] Baudrillard:
Präzession der Simulakra (Anm. 21; Hervorhebung J. S.), S. 8. Übrigens
wird in The Matrix offen auf Baudrillard angespielt. Es gibt zu Beginn
eine Szene, in der Neo illegale Drogen aus einem Versteck holt –
dieses Versteck ist ein innen leeres Buch, das Titelblatt ist 'Simulacra and
Simulation'... [59] Martin
Heidegger: Die Frage nach der Technik [1955], in: ders.: Die Technik und die
Kehre, Pfullingen 1991, S. 5-36 (hier S. 27).
[60] Und ist es nicht eine
bezeichnende Pointe von The Matrix, dass die Mitglieder der
Untergrundbewegung in der 'realen' Welt Computersimulationen nicht nur als
Trainingsumgebungen für Kampf, sondern auch – wie aber nur am Rande
erwähnt wird – als Übungsräume zum Erlernen der Steuerung
ihres Schiffs (der 'Nebukadnezar')
einsetzen. [61] Baudrillard: Der
symbolische Tausch und der Tod (Anm. 15), S. 116. Siehe kritisch zur Idee der
Wiederholbarkeit von Experimenten Ian Hacking: Representing and Intervening.
Introductory Topics in the Philosophy of Natural Science, Cambridge, MA u. a.
1983, S. 229-232. [62] Martin
Heidegger: Die Zeit des Weltbildes [1938], in ders.: Holzwege, Frankfurt/M.
1994, S. 75-114 (hier: S.
86/87). [63] Ebd., S.
78-80. [64] Deleuze: Differenz
und Wiederholung (Anm. 31), S.
264. [65] Friedrich Kittler: Es
gibt keine Software, in: ders.: Draculas Vermächtnis. Technische Schriften,
Leipzig 1993, S. 225-242 (hier: S.
240). [66] Zur Problematik der
Simulation von Kriegen, vgl. Gustaaf Geeraerts: War, Hypercomplexity and
Computer Simulation, Brüssel 1994. Zu den generellen Problemen der
Simulation extrem komplexer Naturphänomene, vgl. Michael Conrad: The Price
of Programmability, in: Ralf Herken: The Universal Turing Maschine. A
Half-Century Survey, Wien/New York 1995, S.
261-282. [67] Vgl. Slavoj
Žižek: Welcome to the Desert of the Real, London/New York 2002, S. 33:
"[T]he shattering impact of the bombings can be accounted for only against the
background of the border which today separates the digitalized First World from
the Third World 'desert of the Real'." Vgl. Baudrillard: Der symbolische Tausch
(Anm. 15), S. 110/111 zur Binarität des WTC und Baudrillard: Die
Präzession der Simulakra (Anm. 9), S. 8, wo er von der „Wüste
des Realen“ spricht.
|