|
|
Jens
Schröter
Intermedialität, Medienspezifik
und die universelle
Maschine.[1]
Die Beobachtung funktionierender
Technik ist eine wichtige Quelle für
Ideen...Niklas
Luhmann.[2]0. EinleitungZwei
Beobachtungen stehen am Anfang der vorliegenden Überlegungen:
Erstens ist der Begriff der „Intermedialität“ seit
Anfang der neunziger Jahre des letzten Jahrhunderts zunehmend
gebräuchlicher geworden. Er scheint erstmals 1981 von Dick Higgins und im
deutschen Sprachraum 1983 von Hansen-Löve in einem Aufsatz zum
Verhältnis von Wort und Bild in der russischen Kunst der Moderne verwendet
worden zu sein.[3] Die bald darauf
einsetzende Verbreitung verrät eine zunehmende Aufmerksamkeit dafür,
dass Medien stets in komplexen medialen Konfigurationen befindlich sind. An sich
ist das keine neue Erkenntnis. So waren Konzepte wie das
‚Gesamtkunstwerk’ oder die ‚wechselseitige Erhellung der
Künste’ schon viel länger bekannt. Allerdings werden die
intermedialen Beziehungen in jüngerer Zeit immer weniger (wie noch bei
Hansen-Löve) als intendierte Strategien im Dialog der Künste, sondern
eher als unvermeidliche, grundlegende Phänomene aufgefasst. Dabei
überschreitet ‚Intermedialität’ die Felder der
‚Intertextualität’ oder ‚Interdiskursivität’,
d. h. der Semantik und des Diskursiven. Vielmehr gerät die Ebene der
materiellen Medien(spezifika) selbst in den Verdacht, immer schon von
Querverbindungen – jenseits bloßer technischer Verwandtschaften
– kontaminiert zu sein.Die zweite
Beobachtung ist, dass sich etwa im selben Zeitraum die Vorstellung
ausbreitete, die getrennten Medien würden bald im ‚Universalmedium
Computer’ aufgehen. Folgt daraus, dass es schon wieder sinnlos geworden
ist von Intermedialität zu sprechen, da es keine differenten Entitäten
mehr gibt, zwischen denen eine solche stattfinden könnte? Oder müsste
– mit Tholen[4] – vielmehr
vermutet werden, dass die wachsende Aufmerksamkeit für das Intermediale
eine Begleiterscheinung der Diffusion der universellen Maschine Computer ist?
Tatsächlich sieht Jürgen E. Müller das „zunehmende
Interesse für die Intermedialität [...] zweifellos“ durch die
„historische [...] Entwicklung medialer Apparate (die zum digitalen
Schein der postmodernen Hybrid-Medien geführt hat)“
angestoßen. Er führt noch ein
weiteres, damit nicht direkt verbundenes Argument an: „Den entscheidenden
Anstoß zum Formulieren dieser Position [also der Aufmerksamkeit für
das Intermediale, J.S.] haben zweifellos postmoderne Kunstprodukte geliefert,
die sich als zu unbotmäßig und zu sperrig gegenüber den
eindimensional zugeschnittenen Medien-Theorien und -Methoden
erwiesen.“[5] Dieses Argument
ist allerdings problematisch, denn entgegen Müllers Annahme, dass
Kunstprodukte die Theorie zur Abkehr vom Monomedialen zwangen, gibt es auch den
umgekehrten Fall. So haben ästhetische Theorien Kunstprodukte immer wieder
kritisiert, gerade weil sie nicht ‚rein’ und medienspezifisch
waren. Der modernistische Diskurs Clement Greenbergs, der die amerikanische
Nachkriegskunst bis in die späten sechziger Jahre dominierte, ist ein
Beispiel dafür. In seinem Aufsatz Modernist Painting von 1960
betonte er, dass der „Gegenstandsbereich jeder einzelnen Kunst genau das
ist, was ausschließlich in dem Wesen ihres jeweiligen Mediums angelegt
ist“.[6] Greenberg bevorzugte
die abstrakten, amerikanischen Nachkriegsmaler (Pollock, Newman, Rothko, Still),
weil diese sowohl Farbe als auch Flächigkeit als Grundkonstituenten der
Malerei in den Mittelpunkt ihrer Arbeit gerückt hatten. Noch 1981 verdammte
er in seinem Artikel Intermedia die „intermediale Kunst“ als
„Niedergang des
Geschmacks“.[7] Mindestens in
diesem Fall ließ sich die Theorie keineswegs von ‚postmodernen
Kunstprodukten’ irritieren. Also müsste man eher fragen, wie es
– aus immanenten und/oder exogenen Gründen – dazu kam, dass
sich die Kunst selbst von Greenbergs Modernismus abgewandt
hat.[8] Obwohl diese Abwendung der
Kunst vom monomedialen Purismus ab Mitte der Sechziger Jahre, wobei im
Zusammenhang mit Fluxus der Begriff ‚Intermedia’
auftauchte[9], für genauere
Beschreibungen einer Genealogie der Intermedialität erforderlich wäre,
soll Müllers’ Hinweis auf die ‚postmodernen
Kunstprodukte’ nicht weiter verfolgt werden.
Hier steht die von Müller genannte
‚Entwicklung medialer Apparate (die zum digitalen Schein)’
geführt habe, das heißt das Auftauchen des Computers als
Medium im Mittelpunkt. Die Frage ist, ob und wenn ja, wie dieser
Leitbildwechsel[10] das Konzept der
Medien vom Spezifischen zum Intermedialen verschoben hat.
1. Das ‚Universalmedium
Computer’. Sampling, Simulation,
Virtualität.Im Zusammenhang mit den
Berechnungen für die Entwicklung der Atom- und dann der Wasserstoffbombe
entstand um 1945 die so genannte von Neumann-Architektur. Der bis dahin
verfügbare Computer, der ENIAC, war zu langsam. Da die Programme nicht von
ihm selbst gespeichert wurden, musste die Maschine für jedes neue Problem
umgebaut und neu verschaltet werden. Die Lösung war eine Maschine, die die
Instruktionen neben den Daten im selben elektronischen Speicher aufbewahren
konnte: Dieses stored program-Prinzip, mit dem die heute
selbstverständliche Unterscheidung in Software und Hardware eingeführt
wurde, ist eine grundlegende Komponente der von Neumann-Architektur. Von Neumann
selbst hob hervor, dass der EDVAC, der erste Rechner mit der neuen Architektur,
fast eine Allzweck-Maschine sei. Darin lag auch das Geheimnis des
kommerziellen Erfolgs der nachfolgenden und derselben Architektur
verpflichteten Großrechner (wie z. B. dem UNIVAC), denn sie konnten von
verschiedenen Kunden zu verschiedenen Zwecken eingesetzt
werden.[11] Und noch heute basieren
fast alle Computer auf der von
Neumann-Architektur.Weil von
Neumann-Maschinen programmierbar sind, können sie als universelle
Maschinen bezeichnet werden, d. h. sie können im Prinzip alles
ausführen und darstellen, was sich mathematisch-algorithmisch beschreiben
lässt.[12] Und weil sie
universell sind, müssen sie für jede konkrete Anwendung spezifiziert
werden: So stehen Computer in verschiedenen diskursiven Praktiken im Rahmen je
unterschiedlicher und bisweilen auch konfligierender Metaphorisierungen, die
beschreiben, wozu die programmierbare Maschine nützlich sein soll, ja
„das digitale Medium ek-sistiert nur in seiner vielgestaltigen
Metaphorizität.“[13] In
Folge solcher manchmal impliziter Leitbilder werden Computer (im Rahmen des
technisch Möglichen) mit je anderer Hardware, den keineswegs bloß
sekundären ‚Peripherien’, verbunden und mit je anderer Software
programmiert. Programmroutinen, die in einer spezifischen diskursiven Praxis
zentral sind, können wiederum buchstäblich sedimentieren, denn jede
Software kann als Verschaltung logischer Gatter zu Hardware werden, wie Shannon
schon 1938 bewiesen hatte.[14]
Solche Entwicklungen sind heute als special purpose chips
alltäglich. Es gibt viele
Beispiele für folgenreiche Metaphorisierungen der universellen Maschine:
Bekannt ist etwa die Beschreibung des Rechners als
‚Elektronengehirn’, die schon auf von Neumanns ersten Text zu seiner
neuen Architektur zurückgeht und in den fünfziger Jahren eine
große Rolle spielte.[15] Heute
ist der in den sechziger Jahren beginnende Leitbildwechsel zum Computer als
Medium von größerem Interesse – paradigmatisch hierfür
ist u. a. Michael Nolls Text The Digital Computer as a Creative Medium
von 1967.[16]
Abbildung
1, Titelblatt von Michael Nolls, The
Computer as a Creative Medium,
1967.Schon bald zeigte sich, dass eine
Besonderheit dieses neuen Mediums darin bestand, auf Grund seines mathematischen
Charakters andere Medien nachahmen zu können. In den Sechziger Jahren wurde
diese Fähigkeit zunächst an relativ einfach zu simulierenden
Darstellungen erprobt – der geometrisch-konstruktiven
Malerei.[17] Ein Beispiel dafür
ist, dass Noll einen echten und einen computererzeugten Mondrian einander
gegenüberstellte (Abb. 2, 3).
Abbildung
2, Piet Mondrian, Komposition mit
Linien, 1917, aus: Piehler 2002, Abb. 44.
Abbildung
3, Michael Noll, Computer Composition
with Lines, 1964, aus: Piehler 2002, Abb. 45.
Letzterer basierte auf
angenäherten Verteilungswerten für Länge, Dicke und Dichte der
Balken des echten Mondrians. Übrigens stellte Noll durch eine Art
ästhetischen Turing-Test fest, dass die Mehrheit der Betrachter das
Computerbild für den echten Mondrian
hielt.[18]Es
gibt zwei grundsätzlich verschiedene Verfahren, mit denen Rechner die
bisherigen Medien beerben
können[19]: Erstens das
Sampling, also die Überführung von Analog- in Digitaldaten mit
Hilfe von Analog/Digital-Wandlern. Das Sampling erlaubt die digitale Abbildung
von frequenzbandbegrenzten Signalen und ermöglicht es durch
Digital/Analog-Wandlung, einen Output zu erzeugen, der von dem des Quellmediums
kaum unterschieden werden kann. Es liegt z. B. allen Scannern, mit denen z. B.
Fotos abgetastet und so ‚digitalisiert’ werden können, zu
Grunde.[20] Es ist für die
Diskussion über Intermedialität jedoch nicht sehr interessant, da es
sich bei der Digitalisierung letztlich nur um eine Repräsentation eines
Mediums durch ein anderes Medium handelt – vergleichbar etwa der
Darstellung eines Gemäldes in einem Film.
Das viel bemerkenswertere Verfahren ist
zweitens die Simulation. Bei Simulationen muss „der reale
Prozeß [...] in Mathematik abgebildet werden, um dann mittels
Algorithmen im Rechner simuliert werden zu
können“.[21] Aus
Messdaten aller Art und aus diesen abgeleiteten, mathematisch
formulierbaren Gesetzmäßigkeiten über das Verhalten des Objektes
oder Prozesses werden mathematische Modelle konstruiert, die das Objekt
bzw. den Prozess mit mehr oder weniger großer Annäherung beschreiben
(wie bei Nolls Computer Composition with Lines). Simulation war die erste
Anwendung des ENIAC und diente zur Berechnung der Wasserstoffbombe. Im
Übrigen wären heute ohne die Hilfe solcher Simulationen viele Formen
von Wissenschaft, wie z. B. die Teilchenphysik, aber auch ökonomische und
politische Planungen nicht
möglich.[22]
Simulationen basieren auf mathematischen
Modellen, d. h. virtuellen Objekten. Zur Verdeutlichung sei kurz das
Auftauchen und die Verwendung des Begriffs des ‚Virtuellen’ im
Diskurs der Informatik umrissen, wo ‚virtuell’ zuerst im Kontext der
Forschung an virtuellen Speichern (virtual memory) verwendet
wurde.[23] Spätestens ab 1962
nimmt virtual memory die heute geläufige Bedeutung an: Das
Hauptproblem elektronischer Computer war, dass Speicher mit kurzer Zugriffszeit
teuer waren. Folglich mussten aktuell nicht benötigte Informationen aus dem
Hauptspeicher (main memory) in Hilfsspeicher ausgelagert werden -
Speicherallokation bezeichnet den Prozess, durch den entschieden wird,
welche Daten aktuell im Hauptspeicher benötigt werden und welche in
Hilfsspeicher ausgelagert werden können. Als Mitte der fünfziger Jahre
höhere Programmiersprachen zum Einsatz kamen und die Programme komplexer
wurden, stellten sich die bis dahin bestehenden manuellen Verfahren als Hemmnis
heraus. Es gab eine Reihe von Lösungsvorschlägen, von denen sich
letztlich das Konzept des virtual memory
durchsetzte.[24] Dabei handelt
es sich um ein automatisches Verfahren der Speicherallokation, das zum ersten
Mal im 1961 entwickelten Atlas-Computer zum Einsatz kam. Virtuelle
Speicher erzeugen die Illusion eines großen, verfügbaren Speichers.
Das Computersystem ordnet, für den Programmierer unmerklich, den virtual
addresses mit Hilfe einer address-translation function die realen
Adressen im memory
space[25] zu. Virtuelle
Speicher operieren also auf der Basis der Trennung des logischen Adressraums vom
materiellen Speicherraum. Diese Trennung von (logischer) Struktur und
materiellem Substrat – man mag fast sagen: von Form und Medium (s. u.)
– ist der Kern des Virtuellen, zumindest im Diskurs der
Informatik.[26] Mit Deleuze
könnte formuliert werden: „Die Struktur ist die Realität des
Virtuellen.“[27] Die
Simulation eines Mediums hieße dann, dessen Struktur oder Form,
abgelöst von seiner Materie, als mathematisches Modell im Rechner
abzubilden.2. Ein Beispiel:
Computergrafischer Fotorealismus.Eine
derartige Virtualisierung älterer Medien durch Computer ist jederzeit im
Special Effects-Kino Hollywoodscher Provenienz zu bestaunen: Und zwar in
Form des computergrafischen Fotorealismus, d. h. von generierten Bildern,
die hinsichtlich ihrer Bildlichkeit von fotografischen und filmischen Bildern
kaum oder nicht unterschieden werden können. Fotorealistische Grafik ist
insofern Simulation, als die Eigenschaften (bestimmter Ausprägungen) von
Fotografie und Film empirisch vermessen und diese Daten den Rechnermodellen zu
Grunde gelegt werden. Das Fotografische des Fotorealismus ist also keineswegs
nur rhetorisch in dem Sinne, dass oberflächliche Zeichen der Fotografie
nachgeahmt werden – wie z. B. in der künstlerischen Strömung der
‚fotorealistischen Malerei’, die etwa zeitgleich mit den ersten
fotorealistischen Bemühungen der Computergrafiker entstand.
Abbildung
4, Richard Estes, Rappaports
Pharmacy, 1976.Vielmehr werden die
Eigenschaften der fotografischen (und auch kinematographischen) Apparate
simuliert. Das heißt, eine virtuelle Kamera ist eine wirkliche
Kamera – nicht bloß eine scheinhafte Imitation oder gar bloße
Fiktion. Sie kann je nach Maßgabe der zur Verfügung stehenden Daten
immer mehr ihrem materiellen Vorbild angenähert werden. Eine virtuelle
Kamera ist sozusagen die logische Struktur einer Kamera – abgelöst
von jeder realen Kamera-Materie. Diese virtuelle Kamera wird nun benutzt, um ein
virtuelles Objektfeld, das von einer virtuellen Lichtquelle beleuchtet wird,
virtuell zu
fotografieren.[28]
Abbildung
5, Schema der virtuellen Kamera, aus
Binkley 1993, 104.Virtuelle Fotografien
oder Filme folgen in Hinsicht auf ihre
Bildlichkeit[29] mithin den
spezifischen Charakteristika der chemischen Fotografie, von denen hier
nur drei benannt werden sollen – Fotogramme ausgenommen: Erstens der
Reichtum an unintendierten Details, die ein wichtiger Bestandteil des
fotografischen Realitätseffekts (Barthes) sind. Viele generierte Grafiken
werden gerade deshalb als noch nicht ‚realistisch’ genug eingestuft,
weil sie zu ‚clean’ erscheinen, also zuwenig Kratzer, Flecken u.
ä. auf den Oberflächen
aufweisen.[30] Zweitens sind die
durch die Kameraoptik bedingten Effekte zu nennen, vor allem die
Bildorganisation gemäß den Regeln der Zentralperspektive.
Computergenerierte Bilder könnten als mathematische Gebilde auch jeder
anderen Projektion gehorchen, folgen aber, wenn sie fotorealistisch sein sollen,
der durch Fotografie und Film tradierten perspektivischen Organisation. In der
computergrafischen Forschung wird überdies angestrebt, nicht nur die
perspektivische Projektion, sondern die spezifischen Effekte der Kameras, wie
die empirisch messbaren Verzerrungen und Schärfeneffekte von Linsen und
Blenden oder die von der Verschlusszeit abhängige Bewegungsunschärfe
(motion blur), d. h. das Verwischen von schnell bewegten Objekten, zu
simulieren.[31] Drittens sind es die
Eigenschaften der fotografischen Emulsion selbst, z. B. die körnige
Struktur des Bildes insbesondere bei Vergrößerungen oder sehr
lichtempfindlichen Filmen, die man in der fotorealistischen Computergrafik
virtuell zu modellieren
sucht.[32]Abb.
6 ist aus einem Standardwerk zur
Computergrafik.[33] Ein Foto einer
Szene wird mit einer gleichartigen, berechneten Szene verglichen – quod
erat demonstrandum.
Abbildung
6, Fotografie und fotorealistisches
Bild, aus Foley et al. 1990, Plate III.
19.Wie am Beispiel des Fotorealismus
deutlich wird, spricht Tholen zurecht von der „medienunspezifischen
Darstellbarkeit von medienspezifischen Darstellungsweisen“ als einem
charakteristischen Zug der „mediale[n] Nicht-Koinzidenz des digitalen
Mediums mit sich selbst.“[34]
Die selbst unspezifischen Computer können mathematisch alle
formalisierbaren Medienspezifika[35]
approximativ simulieren, dadurch von ihren materialen Bedingungen ablösen
und archivier-, kombinier- und transformierbar machen. Das zeigt sich z. B. auch
im Bereich des Computers als Tonmedium: Eine der bei den Anhängern der
neuen elektronischen Tanzmusik äußerst beliebte Software ist
Reason, die virtuell zahlreiche legendäre Synthesizer, Drumcomputer
etc. simuliert, virtuell verkabel- und verschaltbar
macht.[36]Virtuelle
Fotografie kann – nach Shannon – selbst wieder Hardware werden: Ein
Beispiel ist die von der Film- und dann Computerspielindustrie geförderte
Entwicklung von Grafikchips, in denen Algorithmen für die fotorealistische
Generierung von Bildern in Hardware gegossen und so beschleunigt werden.
Fotografische Bildformen und ihre Bildlichkeit werden so bis in die Hardware
verfestigt und damit tradiert (das gilt auch für die auf Sampling
beruhenden, handelsüblichen Digitalkameras). Keineswegs führt die
‚digitale Revolution’ nur – wie eine modische Floskel lautet
– das ‚Ende des fotografischen Zeitalters’ herbei, vielmehr
macht sich die immer noch sehr fotografische Gegenwart auch die programmierbaren
Maschinen zurecht.3. Das Verschwinden der
Medien?Nur ein Jahr nach Hansen-Löves
anfänglich genanntem Text zur Intermedialität von 1983 kam der Apple
MacIntosh als erster Rechner mit einer grafischen Oberfläche auf den Markt
– damit begann erst langsam, dann immer rasender die Ausbreitung von
Computern, deren Potentiale zur Simulation und zum Sampling stets zunahmen. So
entstand bald – und etwa zeitgleich mit dem Diskurs zur
Intermedialität – die Vorstellung, im Universalmedium Computer
verschwänden die Einzelmedien. So heißt es in Kittlers Grammophon
Film Typewriter von 1986:„In der
allgemeinen Digitalisierung von Nachrichten und Kanälen verschwinden die
Unterschiede zwischen einzelnen Medien. Nur noch als Oberflächeneffekte
[...] gibt es Ton und Bild, Stimme und Text. [...] Und wenn die Verkabelung
bislang getrennte Datenflüsse alle auf eine digital standardisierte
Zahlenfolge bringt, kann jedes Medium in jedes andere übergehen.
[...].“[37]Daraus
kann dann „das langsame Verschwinden des Intermedialen im Paradigma des
Digitalen“[38] abgeleitet
werden. Allerdings betont Kittler doch, dass es die verschiedenen Medien noch
als unterscheidbare Effekte auf einer multimedialen Oberfläche gibt.
Überdies existieren für Bild-, Film-, Ton- und Schriftfiles ganz
verschiedene Datenformate.[39] Von
einer – im übrigen kaum vorstellbaren – totalen Einebnung der
Differenz zwischen verschiedenen medialen Formen, davon dass „mittels
Computertechnik alle Medien zu einem allgemeinen Supermedium
verschmelzen“[40], kann
keine Rede sein. Vielmehr existieren durch Sampling und Simulation die
Spezifika der verschiedenen Medien abgelöst von ihrer technischen
Materialität als virtuelle Form auf derselben Basis des digitalen
Codes. 4. Intermedialität und
Monomedien.Für Kittler sind die
einzelnen Medien unter Computerbedingungen folglich „begrenzte Fenster
[...] [i]m Spektrum des allgemeinen
Datenflusses“[41], so dass
„jedes Medium in jedes andere
übergehen“[42] kann.
Außerdem können die virtualisierten Medien, wie am Beispiel des zu
Grafikkarten sedimentierten Fotorealismus deutlich geworden sein dürfte,
durch die Herstellung entsprechender special purpose chips selbst zu
physisch separaten ‚Neuen Medien’ (WAP-Handys, UMTS-Handys, CD,
CD-RW, MP3-Player, DVD-Player etc.) werden. Diese sind Ausdifferenzierungen der
dispersiven Turing/von Neumann-Maschine, zwischen denen auf Grund ihres
gemeinsamen digitalen Basiscodes buchstäbliche
Anschlusskommunikationen möglich sind – sie können von
Fall zu Fall direkt verkabelt werden. Der Eindruck von Intermedialität
drängt sich zunächst also dadurch auf, dass neben der Kopräsenz
verschiedener Formate auf einer Oberfläche handelsüblicher PCs
verschiedene ‚Neue Medien’ relativ umstandslos zu
multimedialen Medienverbünden vernetzt werden
können.So begünstigt die
Virtualisierung der Medien intermediale Künste: Der Fluxus-Künstler
Jud Yalkut hatte sich in seinem Text Understanding Intermedia 1973 noch
beklagt: „Allein die Beschwerlichkeit und Umständlichkeit, die mit
dem Gebrauch der gegenwärtigen Instrumente und Ausrüstungen verbunden
ist (Filmprojektoren, Lichtapparaturen, elektronische Apparate), bestimmt die
Beschaffenheit und den Umfang der Intermediadarbietungen im
Augenblick.“[43] Die
widerspenstige Materialität der elektronischen Apparate fällt
jedenfalls teilweise weg, sobald viele der Instrumente und Ausrüstungen
virtuell simuliert oder zumindest weniger umständlich über eine
zentrale Instanz, den Computer, gesteuert und koordiniert werden können.
Noll hatte schon früh zum Computer bemerkt: „This is an active medium
with which the artist can interact on a new level, freed from many of the
physical limitations of all other previous
media.“[44] Die
Ausbreitung der Computer und die Hinwendung der Kunst zu intermedialen
Strategien sind etwa zeitgleich und – das ist das Mindeste, was man sagen
kann – ergänzen sich
hervorragend.Doch die Effekte der
Virtualisierung gehen darüber hinaus: Kittler bezeichnet es als
„Euphemismus, von Neuen Medien im Plural zu reden“, wo es doch nur
„ein einziges neues Medium, nämlich Digitalcomputer
gibt“.[45] Umgekehrt
könnte man genauso formulieren, dass es problematisch ist, von
‚dem’ Computer im Singular zu sprechen. Der dispersive Computer
– es wurde gesagt – wird je anders metaphorisiert, programmiert, mit
anderen Peripherien verschaltet, um ein jeweils anderes ‚Neues
Medium’ (oder andere Maschinen) hervorzubringen. Der Computer im
‚Reinzustand’ ist kein Medium insbesondere, enthält aber
potentiell jedes Medium approximativ. Legt auf diese Weise der Computer nicht
nahe, dass es ein unspezifisches, inter- bzw. protomediales Feld gibt, das sich
jeweilig zu ‚spezifischen’ Medien kristallisiert? So kann
Intermedialität zunehmend als vorgängig, als ursprünglicher als
die spezifischen Monomedien erscheinen, was schon 1983 Hansen-Löve vermutet
hatte – wenn auch ohne direkte Bezugnahme auf zeitgenössische
intermediale Kunst oder gar
Computer.[46] Wenn aber keine
monomedialen Aprioris mehr vorausgesetzt werden können, müssen die
Monomedien letztlich Ergebnisse von Purifikationsprozeduren, von Einschnitten
und Eingrenzungen sein. Seit der Ausbreitung des universellen Mediums erscheint
jede Berufung auf das „Wesen [des]
Mediums“[47] als
ontologisierende, naturalisierende Rechtfertigung einer durch kontingente
Faktoren bedingten
Form.[48]Die
‚Neuen Medien’ sind temporäre Programmierungen und
Verschaltungen einer digitalen Elektronik mit keineswegs rein zusätzlichen,
sondern jeweils wesentlichen ‚intermedialen’ Peripherien – so
wie es den Computer als Bildmedium eben nur mit den gerade verfügbaren
Grafikkarten, Monitoren, Scannern, Printern gibt. Oft haben diese konstellativen
Anordnungen die Funktion, traditionelle Medien zu substituieren, so wie z. B.
die CD die Vinylplatte, später die Digitalkamera die Super-8-Kamera ersetzt
hat. Der temporäre, nicht-essentielle Charakter der ‚Neuen
Medien’ zeigt sich an der ständigen und offenkundig allen Phantasien
eines digitalen Verschmelzens der Medien widersprechenden Proliferation immer
neuer Techniken, Formate und Konstellationen, die oftmals nur eine kurze
Halbwertszeit besitzen – Beispiele wären das DAT oder das Tamagotchi,
ganz zu schweigen von den schon beim Kauf tendenziell veralteten
‚Multimedia PCs’ und Softwarepaketen.
Die industriell fixierten Standards der digital
basierten ‚Neuen Medien’ sind ursprünglich oft militärisch
und/oder ökonomisch motivierte Spezialisierungen, Zurechtmachungen
(Nietzsche) der universellen Maschine. Das zeigt sich auch am oben diskutierten
Fotorealismus: Ab den späteren siebziger Jahren wird die Forschung an
realistischer Computergrafik immer weniger vom Militär, das realistische
Grafiken für Flugsimulatoren
benötigte[49], sondern in
steigendem Maße von der Filmindustrie gefördert. Zum Beispiel geht
1979 Edwin Catmull, einer der führenden Entwickler von Computergrafik in
den siebziger Jahren, der zuvor direkt oder indirekt für das Militär
gearbeitet hatte, zu Lucasfilm, um dort die Computer Graphics
Division zu leiten. Für zahlreiche militärische Applikationen ist
fotorealistische Grafik gar nicht geeignet, weil sie zu viele Informationen
liefert, weshalb oft komplexitätsreduzierte Displays zum Einsatz kommen.
Abbildung 7, Komplexitätsreduziertes
militärisches Pilotendisplay.Wenn
hingegen generierte Bilder als special effect in einen Film oder auch in
eine Print-Werbung eingefügt werden sollen – es sei denn die
Künstlichkeit der Bilder ist narrativ motiviert – müssen sie
ausreichend vom fotografisch-filmischen Kontext ununterscheidbar sein.
Inzwischen werden die meisten Fortschritte der fotorealistischen Computergrafik
durch die Film-, aber auch Computerspiel-Industrie
angestoßen.
Abbildung 8, Werbung für
fotorealistische Grafik in Computerspielen und durch Grafikkarten (‚ELSAs
Grafik-Know-how mit GeForce Chiptechnologie bringt Ihnen Spiele näher, als
es Ihnen vielleicht lieb ist. So realistisch und authentisch, dass es von der
Wirklichkeit kaum noch zu unterscheiden
ist.’).[50]Es
drängt sich die Frage auf, mit welchem theoretischem Ansatz sich die
Einrichtung der – auch zeitlich, d. h. von ihrer Lebensdauer –
‚begrenzten Fenster’ der Neuen Medien beschreiben
lässt.5. Virtualität und
Medientheorie. Performative Formungen der dispersiven
Maschine.Zunächst sei die These, dass
Intermedialität in dem Moment (etwa ab Mitte der achtziger Jahre) in den
Blick rückt, in dem Medien nicht mehr als bestimmte Materien mit
exakt spezifizierbaren Eigenschaften sein müssen, theoriehistorisch
kontextualisiert. Sie erscheint dabei sofort als problematisch, denn offenkundig
ist, dass seit Mitte der achtziger Jahre mehr und mehr von der
‚Materialität der Kommunikation’ gesprochen wurde. Im Anschluss
an Nietzsche, Benjamin, McLuhan, Innis und andere wurden die Medientechnologien
und ihre Eigendynamiken vor allem in den Arbeiten Kittlers als bislang
verdrängtes Forschungsfeld entdeckt. Aber der Rekurs auf die Spezifik von
Medientechniken und ihre verschiedenen Weisen der „Übertragung,
Speicherung und Verarbeitung von
Information“[51] führt
paradoxerweise gerade dazu, dass der Medien „elektronisches
Ende“[52] in der
Nicht-Spezifik des kommenden Universalmediums angenommen werden muss. Nur
solange Kittlers Satz „Noch gibt es
Medien“[53] gilt – so
könnte man überpointiert sagen – gibt es noch Diskurse über
diese getrennten Medien. Oder vielleicht ist gerade das Gegenteil richtig: Wenn
z. B. gilt, dass die „Aufmerksamkeit [...] für das mediale
Phänomen der Schriftlichkeit geboren sein könnte aus der Einsicht in
ihren drohenden
Funktionsverlust“[54], dann
mag ebenso stimmen, dass technikhistorische Medienwissenschaft in dem Moment
anhebt, in dem spezifische Medientechniken historisch werden. Das zeigt sich
kaum deutlicher als bei Kittler selbst. Als 1986 sein Grammophon Film
Typewriter erschien, war das Grammophon bzw. der Plattenspieler gerade
fünf Jahre obsolet geworden (1981 Vorstellung der CD) – sieht man von
seiner Nischen-Fortexistenz in der DJ-Culture ab. In den frühen achtziger
Jahren wandte sich die Filmindustrie der Förderung und Entwicklung jener
oben skizzierten fotorealistischen Bildverfahren zu, die das Medium Film
durchdringen und bald praktisch ersetzen
würden[55] – siehe als
beeindruckendes Beispiel den 1997 erschienenen Film Titanic (James
Cameron), in dem die Hintergründe vieler Szenen visuell unmerklich
computergeneriert sind. Und der Typewriter begann schon seit den späten
siebziger Jahren von Office-Personalcomputern abgelöst zu
werden.[56]Im
selben Jahr (1986) als Kittler das kommende Ende der Medien in dem einen
Medium Computer mutmaßt (und auch zurücknimmt), publiziert Niklas
Luhmann seinen Aufsatz Das Medium der Kunst. In diesem wurde seine
Unterscheidung von Medium/Form
eingeführt.[57] Das
Medium Luhmanns ist keine spezifische Materialität, sondern eine
unterbestimmte Ansammlung lose gekoppelter Elemente, die durch sich temporal
ablösende Formen strikt gekoppelt werden. Diese funktionale und abstrakte
Beschreibung lässt sich praktisch universell anwenden. Er teilt folglich
die „Auffassung von der Technik als Urszenerie des Medialen [...] gerade
nicht.“[58]
Dies legt einen Gedanken nahe, dem Bernhard
Dotzler durch eine Analyse der Herkunft der Systemtheorie aus der Kybernetik
Wort verliehen hat.[59] Die Idee
eines selbst leeren und daher unbeobachtbaren Mediums als – wie Luhmann
bezeichnend formuliert – „reine
Virtualität“[60], das
durch sich ablösende Formen strikt gekoppelt, man mag fast sagen
programmiert[61] wird,
könnte sich selbst dem historischen Auftauchen des Computers verdanken
– unabhängig davon, dass die Inspiration für dieses Konzept
ursächlich von Fritz Heider stammt. Nicht umsonst nennt Luhmann Computer
„unsichtbare Maschinen“ und vergleicht den Prozess der
Medium/Form-Kopplung explizit mit der „von
Neumann-Maschine.“[62]
Zeitgleich mit dem tendenziellen Verschwinden der spezifischen
Medientechniken durch Virtualisierung entsteht also ein technisch
unspezifischer Medienbegriff. Aber selbst wenn
man der starken These vom Computer als einer Bedingung des Luhmann’schen
Medienbegriffs nicht folgen will, bleibt zu sagen, dass die systemtheoretische
Medientheorie operationale Begrifflichkeiten zur Verfügung stellt. Gerade
weil das Medium bei Luhmann keine fixe Materialität, sondern eine –
beobachterrelativ – stärker oder loser gekoppelte Menge von selbst
beobachterrelativen Elementen ist, kann eine Form selbst ein Medium für
weitere Formen bzw. ein Medium Form in anderen Medien sein. Es gibt also eine
prozessuale Substituierbarkeit von Medium und Form. So passt Luhmanns
Medium/Form-Differenz gerade auf die virtuelle Ablösung der Medienspezifika
von der Materialität: Virtuelle Fotografie bzw. Fotorealismus erscheint
dann als spezifische Form ‚Fotografie’, die das unspezifische
digitale Medium strikter koppelt. Virtuelle Filme sind die strikte Kopplung des
digitalen Mediums durch die Form ‚Film’ etc. Virtuelle Skulpturen
sind die strikte Kopplung des digitalen Mediums durch die Form
‚Skulptur’ usw.[63]
Sybille Krämer hat an Luhmanns
Medium/Form-Kopplung unterstrichen, dass Form dort „performativ“
konzipiert sei, dass sie zur „temporalisierten, instabilen,
flüchtigen, kontingenten Konkretisierung eines jener Potentiale zur
Formbildung [wird], die bereitzustellen die Aufgabe des Mediums
ausmacht.“[64] Diese
performative Auffassung der Form scheint auch der Tatsache der Proliferation
ständig neuer digitaler Medien und Formate Rechnung tragen zu können.
Anschließend an Luhmanns These, dass „im Schema von Medium und Form
[...] alle Formen akzidentiell erscheinen [...]: keine von ihnen drückt das
‚Wesen des Mediums’
aus“[65], könnte man
formulieren: Kein ‚Neues Medium’ drückt das Wesen
‚des’ Computers aus, weil dieses gerade dispersiv ist. Vielmehr
werden immer neue Formen in das digitale Medium – in seine Metaphern,
Soft- und Hardware(peripherien) – eingeprägt.
Allerdings ist hier eine Präzisierung
notwendig, denn der Grad der Kopplung ist offenbar unterschiedlich strikt. So
kann die Form ‚Fotografie’ in Software oder in Hardware realisiert
werden. Die Verfestigung bestimmter Algorithmen zu Chips macht die Formen
stabiler, weniger flüchtig, als wenn sie bloßes Programm sind. Diese
Sedimentierung, durch die bestimmte, nicht alle algorithmischen
Pro-Gramme und z. B. auch bestimmte mediale Formen verfestigt und stabilisiert
werden, ist ein eminent politischer Prozess. Wie wird bestimmt, was sich in
Hardware sedimentieren kann und was nicht? Welche medialen Formen, z. B. ein
fotografisch inspirierter ‚Realismus’, werden Standard? Diese
Beschreibung des Prozesses, durch die „eine Vorgeschichte oder
Firmenbürokratie [...] umstandslos in Hardware
kristallisiert“[66], evoziert
noch einen anderen Begriff von
Performativität.Judith Butler hat in einem
ganz anderen Zusammenhang – der feministischen Diskussion über das
Verhältnis von biologischem (sex) und sozialem (gender) Geschlecht –
einen performativen Begriff von Materie vorgeschlagen. Es sei an ihrer komplexen
Diskussion nur ein Punkt hervorgehoben, der für eine Theorie der Begrenzung
und Stabilisierung von Segmenten des intermedialen Spektrums zu einzelnen
‚Neuen Medien’ von Interesse ist. Butler insistiert nämlich
darauf, dass das biologische Geschlecht, also die ‚Materie’ des
Körpers, keine schlicht gegebene Oberfläche ist, in die sich ein
soziales Geschlecht einschreibt. Vielmehr begreift sie die Materie „als
Prozeß der Materialisierung, der im Laufe der Zeit stabil wird, so dass
sich die Wirkung von Begrenzung, Festigkeit und Oberfläche herstellt, den
wir Materie nennen.“[67]
Schließlich betont Butler mit Foucault, dass
‚Materialität’, also das was positiv gegebenes Faktum zu sein
scheint, genau das ist, wo Macht sich am effektivsten durchsetzt, gerade weil
sie sich im scheinbar natürlich oder eben technisch Gegebenen verbirgt:
„Materialität ist die unkenntlich gewordene Wirkung von
Macht“.[68] Wenn man ihr
Argument einmal von der Körperfrage ablöst, wird deutlich, dass auch
und gerade bei digitalen ‚Neuen Medien’ von Prozessen einer
„Sedimentierung“[69]
gesprochen werden kann. Durch kommerziell und ideologisch motivierte
Wiederholungen herrschender Normen, etwa einer ständigen Beschwörung
eines zu erreichenden, vollkommenen und letztlich am Modell der fotografischen
Medien orientierten ‚Realismus’ (s. Abb. 9), werden bestimmte
Monomedien erzeugt bzw. bestimmte mediale Formen zu Technik verfestigt und so
naturalisiert.
Abbildung 9, „Cinematic
Computing“, Slogan der Nvidia-Website, Letzter Zugriff
20.4.2003.Frei nach Butlers Begriff der
‚heterosexuellen
Matrix’[70], die die
Zurichtungen der Körper erklären soll, könnte von einer
‚fotografischen Matrix’ gesprochen werden, welche performative
Materialisierungen der Computergrafik reguliert. Die ständig iterierten
Anrufungen dieser Matrix in Form eines phantasmatischen, endgültigen
Realismus der Computersimulation berufen sich nicht nur auf das Kino,
sondern finden sich auch in ihm, siehe den bezeichnend so betitelten und vor
allem überaus populären Film The Matrix (USA 1999, Andy und
Larry Wachowski), oder im Fernsehen, siehe die Fiktion des so genannten
‚Holodecks’ in der Fernsehserie Star Trek – The Next
Generation (USA 1987 ff.). Aber auch und gerade die Proceedings der
wichtigsten internationalen Konferenz der Computergrafik, der SIGGRAPH, zeigen
diesen Trend überdeutlich. Der Fotorealismus erscheint so als das
natürliche Telos des als Bildmaschine metaphorisierten Computers. Also
könnte man auch rückblickend auf alle anderen ‚Medien’ die
Frage übertragen, wie ihre jeweils so und so bestimmte Spezifik durch
ständig wiederholte Anrufungen einer ‚Materialität’
gebildet
wurde...6. Fazit.Mit
der beginnenden Metaphorisierung und Funktionalisierung des Computers als
‚Universalmedium’ wird es möglich, die Spezifika der Medien
unabhängig von ihrer technologischen Materialität zu beobachten. Die
materiellen bzw. technologischen Strukturen verdampfen zu Formen, die
performativ das digitale Medium koppeln. So werden auch die scheinbar klar
fixierten ‚Monomedien’ retrospektiv als temporäre, performativ,
diskursiv und damit politisch erzeugte Eingrenzungen eines vorgängigen
intermedialen Spektrums denkbar. Es wäre sicher falsch anzunehmen, dass
Intermedialität allererst mit Computern entsteht, schon weil transmediale
Beziehungen zwischen Medien auf der Ebene (relativ) medienunspezifischer
Strukturen wie Rhythmus, Serialität, Narration etc. schon immer existiert
und die ‚reine’ und ‚spezifische’ Selbstidentität
eines gegebenen Medium subvertiert
haben.[71] Wenigstens muss aber
eingeräumt werden, dass Intermedialität sich historisch
verändert, dass mit dem Computer eine neue, virtuelle Art derselben
und in deren Gefolge erst der Begriff ‚Intermedialität’
auftaucht. Ob und wie diese Verschiebung genealogisch mit der Abwendung der
Kunst vom tendenziell monomedialen Modernismus – einem Prozess, dessen
Zusammenhang mit der Entwicklung der elektronischen und dann digitalen Medien
selbst zu untersuchen wäre[72]
– in Verbindung steht, muss Thema eines anderen Aufsatzes
bleiben.Jedenfalls eröffnet die
Virtualisierung bisheriger Medien auch für die Kunst neue Optionen –
jenseits der multimedialen Installation. Die Kunst könnte die Verfestigung
und Tradierung traditioneller Bildformen in den ach so Neuen Medien
angreifen.[73] Bei einer virtuellen
Fotokamera z. B. könnten alle Parameter auch über das für eine
reale und handelsübliche Kamera physikalisch Mögliche hinaus
verändert und somit die Grenzen der Kamera-Spezifik enorm erweitert,
künstlerisch ausgetestet werden. In der neueren elektronischen E-Musik sind
vergleichbare Experimente unter dem Titel Physical Modeling schon
angedacht worden.
Abbildung
10, Querschnitt einer Klarinette,
aus: Brüse 1994.
Abbildung
11, Physik einer Klarinette, aus:
Brüse 1994.
Abbildung
12, Blockschaltbild eines
‚Physical Models’ einer Klarinette, aus: Brüse
1994.Brüse weist zwar daraufhin,
dass man die Grenzen so sensibler Anordnungen wie von selbst-oszillierenden
Instrumenten nur wenig verändern kann, soll überhaupt noch ein Klang
hörbar werden, doch am Horizont könnten auf der Basis von simulativen
Modellen entsprechender Instrumente, „eine Riesentrompete oder eine auf
dem Mond gestrichene
Balalaika“[74] stehen. So
wäre im Virtuellen Greenbergs fast vergessene Forderung, eine
modernistische Kunst müsse sich durch Medienreflexion auszeichnen, auf ganz
neue Art zu erfüllen. Die Spezifik der Medien und ihre (virtuelle)
Intermedialität könnten einen neuen Frieden schließen.
Literatur:BATCHEN,
Geoffrey (2001) Obediant Numbers, Soft Delight. In: ders.: Each Wild Idea:
Writing, Photography, History. Cambridge, MA: The MIT Press, S.
164-174.BORN, Günther (2000)
Dateiformate - die Referenz: Tabellenkalkulation, Text, Grafik, Multimedia,
Sound und Internet. Bonn: Addison
Wesley.BRÜSE, Claudius (1994)
Physical Modeling - Die neue Klangsynthese. In: Keyboards, Nr. 4, S.
44-73.BUTLER, Judith (1997) Körper von
Gewicht. Frankfurt a. M.: Suhrkamp.CARROLL,
Noel (1984/85) Medium Specifity Arguments and Self-Consciously Invented Arts:
Film, Video and Photography. In: Millenium Film Journal, No. 14/15, S.
127-153.CARROLL, Noel (1985) The Specifity of
Media in the Arts. In: Journal of Aesthetic Education, Vol. 19, No. 4, S.
5-20.CERUZZI, Paul (2000) A History of
Modern Computing. Cambridge, Massachusetts und London: MIT
Press.COCKE, John / KOLSKY, Harwood G. (1959)
The Virtual Memory in the STRETCH Computer. In: Proceedings of the 1959
Eastern Joint Computer Conference. Papers presented at the Joint IRE-AIEE-ACM
Computer Conference, Boston, Massachusetts, S. 82-93.
COCKROFT, Eva (1974) Abstract Expressionism:
Weapon of the Cold War. In: Artforum, Vol. 12, No. 10, S.
39-41.DEDUVE, Thierry (1993) Kant nach
Duchamp. München: Boer.DELEUZE, Gilles
(1997) Differenz und Wiederholung. München:
Fink.DENNING, Peter J. (1970) Virtual Memory.
In: ACM Computing Surveys, Vol. 2, No. 3, S.
153-189.DOTZLER, Bernhard (1999) Unsichtbare
Maschinen – Irritationsbestände aus der Geschichte der Kybernetik
erster Ordnung. In: Widerstände der Systemtheorie. Kulturtheoretische
Analysen zum Werk von Niklas Luhmann. Hrsg. von Albrecht Koschorke und
Cornelia Vismann. Berlin: Akademie-Verlag, S.
121-132.ECKL, Rainer / PÜTGENS, Leonhard /
WALTER, Jürgen (1990) A/D- und D/A-Wandler. Grundlagen,
Prinzipschaltungen und Applikationen. München:
Franzis.ESPOSITO, Elena (1998) Fiktion und
Virtualität. In: Medien Computer Realität.
Wirklichkeitsvorstellungen und neue Medien. Hrsg. von Sybille Krämer.
Frankfurt a. M.: Suhrkamp, S. 269-296.FOLEY,
James D. / VAN DAM, Andries / FEINER, Steven K. / HUGHES, John F. / PHILIPS,
Richard L. (1990) Computer Graphics: Principles and Practice. Reading,
Massachusetts u. a.: Addison-Wesley.GALISON,
Peter (1997) Image and Logic. A Material Culture of Microphysics. Chicago
und London: Chicago University Press.GEIGEL,
Joe / MUSGRAVE, F. Kenton (1997) A Model for Simulating the Photographic
Development Process on Digital Images. In: SIGGRAPH Proceedings 1997, S.
135-142.GREENBERG, Clement (1997) Die Essenz
der Moderne. Ausgewählte Essays und Kritiken. Hrsg. von Karlheinz
Lüdeking. Amsterdam, Dresden: Verlag der
Kunst.HANSEN-LÖVE, Aage A. (1983)
Intermedialität und Intertextualität. Probleme der Korrelation von
Wort- und Bildkunst – Am Beispiel der russischen Moderne. In: Dialog
der Texte. Hamburger Kolloquium zur Intertextualität. Hrsg. von Wolf
Schmid & Wolf-Dieter Stempel. Wien (=Wiener Slawistischer Alamanach,
Sonderband II), S. 291-360.HIGGINS, Dick (1984)
Horizons. The Poetics and Theory of the Intermedia. Carbondale and
Edwardsville: Southern Illinois University
Press.HOLMES, Sir Oliver Wendell (1980) Das
Stereoskop und der Stereograph. In: Theorie der Fotografie I. 1839-1912.
Hrsg. von Wolfgang Kemp. München: Schirmer und Mosel, S.
114-122.KITTLER, Friedrich (1986) Grammophon
Film Typewriter. Berlin: Brinkmann &
Bose.KITTLER, Friedrich (1993) Draculas
Vermächtnis. Technische Schriften. Leipzig:
Reclam.KITTLER, Friedrich (1998) Hardware, das
unbekannte Wesen. In: Medien Computer Realität.
Wirklichkeitsvorstellungen und neue Medien. Hrsg. von Sybille Krämer.
Frankfurt a. M.: Suhrkamp, S. 119-132KITTLER,
Friedrich (1999) Von der optischen Telegraphie zur Photonentechnik. In: Mehr
Licht. Hrsg. von VVS Saarbrücken. Berlin: Merve, S.
51-68.KRÄMER, Sybille (1996) Computer:
Werkzeug oder Medium? Über die Implikationen eines Leitbildwechsels. In:
Nachhaltigkeit als Leitbild für die Technikgestaltung. Hrsg. von
Hans-Peter Böhm, Helmut Gebauer und Bernhard Irrgang. Forum für
interdisziplinäre Forschung 14. Dettelbach: Röll, S.
107-116.KRÄMER, Sybille (1998a) Das Medium
als Spur und als Apparat. In: Medien Computer Realität.
Wirklichkeitsvorstellungen und neue Medien. Hrsg. von Sybille Krämer.
Frankfurt a. M.: Suhrkamp, S.
73-94.KRÄMER, Sybille (1998b) Form als
Vollzug oder: Was gewinnen wir mit Niklas Luhmanns Unterscheidung von Medium und
Form? In: Rechtshistorisches Journal, Nr. 17, S.
558-573.KRAUSS, Rosalind (2000) ‚A
Voyage on the North Sea’. Art in the Age of the Post-Medium Condition.
New York: Thames and Hudson.LICKLIDER, J. C. R.
/ TAYLOR, Robert (1968) The Computer as a Communication Device. In: Science
and Technology, April 1968, S.
21-31.LUHMANN, Niklas (1986) Das Medium der
Kunst. In: Delfin, Jg. 4, Nr. 1, S.
6-16.LUHMANN, Niklas (1993) Die Form der
Schrift. In: Schrift. Hrsg. von Hans-Ulrich Gumbrecht und K. Ludwig
Pfeiffer. München: Fink, S.
349-366.LUHMANN, Niklas (1997) Die Kunst der
Gesellschaft. Frankfurt a. M.:
Suhrkamp.LUHMANN, Niklas (1998) Die
Gesellschaft der Gesellschaft. 2 Bde. Frankfurt a. M.:
Suhrkamp.MITCHELL, William J. (1992) The
Reconfigured Eye. Visual Truth in the Post-Photographic Era, Cambridge,
Mass. und London: MIT Press. MÜLLER,
Jürgen E. (1998) Intermedialität als poetologisches und
medientheoretisches Konzept. Einige Reflexionen zu dessen Geschichte. In:
Intermedialität. Hrsg. von Jörg Helbig. Berlin: Erich Schmidt,
S. 31-40.NEUNZERT, Helmut (1995) Mathematik und
Computersimulation: Modelle, Algorithmen, Bilder. In: Simulation. Computer
zwischen Experiment und Theorie. Hrsg. von Valentin Braitenberg und Inga
Hosp. Reinbek bei Hamburg: Rowohlt, S.
44-55.NEWELL, Martin E. / BLINN, James F.
(1977) The Progression of Realism in Computer-Generated Images. In: ACM 77.
Proceedings of the Annual Conference. New York: ACM, S.
444-448.NOLL, Michael (1966) Human or Machine:
A Subjective Comparison of Piet Mondrian’s ‚Composition with
Lines’ (1917) and a Computer-Generated Picture. In: The Psychological
Record, Vol. 16, S. 1-10.NOLL, Michael
(1967a) The Digital Computer as a Creative Medium. In: IEEE Spectrum,
Vol. 4, No. 10, S. 89-95.NOLL, Michael (1967b)
Computers and the Visual Art. In: Design Quarterly, No. 66/67, S.
65-71.REEVES, William (1983) Particle Systems
– A Technique for Modeling a Class of Fuzzy Objects. In: Computer
Graphics, Vol. 17, No. 3, S.
359-376.PIEHLER, Heike (2002) Die
Anfänge der Computerkunst. Frankfurt a. M.:
dot.POTMESIL, Michael / CHAKRAVARTY, Indranil
(1982) Synthetic Image Generation with a Lens and Aperture Camera Model. In:
ACM Transactions on Graphics, Vol. 1, No. 2, S. 85-108.
POTMESIL, Michael / CHAKRAVARTY, Indranil
(1983) Modeling Motion Blur in Computer-Generated Images. In: SIGGRAPH
Proceedings 1983 (= Computer Graphics, Vol. 17, No. 3), S.
389-399.SHANNON, Claude Elwood (1938) A
Symbolic Analysis of Relay and Switching Circuits. In: Transactions of the
American Institute of Electrical Engineers, Nr. 57, S.
713-723.RASER, John (1972) Simulation and
Society. An Exploration of Scientific Gaming. Boston: Allyn and
Bacon.SCHRÖTER, Jens (1998)
Intermedialität. Facetten und Probleme eines aktuellen
medienwissenschaftlichen Begriffs. In: montage/av, Jg. 7, Nr. 2, S.
129-154.SCHRÖTER, Jens (2000) Die Form der
Farbe. Über ein Parergon in Kants Kritik der Urteilskraft. In:
Kants Schlüssel zur Kritik des Geschmacks. Ästhetische Erfahrung
heute – Studien zur Aktualität von Kants „Kritik der
Urteilskraft“. (Sonderheft des Jahrgangs 2000 der Zeitschrift
für Ästhetik und allgemeine Kunstwissenschaft). Hrsg.
von Ursula Franke. Hamburg: Meiner, S.
135-154.SPIELMANN, Yvonne (1995)
Intermedialität als symbolische Form. In: Ästhetik und
Kommunikation, Jg. 24, Heft 88, S.
112-117.SPIELMANN, Yvonne (1998)
Intermedialität: das System Peter Greenaway. München:
Fink.THOLEN, Georg Christoph (1999)
Überschneidungen. Konturen einer Theorie der Medialität. In:
Konfigurationen Zwischen Kunst und Medien. Hrsg. von Sigrid Schade und
Georg Christoph Tholen. München: Fink, S.
15-34.THOLEN, Georg Christoph (2002) Die
Zäsur der Medien. Kulturphilosophische Konturen. Frankfurt a. M.:
Suhrkamp.VON NEUMANN, John (1945) First
Draft of a Report on the EDVAC. Unter:
http://www.cs.colorado.edu/~zathras/csci3155/EDVAC_vonNeumann.pdf
(Letzter Zugriff Februar 2003).WINKLER,
Hartmut (1997) Docuverse. Zur Medientheorie der Computer. München:
Boer.WINKLER, Hartmut (2002) Das Modell.
Diskurse, Aufschreibesysteme, Technik, Monumente
-Entwurf für eine Theorie kultureller
Kontinuierung. In: Archivprozesse. Die Kommunikation der Aufbewahrung.
Hrsg. von Hedwig Pompe und Leander Scholz. Köln: Dumont, S.
297-315.WOOLFSON, Michael M. / PERT, G.J.
(1999) An Introduction to Computer Simulation. Oxford u. a.: Oxford
University Press. YALKUT, Jud (1973)
Understanding Intermedia. In: Avantgardistischer Film 1951 - 1971,
Theorie. Hrsg. von Gottfried Schlemmer. München: Hanser, S.
92-95.Abbildungen
[1]
Der vorliegende Aufsatz setzt einen früheren Text des Verfassers fort, vgl.
Schröter 1998. Wurde dort der Begriff ‚Intermedialität’
eher taxonomisch differenziert, geht es hier um Aspekte seiner historischen
Genese. Der vorliegende Text ist eine ausgearbeitete Fassung eines Vortrages,
der am 29.11.2002 auf der Jahrestagung des SFB 447 gehalten wurde. Ich
möchte mich beim SFB 447 für die Einladung und insbesondere bei Nadia
Ghattas und Prof. Dr. Sybille Krämer bedanken. Ich danke Bernhard Ebersohl
für Korrekturen und Esther Forst sowie den Zuhörern meines Vortrages
für hilfreiche Kritik.
[2]
Luhmann 1998,
531.[3]
Vgl. Dick Higgins 1984, 25 (oben wurde das Ersterscheinungsjahr des Textes, hier
das Jahr der Quelle zitiert – so wird ggf. auch im Folgenden verfahren)
und Hansen-Löve 1983. Das Wort ‚Intermedium’ lässt sich
– dort in anderem Sinn als heute – mindestens bis zu einem Text von
Coleridge aus dem Jahr 1812 zurückverfolgen, vgl. Müller 1998,
31.[4]
Vgl. Tholen 1999, 16 und 2002, 197
ff.[5]
Müller 1998, 32 und
37.[6]
Greenberg 1997, 267. Mit dieser Bevorzugung des ‚Reinen’ stellt sich
Greenberg explizit in die Tradition von Lessings Laokoon-Schrift (vgl. ebd.,
56-81), aber folgt auch formal-ästhetischen Positionen wie der Kants, der
z. B. die ‚reinen’ gegenüber den ‚unreinen’ Farben
bevorzugte, vgl. dazu Schröter
2000.[7]
Greenberg 1997,
454.[8]
Vgl. zu den immanenten Gründen DeDuve 1993,
193-276.[9]
Vgl. u. a. Dick Higgins’ Text Intermedia von 1965, Higgins 1984,
18-28.[10]
Vgl. Krämer
1996.[11]
Vgl Ceruzzi 2000,
25-34.[12]
Generell könnte man, mit Winkler 1997, 76, die Universalität der
universellen Maschine in Frage stellen. Und das ist mindestens in dem Sinn
richtig, dass die Universalität erstens nur bis zur Grenze dessen reicht,
was sich überhaupt formalisieren lässt. Und zweitens bestimmen die
Architektur und Geschwindigkeit der Hardware welche Formalisierungen
ausgeführt werden können. So hat gerade die von Neumann-Architektur
spezifische Limitationen: Zwischen dem Speicher und dem Central Processing
Unit gibt es in der Regel nur einen Datenbus, d. h. Programme werden strikt
sequentiell ausgeführt (so genannter ‚von
Neumann-Flaschenhals’). Diese Sequentialität verlangsamt die heute
zunehmend wichtigere Berechnung oder Verarbeitung höherdimensionaler Daten
wie z. B. von Bildern oder Netzwerktopologien bis zur Undurchführbarkeit.
[13]
Tholen 2002,
54.[14]
Vgl. Shannon
1938.[15]
Vgl. von Neumann
1945.[16]
Vgl. Noll 1967 a. Ein anderer früher Text, in dem der Computer
als
Kommunikationsmedium verstanden wird, ist
Licklider/Taylor
1968.[17]
Vgl. Noll 1967 b,
68.[18]
Vgl. Noll
1966.[19]
Was nicht bedeutet, dass die Ergebnisse beider Verfahren nicht kombiniert werden
könnten.[20]
Vgl. Eckl / Pütgens / Walter
1990.[21]
Neunzert 1995, 44. Zu den verschiedenen
Formen von Computersimulation vgl. Woolfson / Pert
1999.[22]
Vgl. Galison 1997, 689-780. Vgl. auch schon Raser 1972, der zahlreiche
Anwendungen der Simulation in Militär, Wissenschaft (auch und gerade
Soziologie!), Wirtschaft und Politik
vorstellt.[23]
Der Terminus virtual memory wird laut Oxford English Dictionary
1959 in einem Vortrag eingeführt, der im Rahmen der Eastern Joint
Computer Conference gehalten wurde, vgl. Cocke / Kolsky 1959. Allerdings ist
in diesem Text mit virtual memory etwas anderes gemeint als in der heute
üblichen Verwendung des Begriffs. Der Text von 1959 beschreibt als
look-ahead unit das, was man heute cache memory nennt – ein
kleiner Zwischenspeicher, der besonders schnell reagiert und vom Prozessor
häufig gebrauchte Daten
bereithält.[24]
Vgl. zum Folgenden Denning
1970.[25]
Der sowohl den realen Hauptspeicher als auch externe Hilfsspeicher (z. B.
Festplatten)
einschließt.[26]
Dieses Dispositiv der virtuellen Trennung von Form und Materie hat eine
Vorgeschichte, die bis zur Fotografie zurückreicht. So bemerkte schon 1859
Sir Oliver Wendell Holmes (1980, 119) über stereoskopische Bilder:
„Die Form ist in Zukunft von der Materie getrennt. In der Tat ist die
Materie in sichtbaren Gegenständen nicht mehr von großem Nutzen,
ausgenommen, sie dient als Vorlage, nach [der] die Form gebildet wird. Man gebe
uns ein paar Negative eines Gegenstandes, aus verschiedenen Perspektiven
aufgenommen – mehr brauchen wir nicht. Man reiße dann das Objekt ab
oder zünde es an, wenn man will.“ Zur historischen Verzahnung von
Fotografie und Computern siehe Batchen 2001.Die
Ablösung von der Materialität bezieht sich bei Rechnern nur auf das
virtuelle Objekt im Verhältnis zum Realobjekt, nicht aber auf die Hardware,
die jedem Rechenprozess zugrunde liegt und durch ihre Leistungsgrenzen die
Möglichkeiten der Simulation beschränkt.
[27]
Deleuze 1997, 264 und ebd.: „Das Virtuelle muss selber als ein strikt dem
Realobjekt zugehöriger Teil definiert werden – als ob das Objekt
einen seiner Teile im Virtuellen hätte und darin wie in einer objektiven
Dimension eingelassen wäre“ – diese objektive Dimension ist die
der mathematischen Formalisierbarkeit! Mithin steht das Virtuelle anders als das
Fiktive nicht dem Realen gegenüber, sondern dem Aktuellen. Die
Unterscheidung real/fiktiv und die Unterscheidung aktuell/virtuell liegen quer
zueinander, vgl. Esposito
1998.[28]
Vgl. Mitchell 1992,
117-135.[29]
Von Montageregeln etc. beim Film sei hier
abgesehen.[30]
Vgl. Newell / Blinn 1977,
445/446.[31]
Vgl. Potmesil / Chakravarty 1982; 1983.
[32]
Vgl. Geigel / Musgrave
1997.[33]
Vgl. Foley et al.
1990.[34]
Tholen 1999, 16 und
22.[35]
Vorausgesetzt man kann sich darüber einigen, ob Medien Spezifika haben und
welche diese genau wären, vgl. Carroll
1984/85.[36]
Vgl. http://www.propellerheads.se (Letzter Zugriff März 2003). Mit Dank an
Niels
Schröter.[37]
Kittler 1986, 7; Hervorheb.,
J.S.[38]
Spielmann 1995,
117.[39]
Vgl. Born
2000.[40]
Spielmann 1998, 9; Hervorheb., J.S. Vgl. die Kritik an derartigen
„Unifizierungsphantasien“ bei Winkler 1997, 55-64 und
75-80.[41]
Kittler 1986,
8/9.[42]
Ebd., 7. Die Formulierung impliziert die Differenz verschiedener Medien-Formen
auch im gesampelten oder simulierten
Zustand.[43]
Yalkut 1973,
94.[44]
Noll 1967 a, 93; Hervorheb., J.
S.[45]
Kittler 1999,
65.[46]
Vgl. Hansen-Löve 1983, 321. Die Annahme vorgängiger
Intermedialität ist nicht die eines ‚Supermediums’, welches aus
der ‚Verschmelzung’ der bisherigen Medien hervorgeht. Umgekehrt ist
es die einer ‚potentiellen Medialität’, die erst zu
spezifischen Medien konfiguriert
wird.[47]
Greenberg 1997,
267.[48]
Vgl. schon 1965 Higgins 1984, 18/19, der Monomedien als ideologische Konstrukte
begreift und weiterhin Carroll 1985. Dies gilt dann rückblickend auch
für Greenbergs Privilegierung der amerikanischen, abstrakten
Nachkriegsmalerei, deren Verwicklung in die Logik des Kalten Krieges durch seine
ontologische und teleologische Berufung auf die Medienspezifik geradezu
verschleiert worden war, vgl. dazu Cockroft
1974.[49]
Vgl. Newell / Blinn 1977,
444.[50]
Mit Dank an Dennis
Vollmer.[51]
Kittler 1993, 8. Diese Definition von Medium ist offensichtlich selbst dem
Computer abgelesen, vgl. Winkler 1997,
83.[52]
Kittler 1986,
9.[53]
Ebd., 8; Hervorheb,
J.S.[54]
Krämer 1998 a,
83.[55]
Siehe die schon oben erwähnten Arbeiten von Potmesil / Chakravarty von 1982
und 1983 und darüberhinaus Reeves 1983, der das damals neuartige Verfahren
der Partikelsynthese entwickelte, welches in dem populären Film Star
Trek II – The Wrath of Khan (USA 1982, Nicholas Meyer) seine erste
‚Demo’
erlebte.[56]
Vgl. Ceruzzi 2000,
254-280.[57]
Vgl. Luhmann
1986.[58]
Krämer 1998 a,
76.[59]
Vgl. Dotzler
1999.[60]
Luhmann 1993,
356.[61]
Vgl. Luhmann 1998,
309/310.[62]
Ebd.,
199.[63]
Zur Zeit arbeitet der Verfasser im Rahmen des FK 615 an der Universität
Siegen in einem von der Kunstgeschichte der Universität Siegen initiierten
Projekt, das in Zusammenarbeit mit der Villa Borghese, Rom und dem
Fraunhofer-Institut für Medienkommunikation, St. Augustin den
Möglichkeiten der Virtualisierung von Skulptur nachgeht. Vgl.
http://www.fk615.uni-siegen.de/Projekte/ProjektB7.html (Letzter Zugriff
März
2003).[64]
Krämer 1998 b,
565/566.[65]
Luhmann 1997,
168/169.[66]
Kittler 1998, 131.
[67]
Butler 1997,
32.[68]
Ebd., 345.
[69]
Ebd., 39. Vgl. Winkler 2002, der Technik als tradierende Sedimentierung –
er sagt ‚Niederlegung’ – von Diskursen
beschreibt.[70]
Vgl. Butler 1997, 23, 29, 57 und
passim.[71]
Vgl. Schröter 1998,
136-143.[72]
Vgl. Krauss 2000, 30-32 zum Zusammenhang zwischen dem ‚Ende des
Modernismus’ und der Ausbreitung von Video. Dabei spricht sie explizit von
der ‚post-medium condition’ in der sich die Kunst heute
befindet![73]
Worauf möglicherweise bereits die oben schon erwähnte Strömung
der so genannten ‚fotorealistischen Malerei’
vordeutet...[74]
Brüse 1994, 61.
|
|
|
|