Jens Schröter


Intermedialität, Medienspezifik und die universelle Maschine.[1]


Die Beobachtung funktionierender Technik
ist eine wichtige Quelle für Ideen...

Niklas Luhmann.[2]


0. Einleitung

Zwei Beobachtungen stehen am Anfang der vorliegenden Überlegungen: Erstens ist der Begriff der „Intermedialität“ seit Anfang der neunziger Jahre des letzten Jahrhunderts zunehmend gebräuchlicher geworden. Er scheint erstmals 1981 von Dick Higgins und im deutschen Sprachraum 1983 von Hansen-Löve in einem Aufsatz zum Verhältnis von Wort und Bild in der russischen Kunst der Moderne verwendet worden zu sein.[3] Die bald darauf einsetzende Verbreitung verrät eine zunehmende Aufmerksamkeit dafür, dass Medien stets in komplexen medialen Konfigurationen befindlich sind. An sich ist das keine neue Erkenntnis. So waren Konzepte wie das ‚Gesamtkunstwerk’ oder die ‚wechselseitige Erhellung der Künste’ schon viel länger bekannt. Allerdings werden die intermedialen Beziehungen in jüngerer Zeit immer weniger (wie noch bei Hansen-Löve) als intendierte Strategien im Dialog der Künste, sondern eher als unvermeidliche, grundlegende Phänomene aufgefasst. Dabei überschreitet ‚Intermedialität’ die Felder der ‚Intertextualität’ oder ‚Interdiskursivität’, d. h. der Semantik und des Diskursiven. Vielmehr gerät die Ebene der materiellen Medien(spezifika) selbst in den Verdacht, immer schon von Querverbindungen – jenseits bloßer technischer Verwandtschaften – kontaminiert zu sein.
Die zweite Beobachtung ist, dass sich etwa im selben Zeitraum die Vorstellung ausbreitete, die getrennten Medien würden bald im ‚Universalmedium Computer’ aufgehen. Folgt daraus, dass es schon wieder sinnlos geworden ist von Intermedialität zu sprechen, da es keine differenten Entitäten mehr gibt, zwischen denen eine solche stattfinden könnte? Oder müsste – mit Tholen[4] – vielmehr vermutet werden, dass die wachsende Aufmerksamkeit für das Intermediale eine Begleiterscheinung der Diffusion der universellen Maschine Computer ist? Tatsächlich sieht Jürgen E. Müller das „zunehmende Interesse für die Intermedialität [...] zweifellos“ durch die „historische [...] Entwicklung medialer Apparate (die zum digitalen Schein der postmodernen Hybrid-Medien geführt hat)“ angestoßen.
Er führt noch ein weiteres, damit nicht direkt verbundenes Argument an: „Den entscheidenden Anstoß zum Formulieren dieser Position [also der Aufmerksamkeit für das Intermediale, J.S.] haben zweifellos postmoderne Kunstprodukte geliefert, die sich als zu unbotmäßig und zu sperrig gegenüber den eindimensional zugeschnittenen Medien-Theorien und -Methoden erwiesen.“[5] Dieses Argument ist allerdings problematisch, denn entgegen Müllers Annahme, dass Kunstprodukte die Theorie zur Abkehr vom Monomedialen zwangen, gibt es auch den umgekehrten Fall. So haben ästhetische Theorien Kunstprodukte immer wieder kritisiert, gerade weil sie nicht ‚rein’ und medienspezifisch waren. Der modernistische Diskurs Clement Greenbergs, der die amerikanische Nachkriegskunst bis in die späten sechziger Jahre dominierte, ist ein Beispiel dafür. In seinem Aufsatz Modernist Painting von 1960 betonte er, dass der „Gegenstandsbereich jeder einzelnen Kunst genau das ist, was ausschließlich in dem Wesen ihres jeweiligen Mediums angelegt ist“.[6] Greenberg bevorzugte die abstrakten, amerikanischen Nachkriegsmaler (Pollock, Newman, Rothko, Still), weil diese sowohl Farbe als auch Flächigkeit als Grundkonstituenten der Malerei in den Mittelpunkt ihrer Arbeit gerückt hatten. Noch 1981 verdammte er in seinem Artikel Intermedia die „intermediale Kunst“ als „Niedergang des Geschmacks“.[7] Mindestens in diesem Fall ließ sich die Theorie keineswegs von ‚postmodernen Kunstprodukten’ irritieren. Also müsste man eher fragen, wie es – aus immanenten und/oder exogenen Gründen – dazu kam, dass sich die Kunst selbst von Greenbergs Modernismus abgewandt hat.[8] Obwohl diese Abwendung der Kunst vom monomedialen Purismus ab Mitte der Sechziger Jahre, wobei im Zusammenhang mit Fluxus der Begriff ‚Intermedia’ auftauchte[9], für genauere Beschreibungen einer Genealogie der Intermedialität erforderlich wäre, soll Müllers’ Hinweis auf die ‚postmodernen Kunstprodukte’ nicht weiter verfolgt werden.
Hier steht die von Müller genannte ‚Entwicklung medialer Apparate (die zum digitalen Schein)’ geführt habe, das heißt das Auftauchen des Computers als Medium im Mittelpunkt. Die Frage ist, ob und wenn ja, wie dieser Leitbildwechsel[10] das Konzept der Medien vom Spezifischen zum Intermedialen verschoben hat.

1. Das ‚Universalmedium Computer’. Sampling, Simulation, Virtualität.

Im Zusammenhang mit den Berechnungen für die Entwicklung der Atom- und dann der Wasserstoffbombe entstand um 1945 die so genannte von Neumann-Architektur. Der bis dahin verfügbare Computer, der ENIAC, war zu langsam. Da die Programme nicht von ihm selbst gespeichert wurden, musste die Maschine für jedes neue Problem umgebaut und neu verschaltet werden. Die Lösung war eine Maschine, die die Instruktionen neben den Daten im selben elektronischen Speicher aufbewahren konnte: Dieses stored program-Prinzip, mit dem die heute selbstverständliche Unterscheidung in Software und Hardware eingeführt wurde, ist eine grundlegende Komponente der von Neumann-Architektur. Von Neumann selbst hob hervor, dass der EDVAC, der erste Rechner mit der neuen Architektur, fast eine Allzweck-Maschine sei. Darin lag auch das Geheimnis des kommerziellen Erfolgs der nachfolgenden und derselben Architektur verpflichteten Großrechner (wie z. B. dem UNIVAC), denn sie konnten von verschiedenen Kunden zu verschiedenen Zwecken eingesetzt werden.[11] Und noch heute basieren fast alle Computer auf der von Neumann-Architektur.
Weil von Neumann-Maschinen programmierbar sind, können sie als universelle Maschinen bezeichnet werden, d. h. sie können im Prinzip alles ausführen und darstellen, was sich mathematisch-algorithmisch beschreiben lässt.[12] Und weil sie universell sind, müssen sie für jede konkrete Anwendung spezifiziert werden: So stehen Computer in verschiedenen diskursiven Praktiken im Rahmen je unterschiedlicher und bisweilen auch konfligierender Metaphorisierungen, die beschreiben, wozu die programmierbare Maschine nützlich sein soll, ja „das digitale Medium ek-sistiert nur in seiner vielgestaltigen Metaphorizität.“[13] In Folge solcher manchmal impliziter Leitbilder werden Computer (im Rahmen des technisch Möglichen) mit je anderer Hardware, den keineswegs bloß sekundären ‚Peripherien’, verbunden und mit je anderer Software programmiert. Programmroutinen, die in einer spezifischen diskursiven Praxis zentral sind, können wiederum buchstäblich sedimentieren, denn jede Software kann als Verschaltung logischer Gatter zu Hardware werden, wie Shannon schon 1938 bewiesen hatte.[14] Solche Entwicklungen sind heute als special purpose chips alltäglich.

Es gibt viele Beispiele für folgenreiche Metaphorisierungen der universellen Maschine: Bekannt ist etwa die Beschreibung des Rechners als ‚Elektronengehirn’, die schon auf von Neumanns ersten Text zu seiner neuen Architektur zurückgeht und in den fünfziger Jahren eine große Rolle spielte.[15] Heute ist der in den sechziger Jahren beginnende Leitbildwechsel zum Computer als Medium von größerem Interesse – paradigmatisch hierfür ist u. a. Michael Nolls Text The Digital Computer as a Creative Medium von 1967.[16]

Abbildung 1, Titelblatt von Michael Nolls, The Computer as a Creative Medium, 1967.

Schon bald zeigte sich, dass eine Besonderheit dieses neuen Mediums darin bestand, auf Grund seines mathematischen Charakters andere Medien nachahmen zu können. In den Sechziger Jahren wurde diese Fähigkeit zunächst an relativ einfach zu simulierenden Darstellungen erprobt – der geometrisch-konstruktiven Malerei.[17] Ein Beispiel dafür ist, dass Noll einen echten und einen computererzeugten Mondrian einander gegenüberstellte (Abb. 2, 3).

Abbildung 2, Piet Mondrian, Komposition mit Linien, 1917, aus: Piehler 2002, Abb. 44.


Abbildung 3, Michael Noll, Computer Composition with Lines, 1964, aus: Piehler 2002, Abb. 45.

Letzterer basierte auf angenäherten Verteilungswerten für Länge, Dicke und Dichte der Balken des echten Mondrians. Übrigens stellte Noll durch eine Art ästhetischen Turing-Test fest, dass die Mehrheit der Betrachter das Computerbild für den echten Mondrian hielt.[18]

Es gibt zwei grundsätzlich verschiedene Verfahren, mit denen Rechner die bisherigen Medien beerben können[19]: Erstens das Sampling, also die Überführung von Analog- in Digitaldaten mit Hilfe von Analog/Digital-Wandlern. Das Sampling erlaubt die digitale Abbildung von frequenzbandbegrenzten Signalen und ermöglicht es durch Digital/Analog-Wandlung, einen Output zu erzeugen, der von dem des Quellmediums kaum unterschieden werden kann. Es liegt z. B. allen Scannern, mit denen z. B. Fotos abgetastet und so ‚digitalisiert’ werden können, zu Grunde.[20] Es ist für die Diskussion über Intermedialität jedoch nicht sehr interessant, da es sich bei der Digitalisierung letztlich nur um eine Repräsentation eines Mediums durch ein anderes Medium handelt – vergleichbar etwa der Darstellung eines Gemäldes in einem Film.
Das viel bemerkenswertere Verfahren ist zweitens die Simulation. Bei Simulationen muss „der reale Prozeß [...] in Mathematik abgebildet werden, um dann mittels Algorithmen im Rechner simuliert werden zu können“.[21] Aus Messdaten aller Art und aus diesen abgeleiteten, mathematisch formulierbaren Gesetzmäßigkeiten über das Verhalten des Objektes oder Prozesses werden mathematische Modelle konstruiert, die das Objekt bzw. den Prozess mit mehr oder weniger großer Annäherung beschreiben (wie bei Nolls Computer Composition with Lines). Simulation war die erste Anwendung des ENIAC und diente zur Berechnung der Wasserstoffbombe. Im Übrigen wären heute ohne die Hilfe solcher Simulationen viele Formen von Wissenschaft, wie z. B. die Teilchenphysik, aber auch ökonomische und politische Planungen nicht möglich.[22]

Simulationen basieren auf mathematischen Modellen, d. h. virtuellen Objekten. Zur Verdeutlichung sei kurz das Auftauchen und die Verwendung des Begriffs des ‚Virtuellen’ im Diskurs der Informatik umrissen, wo ‚virtuell’ zuerst im Kontext der Forschung an virtuellen Speichern (virtual memory) verwendet wurde.[23] Spätestens ab 1962 nimmt virtual memory die heute geläufige Bedeutung an: Das Hauptproblem elektronischer Computer war, dass Speicher mit kurzer Zugriffszeit teuer waren. Folglich mussten aktuell nicht benötigte Informationen aus dem Hauptspeicher (main memory) in Hilfsspeicher ausgelagert werden - Speicherallokation bezeichnet den Prozess, durch den entschieden wird, welche Daten aktuell im Hauptspeicher benötigt werden und welche in Hilfsspeicher ausgelagert werden können. Als Mitte der fünfziger Jahre höhere Programmiersprachen zum Einsatz kamen und die Programme komplexer wurden, stellten sich die bis dahin bestehenden manuellen Verfahren als Hemmnis heraus. Es gab eine Reihe von Lösungsvorschlägen, von denen sich letztlich das Konzept des virtual memory durchsetzte.[24] Dabei handelt es sich um ein automatisches Verfahren der Speicherallokation, das zum ersten Mal im 1961 entwickelten Atlas-Computer zum Einsatz kam. Virtuelle Speicher erzeugen die Illusion eines großen, verfügbaren Speichers. Das Computersystem ordnet, für den Programmierer unmerklich, den virtual addresses mit Hilfe einer address-translation function die realen Adressen im memory space[25] zu. Virtuelle Speicher operieren also auf der Basis der Trennung des logischen Adressraums vom materiellen Speicherraum. Diese Trennung von (logischer) Struktur und materiellem Substrat – man mag fast sagen: von Form und Medium (s. u.) – ist der Kern des Virtuellen, zumindest im Diskurs der Informatik.[26] Mit Deleuze könnte formuliert werden: „Die Struktur ist die Realität des Virtuellen.“[27] Die Simulation eines Mediums hieße dann, dessen Struktur oder Form, abgelöst von seiner Materie, als mathematisches Modell im Rechner abzubilden.

2. Ein Beispiel: Computergrafischer Fotorealismus.

Eine derartige Virtualisierung älterer Medien durch Computer ist jederzeit im Special Effects-Kino Hollywoodscher Provenienz zu bestaunen: Und zwar in Form des computergrafischen Fotorealismus, d. h. von generierten Bildern, die hinsichtlich ihrer Bildlichkeit von fotografischen und filmischen Bildern kaum oder nicht unterschieden werden können. Fotorealistische Grafik ist insofern Simulation, als die Eigenschaften (bestimmter Ausprägungen) von Fotografie und Film empirisch vermessen und diese Daten den Rechnermodellen zu Grunde gelegt werden. Das Fotografische des Fotorealismus ist also keineswegs nur rhetorisch in dem Sinne, dass oberflächliche Zeichen der Fotografie nachgeahmt werden – wie z. B. in der künstlerischen Strömung der ‚fotorealistischen Malerei’, die etwa zeitgleich mit den ersten fotorealistischen Bemühungen der Computergrafiker entstand.

Abbildung 4, Richard Estes, Rappaports Pharmacy, 1976.

Vielmehr werden die Eigenschaften der fotografischen (und auch kinematographischen) Apparate simuliert. Das heißt, eine virtuelle Kamera ist eine wirkliche Kamera – nicht bloß eine scheinhafte Imitation oder gar bloße Fiktion. Sie kann je nach Maßgabe der zur Verfügung stehenden Daten immer mehr ihrem materiellen Vorbild angenähert werden. Eine virtuelle Kamera ist sozusagen die logische Struktur einer Kamera – abgelöst von jeder realen Kamera-Materie. Diese virtuelle Kamera wird nun benutzt, um ein virtuelles Objektfeld, das von einer virtuellen Lichtquelle beleuchtet wird, virtuell zu fotografieren.[28]

Abbildung 5, Schema der virtuellen Kamera, aus Binkley 1993, 104.

Virtuelle Fotografien oder Filme folgen in Hinsicht auf ihre Bildlichkeit[29] mithin den spezifischen Charakteristika der chemischen Fotografie, von denen hier nur drei benannt werden sollen – Fotogramme ausgenommen: Erstens der Reichtum an unintendierten Details, die ein wichtiger Bestandteil des fotografischen Realitätseffekts (Barthes) sind. Viele generierte Grafiken werden gerade deshalb als noch nicht ‚realistisch’ genug eingestuft, weil sie zu ‚clean’ erscheinen, also zuwenig Kratzer, Flecken u. ä. auf den Oberflächen aufweisen.[30] Zweitens sind die durch die Kameraoptik bedingten Effekte zu nennen, vor allem die Bildorganisation gemäß den Regeln der Zentralperspektive. Computergenerierte Bilder könnten als mathematische Gebilde auch jeder anderen Projektion gehorchen, folgen aber, wenn sie fotorealistisch sein sollen, der durch Fotografie und Film tradierten perspektivischen Organisation. In der computergrafischen Forschung wird überdies angestrebt, nicht nur die perspektivische Projektion, sondern die spezifischen Effekte der Kameras, wie die empirisch messbaren Verzerrungen und Schärfeneffekte von Linsen und Blenden oder die von der Verschlusszeit abhängige Bewegungsunschärfe (motion blur), d. h. das Verwischen von schnell bewegten Objekten, zu simulieren.[31] Drittens sind es die Eigenschaften der fotografischen Emulsion selbst, z. B. die körnige Struktur des Bildes insbesondere bei Vergrößerungen oder sehr lichtempfindlichen Filmen, die man in der fotorealistischen Computergrafik virtuell zu modellieren sucht.[32]

Abb. 6 ist aus einem Standardwerk zur Computergrafik.[33] Ein Foto einer Szene wird mit einer gleichartigen, berechneten Szene verglichen – quod erat demonstrandum.

Abbildung 6, Fotografie und fotorealistisches Bild, aus Foley et al. 1990, Plate III. 19.

Wie am Beispiel des Fotorealismus deutlich wird, spricht Tholen zurecht von der „medienunspezifischen Darstellbarkeit von medienspezifischen Darstellungsweisen“ als einem charakteristischen Zug der „mediale[n] Nicht-Koinzidenz des digitalen Mediums mit sich selbst.“[34] Die selbst unspezifischen Computer können mathematisch alle formalisierbaren Medienspezifika[35] approximativ simulieren, dadurch von ihren materialen Bedingungen ablösen und archivier-, kombinier- und transformierbar machen. Das zeigt sich z. B. auch im Bereich des Computers als Tonmedium: Eine der bei den Anhängern der neuen elektronischen Tanzmusik äußerst beliebte Software ist Reason, die virtuell zahlreiche legendäre Synthesizer, Drumcomputer etc. simuliert, virtuell verkabel- und verschaltbar macht.[36]

Virtuelle Fotografie kann – nach Shannon – selbst wieder Hardware werden: Ein Beispiel ist die von der Film- und dann Computerspielindustrie geförderte Entwicklung von Grafikchips, in denen Algorithmen für die fotorealistische Generierung von Bildern in Hardware gegossen und so beschleunigt werden. Fotografische Bildformen und ihre Bildlichkeit werden so bis in die Hardware verfestigt und damit tradiert (das gilt auch für die auf Sampling beruhenden, handelsüblichen Digitalkameras). Keineswegs führt die ‚digitale Revolution’ nur – wie eine modische Floskel lautet – das ‚Ende des fotografischen Zeitalters’ herbei, vielmehr macht sich die immer noch sehr fotografische Gegenwart auch die programmierbaren Maschinen zurecht.

3. Das Verschwinden der Medien?

Nur ein Jahr nach Hansen-Löves anfänglich genanntem Text zur Intermedialität von 1983 kam der Apple MacIntosh als erster Rechner mit einer grafischen Oberfläche auf den Markt – damit begann erst langsam, dann immer rasender die Ausbreitung von Computern, deren Potentiale zur Simulation und zum Sampling stets zunahmen. So entstand bald – und etwa zeitgleich mit dem Diskurs zur Intermedialität – die Vorstellung, im Universalmedium Computer verschwänden die Einzelmedien. So heißt es in Kittlers Grammophon Film Typewriter von 1986:

„In der allgemeinen Digitalisierung von Nachrichten und Kanälen verschwinden die Unterschiede zwischen einzelnen Medien. Nur noch als Oberflächeneffekte [...] gibt es Ton und Bild, Stimme und Text. [...] Und wenn die Verkabelung bislang getrennte Datenflüsse alle auf eine digital standardisierte Zahlenfolge bringt, kann jedes Medium in jedes andere übergehen. [...].“[37]

Daraus kann dann „das langsame Verschwinden des Intermedialen im Paradigma des Digitalen“[38] abgeleitet werden. Allerdings betont Kittler doch, dass es die verschiedenen Medien noch als unterscheidbare Effekte auf einer multimedialen Oberfläche gibt. Überdies existieren für Bild-, Film-, Ton- und Schriftfiles ganz verschiedene Datenformate.[39] Von einer – im übrigen kaum vorstellbaren – totalen Einebnung der Differenz zwischen verschiedenen medialen Formen, davon dass „mittels Computertechnik alle Medien zu einem allgemeinen Supermedium verschmelzen[40], kann keine Rede sein. Vielmehr existieren durch Sampling und Simulation die Spezifika der verschiedenen Medien abgelöst von ihrer technischen Materialität als virtuelle Form auf derselben Basis des digitalen Codes.

4. Intermedialität und Monomedien.

Für Kittler sind die einzelnen Medien unter Computerbedingungen folglich „begrenzte Fenster [...] [i]m Spektrum des allgemeinen Datenflusses“[41], so dass „jedes Medium in jedes andere übergehen“[42] kann. Außerdem können die virtualisierten Medien, wie am Beispiel des zu Grafikkarten sedimentierten Fotorealismus deutlich geworden sein dürfte, durch die Herstellung entsprechender special purpose chips selbst zu physisch separaten ‚Neuen Medien’ (WAP-Handys, UMTS-Handys, CD, CD-RW, MP3-Player, DVD-Player etc.) werden. Diese sind Ausdifferenzierungen der dispersiven Turing/von Neumann-Maschine, zwischen denen auf Grund ihres gemeinsamen digitalen Basiscodes buchstäbliche Anschlusskommunikationen möglich sind – sie können von Fall zu Fall direkt verkabelt werden. Der Eindruck von Intermedialität drängt sich zunächst also dadurch auf, dass neben der Kopräsenz verschiedener Formate auf einer Oberfläche handelsüblicher PCs verschiedene ‚Neue Medien’ relativ umstandslos zu multimedialen Medienverbünden vernetzt werden können.
So begünstigt die Virtualisierung der Medien intermediale Künste: Der Fluxus-Künstler Jud Yalkut hatte sich in seinem Text Understanding Intermedia 1973 noch beklagt: „Allein die Beschwerlichkeit und Umständlichkeit, die mit dem Gebrauch der gegenwärtigen Instrumente und Ausrüstungen verbunden ist (Filmprojektoren, Lichtapparaturen, elektronische Apparate), bestimmt die Beschaffenheit und den Umfang der Intermediadarbietungen im Augenblick.“[43] Die widerspenstige Materialität der elektronischen Apparate fällt jedenfalls teilweise weg, sobald viele der Instrumente und Ausrüstungen virtuell simuliert oder zumindest weniger umständlich über eine zentrale Instanz, den Computer, gesteuert und koordiniert werden können. Noll hatte schon früh zum Computer bemerkt: „This is an active medium with which the artist can interact on a new level, freed from many of the physical limitations of all other previous media.[44] Die Ausbreitung der Computer und die Hinwendung der Kunst zu intermedialen Strategien sind etwa zeitgleich und – das ist das Mindeste, was man sagen kann – ergänzen sich hervorragend.

Doch die Effekte der Virtualisierung gehen darüber hinaus: Kittler bezeichnet es als „Euphemismus, von Neuen Medien im Plural zu reden“, wo es doch nur „ein einziges neues Medium, nämlich Digitalcomputer gibt“.[45] Umgekehrt könnte man genauso formulieren, dass es problematisch ist, von ‚dem’ Computer im Singular zu sprechen. Der dispersive Computer – es wurde gesagt – wird je anders metaphorisiert, programmiert, mit anderen Peripherien verschaltet, um ein jeweils anderes ‚Neues Medium’ (oder andere Maschinen) hervorzubringen. Der Computer im ‚Reinzustand’ ist kein Medium insbesondere, enthält aber potentiell jedes Medium approximativ. Legt auf diese Weise der Computer nicht nahe, dass es ein unspezifisches, inter- bzw. protomediales Feld gibt, das sich jeweilig zu ‚spezifischen’ Medien kristallisiert? So kann Intermedialität zunehmend als vorgängig, als ursprünglicher als die spezifischen Monomedien erscheinen, was schon 1983 Hansen-Löve vermutet hatte – wenn auch ohne direkte Bezugnahme auf zeitgenössische intermediale Kunst oder gar Computer.[46] Wenn aber keine monomedialen Aprioris mehr vorausgesetzt werden können, müssen die Monomedien letztlich Ergebnisse von Purifikationsprozeduren, von Einschnitten und Eingrenzungen sein. Seit der Ausbreitung des universellen Mediums erscheint jede Berufung auf das „Wesen [des] Mediums“[47] als ontologisierende, naturalisierende Rechtfertigung einer durch kontingente Faktoren bedingten Form.[48]

Die ‚Neuen Medien’ sind temporäre Programmierungen und Verschaltungen einer digitalen Elektronik mit keineswegs rein zusätzlichen, sondern jeweils wesentlichen ‚intermedialen’ Peripherien – so wie es den Computer als Bildmedium eben nur mit den gerade verfügbaren Grafikkarten, Monitoren, Scannern, Printern gibt. Oft haben diese konstellativen Anordnungen die Funktion, traditionelle Medien zu substituieren, so wie z. B. die CD die Vinylplatte, später die Digitalkamera die Super-8-Kamera ersetzt hat. Der temporäre, nicht-essentielle Charakter der ‚Neuen Medien’ zeigt sich an der ständigen und offenkundig allen Phantasien eines digitalen Verschmelzens der Medien widersprechenden Proliferation immer neuer Techniken, Formate und Konstellationen, die oftmals nur eine kurze Halbwertszeit besitzen – Beispiele wären das DAT oder das Tamagotchi, ganz zu schweigen von den schon beim Kauf tendenziell veralteten ‚Multimedia PCs’ und Softwarepaketen.
Die industriell fixierten Standards der digital basierten ‚Neuen Medien’ sind ursprünglich oft militärisch und/oder ökonomisch motivierte Spezialisierungen, Zurechtmachungen (Nietzsche) der universellen Maschine. Das zeigt sich auch am oben diskutierten Fotorealismus: Ab den späteren siebziger Jahren wird die Forschung an realistischer Computergrafik immer weniger vom Militär, das realistische Grafiken für Flugsimulatoren benötigte[49], sondern in steigendem Maße von der Filmindustrie gefördert. Zum Beispiel geht 1979 Edwin Catmull, einer der führenden Entwickler von Computergrafik in den siebziger Jahren, der zuvor direkt oder indirekt für das Militär gearbeitet hatte, zu Lucasfilm, um dort die Computer Graphics Division zu leiten. Für zahlreiche militärische Applikationen ist fotorealistische Grafik gar nicht geeignet, weil sie zu viele Informationen liefert, weshalb oft komplexitätsreduzierte Displays zum Einsatz kommen.

Abbildung 7, Komplexitätsreduziertes militärisches Pilotendisplay.

Wenn hingegen generierte Bilder als special effect in einen Film oder auch in eine Print-Werbung eingefügt werden sollen – es sei denn die Künstlichkeit der Bilder ist narrativ motiviert – müssen sie ausreichend vom fotografisch-filmischen Kontext ununterscheidbar sein. Inzwischen werden die meisten Fortschritte der fotorealistischen Computergrafik durch die Film-, aber auch Computerspiel-Industrie angestoßen.

Abbildung 8, Werbung für fotorealistische Grafik in Computerspielen und durch Grafikkarten (‚ELSAs Grafik-Know-how mit GeForce Chiptechnologie bringt Ihnen Spiele näher, als es Ihnen vielleicht lieb ist. So realistisch und authentisch, dass es von der Wirklichkeit kaum noch zu unterscheiden ist.’).[50]

Es drängt sich die Frage auf, mit welchem theoretischem Ansatz sich die Einrichtung der – auch zeitlich, d. h. von ihrer Lebensdauer – ‚begrenzten Fenster’ der Neuen Medien beschreiben lässt.

5. Virtualität und Medientheorie. Performative Formungen der dispersiven Maschine.

Zunächst sei die These, dass Intermedialität in dem Moment (etwa ab Mitte der achtziger Jahre) in den Blick rückt, in dem Medien nicht mehr als bestimmte Materien mit exakt spezifizierbaren Eigenschaften sein müssen, theoriehistorisch kontextualisiert. Sie erscheint dabei sofort als problematisch, denn offenkundig ist, dass seit Mitte der achtziger Jahre mehr und mehr von der ‚Materialität der Kommunikation’ gesprochen wurde. Im Anschluss an Nietzsche, Benjamin, McLuhan, Innis und andere wurden die Medientechnologien und ihre Eigendynamiken vor allem in den Arbeiten Kittlers als bislang verdrängtes Forschungsfeld entdeckt. Aber der Rekurs auf die Spezifik von Medientechniken und ihre verschiedenen Weisen der „Übertragung, Speicherung und Verarbeitung von Information“[51] führt paradoxerweise gerade dazu, dass der Medien „elektronisches Ende“[52] in der Nicht-Spezifik des kommenden Universalmediums angenommen werden muss. Nur solange Kittlers Satz „Noch gibt es Medien“[53] gilt – so könnte man überpointiert sagen – gibt es noch Diskurse über diese getrennten Medien. Oder vielleicht ist gerade das Gegenteil richtig: Wenn z. B. gilt, dass die „Aufmerksamkeit [...] für das mediale Phänomen der Schriftlichkeit geboren sein könnte aus der Einsicht in ihren drohenden Funktionsverlust“[54], dann mag ebenso stimmen, dass technikhistorische Medienwissenschaft in dem Moment anhebt, in dem spezifische Medientechniken historisch werden. Das zeigt sich kaum deutlicher als bei Kittler selbst. Als 1986 sein Grammophon Film Typewriter erschien, war das Grammophon bzw. der Plattenspieler gerade fünf Jahre obsolet geworden (1981 Vorstellung der CD) – sieht man von seiner Nischen-Fortexistenz in der DJ-Culture ab. In den frühen achtziger Jahren wandte sich die Filmindustrie der Förderung und Entwicklung jener oben skizzierten fotorealistischen Bildverfahren zu, die das Medium Film durchdringen und bald praktisch ersetzen würden[55] – siehe als beeindruckendes Beispiel den 1997 erschienenen Film Titanic (James Cameron), in dem die Hintergründe vieler Szenen visuell unmerklich computergeneriert sind. Und der Typewriter begann schon seit den späten siebziger Jahren von Office-Personalcomputern abgelöst zu werden.[56]

Im selben Jahr (1986) als Kittler das kommende Ende der Medien in dem einen Medium Computer mutmaßt (und auch zurücknimmt), publiziert Niklas Luhmann seinen Aufsatz Das Medium der Kunst. In diesem wurde seine Unterscheidung von Medium/Form eingeführt.[57] Das Medium Luhmanns ist keine spezifische Materialität, sondern eine unterbestimmte Ansammlung lose gekoppelter Elemente, die durch sich temporal ablösende Formen strikt gekoppelt werden. Diese funktionale und abstrakte Beschreibung lässt sich praktisch universell anwenden. Er teilt folglich die „Auffassung von der Technik als Urszenerie des Medialen [...] gerade nicht.“[58]
Dies legt einen Gedanken nahe, dem Bernhard Dotzler durch eine Analyse der Herkunft der Systemtheorie aus der Kybernetik Wort verliehen hat.[59] Die Idee eines selbst leeren und daher unbeobachtbaren Mediums als – wie Luhmann bezeichnend formuliert – „reine Virtualität“[60], das durch sich ablösende Formen strikt gekoppelt, man mag fast sagen programmiert[61] wird, könnte sich selbst dem historischen Auftauchen des Computers verdanken – unabhängig davon, dass die Inspiration für dieses Konzept ursächlich von Fritz Heider stammt. Nicht umsonst nennt Luhmann Computer „unsichtbare Maschinen“ und vergleicht den Prozess der Medium/Form-Kopplung explizit mit der „von Neumann-Maschine.“[62] Zeitgleich mit dem tendenziellen Verschwinden der spezifischen Medientechniken durch Virtualisierung entsteht also ein technisch unspezifischer Medienbegriff.
Aber selbst wenn man der starken These vom Computer als einer Bedingung des Luhmann’schen Medienbegriffs nicht folgen will, bleibt zu sagen, dass die systemtheoretische Medientheorie operationale Begrifflichkeiten zur Verfügung stellt. Gerade weil das Medium bei Luhmann keine fixe Materialität, sondern eine – beobachterrelativ – stärker oder loser gekoppelte Menge von selbst beobachterrelativen Elementen ist, kann eine Form selbst ein Medium für weitere Formen bzw. ein Medium Form in anderen Medien sein. Es gibt also eine prozessuale Substituierbarkeit von Medium und Form. So passt Luhmanns Medium/Form-Differenz gerade auf die virtuelle Ablösung der Medienspezifika von der Materialität: Virtuelle Fotografie bzw. Fotorealismus erscheint dann als spezifische Form ‚Fotografie’, die das unspezifische digitale Medium strikter koppelt. Virtuelle Filme sind die strikte Kopplung des digitalen Mediums durch die Form ‚Film’ etc. Virtuelle Skulpturen sind die strikte Kopplung des digitalen Mediums durch die Form ‚Skulptur’ usw.[63]

Sybille Krämer hat an Luhmanns Medium/Form-Kopplung unterstrichen, dass Form dort „performativ“ konzipiert sei, dass sie zur „temporalisierten, instabilen, flüchtigen, kontingenten Konkretisierung eines jener Potentiale zur Formbildung [wird], die bereitzustellen die Aufgabe des Mediums ausmacht.“[64] Diese performative Auffassung der Form scheint auch der Tatsache der Proliferation ständig neuer digitaler Medien und Formate Rechnung tragen zu können. Anschließend an Luhmanns These, dass „im Schema von Medium und Form [...] alle Formen akzidentiell erscheinen [...]: keine von ihnen drückt das ‚Wesen des Mediums’ aus“[65], könnte man formulieren: Kein ‚Neues Medium’ drückt das Wesen ‚des’ Computers aus, weil dieses gerade dispersiv ist. Vielmehr werden immer neue Formen in das digitale Medium – in seine Metaphern, Soft- und Hardware(peripherien) – eingeprägt.
Allerdings ist hier eine Präzisierung notwendig, denn der Grad der Kopplung ist offenbar unterschiedlich strikt. So kann die Form ‚Fotografie’ in Software oder in Hardware realisiert werden. Die Verfestigung bestimmter Algorithmen zu Chips macht die Formen stabiler, weniger flüchtig, als wenn sie bloßes Programm sind. Diese Sedimentierung, durch die bestimmte, nicht alle algorithmischen Pro-Gramme und z. B. auch bestimmte mediale Formen verfestigt und stabilisiert werden, ist ein eminent politischer Prozess. Wie wird bestimmt, was sich in Hardware sedimentieren kann und was nicht? Welche medialen Formen, z. B. ein fotografisch inspirierter ‚Realismus’, werden Standard? Diese Beschreibung des Prozesses, durch die „eine Vorgeschichte oder Firmenbürokratie [...] umstandslos in Hardware kristallisiert“[66], evoziert noch einen anderen Begriff von Performativität.
Judith Butler hat in einem ganz anderen Zusammenhang – der feministischen Diskussion über das Verhältnis von biologischem (sex) und sozialem (gender) Geschlecht – einen performativen Begriff von Materie vorgeschlagen. Es sei an ihrer komplexen Diskussion nur ein Punkt hervorgehoben, der für eine Theorie der Begrenzung und Stabilisierung von Segmenten des intermedialen Spektrums zu einzelnen ‚Neuen Medien’ von Interesse ist. Butler insistiert nämlich darauf, dass das biologische Geschlecht, also die ‚Materie’ des Körpers, keine schlicht gegebene Oberfläche ist, in die sich ein soziales Geschlecht einschreibt. Vielmehr begreift sie die Materie „als Prozeß der Materialisierung, der im Laufe der Zeit stabil wird, so dass sich die Wirkung von Begrenzung, Festigkeit und Oberfläche herstellt, den wir Materie nennen.“[67] Schließlich betont Butler mit Foucault, dass ‚Materialität’, also das was positiv gegebenes Faktum zu sein scheint, genau das ist, wo Macht sich am effektivsten durchsetzt, gerade weil sie sich im scheinbar natürlich oder eben technisch Gegebenen verbirgt: „Materialität ist die unkenntlich gewordene Wirkung von Macht“.[68] Wenn man ihr Argument einmal von der Körperfrage ablöst, wird deutlich, dass auch und gerade bei digitalen ‚Neuen Medien’ von Prozessen einer „Sedimentierung“[69] gesprochen werden kann. Durch kommerziell und ideologisch motivierte Wiederholungen herrschender Normen, etwa einer ständigen Beschwörung eines zu erreichenden, vollkommenen und letztlich am Modell der fotografischen Medien orientierten ‚Realismus’ (s. Abb. 9), werden bestimmte Monomedien erzeugt bzw. bestimmte mediale Formen zu Technik verfestigt und so naturalisiert.

Abbildung 9, „Cinematic Computing“, Slogan der Nvidia-Website, Letzter Zugriff 20.4.2003.

Frei nach Butlers Begriff der ‚heterosexuellen Matrix’[70], die die Zurichtungen der Körper erklären soll, könnte von einer ‚fotografischen Matrix’ gesprochen werden, welche performative Materialisierungen der Computergrafik reguliert. Die ständig iterierten Anrufungen dieser Matrix in Form eines phantasmatischen, endgültigen Realismus der Computersimulation berufen sich nicht nur auf das Kino, sondern finden sich auch in ihm, siehe den bezeichnend so betitelten und vor allem überaus populären Film The Matrix (USA 1999, Andy und Larry Wachowski), oder im Fernsehen, siehe die Fiktion des so genannten ‚Holodecks’ in der Fernsehserie Star Trek – The Next Generation (USA 1987 ff.). Aber auch und gerade die Proceedings der wichtigsten internationalen Konferenz der Computergrafik, der SIGGRAPH, zeigen diesen Trend überdeutlich. Der Fotorealismus erscheint so als das natürliche Telos des als Bildmaschine metaphorisierten Computers. Also könnte man auch rückblickend auf alle anderen ‚Medien’ die Frage übertragen, wie ihre jeweils so und so bestimmte Spezifik durch ständig wiederholte Anrufungen einer ‚Materialität’ gebildet wurde...

6. Fazit.

Mit der beginnenden Metaphorisierung und Funktionalisierung des Computers als ‚Universalmedium’ wird es möglich, die Spezifika der Medien unabhängig von ihrer technologischen Materialität zu beobachten. Die materiellen bzw. technologischen Strukturen verdampfen zu Formen, die performativ das digitale Medium koppeln. So werden auch die scheinbar klar fixierten ‚Monomedien’ retrospektiv als temporäre, performativ, diskursiv und damit politisch erzeugte Eingrenzungen eines vorgängigen intermedialen Spektrums denkbar. Es wäre sicher falsch anzunehmen, dass Intermedialität allererst mit Computern entsteht, schon weil transmediale Beziehungen zwischen Medien auf der Ebene (relativ) medienunspezifischer Strukturen wie Rhythmus, Serialität, Narration etc. schon immer existiert und die ‚reine’ und ‚spezifische’ Selbstidentität eines gegebenen Medium subvertiert haben.[71] Wenigstens muss aber eingeräumt werden, dass Intermedialität sich historisch verändert, dass mit dem Computer eine neue, virtuelle Art derselben und in deren Gefolge erst der Begriff ‚Intermedialität’ auftaucht. Ob und wie diese Verschiebung genealogisch mit der Abwendung der Kunst vom tendenziell monomedialen Modernismus – einem Prozess, dessen Zusammenhang mit der Entwicklung der elektronischen und dann digitalen Medien selbst zu untersuchen wäre[72] – in Verbindung steht, muss Thema eines anderen Aufsatzes bleiben.

Jedenfalls eröffnet die Virtualisierung bisheriger Medien auch für die Kunst neue Optionen – jenseits der multimedialen Installation. Die Kunst könnte die Verfestigung und Tradierung traditioneller Bildformen in den ach so Neuen Medien angreifen.[73] Bei einer virtuellen Fotokamera z. B. könnten alle Parameter auch über das für eine reale und handelsübliche Kamera physikalisch Mögliche hinaus verändert und somit die Grenzen der Kamera-Spezifik enorm erweitert, künstlerisch ausgetestet werden. In der neueren elektronischen E-Musik sind vergleichbare Experimente unter dem Titel Physical Modeling schon angedacht worden.

Abbildung 10, Querschnitt einer Klarinette, aus: Brüse 1994.

Abbildung 11, Physik einer Klarinette, aus: Brüse 1994.

Abbildung 12, Blockschaltbild eines ‚Physical Models’ einer Klarinette, aus: Brüse 1994.

Brüse weist zwar daraufhin, dass man die Grenzen so sensibler Anordnungen wie von selbst-oszillierenden Instrumenten nur wenig verändern kann, soll überhaupt noch ein Klang hörbar werden, doch am Horizont könnten auf der Basis von simulativen Modellen entsprechender Instrumente, „eine Riesentrompete oder eine auf dem Mond gestrichene Balalaika“[74] stehen. So wäre im Virtuellen Greenbergs fast vergessene Forderung, eine modernistische Kunst müsse sich durch Medienreflexion auszeichnen, auf ganz neue Art zu erfüllen. Die Spezifik der Medien und ihre (virtuelle) Intermedialität könnten einen neuen Frieden schließen.
Literatur:

BATCHEN, Geoffrey (2001) Obediant Numbers, Soft Delight. In: ders.: Each Wild Idea: Writing, Photography, History. Cambridge, MA: The MIT Press, S. 164-174.
BORN, Günther (2000) Dateiformate - die Referenz: Tabellenkalkulation, Text, Grafik, Multimedia, Sound und Internet. Bonn: Addison Wesley.
BRÜSE, Claudius (1994) Physical Modeling - Die neue Klangsynthese. In: Keyboards, Nr. 4, S. 44-73.
BUTLER, Judith (1997) Körper von Gewicht. Frankfurt a. M.: Suhrkamp.
CARROLL, Noel (1984/85) Medium Specifity Arguments and Self-Consciously Invented Arts: Film, Video and Photography. In: Millenium Film Journal, No. 14/15, S. 127-153.
CARROLL, Noel (1985) The Specifity of Media in the Arts. In: Journal of Aesthetic Education, Vol. 19, No. 4, S. 5-20.
CERUZZI, Paul (2000) A History of Modern Computing. Cambridge, Massachusetts und London: MIT Press.
COCKE, John / KOLSKY, Harwood G. (1959) The Virtual Memory in the STRETCH Computer. In: Proceedings of the 1959 Eastern Joint Computer Conference. Papers presented at the Joint IRE-AIEE-ACM Computer Conference, Boston, Massachusetts, S. 82-93.
COCKROFT, Eva (1974) Abstract Expressionism: Weapon of the Cold War. In: Artforum, Vol. 12, No. 10, S. 39-41.
DEDUVE, Thierry (1993) Kant nach Duchamp. München: Boer.
DELEUZE, Gilles (1997) Differenz und Wiederholung. München: Fink.
DENNING, Peter J. (1970) Virtual Memory. In: ACM Computing Surveys, Vol. 2, No. 3, S. 153-189.
DOTZLER, Bernhard (1999) Unsichtbare Maschinen – Irritationsbestände aus der Geschichte der Kybernetik erster Ordnung. In: Widerstände der Systemtheorie. Kulturtheoretische Analysen zum Werk von Niklas Luhmann. Hrsg. von Albrecht Koschorke und Cornelia Vismann. Berlin: Akademie-Verlag, S. 121-132.
ECKL, Rainer / PÜTGENS, Leonhard / WALTER, Jürgen (1990) A/D- und D/A-Wandler. Grundlagen, Prinzipschaltungen und Applikationen. München: Franzis.
ESPOSITO, Elena (1998) Fiktion und Virtualität. In: Medien Computer Realität. Wirklichkeitsvorstellungen und neue Medien. Hrsg. von Sybille Krämer. Frankfurt a. M.: Suhrkamp, S. 269-296.
FOLEY, James D. / VAN DAM, Andries / FEINER, Steven K. / HUGHES, John F. / PHILIPS, Richard L. (1990) Computer Graphics: Principles and Practice. Reading, Massachusetts u. a.: Addison-Wesley.
GALISON, Peter (1997) Image and Logic. A Material Culture of Microphysics. Chicago und London: Chicago University Press.
GEIGEL, Joe / MUSGRAVE, F. Kenton (1997) A Model for Simulating the Photographic Development Process on Digital Images. In: SIGGRAPH Proceedings 1997, S. 135-142.
GREENBERG, Clement (1997) Die Essenz der Moderne. Ausgewählte Essays und Kritiken. Hrsg. von Karlheinz Lüdeking. Amsterdam, Dresden: Verlag der Kunst.
HANSEN-LÖVE, Aage A. (1983) Intermedialität und Intertextualität. Probleme der Korrelation von Wort- und Bildkunst – Am Beispiel der russischen Moderne. In: Dialog der Texte. Hamburger Kolloquium zur Intertextualität. Hrsg. von Wolf Schmid & Wolf-Dieter Stempel. Wien (=Wiener Slawistischer Alamanach, Sonderband II), S. 291-360.
HIGGINS, Dick (1984) Horizons. The Poetics and Theory of the Intermedia. Carbondale and Edwardsville: Southern Illinois University Press.
HOLMES, Sir Oliver Wendell (1980) Das Stereoskop und der Stereograph. In: Theorie der Fotografie I. 1839-1912. Hrsg. von Wolfgang Kemp. München: Schirmer und Mosel, S. 114-122.
KITTLER, Friedrich (1986) Grammophon Film Typewriter. Berlin: Brinkmann & Bose.
KITTLER, Friedrich (1993) Draculas Vermächtnis. Technische Schriften. Leipzig: Reclam.
KITTLER, Friedrich (1998) Hardware, das unbekannte Wesen. In: Medien Computer Realität. Wirklichkeitsvorstellungen und neue Medien. Hrsg. von Sybille Krämer. Frankfurt a. M.: Suhrkamp, S. 119-132
KITTLER, Friedrich (1999) Von der optischen Telegraphie zur Photonentechnik. In: Mehr Licht. Hrsg. von VVS Saarbrücken. Berlin: Merve, S. 51-68.
KRÄMER, Sybille (1996) Computer: Werkzeug oder Medium? Über die Implikationen eines Leitbildwechsels. In: Nachhaltigkeit als Leitbild für die Technikgestaltung. Hrsg. von Hans-Peter Böhm, Helmut Gebauer und Bernhard Irrgang. Forum für interdisziplinäre Forschung 14. Dettelbach: Röll, S. 107-116.
KRÄMER, Sybille (1998a) Das Medium als Spur und als Apparat. In: Medien Computer Realität. Wirklichkeitsvorstellungen und neue Medien. Hrsg. von Sybille Krämer. Frankfurt a. M.: Suhrkamp, S. 73-94.
KRÄMER, Sybille (1998b) Form als Vollzug oder: Was gewinnen wir mit Niklas Luhmanns Unterscheidung von Medium und Form? In: Rechtshistorisches Journal, Nr. 17, S. 558-573.
KRAUSS, Rosalind (2000) ‚A Voyage on the North Sea’. Art in the Age of the Post-Medium Condition. New York: Thames and Hudson.
LICKLIDER, J. C. R. / TAYLOR, Robert (1968) The Computer as a Communication Device. In: Science and Technology, April 1968, S. 21-31.
LUHMANN, Niklas (1986) Das Medium der Kunst. In: Delfin, Jg. 4, Nr. 1, S. 6-16.
LUHMANN, Niklas (1993) Die Form der Schrift. In: Schrift. Hrsg. von Hans-Ulrich Gumbrecht und K. Ludwig Pfeiffer. München: Fink, S. 349-366.
LUHMANN, Niklas (1997) Die Kunst der Gesellschaft. Frankfurt a. M.: Suhrkamp.
LUHMANN, Niklas (1998) Die Gesellschaft der Gesellschaft. 2 Bde. Frankfurt a. M.: Suhrkamp.
MITCHELL, William J. (1992) The Reconfigured Eye. Visual Truth in the Post-Photographic Era, Cambridge, Mass. und London: MIT Press.
MÜLLER, Jürgen E. (1998) Intermedialität als poetologisches und medientheoretisches Konzept. Einige Reflexionen zu dessen Geschichte. In: Intermedialität. Hrsg. von Jörg Helbig. Berlin: Erich Schmidt, S. 31-40.
NEUNZERT, Helmut (1995) Mathematik und Computersimulation: Modelle, Algorithmen, Bilder. In: Simulation. Computer zwischen Experiment und Theorie. Hrsg. von Valentin Braitenberg und Inga Hosp. Reinbek bei Hamburg: Rowohlt, S. 44-55.
NEWELL, Martin E. / BLINN, James F. (1977) The Progression of Realism in Computer-Generated Images. In: ACM 77. Proceedings of the Annual Conference. New York: ACM, S. 444-448.
NOLL, Michael (1966) Human or Machine: A Subjective Comparison of Piet Mondrian’s ‚Composition with Lines’ (1917) and a Computer-Generated Picture. In: The Psychological Record, Vol. 16, S. 1-10.
NOLL, Michael (1967a) The Digital Computer as a Creative Medium. In: IEEE Spectrum, Vol. 4, No. 10, S. 89-95.
NOLL, Michael (1967b) Computers and the Visual Art. In: Design Quarterly, No. 66/67, S. 65-71.
REEVES, William (1983) Particle Systems – A Technique for Modeling a Class of Fuzzy Objects. In: Computer Graphics, Vol. 17, No. 3, S. 359-376.
PIEHLER, Heike (2002) Die Anfänge der Computerkunst. Frankfurt a. M.: dot.
POTMESIL, Michael / CHAKRAVARTY, Indranil (1982) Synthetic Image Generation with a Lens and Aperture Camera Model. In: ACM Transactions on Graphics, Vol. 1, No. 2, S. 85-108.
POTMESIL, Michael / CHAKRAVARTY, Indranil (1983) Modeling Motion Blur in Computer-Generated Images. In: SIGGRAPH Proceedings 1983 (= Computer Graphics, Vol. 17, No. 3), S. 389-399.
SHANNON, Claude Elwood (1938) A Symbolic Analysis of Relay and Switching Circuits. In: Transactions of the American Institute of Electrical Engineers, Nr. 57, S. 713-723.
RASER, John (1972) Simulation and Society. An Exploration of Scientific Gaming. Boston: Allyn and Bacon.
SCHRÖTER, Jens (1998) Intermedialität. Facetten und Probleme eines aktuellen medienwissenschaftlichen Begriffs. In: montage/av, Jg. 7, Nr. 2, S. 129-154.
SCHRÖTER, Jens (2000) Die Form der Farbe. Über ein Parergon in Kants Kritik der Urteilskraft. In: Kants Schlüssel zur Kritik des Geschmacks. Ästhetische Erfahrung heute – Studien zur Aktualität von Kants „Kritik der Urteilskraft“. (Sonderheft des Jahrgangs 2000 der Zeitschrift für Ästhetik und allgemeine Kunstwissenschaft). Hrsg. von Ursula Franke. Hamburg: Meiner, S. 135-154.
SPIELMANN, Yvonne (1995) Intermedialität als symbolische Form. In: Ästhetik und Kommunikation, Jg. 24, Heft 88, S. 112-117.
SPIELMANN, Yvonne (1998) Intermedialität: das System Peter Greenaway. München: Fink.
THOLEN, Georg Christoph (1999) Überschneidungen. Konturen einer Theorie der Medialität. In: Konfigurationen Zwischen Kunst und Medien. Hrsg. von Sigrid Schade und Georg Christoph Tholen. München: Fink, S. 15-34.
THOLEN, Georg Christoph (2002) Die Zäsur der Medien. Kulturphilosophische Konturen. Frankfurt a. M.: Suhrkamp.
VON NEUMANN, John (1945) First Draft of a Report on the EDVAC. Unter: http://www.cs.colorado.edu/~zathras/csci3155/EDVAC_vonNeumann.pdf (Letzter Zugriff Februar 2003).
WINKLER, Hartmut (1997) Docuverse. Zur Medientheorie der Computer. München: Boer.
WINKLER, Hartmut (2002) Das Modell. Diskurse, Aufschreibesysteme, Technik, Monumente -
Entwurf für eine Theorie kultureller Kontinuierung. In: Archivprozesse. Die Kommunikation der Aufbewahrung. Hrsg. von Hedwig Pompe und Leander Scholz. Köln: Dumont, S. 297-315.
WOOLFSON, Michael M. / PERT, G.J. (1999) An Introduction to Computer Simulation. Oxford u. a.: Oxford University Press.
YALKUT, Jud (1973) Understanding Intermedia. In: Avantgardistischer Film 1951 - 1971, Theorie. Hrsg. von Gottfried Schlemmer. München: Hanser, S. 92-95.

Abbildungen



[1] Der vorliegende Aufsatz setzt einen früheren Text des Verfassers fort, vgl. Schröter 1998. Wurde dort der Begriff ‚Intermedialität’ eher taxonomisch differenziert, geht es hier um Aspekte seiner historischen Genese. Der vorliegende Text ist eine ausgearbeitete Fassung eines Vortrages, der am 29.11.2002 auf der Jahrestagung des SFB 447 gehalten wurde. Ich möchte mich beim SFB 447 für die Einladung und insbesondere bei Nadia Ghattas und Prof. Dr. Sybille Krämer bedanken. Ich danke Bernhard Ebersohl für Korrekturen und Esther Forst sowie den Zuhörern meines Vortrages für hilfreiche Kritik.
[2] Luhmann 1998, 531.
[3] Vgl. Dick Higgins 1984, 25 (oben wurde das Ersterscheinungsjahr des Textes, hier das Jahr der Quelle zitiert – so wird ggf. auch im Folgenden verfahren) und Hansen-Löve 1983. Das Wort ‚Intermedium’ lässt sich – dort in anderem Sinn als heute – mindestens bis zu einem Text von Coleridge aus dem Jahr 1812 zurückverfolgen, vgl. Müller 1998, 31.
[4] Vgl. Tholen 1999, 16 und 2002, 197 ff.
[5] Müller 1998, 32 und 37.
[6] Greenberg 1997, 267. Mit dieser Bevorzugung des ‚Reinen’ stellt sich Greenberg explizit in die Tradition von Lessings Laokoon-Schrift (vgl. ebd., 56-81), aber folgt auch formal-ästhetischen Positionen wie der Kants, der z. B. die ‚reinen’ gegenüber den ‚unreinen’ Farben bevorzugte, vgl. dazu Schröter 2000.
[7] Greenberg 1997, 454.
[8] Vgl. zu den immanenten Gründen DeDuve 1993, 193-276.
[9] Vgl. u. a. Dick Higgins’ Text Intermedia von 1965, Higgins 1984, 18-28.
[10] Vgl. Krämer 1996.
[11] Vgl Ceruzzi 2000, 25-34.
[12] Generell könnte man, mit Winkler 1997, 76, die Universalität der universellen Maschine in Frage stellen. Und das ist mindestens in dem Sinn richtig, dass die Universalität erstens nur bis zur Grenze dessen reicht, was sich überhaupt formalisieren lässt. Und zweitens bestimmen die Architektur und Geschwindigkeit der Hardware welche Formalisierungen ausgeführt werden können. So hat gerade die von Neumann-Architektur spezifische Limitationen: Zwischen dem Speicher und dem Central Processing Unit gibt es in der Regel nur einen Datenbus, d. h. Programme werden strikt sequentiell ausgeführt (so genannter ‚von Neumann-Flaschenhals’). Diese Sequentialität verlangsamt die heute zunehmend wichtigere Berechnung oder Verarbeitung höherdimensionaler Daten wie z. B. von Bildern oder Netzwerktopologien bis zur Undurchführbarkeit.
[13] Tholen 2002, 54.
[14] Vgl. Shannon 1938.
[15] Vgl. von Neumann 1945.
[16] Vgl. Noll 1967 a. Ein anderer früher Text, in dem der Computer als Kommunikationsmedium verstanden wird, ist Licklider/Taylor 1968.
[17] Vgl. Noll 1967 b, 68.
[18] Vgl. Noll 1966.
[19] Was nicht bedeutet, dass die Ergebnisse beider Verfahren nicht kombiniert werden könnten.
[20] Vgl. Eckl / Pütgens / Walter 1990.
[21] Neunzert 1995, 44. Zu den verschiedenen Formen von Computersimulation vgl. Woolfson / Pert 1999.
[22] Vgl. Galison 1997, 689-780. Vgl. auch schon Raser 1972, der zahlreiche Anwendungen der Simulation in Militär, Wissenschaft (auch und gerade Soziologie!), Wirtschaft und Politik vorstellt.
[23] Der Terminus virtual memory wird laut Oxford English Dictionary 1959 in einem Vortrag eingeführt, der im Rahmen der Eastern Joint Computer Conference gehalten wurde, vgl. Cocke / Kolsky 1959. Allerdings ist in diesem Text mit virtual memory etwas anderes gemeint als in der heute üblichen Verwendung des Begriffs. Der Text von 1959 beschreibt als look-ahead unit das, was man heute cache memory nennt – ein kleiner Zwischenspeicher, der besonders schnell reagiert und vom Prozessor häufig gebrauchte Daten bereithält.
[24] Vgl. zum Folgenden Denning 1970.
[25] Der sowohl den realen Hauptspeicher als auch externe Hilfsspeicher (z. B. Festplatten) einschließt.
[26] Dieses Dispositiv der virtuellen Trennung von Form und Materie hat eine Vorgeschichte, die bis zur Fotografie zurückreicht. So bemerkte schon 1859 Sir Oliver Wendell Holmes (1980, 119) über stereoskopische Bilder: „Die Form ist in Zukunft von der Materie getrennt. In der Tat ist die Materie in sichtbaren Gegenständen nicht mehr von großem Nutzen, ausgenommen, sie dient als Vorlage, nach [der] die Form gebildet wird. Man gebe uns ein paar Negative eines Gegenstandes, aus verschiedenen Perspektiven aufgenommen – mehr brauchen wir nicht. Man reiße dann das Objekt ab oder zünde es an, wenn man will.“ Zur historischen Verzahnung von Fotografie und Computern siehe Batchen 2001.
Die Ablösung von der Materialität bezieht sich bei Rechnern nur auf das virtuelle Objekt im Verhältnis zum Realobjekt, nicht aber auf die Hardware, die jedem Rechenprozess zugrunde liegt und durch ihre Leistungsgrenzen die Möglichkeiten der Simulation beschränkt.
[27] Deleuze 1997, 264 und ebd.: „Das Virtuelle muss selber als ein strikt dem Realobjekt zugehöriger Teil definiert werden – als ob das Objekt einen seiner Teile im Virtuellen hätte und darin wie in einer objektiven Dimension eingelassen wäre“ – diese objektive Dimension ist die der mathematischen Formalisierbarkeit! Mithin steht das Virtuelle anders als das Fiktive nicht dem Realen gegenüber, sondern dem Aktuellen. Die Unterscheidung real/fiktiv und die Unterscheidung aktuell/virtuell liegen quer zueinander, vgl. Esposito 1998.
[28] Vgl. Mitchell 1992, 117-135.
[29] Von Montageregeln etc. beim Film sei hier abgesehen.
[30] Vgl. Newell / Blinn 1977, 445/446.
[31] Vgl. Potmesil / Chakravarty 1982; 1983.
[32] Vgl. Geigel / Musgrave 1997.
[33] Vgl. Foley et al. 1990.
[34] Tholen 1999, 16 und 22.
[35] Vorausgesetzt man kann sich darüber einigen, ob Medien Spezifika haben und welche diese genau wären, vgl. Carroll 1984/85.
[36] Vgl. http://www.propellerheads.se (Letzter Zugriff März 2003). Mit Dank an Niels Schröter.
[37] Kittler 1986, 7; Hervorheb., J.S.
[38] Spielmann 1995, 117.
[39] Vgl. Born 2000.
[40] Spielmann 1998, 9; Hervorheb., J.S. Vgl. die Kritik an derartigen „Unifizierungsphantasien“ bei Winkler 1997, 55-64 und 75-80.
[41] Kittler 1986, 8/9.
[42] Ebd., 7. Die Formulierung impliziert die Differenz verschiedener Medien-Formen auch im gesampelten oder simulierten Zustand.
[43] Yalkut 1973, 94.
[44] Noll 1967 a, 93; Hervorheb., J. S.
[45] Kittler 1999, 65.
[46] Vgl. Hansen-Löve 1983, 321. Die Annahme vorgängiger Intermedialität ist nicht die eines ‚Supermediums’, welches aus der ‚Verschmelzung’ der bisherigen Medien hervorgeht. Umgekehrt ist es die einer ‚potentiellen Medialität’, die erst zu spezifischen Medien konfiguriert wird.
[47] Greenberg 1997, 267.
[48] Vgl. schon 1965 Higgins 1984, 18/19, der Monomedien als ideologische Konstrukte begreift und weiterhin Carroll 1985. Dies gilt dann rückblickend auch für Greenbergs Privilegierung der amerikanischen, abstrakten Nachkriegsmalerei, deren Verwicklung in die Logik des Kalten Krieges durch seine ontologische und teleologische Berufung auf die Medienspezifik geradezu verschleiert worden war, vgl. dazu Cockroft 1974.
[49] Vgl. Newell / Blinn 1977, 444.
[50] Mit Dank an Dennis Vollmer.
[51] Kittler 1993, 8. Diese Definition von Medium ist offensichtlich selbst dem Computer abgelesen, vgl. Winkler 1997, 83.
[52] Kittler 1986, 9.
[53] Ebd., 8; Hervorheb, J.S.
[54] Krämer 1998 a, 83.
[55] Siehe die schon oben erwähnten Arbeiten von Potmesil / Chakravarty von 1982 und 1983 und darüberhinaus Reeves 1983, der das damals neuartige Verfahren der Partikelsynthese entwickelte, welches in dem populären Film Star Trek II – The Wrath of Khan (USA 1982, Nicholas Meyer) seine erste ‚Demo’ erlebte.
[56] Vgl. Ceruzzi 2000, 254-280.
[57] Vgl. Luhmann 1986.
[58] Krämer 1998 a, 76.
[59] Vgl. Dotzler 1999.
[60] Luhmann 1993, 356.
[61] Vgl. Luhmann 1998, 309/310.
[62] Ebd., 199.
[63] Zur Zeit arbeitet der Verfasser im Rahmen des FK 615 an der Universität Siegen in einem von der Kunstgeschichte der Universität Siegen initiierten Projekt, das in Zusammenarbeit mit der Villa Borghese, Rom und dem Fraunhofer-Institut für Medienkommunikation, St. Augustin den Möglichkeiten der Virtualisierung von Skulptur nachgeht. Vgl. http://www.fk615.uni-siegen.de/Projekte/ProjektB7.html (Letzter Zugriff März 2003).
[64] Krämer 1998 b, 565/566.
[65] Luhmann 1997, 168/169.
[66] Kittler 1998, 131.
[67] Butler 1997, 32.
[68] Ebd., 345.
[69] Ebd., 39. Vgl. Winkler 2002, der Technik als tradierende Sedimentierung – er sagt ‚Niederlegung’ – von Diskursen beschreibt.
[70] Vgl. Butler 1997, 23, 29, 57 und passim.
[71] Vgl. Schröter 1998, 136-143.
[72] Vgl. Krauss 2000, 30-32 zum Zusammenhang zwischen dem ‚Ende des Modernismus’ und der Ausbreitung von Video. Dabei spricht sie explizit von der ‚post-medium condition’ in der sich die Kunst heute befindet!
[73] Worauf möglicherweise bereits die oben schon erwähnte Strömung der so genannten ‚fotorealistischen Malerei’ vordeutet...
[74] Brüse 1994, 61.