8448 verschiedene
Jeans.Zu Wahl und Selektion im
Internet.[*]
Jens
Schröter
The prime action of use is
selection, and here we are halting
indeed.
Vannevar Bush, As we may think,
1945.
Die Freiheit der Wahl hat quantitative
Grenzen. Wird die Zahl der Alternativen zu hoch, so wird zuviel Zeit
benötigt, um eine Entscheidung treffen zu können oder es wird
angesichts eines unüberschaubaren Horizonts möglicher Alternativen
jede Wahl durch den Verdacht belastet sein, vielleicht nicht die richtige
gewesen zu sein. Anders gesagt: Nur durch Begrenzung ist die Freiheit der
Wahl überhaupt möglich. Nirgendwo
wird dieses Problem so deutlich wie im Internet, das eine zuvor unbekannte
Informationsvielfalt verspricht. Aber leider besitzt es keine zentrale
Linkverwaltung oder ein andersgeartetes, einheitliches Verzeichnis: Ein solches
ist, angesichts der dynamischen und ständig expandierenden Struktur des
Netzes, zwar kaum vorstellbar, aber die Unübersichtlichkeit des Webs
fordert geradezu Ordnungsstrukturen oder Hierarchien, die Signifikanz erzeugen.
Winkler betont, dass Suchmaschinen wie AltaVista, Yahoo oder
neuerdings Google![1]
genau deswegen entwickelt worden sind. Und obwohl sie für
die meisten alltäglichen Zwecke ausreichende Ergebnisse liefern, bleibt oft
ein Schatten des Zweifels. So erfassen die Suchmaschinen nur Bruchteile des
Webs, strukturieren die gelieferten Antworten auf für den User
undurchschaubare (und manchmal schlicht kommerziell-manipulative) Weise vor oder
liefern oft immer noch zu viele Ergebnisse (vgl. Winkler 2002). Es ist also
(meistens) nicht schwer ›passende‹ Informationen zu finden –
aber dafür ist es umso schwerer zu wissen, ob die gefundene Information die
beste oder überhaupt eine richtige Antwort auf die gestellte Frage ist (es
sei denn die Frage war ausreichend präzise gestellt, z.B. wenn man ein Buch
in einem genau spezifizierten und autoritativen Katalog sucht).
Gerade der Verzicht auf bestimmte
ordnungsstiftende Verfahren bei der Entwicklung des World Wide Web
ermöglichte dessen radikale Ausdehnung in den neunziger Jahren des
zwanzigsten Jahrhunderts. Es besteht also das Paradox, dass die Bedingungen der
Expansion des Informationsangebots zugleich die Selektion aus diesem Angebot
erschweren: Die enorme Freiheit, Wahl zu
bieten[2], droht sich, so betrachtet,
in die Unmöglichkeit der ›freien‹ Auswahl zu verkehren.
Und das ist umso merkwürdiger, als das
heutige sogenannte ›Internet‹ historisch aus einer Verkettung sehr
unterschiedlicher Entwicklungen entstanden ist, von denen mindestens eine
– und nur diese wird hier diskutiert – genau die Frage, wie
nämlich mit der ständig wachsenden Fülle an Informationen noch
umzugehen sei, zu beantworten
versuchte.[3] Diese Konzeption, die um
1965 durch Ted Nelson den Namen Hypertext bekam, wurde schon 1934 in Paul
Otlets fast vergessenem Traité de documentation und, weit weniger
vergessen, 1945 in Vannevar Bushs Aufsatz As We May Think angedacht. Bei
Bush und bei Nelson wird angestrebt, die Masse an Informationen nach einem
Modell oder Bild des Denkens ›assoziativ‹ und – bei Nelson
auch durch eine zentrale Linkverwaltung – überschaubar zu
strukturieren: So soll Selektion ermöglicht werden. Daraus wird die
geradezu utopische Hoffnung auf ein universelles Archiv abgeleitet, das
alles Wissen der Menschheit nicht nur umfasst, sondern auch auffindbar hält
– aber heute führt das Internet dieses Ziel zumindest in mancher
Hinsicht ad absurdum. Wie und warum dies geschah und welche Subjekt- und
Machteffekte dadurch erzeugt werden könnten, sind die Fragen, die hier
diskutiert werden sollen.
*
Im Juni 1945 erschien im Heft Nr. 176 des
Atlantic Monthly Vannevar Bushs Aufsatz As We May Think (vgl. Bush
1945). Bush koordinierte im Zweiten Weltkrieg die Nutzung der Wissenschaften
für die Kriegsführung und stand dabei zeitweise mehr als 6000
Wissenschaftlern vor. Dabei kam es genau zu den Problemen des Zugriffs auf
Wissen und der Kommunikation zwischen Wissenschaftlern, für die Bush
Lösungen vorzuschlagen sucht (vgl. Zachary 1997: 269). Sein Ausgangsproblem
bestand darin, inwiefern Wissenschaftler noch effektiv arbeiten können,
wenn einerseits eine ständig wachsende Menge an Wissen und andererseits der
Zwang zu immer größerer Spezialisierung zusammenkommen. Bush beklagt,
dass die Methoden der Übertragung, Speicherung, Ordnung und Selektion des
Wissens alt und inadäquat seien. Gegen diese traditionellen Methoden
hält er die Technikfiktion MEMEX. An dieser, mit auf Mikrofilm
gespeicherten Daten operierenden Anordnung sollen hier nur zwei Aspekte
herausgestellt werden.
Erstens
bemängelt Bush, dass die traditionelle Ordnung des Wissens vor allem durch
die künstlichen und uneffektiven Indizierungssysteme geprägt sei.
Dagegen hält er die ›natürliche‹ Ordnung des menschlichen
Denkens:
»It [= »human mind«] operates by
association. With one item in its grasp, it snaps instantly to the next that is
suggested by the association of thoughts, in accordance with some intricate web
of trails carried by the cells of the brain [...]. The first idea, however, to
be drawn from the analogy concerns selection. Selection by association, rather
than by indexing, may yet be mechanized« (Bush 1945: 106).
Gegenüber der Selektion aus einem z.B.
alphabetisch organisierten Archiv, in welchem inhaltlich völlig disparate
Materialien in einer Kategorie verbunden sind, ist im MEMEX-Konzept
entscheidend, dass jeder Benutzer eigene Querverbindungen zwischen Materialien
aufbauen kann, indem auf den entsprechenden Mikrofilmvorlagen Markierungen
aufgebracht werden. Die so entstehenden Vernetzungen sind auch für andere
Benutzer des Archivs einseh- und ergänzbar. So soll im Laufe der Zeit eine
völlig neue Form der Enzyklopädie entstehen, in der
zusammengehörige Daten assoziativ verknüpft, mithin leicht auffindbar
sind.Das menschliche Bewusstsein ist aber
zweitens für Bush nicht nur Vorbild – es hat auch Mängel.
Insbesondere das Vergessen, das Verblassen der einmal verknüpften Pfade
(trails) zwischen verschiedenen Informationen soll im MEMEX (= Memory Extender)
überwunden werden. So bahnt sich bei Bush bereits eine Vorstellung an, die
bei Nelson geradezu eskalieren wird: Das Phantasma, alles müsse auf immer
in den assoziativ organisierten
» Superenzyklopädien«
gespeichert werden. So spricht Bush am Schluss seines Aufsatzes vom
anzustrebenden »world's record« (1945: 108), der alles Wissen umfassen
soll. Jedoch ist weniger klar, wie die dann
entstehenden gigantischen Archive beherrscht werden können. Denn in Bushs
mentalistischem Konzept[4] wird
übersehen, dass das Vergessen in der Ökonomie des menschlichen
Gedächtnisses eine wichtige Funktion erfüllt. Vergessenes wird nicht
einfach gelöscht, sondern wird – wie die Psychoanalyse gezeigt hat
– in Form von Verdichtung und Verschiebung aufgehoben: »Die
Vorstellung, praktisch unbegrenzte Quantitäten mit Hilfe einer neuen
Zugriffstechnik dennoch beherrschen zu können, lebt von der Utopie,
vollständig ohne Verdichtung auszukommen, ja, sie ist ein Gegenmodell zu
Verdichtung selbst« (Winkler 1997: 174). Außerdem führt Bushs
Idee, dass die einmal erstellten Verknüpfungen zwischen verschiedenen
Dokumenten nicht verlöschen sollen, was schlicht auf der Tatsache beruht,
dass Bush über ein auf Mikrofilm beruhendes Dispositiv schreibt, in dem
trails auch gar nicht gelöscht werden können, dazu, dass
die entstehenden, assoziativen Vernetzungen starr sind. Sie können kaum
noch verändert werden – z.B. wenn sich irgendwann herausstellen
sollte, dass einige der in einer gegebenen Assoziationskette befindlichen
Dokumente im Lichte neuerer Ergebnisse fehlerhaft sind. Die Lösch- und
Änderbarkeit der Verknüpfungen ist erst dann möglich, wenn sie,
statt irreversible Inskriptionen in photographische Emulsionen zu sein, zu
löschbaren elektronischen Aufzeichnungen oder gar Software
werden.[5]
Den letzten Schritt geht in den sechziger Jahren
Ted Nelson. Er diskutiert im Unterschied zu Bush keine maschinellen
Vorrichtungen, sondern eine bestimmte »information structure, a file
structure, and a file language« (Nelson 1965:
84).[6] Aus den bei Bush vom User
erzeugten trails, die nicht verlöschen, werden von der Software
verwaltete links, die ebenso wie die verlinkten Files löschbar sind.
Damit unter diesen Bedingungen aber eine Konsistenz der Verweisungen
gewährleistet bleibt, sieht Nelson ein zentrales Verzeichnis aller
gesetzten Links (›link table‹) vor (Nelson 1965: 90). Nelson bemerkt
weiter:
»Systems of paper have grave limitations for either
organizing or presenting ideas [...] Let me introduce the word
›hypertext‹ to mean a body of written or pictorial material
interconnected in such a complex way that it could not conveniently be presented
or represented on paper. [...] Such a system could grow indefinitely, gradually
including more and more of the world's written knowledge« (Nelson 1965:
96).Besonders hervorgehoben seien zwei
Aspekte, die stark an Bush erinnern. Erstens deutet Nelson an, dass der
Hypertext gegenüber dem bisherigen Aufschreibesystem (Papier und
Schreibzeug) eine für die Organisation und Präsentation von Gedanken
etc. angemessenere Form darstellt. Zweitens steht auch für Nelson
das endlose Wachstum des Systems fest – solange bis es alles Wissen der
Welt umfasst.Gerade diese letzten beiden
Vorstellungen weiten sich noch aus: 1974 erscheint im Eigenverlag sein Buch,
oder besser, seine beiden Bücher Dream Machines: New Freedoms through
Computer Screens – A Minority Report / Computer Lib: You Can and Must
Understand Computers Now (vgl. Nelson
1987).[7] Dort schreibt
er:
»By ›hypertext‹ I mean non-sequential
writing. Ordinary writing is sequential for two reasons. First it grew out of
speech and speech-making, which have to be sequential; and second, because books
are not convenient to read except in sequence. But the structures of ideas are
not sequential« (Nelson 1987 DM: 29).
Der
Hypertext ist für Nelson die einzig richtige Form, in der sich das schon
immer hypertextuelle Denken ausdrücken kann, soll und
muss.
Bushs und vor allem Nelsons Konzepte der assoziativen
Organisation der Archive sind logozentrisch, d.h. sie folgen der Illusion, dass
es Formen der Anordnung von Zeichen gibt, die sich näher an der
Intelligibilität, am ›lebendigen‹ Geist befinden als die
›tote‹, lineare Schrift – was sich auch an Nelsons Idee,
Schrift sei eine Ableitung des Gesprochenen und seiner merkwürdigen
Vorstellung, Bücher seien praktisch nur linear zu lesen, zeigt. Diese
logozentrische Struktur erlaubt die unbeschränkte Expansion des Archivs:
»A grand hypertext, then, folks, would be a
hypertext consisting of »everything« written about a subject, or
vaguely relevant to it. [...] And then, of course, you see the real dream.
The real dream is for ›everything‹ to be in the
hypertext« (Nelson 1987 DM: 32; Hervorhebung J. S.).
Wieder taucht hier die Utopie eines universellen
Archivs auf, das absolut vollständig und verlustfrei ist. Nelson schreibt
explizit: »The possibility of using a hypertext network as a universal
archive is a dramatic development« (Nelson 1987 DM: 33).
Es bleibt zu sagen, dass Nelson mit seinen
Konzepten, die er im Laufe der Jahre zu der Software XANADU verdichtete, wenig
Erfolg hatte. Die rasche Ausbreitung einer hypertextuellen Software gelang erst
nach 1989. In diesem Jahr entwickelte eine Gruppe von Wissenschaftlern um Tim
Berners-Lee eine Applikation, um den am
CERN[8] arbeitenden Forschergruppen
den Austausch und die Organisation von Information zu erleichtern: Das World
Wide Web (= WWW).[9] Nach der
Freigabe des WWW am 30.4.1993 entstanden rasch Browser wie Mosaic und
dann Netscape Navigator und später noch Microsofts
Internet Explorer. Durch diese Software wurde der Umgang mit den Datennetzen
vereinfacht. Eine rasche Expansion setzte ein. Diese hatte ihre
Möglichkeitsbedingung im speziellen Design des WWW, denn es gibt –
anders als in Nelsons Entwurf – kein zentrales
Linkverzeichnis:
»Typically, though, hypertext systems were built
around a database of links. [...] [This] did guarantee that links would be
consistent, and links to documents would be removed when documents were removed.
The removal of this feature was the principle compromise made in the W3 [= WWW]
architecture, which then, by allowing references to be made without consultation
with the destination allowed the scalability which the later growth of the web
exploited« (Berners-Lee 1996).Das
bedeutet also, dass Links, die auf eine bestimmte Seite zeigen, nicht
verschwinden, wenn die Zielseite selbst verschwindet. Ferner sind die Links im
WWW – auch anders als in Nelsons Xanadu – unidirektional und
univisibel, d.h. nur vom zeigenden Dokument aus setzbar und sichtbar: Auch dies
macht die link maintenance problematisch, da ein Anbieter, der eine
Website aus dem Netz nimmt, keine Möglichkeit hat festzustellen, welche
Anbieter Links auf diese Seite gesetzt haben und folglich diese Anbieter auch
nicht gezielt über das Verschwinden der Seite informieren kann (vgl. Pam
1997).[10] Selbst wenn die Seite nur
an eine andere Adresse verschoben wird, zeigt der Link nicht mehr korrekt auf
das Dokument, da die Links nicht das Dokument, sondern seinen Ort adressieren:
Andere Hypertextsysteme kennen dagegen den Unterschied zwischen document
identifiern und document locators – im WWW gibt es dagegen nur
URLs (Uniform Resource Locators). Der Verzicht auf diese Features erlaubt
aber – und Berners-Lee stellt das ja explizit heraus – die
ungebremste Expansion.[11]
*
Nelson war klar, dass nur ein zentrales
Linkverzeichnis in dem Fall, dass die links und/oder die verlinkten
Dokumente löschbar sein würden, die Konsistenz des Archivs
gewährleisten könne. Wenn ein solcher Mechanismus aber fehlt,
müssen jene positiven Funktionen des Vergessens wieder eine Rolle spielen,
die Bush und auch Nelson, insofern dieser trotz Löschbarkeit der Daten ein
universelles Archiv anstrebte, vermeiden
wollten.[12] So weist Winkler etwa
darauf hin, dass es sinnvoll wäre, wenn es im WWW Verfallsdaten
für Websites gäbe. Nur so sei absehbar, ob und wenn ja,
wann eine Information aus dem Netz genommen wird (was das Zitieren von Websites
und die eigene Linkverwaltung erleichtern würde) und schließlich
könnten Sites nach Ablauf einer gewissen Frist automatisch vom Server
gelöscht werden. Da es ein solches Feature aber nicht gibt, füllt sich
das Internet zunehmend mit Dokumenten, die vor Jahren zum letzten Mal
aktualisiert wurden und deren Informationsgehalt gleich Null ist. Solche Sites
werden trotzdem bei einer Internet-Suche mit angezeigt und erschweren das
Auffinden relevanter Informationen, zumal viele Dokumente in zahlreichen
verschiedenen Versionen vorliegen und oft nicht ermittelt werden kann, welche
die gültige ist (vgl. Winkler 1997: 175/176). Ob das WWW Mechanismen
implementieren könnte, die den Prozessen der Verdichtung und Verschiebung
ähneln, ist noch unklar.Berners-Lee
beruft sich in ähnlicher Weise wie Bush und Nelson auf den Vergleich zum
Gehirn. So bemerkt er, dass sein Hypertext-System die »associations between
disparate things« ermögliche »although this is something the
brain has always done relatively well« (Berners-Lee 1998). Andernorts
heißt es schlicht: »[W]eb documents have links, and neurons have
synapses« (Berners-Lee 1995). Diese Metaphern verdecken jedoch, dass in
seinem Konzept – eben aufgrund des fehlenden zentralen link tables
und irgendeiner geregelten Form des Verschwindens von nicht mehr aktuellen
Informationen – ein ständig wachsender Datenozean relativ
wenig strukturierter Information entsteht: Man stelle sich nur vor, Erinnerungen
würden beständig ihren Platz wechseln und die zerebralen Verweise auf
sie ins Leere gehen; oder jede Erinnerung würde sich in vielfältige
mehr- oder weniger verschiedene Versionen zerstreuen, ohne dass man wüsste
welche die richtige ist... In dem sich so herausbildenden »pool of human
knowledge« (Berners-Lee et al. 1994: 76) sind Informationen nicht mehr
sorgfältig (assoziativ) angeordnet, das langsame Verfolgen der
Verweisungsketten erlaubend, sondern kämpfen – wie Fische in einem
›pool‹[13] – um
ihr Überleben, darum, wahrgenommen zu werden. Dass das Netz bald mit
darwinisierenden Metaphern beschrieben wurde, ist also naheliegend (vgl.
Terranova 1996). Aus dem wohlgeordneten universellen Archiv wird mehr und mehr
eine Art marktschreierischer Supermarkt. Schon 1991 war das Verbot der
kommerziellen Aktivitäten in Datennetzen aufgehoben
worden.Im Sinne von Jonathan Crarys Studie zur
Archäologie der Aufmerksamkeit könnte man argumentieren, dass die
»Logik des Zusammenhanglosen« (2002: 37) – eine Beschreibung,
die durchaus auf das WWW zutreffen könnte – charakteristisch für
die (kapitalistische) Moderne sei, gleichzeitig jedoch ist »diese Logik
jedoch darauf aus, ein disziplinäres Regime der Aufmerksamkeit
durchzusetzen« (23). Die »wechselnden Konfigurationen des
Kapitalismus, mit ihrer endlosen Abfolge von neuen Produkten, Reizquellen und
Informationsströmen [zwingen] Aufmerksamkeit und Zerstreuung ständig
über neue Grenzen und Schwellen [...] und [reagieren] dann mit neuen
Methoden des Managements und der Regulierung von Aufmerksamkeit« (ebd.).
Zweck der Sache ist die Produktion eines Subjekts, das »produktiv,
lenkbar, kalkulierbar« (16) und mithin effizient ist. Doch zugleich erzeugt
diese »Artikulation eines Subjekts über das Vermögen der
Aufmerksamkeit zugleich ein Subjekt [...], das sich solchen disziplinären
Imperativen« (23) tendenziell entzieht. Crary verdeutlicht dies an einem
Subjekt, dessen gewünschte Aufmerksamkeit in eine absorptive,
wachtraumähnliche Hypnose übergeht.
*
Zu dem Zeitpunkt als das WWW entstand, kam zu den
›wechselnden Konfigurationen des Kapitalismus‹ eine neue Variante
hinzu. Es seien hier keine einfachen kausalen Verbindungen unterstellt. Weder
der Kollaps des Realsozialismus just 1989/90 noch die Emergenz des so genannten
›Neoliberalismus‹ oder besser: postfordistischen
Akkumulationsmodells (vgl. Hirsch 1995: 75-94; 2001) – mindestens schon
seit Anfang der siebziger Jahre des 20. Jahrhunderts und dann durch den
Zusammenbruch des ›Systemkonkurrenten Realsozialismus‹ zu
Triumphgeheul gesteigert – sind monokausal auf die Erfindung des WWW
rückführbar. Ebenso kann das WWW nur schwer in Rekurs auf diese
Ereignisse erklärt werden. Doch die Struktur des WWW ›passt‹
einfach sehr gut zu der sich herausbildenden politisch-ökonomischen
Konfiguration. So entspricht z.B. die durch den Verzicht auf ein zentrales
Linkverzeichnis ermöglichte rasche Expansion des WWW der raschen Tendenz
des nunmehr ›globalen Kapitalismus‹ sich ständig auszubreiten;
die vernetzte Kommunikation und der Datentransfer per Internet erlauben,
Unternehmensteile per Outsourcing oder Offshoring an andere Orte
zu verschieben; generell passt die Programmierbarkeit von Computern zur
flexiblen Spezialisierung der Produktion etc. (vgl. Altvater 1998: 60; Hirsch
1995: 88/89; Sennett 1998: 65). Es ist naheliegend, dass der postfordistischen
Formation auch ein oder mehrere neue Formen von Subjektivität entsprechen,
die möglicherweise mit dem expansiven und ungeordneten WWW
korrelieren. Das
informationsverarbeitende Subjekt Bushs und Nelsons – und es sei
unterstrichen, dass der mentalistische Vergleich zwischen Gehirn und Hypertext
nicht nur ein Bild des Hypertextes, sondern eben auch ein Bild des Denkens bzw.
des Subjekts zeichnet – war noch eine Art Wissenschaftler oder
Schriftsteller, der gezielt und systematisch Informationen auswählt und
ggf. eigene Überlegungen und Verknüpfungen zum Archiv
hinzufügt:
»The owner of the memex, let us say, is interested
in the origin and properties of the bow and arrow. Specifically he is studying
why the short Turkish bow was apparently superior to the English long bow in the
skirmishes of the Crusades. He has dozens of possibly pertinent books and
articles in his memex. First he runs through an encyclopedia, finds an
interesting but sketchy article, leaves it projected. Next, in a history, he
finds another pertinent item, and ties the two together. Thus he goes, building
a trail of many items. Occasionally he inserts a comment of his own, either
linking it into the main trail or joining it by a side trail to a particular
item. When it becomes evident that the elastic properties of available materials
had a great deal to do with the bow, he branches off on a side trail which takes
him through textbooks on elasticity and tables of physical constants. He inserts
a page of longhand analysis of his own. Thus he builds a trail of his interest
through the maze of materials available to him.« (Bush 1945:
107).Bushs Beispiel suggeriert, dass im Memex
nur sorgfältig recherchierte Informationen eingegeben oder sinnvolle und
nutzbringende Verknüpfungen angelegt werden. Es unterstellt, dass das
»Denken eine gute Natur und der Denker einen guten Willen besitzen«
(Deleuze 1997: 172). Die Selektion aus dem universellen Archiv sollte in Bushs
und Nelson Konzepten durch die logozentrische Korrelation zwischen der Struktur
des Hypertextes und der Struktur des Denkens gewissermaßen
›natürlich‹ und ›selbstbestimmt‹ ermöglicht
werden. So schien eine distanzierte, souveräne Wahl aus klar
überschaubaren Alternativen garantiert. Und noch Berners-Lee konnte sich am
CERN, also in einer Wissenschaftlerkultur, implizit darauf verlassen, dass nur
sinnvolle und richtige Informationen eingegeben werden, dass alle daran
interessiert sind, die Übersicht zu behalten. Die Expansivität des WWW
konnte so nicht als Problem erscheinen. Aber im mittlerweile für jeden,
auch außerhalb von
Wissenschaftlerkulturen[14],
zugängigen WWW garantiert keine »Neigung zum Wahren« (ebd.: 173)
– außer in autoritativen Bibliothekskatalogen, Wissenschaftsseiten
etc. –, dass nicht neben zahllosen ungeprüften Informationen auch
Verschwörungstheorien, persönliche Idiosynkrasien, vorsätzliche
Lügen, politische Extremismen etc. Eingang finden.
In diesem Rauschen ist es, vor allem für
kommerzielle Anbieter, von zentraler Wichtigkeit, überhaupt wahrgenommen zu
werden, z.B. dadurch, dass in bestimmten Suchmaschinen die ersten Plätze
auf der Trefferliste an meistbietende verkauft werden (vgl. Baumgärtel
1998). Die Ausbreitung des e-commerce wird von ganz
konventioneller Fernseh- und Printmedienwerbung begleitet, mit der die Firmen
auf ihre Netzpräsenz hinweisen wollen. Und wer mehr Werbung machen kann,
erhöht seine Chancen mehr Links auf sich zu ziehen. Das WWW macht den User
zu einem Kunden und potentiellen Käufer, dessen Aufmerksamkeit auf ein
bestimmtes Segment des unüberschaubaren Angebots gelenkt werden muss. Die
souveräne Distanz des wählenden Subjekts ist hier nicht mehr gegeben.
Aber das postfordistische Akkumulationsmodell
fordert vom Subjekt auch nicht souveräne Distanz und Stabilität,
sondern vor allem Flexibilität (vgl. Sennett 1998) und Selbstdisziplin in
der Anpassung an Erfordernisse des Marktes (vgl. Hirsch 2001: 200). Das bedeutet
zunächst die konkrete Forderung, der oder die Einzelne müsse sich eben
beruflich anpassen, räumlich mobil und ständig bereit sein, mehr und
anderes zu lernen. Es bedeutet auch, stets mehr und anderes konsumieren zu
wollen (Mode). Implizit wird daraus schnell der sehr viel allgemeinere
Imperativ, ständig ein(e) Andere(r) sein zu können. Gerade das
WWW scheint dieser Forderung entgegenzukommen – worauf etwa Sherry Turkle
in ihrer Studie zur Identität in Zeiten des Internet hinweist.
Über ihre eher bekannte These hinaus, dass die Homepages, MUDs und
Chatrooms etc. die spielerische Arbeit an der eigenen Subjektivität
erlauben und so quasi-therapeutische Effekte erzielen können, bemerkt sie
ganz explizit, dass die Rollenspiele im Internet als
»Flexibilitätsübungen« mit dem Zweck der Anpassung »an
neue Arbeitsplätze, neue Berufslaufbahnen, neue Geschlechterrollen und neue
Technologien« (1998: 415/416) verstanden werden
können.[15]
So gesehen verkörpert das
gegenwärtige WWW »die kulturelle Logik des Kapitalismus«, die
verlangt, »dass wir unsere Aufmerksamkeit ununterbrochen von einer Sache zu
einer anderen ›umschalten‹ können« (Crary in
Baumgärtel 1997). Die spezifische Form seiner Links, durch die User in
einem relativ ungeordneten Informationsozean herumsurfen, ist Ausdruck dieser
Logik. Zugleich soll das Subjekt sich nicht verlieren, tagtraumhaft in den
Fluten des Webs versinken – was vielleicht sogar eine Form des
Widerstandes wäre (vgl. Crary 2002: 67). Es muss gelernt werden, trotz der
sich ständig ändernden Ansprüche und Ansprachen den
›Überblick zu wahren‹. Daher gibt es Handbücher, die Usern
die Effiziente Suche im Internet beibringen wollen, damit sie vom
»Freizeit-Surfen hin zur professionellen Recherche« (Babiak 1997: 9)
kommen. Subjekte sollen effektiv sein. Und sie sollen mobil und flexibel sein,
ohne doch zu zersplittern, eben »wellenhaft [...]. Überall hat das
Surfen schon die alten Sportarten abgelöst« (Deleuze
1993: 258). Nicht mehr nur die körperliche, sondern auch die
informationsverarbeitende Fitness soll gestärkt werden. Auch Turkle
fordert, dass das beschworene multiple Selbst einen stabilen Kern besitzen muss:
»Ohne Kohärenzprinzip verliert sich das Selbst in alle Richtungen.
[Die multiple Identität] ist nicht annehmbar, wenn sie lähmende
Verwirrung bedeutet« (Turkle 1998: 419/420). Das Oszillieren zwischen
Zerstreuung, Verstreuung, Suche und Refokussierung, Fund im WWW ist ein
Training für das von der postfordistischen
›Informationsgesellschaft‹ geforderte Subjekt. Der Umgang mit den
schon genannten Suchmaschinen, die die Dispersion der Informationsangebote
temporär rezentrieren und z.B. durch 8448 Ergebnisse wieder zerstreuen, ist
ein Beispiel dafür. Übrigens ist die
Zahl 8448 nicht willkürlich gewählt. Denn der ›große
Vorsitzende‹ Bill Gates lehrt uns weise und genial über die
Potentiale einer individualisierten Produktion:
»In einer wachsenden Zahl von
Einzelhandelsgeschäften können sich die Kundinnen für einen
Aufpreis von ungefähr zehn Dollar ihre Jeans nach genauen Angaben
anfertigen lassen – wobei sie zwischen 8448 verschiedenen Kombinationen
auf Hüft- und Taillenmaßen, Beinlängen und Schnitten wählen
können« (Gates 1997: 264).Dies zeigt
das – hier bezeichnenderweise auf konsumierende Frauen zugeschnittene
– (post)fordistische Modell von ›Freiheit‹, die darin bestehen
soll, aus 8448 Alternativen wählen zu können, ohne dass klar
wäre, wie eine solche Fülle von Möglichkeiten zu überblicken
ist. Dieses Konzept passt sehr gut zum WWW, dem universellen Supermarkt, dessen
Hauptproblem ja gerade darin besteht, den User vor eine unüberschaubare
Fülle möglicher Informationen zu stellen, eine Fülle, die oft als
Ausweis von ›subversiver‹ Meinungsvielfalt und Informationsreichtum
gepriesen wird. Aber: »Eine Recherche, die [8448, J. S.] Antworten zum
Resultat hat, hat nicht Reichtum, sondern weißes Rauschen geliefert«
(Winkler 1997: 176). Es stellt sich offenkundig die Frage, ob die maßlose
Inflation von Information nicht die heutige Version der Zensur ist. Statt
Informationen zu verweigern oder zu unterdrücken, wird ihre Fülle
durch die mit dem Netz, Radio- und Fernsehprogrammen gegebenen 8448 Alternativen
so weit vermehrt, dass ebenfalls jede ›freie Wahl‹ unmöglich
wird. Ist diese Behauptung nicht durch Shannons informationstheoretische Analyse
gestützt, die besagt, dass es nur zwischen Redundanz (restriktiver
Zensur) und Rauschen (inflationärer Zensur) Information gibt? Aber
vielleicht geht es gar nicht mehr um Information, vielleicht dient das WWW
vielmehr dem Zweck, die Wahl aus einer ständig sich verändernden und
ausdehnenden Produktpalette einzuüben, denn nur so kann man effektiver
Konsument des globalen, permanent expandierenden Marktes
werden.Und am Horizont zeichnet sich schon
eine neue Variante der Selektion im Internet ab. Es wird diskutiert, ob nicht
intelligente Agenten vom Umgang mit den Nutzern lernen und so
selbsttätig als »externe Gedanken« (so symptomatisch Heylighen
1997: 78) das Netz durchstreifen und Informationen auswählen (vgl. Maes
1994). Das Denken wird zunehmend als modulares Aggregat verstanden (vgl. Minsky
1986), dessen Komponenten sich auslagern, formalisieren und technisch
beschleunigen lassen. Die Verschiebung von Bushs Modell eines gutmeinenden
Denkers zum oszillierenden Subjekt des WWW impliziert also noch etwas: War es
bei Bush und Nelson die assoziative Struktur des Denkens, die in die Apparate
und Programme externalisiert werden sollte, um eine Selektion zu
ermöglichen, so soll jetzt das Selektieren als Aufmerksamkeitstechnik
selbst in Programme – erst Suchmaschinen, dann Agenten – ausgelagert
werden. Aus der quasi-McLuhanschen Externalisierung der Strukturen des
Denkens in Hypertexten wird das postfordistische Outsourcing der
Vermögen, spezieller der Aufmerksamkeit des
Subjekts.[16] So könnte man
fast sagen, dass Subjekte mehr und mehr nach dem Modell gegenwärtiger
Unternehmen – die ja nun auch eine »Seele haben, was wirklich die
größte Schreckens-Meldung der Welt ist« (Deleuze 1993: 260)
– modelliert werden. Nicht mehr soll das Netz wie das Denken, sondern eher
das Denken als »mental marketplace« (Minsky 1986: 284) operieren. Ist
es nicht bezeichnend, dass sich in Deutschland, wenn auch in einem anderen
Zusammenhang, schon das Unwort ›Ich-AG‹ eingebürgert
hat?
*
Nur durch maschinelle und somit standardisierte
Formen der Wahl (vgl. Manovich 2001: 57-61) bleibt die radikale Inflation und
Diversifizierung der Angebote für die Subjekte halbwegs beherrschbar. Und
umgekehrt: Es wird zum maschinellen Zwang ständig ›frei‹
wählen zu müssen. Das Bild des Denkens ist: Jede/r will informiert
sein, jede/r will, um ›frei‹ zu sein, aus 8448 verschiedenen Jeans,
Zahnbürsten, Versicherungsangeboten und und und auswählen, jede/r will
ständig selektieren. Freiheit der Wahl ist die Notwendigkeit alle
Externalisierungen, jedes Outsourcing heranzuziehen, um überhaupt
wählen zu können. Vielleicht fehlt die
»Macht einer neuen Politik, die das Bild des Denkens stürzen
würde« (Deleuze 1997: 179), einer Politik, die Subjekte nicht als
ständig funktional selegierende Einheiten versteht. Gerade die
dysfunktionalen Anteile, das Zögern, die Unentschlossenheit beim
Wählen sollten in ihr Recht gesetzt werden. Vielleicht muss es ein Recht
geben, nicht entscheiden, wählen, selegieren zu müssen, nicht mit 8448
Alternativen terrorisiert zu werden, ein Recht auf Freiheit von
Information. Vielleicht muss es zum Recht werden einfach im Web (und auch in
Einkaufszentren) tagtraumhaft verloren surfen zu dürfen. Aber
vielleicht nehmen sich viele Netznutzer schon tagtäglich diese Rechte ...
Literatur
Altvater,
Elmar (1998): »Kehrseiten der Globalisierung [Ein Gespräch mit
Elmar Altvater]«. Telepolis 4/5, S.
54-61. Babiak, Ulrich (1997): Effektive
Suche im Internet. Suchstrategien, Methoden, Quellen, Cambridge u.a.:
O'Reilly. Baumgärtel, Tilman (1998):
»Die Suchmaschine GoTo verkauft die besten Plätze auf ihren
Trefferlisten«. http://www.heise.de/tp/deutsch/inhalt/te/1442/1.html
(Letzter Zugriff Februar
2003). Baumgärtel, Tilman (1997):
»Computer mit eingebauter Melancholie. Ein Gespräch mit dem
amerikanischen Kunsthistoriker Jonathan
Crary«. http://www.heise.de/tp/deutsch/inhalt/co/2106/2.html
(Letzter Zugriff Februar 2003). Berners-Lee,
Tim (1989/90): »Information Management: A Proposal«
http://www.w3.org/History/1989/proposal.html
(Letzter Zugriff Februar 2003). Berners-Lee,
Tim (1995): »Hypertext and our Collective Destiny«.
http://www.w3.org/Talks/9510_Bush/Talk.html
(Letzter Zugriff Februar 2003). Berners-Lee,
Tim (1996): »The World Wide Web: Past, Present und Future«.
http://www.w3.org/People/Berners-Lee/1996/ppf.html
(Letzter Zugriff Februar 2003). Berners-Lee,
Tim (1998): »The World Wide Web: A Very Short Personal History«.
http://www.w3.org/People/Berners-Lee/ShortHistory.html
(letzter Zugriff: Januar 2001). Berners-Lee,
Tim / Cailliau, Robert / Luotonen, Ari / Nielsen, Henri Frystyk / Secret,
Arthur (1994): »The World Wide Web«. Communications of the ACM
37/8, S. 76-82. Bush, Vannevar (1945):
»As we may think«. In: Atlantic Monthly 176, S.
101-108. Bush, Vannevar (1969): »Memex
Revisited«. In: Ders.: Science is not enough. New York: Morrow, S.
75-101. Carmody, Steven / Gross, Walter /
Nelson, Theodor H. / Rice, David / van Dam, Andries (1969): »A
Hypertext Editing System for the /360«. In: M. Faiman und J. Nievergelt
(Hg.), Pertinent Concepts in Computer Graphics, Urbana: University of
Illinois Press, S. 291-330. Crary, Jonathan
(2002): Aufmerksamkeit. Wahrnehmung und moderne Kultur.
Übersetzt von Heinz Jatho, Frankfurt/Main:
Suhrkamp. Deleuze, Gilles (1997):
Differenz und Wiederholung, München:
Fink. Deleuze, Gilles (1993):
»Postskriptum über die Kontrollgesellschaften«. In: Ders.:
Unterhandlungen 1972-1990. Frankfurt/Main: Suhrkamp, S. 254-262.
Gates, Bill (1997): Der Weg nach
vorn. Die Zukunft der Informationsgesellschaft, München:
Heyne. Hagen, Wolfgang (2002): »Bill
Luhan und Marshall McGates. Die Extension des Menschen als Extension der
USA«. http://www.whagen.de/publications/MarshallMcGates/LuhanGates.htm
(Letzter Zugriff Februar
2003). Heylighen, Francis (1997): »Vom
World Wide Web zum globalen Gehirn«. Telepolis 1, S.
69-81. Hirsch, Joachim (1995): Der
nationale Wettbewerbsstaat, Berlin und Amsterdam:
ID-Archiv. Hirsch, Joachim (2001):
»Postfordismus: Dimensionen eine neuen kapitalistischen
Formation«. In: Joachim Hirsch/Bob Jessop/Nicos Poulantzas (Hg.), Die
Zukunft des Staates, Hamburg: VSA, S.
171-209. Maes, Pattie (1994):
»Agents that Reduce Work and Information Overload«.
Communications of the ACM 37/7, S.
31-40. Manovich, Lev (2001): The Language
of New Media, Cambridge and London: MIT
Press. McLuhan, Marshall (1994): Die
magischen Kanäle, Dresden/Basel: Verlag der
Kunst. Minsky, Marvin (1986): The Society
of Mind, New York: Simon und
Schuster. Nelson, Theodor H. (1965): »A
File Structure for the Complex, the Changing and the Indeterminate«. In:
Proceedings of the 20th National Conference of the Association for
Computing Machinery (Cleveland, Ohio, 24-26 August 1965). New York: Winner,
S. 84-100. Nelson, Theodor H. (1987):
Computer Lib – Dream Machines, Redmond: Tempus Books/Microsoft
Press. Otlet, Paul (1934): Traité
de documentation: le livre sur le livre: théorie et pratique,
Brüssel: Editiones Mundaneum, Palais
Mondial. Pam, Andrew (1997): »Where
World Wide Web Went
Wrong«. http://xanadu.com.au/xanadu/6w-paper.html
(Letzter Zugriff Februar
2003). Schröter, Jens (2002):
»Biomorph. Anmerkungen zu einer neoliberalen Gentechnik-Utopie«.
Kunstforum 158, S. 84-95. Sennett,
Richard (1998): Der flexible Mensch. Die Kultur des neuen
Kapitalismus, Darmstadt: WBG. Terranova,
Tiziana (1996): »Digital Darwin: Nature, Evolution, and Control in the
Rhetoric of Electronic Communication«. New Formations 29, S.
69-83. Tholen, Georg Christoph (1994):
»Platzverweis. Unmögliche Zwischenspiele zwischen Mensch und
Maschine«. In: Norbert Bolz, Friedrich Kittler und Georg Christoph Tholen
(Hg.), Computer als Medium, München: Fink, S.
111-135.
Turkle, Sherry
(1998): Leben im Netz. Identität in
Zeiten des Internets, Reinbek bei Hamburg: Rowohlt.
Von Neumann, John (1945): »First Draft of a
Report on the
EDVAC«. http://www.cs.colorado.edu/~zathras/csci3155/EDVAC_vonNeumann.pdf
(Letzter Zugriff Februar
2003). Winkler, Hartmut (1997):
Docuverse. Zur Medientheorie der Computer, München:
Boer. Winkler, Hartmut (2002):
»Suchmaschinen. Meta-Medien im Internet?«. Navigationen 2/2, S.
33-42. Wolf, Gary (1995): »The Curse of
Xanadu«. http://www.wired.com/wired/archive/3.06/xanadu.html
(Letzter Zugriff Februar 2003). Zachary, Pascal
(1997): Endless Frontier: Vannevar Bush, Engineer of the American
Century, New York: Free Press.
[*]
Ich danke Bernhard Ebersohl für Recherchen und
Korrekturen.[1]
Vgl. http://www.google.de/ oder http://de.altavista.com/ u. v.
m.[2]
Dabei ist anzumerken, dass der Internet-Zugang in vielen Ländern der
sogenannten dritten Welt kaum möglich
ist.[3]
Im Folgenden werden zum Internet beitragende Entwicklungslinien wie die
verteilten Netzwerke mit packet-switching oder die Geschichte der Personal
Computer ausgeklammert. Ebenso wird nicht auf konzeptuelle Vorläufer der
Idee einer effizienten Organisation von Wissen eingegangen, wie Bibliotheken
oder Gedächtnistheater
etc.[4]
Der Vergleich zwischen dem Computer und dem menschlichen Gehirn ist nicht nur
bereits in John von Neumanns erstem Text zum Digitalrechner anzutreffen, in
welchem die heute noch immer standardisierte Rechnerarchitektur entwickelt wird
(vgl. Von Neumann 1945), sondern dominiert als Elektronengehirn-Metapher
die fünfziger bis in die späten sechziger Jahre, vielleicht bis zum
HAL 9000 in Kubricks Film 2001 – A Space Odyssey (GB,
1968).[5]
Bush kommt in seinem späteren Essay Memex revisited selbst auf
dieses Problem zu sprechen: »Another important feature of magnetic tape,
for our future memex, is that it can be erased. [...] When we take a photograph
we are stuck with it; to make a change we must take another whole
photograph« (1969:
88).[6]
Vgl. Carmody et al. 1969 zur Implementierung von Nelsons Konzept auf einem IBM
360.[7]
Da die Wiederauflage von 1987 die zwei Bücher (Computer Lib +
Dream Machines) so umfasst, dass sie »umgekehrt« aneinander
gebunden sind und jedes Buch daher eine eigene Paginierung hat, werden bei allen
folgenden Zitierungen Siglen (CL= Computer Lib; DM = Dream Machines)
eingesetzt.[8]
= Centre Européene pour la Recherche Nucléaire.
[9]
Das WWW beruhte auf Vorarbeiten Berners-Lees, dem schon 1980 erarbeiteten und
assoziative Verknüpfungen verschiedener Informationsbestände
erlaubenden Enquire-Programm. Vgl. Berners-Lee 1989/90: »In 1980, I
wrote a program for keeping track of software with which I was involved in the
PS control system. Called Enquire, it allowed one to store snippets of
information, and to link related pieces together in any way. To find
information, one progressed via the links from one sheet to another.« Tim
Berners-Lee bestreitet zwar, direkt von Nelson beeinflußt gewesen zu sein,
gibt aber zu: »Of course by 1989 there was hypertext as a common word,
hypertext help everywhere, so Ted's basic idea had been (sort of) implemented
and I came across it through many indirect routes«
(http://www.w3.org/People/Berners-Lee/FAQ.html, letzter Zugriff Februar 2003).
In Hypertext and our Collective Destiny (vgl. Berners-Lee 1995) bezieht
er sich explizit auf Bush und dessen MEMEX.
[10]
Bidirektionale Links werfen wiederum neue Probleme auf: Auf populäre Seiten
zeigen tausende von Links. Wie sollte die Zielseite alle diese Verweise sichtbar
machen können, ohne das selbst wieder ein undurchschaubares Chaos
entstünde? Wesentliche Vorschläge zur Lösung dieser Probleme
sind, die Verweise in ›Metadaten‹ unterzubringen und zu filtern z.B.
so, dass nur verweisende .edu-Seiten angezeigt
werden.[11]
Laut Berners-Lee et al.: 1994: 80 stieg die Zahl der registrierten Web-Server
von April 1993 bis April 1994 von 62 auf 829
an![12]
Wolf (1995) führt diesen Wunsch, das Vergessen vergessen zu können auf
Nelsons Persönlichkeit zurück: »I was already taping our
conversation, but Nelson clearly wanted his own record. Not because he was
concerned about being quoted correctly, but because his tape recorder and video
camera are weapons in an unending battle against amnesia. The inventor suffers
from an extreme case of Attention Deficit Disorder, a recently named
psychological syndrome whose symptoms include unusual sensitivity to
interruption. If he is stopped in the middle of anything, he forgets it
instantly. Only by running his own tape recorder could Nelson be confident that
his words would not float off, irrecoverably, into the atmosphere. Nelson's
anxiety about forgetting is complicated by the drugs he takes. For his ADD,
Nelson takes Cylert; for his agitation, he takes Prozac; for sleeplessness, he
takes Halcion. Halcion can produce aphasia: during our lunch, Nelson sometimes
found himself groping for a common word in the middle of a sentence.«
[13]
›Pool‹ kann übrigens nicht nur Tümpel oder Teich, sondern
bezeichnenderweise auch ›Konzern‹ bedeuten
...[14]
Die im übrigen gelegentlich leider auch zu Fälschungen oder Plagiaten
neigen
...[15]
Eine andere Weise, in der dieses Training stattfindet, ist die Distribution von
Bildern flexibler Körper, vgl. Schröter
2002.[16]
Es ist interessant, den Diskurs der ›Externalisierung‹ menschlicher
Vermögen in Medien (exemplarisch von McLuhan 1994 vertreten; kritisch dazu
Tholen 1994; Winkler 1997: 52/53) historisch mit ökonomischen Strategien
der Expansion und des Outsourcings zu verrechnen. Vgl. Hagen
2002.
|