Druckversion
 
8448 verschiedene Jeans.
Zu Wahl und Selektion im Internet.[*]

Jens Schröter




The prime action of use is selection,
and here we are halting indeed.

Vannevar Bush, As we may think, 1945.



Die Freiheit der Wahl hat quantitative Grenzen. Wird die Zahl der Alternativen zu hoch, so wird zuviel Zeit benötigt, um eine Entscheidung treffen zu können oder es wird angesichts eines unüberschaubaren Horizonts möglicher Alternativen jede Wahl durch den Verdacht belastet sein, vielleicht nicht die richtige gewesen zu sein. Anders gesagt: Nur durch Begrenzung ist die Freiheit der Wahl überhaupt möglich.
Nirgendwo wird dieses Problem so deutlich wie im Internet, das eine zuvor unbekannte Informationsvielfalt verspricht. Aber leider besitzt es keine zentrale Linkverwaltung oder ein andersgeartetes, einheitliches Verzeichnis: Ein solches ist, angesichts der dynamischen und ständig expandierenden Struktur des Netzes, zwar kaum vorstellbar, aber die Unübersichtlichkeit des Webs fordert geradezu Ordnungsstrukturen oder Hierarchien, die Signifikanz erzeugen. Winkler betont, dass Suchmaschinen wie AltaVista, Yahoo oder neuerdings Google![1] genau deswegen entwickelt worden sind. Und obwohl sie für die meisten alltäglichen Zwecke ausreichende Ergebnisse liefern, bleibt oft ein Schatten des Zweifels. So erfassen die Suchmaschinen nur Bruchteile des Webs, strukturieren die gelieferten Antworten auf für den User undurchschaubare (und manchmal schlicht kommerziell-manipulative) Weise vor oder liefern oft immer noch zu viele Ergebnisse (vgl. Winkler 2002). Es ist also (meistens) nicht schwer ›passende‹ Informationen zu finden – aber dafür ist es umso schwerer zu wissen, ob die gefundene Information die beste oder überhaupt eine richtige Antwort auf die gestellte Frage ist (es sei denn die Frage war ausreichend präzise gestellt, z.B. wenn man ein Buch in einem genau spezifizierten und autoritativen Katalog sucht).
Gerade der Verzicht auf bestimmte ordnungsstiftende Verfahren bei der Entwicklung des World Wide Web ermöglichte dessen radikale Ausdehnung in den neunziger Jahren des zwanzigsten Jahrhunderts. Es besteht also das Paradox, dass die Bedingungen der Expansion des Informationsangebots zugleich die Selektion aus diesem Angebot erschweren: Die enorme Freiheit, Wahl zu bieten[2], droht sich, so betrachtet, in die Unmöglichkeit der ›freien‹ Auswahl zu verkehren.

Und das ist umso merkwürdiger, als das heutige sogenannte ›Internet‹ historisch aus einer Verkettung sehr unterschiedlicher Entwicklungen entstanden ist, von denen mindestens eine – und nur diese wird hier diskutiert – genau die Frage, wie nämlich mit der ständig wachsenden Fülle an Informationen noch umzugehen sei, zu beantworten versuchte.[3] Diese Konzeption, die um 1965 durch Ted Nelson den Namen Hypertext bekam, wurde schon 1934 in Paul Otlets fast vergessenem Traité de documentation und, weit weniger vergessen, 1945 in Vannevar Bushs Aufsatz As We May Think angedacht. Bei Bush und bei Nelson wird angestrebt, die Masse an Informationen nach einem Modell oder Bild des Denkens ›assoziativ‹ und – bei Nelson auch durch eine zentrale Linkverwaltung – überschaubar zu strukturieren: So soll Selektion ermöglicht werden. Daraus wird die geradezu utopische Hoffnung auf ein universelles Archiv abgeleitet, das alles Wissen der Menschheit nicht nur umfasst, sondern auch auffindbar hält – aber heute führt das Internet dieses Ziel zumindest in mancher Hinsicht ad absurdum. Wie und warum dies geschah und welche Subjekt- und Machteffekte dadurch erzeugt werden könnten, sind die Fragen, die hier diskutiert werden sollen.

*

Im Juni 1945 erschien im Heft Nr. 176 des Atlantic Monthly Vannevar Bushs Aufsatz As We May Think (vgl. Bush 1945). Bush koordinierte im Zweiten Weltkrieg die Nutzung der Wissenschaften für die Kriegsführung und stand dabei zeitweise mehr als 6000 Wissenschaftlern vor. Dabei kam es genau zu den Problemen des Zugriffs auf Wissen und der Kommunikation zwischen Wissenschaftlern, für die Bush Lösungen vorzuschlagen sucht (vgl. Zachary 1997: 269). Sein Ausgangsproblem bestand darin, inwiefern Wissenschaftler noch effektiv arbeiten können, wenn einerseits eine ständig wachsende Menge an Wissen und andererseits der Zwang zu immer größerer Spezialisierung zusammenkommen. Bush beklagt, dass die Methoden der Übertragung, Speicherung, Ordnung und Selektion des Wissens alt und inadäquat seien. Gegen diese traditionellen Methoden hält er die Technikfiktion MEMEX. An dieser, mit auf Mikrofilm gespeicherten Daten operierenden Anordnung sollen hier nur zwei Aspekte herausgestellt werden.

Erstens bemängelt Bush, dass die traditionelle Ordnung des Wissens vor allem durch die künstlichen und uneffektiven Indizierungssysteme geprägt sei. Dagegen hält er die ›natürliche‹ Ordnung des menschlichen Denkens:

»It [= »human mind«] operates by association. With one item in its grasp, it snaps instantly to the next that is suggested by the association of thoughts, in accordance with some intricate web of trails carried by the cells of the brain [...]. The first idea, however, to be drawn from the analogy concerns selection. Selection by association, rather than by indexing, may yet be mechanized« (Bush 1945: 106).

Gegenüber der Selektion aus einem z.B. alphabetisch organisierten Archiv, in welchem inhaltlich völlig disparate Materialien in einer Kategorie verbunden sind, ist im MEMEX-Konzept entscheidend, dass jeder Benutzer eigene Querverbindungen zwischen Materialien aufbauen kann, indem auf den entsprechenden Mikrofilmvorlagen Markierungen aufgebracht werden. Die so entstehenden Vernetzungen sind auch für andere Benutzer des Archivs einseh- und ergänzbar. So soll im Laufe der Zeit eine völlig neue Form der Enzyklopädie entstehen, in der zusammengehörige Daten assoziativ verknüpft, mithin leicht auffindbar sind.
Das menschliche Bewusstsein ist aber zweitens für Bush nicht nur Vorbild – es hat auch Mängel. Insbesondere das Vergessen, das Verblassen der einmal verknüpften Pfade (trails) zwischen verschiedenen Informationen soll im MEMEX (= Memory Extender) überwunden werden. So bahnt sich bei Bush bereits eine Vorstellung an, die bei Nelson geradezu eskalieren wird: Das Phantasma, alles müsse auf immer in den assoziativ organisierten »Superenzyklopädien« gespeichert werden. So spricht Bush am Schluss seines Aufsatzes vom anzustrebenden »world's record« (1945: 108), der alles Wissen umfassen soll.

Jedoch ist weniger klar, wie die dann entstehenden gigantischen Archive beherrscht werden können. Denn in Bushs mentalistischem Konzept[4] wird übersehen, dass das Vergessen in der Ökonomie des menschlichen Gedächtnisses eine wichtige Funktion erfüllt. Vergessenes wird nicht einfach gelöscht, sondern wird – wie die Psychoanalyse gezeigt hat – in Form von Verdichtung und Verschiebung aufgehoben: »Die Vorstellung, praktisch unbegrenzte Quantitäten mit Hilfe einer neuen Zugriffstechnik dennoch beherrschen zu können, lebt von der Utopie, vollständig ohne Verdichtung auszukommen, ja, sie ist ein Gegenmodell zu Verdichtung selbst« (Winkler 1997: 174). Außerdem führt Bushs Idee, dass die einmal erstellten Verknüpfungen zwischen verschiedenen Dokumenten nicht verlöschen sollen, was schlicht auf der Tatsache beruht, dass Bush über ein auf Mikrofilm beruhendes Dispositiv schreibt, in dem trails auch gar nicht gelöscht werden können, dazu, dass die entstehenden, assoziativen Vernetzungen starr sind. Sie können kaum noch verändert werden – z.B. wenn sich irgendwann herausstellen sollte, dass einige der in einer gegebenen Assoziationskette befindlichen Dokumente im Lichte neuerer Ergebnisse fehlerhaft sind. Die Lösch- und Änderbarkeit der Verknüpfungen ist erst dann möglich, wenn sie, statt irreversible Inskriptionen in photographische Emulsionen zu sein, zu löschbaren elektronischen Aufzeichnungen oder gar Software werden.[5]

Den letzten Schritt geht in den sechziger Jahren Ted Nelson. Er diskutiert im Unterschied zu Bush keine maschinellen Vorrichtungen, sondern eine bestimmte »information structure, a file structure, and a file language« (Nelson 1965: 84).[6] Aus den bei Bush vom User erzeugten trails, die nicht verlöschen, werden von der Software verwaltete links, die ebenso wie die verlinkten Files löschbar sind. Damit unter diesen Bedingungen aber eine Konsistenz der Verweisungen gewährleistet bleibt, sieht Nelson ein zentrales Verzeichnis aller gesetzten Links (›link table‹) vor (Nelson 1965: 90). Nelson bemerkt weiter:

»Systems of paper have grave limitations for either organizing or presenting ideas [...] Let me introduce the word ›hypertext‹ to mean a body of written or pictorial material interconnected in such a complex way that it could not conveniently be presented or represented on paper. [...] Such a system could grow indefinitely, gradually including more and more of the world's written knowledge« (Nelson 1965: 96).

Besonders hervorgehoben seien zwei Aspekte, die stark an Bush erinnern. Erstens deutet Nelson an, dass der Hypertext gegenüber dem bisherigen Aufschreibesystem (Papier und Schreibzeug) eine für die Organisation und Präsentation von Gedanken etc. angemessenere Form darstellt. Zweitens steht auch für Nelson das endlose Wachstum des Systems fest – solange bis es alles Wissen der Welt umfasst.

Gerade diese letzten beiden Vorstellungen weiten sich noch aus: 1974 erscheint im Eigenverlag sein Buch, oder besser, seine beiden Bücher Dream Machines: New Freedoms through Computer Screens – A Minority Report / Computer Lib: You Can and Must Understand Computers Now (vgl. Nelson 1987).[7] Dort schreibt er:

»By ›hypertext‹ I mean non-sequential writing. Ordinary writing is sequential for two reasons. First it grew out of speech and speech-making, which have to be sequential; and second, because books are not convenient to read except in sequence. But the structures of ideas are not sequential« (Nelson 1987 DM: 29).

Der Hypertext ist für Nelson die einzig richtige Form, in der sich das schon immer hypertextuelle Denken ausdrücken kann, soll und muss. Bushs und vor allem Nelsons Konzepte der assoziativen Organisation der Archive sind logozentrisch, d.h. sie folgen der Illusion, dass es Formen der Anordnung von Zeichen gibt, die sich näher an der Intelligibilität, am ›lebendigen‹ Geist befinden als die ›tote‹, lineare Schrift – was sich auch an Nelsons Idee, Schrift sei eine Ableitung des Gesprochenen und seiner merkwürdigen Vorstellung, Bücher seien praktisch nur linear zu lesen, zeigt. Diese logozentrische Struktur erlaubt die unbeschränkte Expansion des Archivs:

»A grand hypertext, then, folks, would be a hypertext consisting of »everything« written about a subject, or vaguely relevant to it. [...] And then, of course, you see the real dream. The real dream is for everything to be in the hypertext« (Nelson 1987 DM: 32; Hervorhebung J. S.).

Wieder taucht hier die Utopie eines universellen Archivs auf, das absolut vollständig und verlustfrei ist. Nelson schreibt explizit: »The possibility of using a hypertext network as a universal archive is a dramatic development« (Nelson 1987 DM: 33).

Es bleibt zu sagen, dass Nelson mit seinen Konzepten, die er im Laufe der Jahre zu der Software XANADU verdichtete, wenig Erfolg hatte. Die rasche Ausbreitung einer hypertextuellen Software gelang erst nach 1989. In diesem Jahr entwickelte eine Gruppe von Wissenschaftlern um Tim Berners-Lee eine Applikation, um den am CERN[8] arbeitenden Forschergruppen den Austausch und die Organisation von Information zu erleichtern: Das World Wide Web (= WWW).[9] Nach der Freigabe des WWW am 30.4.1993 entstanden rasch Browser wie Mosaic und dann Netscape Navigator und später noch Microsofts Internet Explorer. Durch diese Software wurde der Umgang mit den Datennetzen vereinfacht. Eine rasche Expansion setzte ein. Diese hatte ihre Möglichkeitsbedingung im speziellen Design des WWW, denn es gibt – anders als in Nelsons Entwurf – kein zentrales Linkverzeichnis:

»Typically, though, hypertext systems were built around a database of links. [...] [This] did guarantee that links would be consistent, and links to documents would be removed when documents were removed. The removal of this feature was the principle compromise made in the W3 [= WWW] architecture, which then, by allowing references to be made without consultation with the destination allowed the scalability which the later growth of the web exploited« (Berners-Lee 1996).

Das bedeutet also, dass Links, die auf eine bestimmte Seite zeigen, nicht verschwinden, wenn die Zielseite selbst verschwindet. Ferner sind die Links im WWW – auch anders als in Nelsons Xanadu – unidirektional und univisibel, d.h. nur vom zeigenden Dokument aus setzbar und sichtbar: Auch dies macht die link maintenance problematisch, da ein Anbieter, der eine Website aus dem Netz nimmt, keine Möglichkeit hat festzustellen, welche Anbieter Links auf diese Seite gesetzt haben und folglich diese Anbieter auch nicht gezielt über das Verschwinden der Seite informieren kann (vgl. Pam 1997).[10] Selbst wenn die Seite nur an eine andere Adresse verschoben wird, zeigt der Link nicht mehr korrekt auf das Dokument, da die Links nicht das Dokument, sondern seinen Ort adressieren: Andere Hypertextsysteme kennen dagegen den Unterschied zwischen document identifiern und document locators – im WWW gibt es dagegen nur URLs (Uniform Resource Locators). Der Verzicht auf diese Features erlaubt aber – und Berners-Lee stellt das ja explizit heraus – die ungebremste Expansion.[11]

*

Nelson war klar, dass nur ein zentrales Linkverzeichnis in dem Fall, dass die links und/oder die verlinkten Dokumente löschbar sein würden, die Konsistenz des Archivs gewährleisten könne. Wenn ein solcher Mechanismus aber fehlt, müssen jene positiven Funktionen des Vergessens wieder eine Rolle spielen, die Bush und auch Nelson, insofern dieser trotz Löschbarkeit der Daten ein universelles Archiv anstrebte, vermeiden wollten.[12] So weist Winkler etwa darauf hin, dass es sinnvoll wäre, wenn es im WWW Verfallsdaten für Websites gäbe. Nur so sei absehbar, ob und wenn ja, wann eine Information aus dem Netz genommen wird (was das Zitieren von Websites und die eigene Linkverwaltung erleichtern würde) und schließlich könnten Sites nach Ablauf einer gewissen Frist automatisch vom Server gelöscht werden. Da es ein solches Feature aber nicht gibt, füllt sich das Internet zunehmend mit Dokumenten, die vor Jahren zum letzten Mal aktualisiert wurden und deren Informationsgehalt gleich Null ist. Solche Sites werden trotzdem bei einer Internet-Suche mit angezeigt und erschweren das Auffinden relevanter Informationen, zumal viele Dokumente in zahlreichen verschiedenen Versionen vorliegen und oft nicht ermittelt werden kann, welche die gültige ist (vgl. Winkler 1997: 175/176). Ob das WWW Mechanismen implementieren könnte, die den Prozessen der Verdichtung und Verschiebung ähneln, ist noch unklar.

Berners-Lee beruft sich in ähnlicher Weise wie Bush und Nelson auf den Vergleich zum Gehirn. So bemerkt er, dass sein Hypertext-System die »associations between disparate things« ermögliche »although this is something the brain has always done relatively well« (Berners-Lee 1998). Andernorts heißt es schlicht: »[W]eb documents have links, and neurons have synapses« (Berners-Lee 1995). Diese Metaphern verdecken jedoch, dass in seinem Konzept – eben aufgrund des fehlenden zentralen link tables und irgendeiner geregelten Form des Verschwindens von nicht mehr aktuellen Informationen – ein ständig wachsender Datenozean relativ wenig strukturierter Information entsteht: Man stelle sich nur vor, Erinnerungen würden beständig ihren Platz wechseln und die zerebralen Verweise auf sie ins Leere gehen; oder jede Erinnerung würde sich in vielfältige mehr- oder weniger verschiedene Versionen zerstreuen, ohne dass man wüsste welche die richtige ist... In dem sich so herausbildenden »pool of human knowledge« (Berners-Lee et al. 1994: 76) sind Informationen nicht mehr sorgfältig (assoziativ) angeordnet, das langsame Verfolgen der Verweisungsketten erlaubend, sondern kämpfen – wie Fische in einem ›pool‹[13] – um ihr Überleben, darum, wahrgenommen zu werden. Dass das Netz bald mit darwinisierenden Metaphern beschrieben wurde, ist also naheliegend (vgl. Terranova 1996). Aus dem wohlgeordneten universellen Archiv wird mehr und mehr eine Art marktschreierischer Supermarkt. Schon 1991 war das Verbot der kommerziellen Aktivitäten in Datennetzen aufgehoben worden.

Im Sinne von Jonathan Crarys Studie zur Archäologie der Aufmerksamkeit könnte man argumentieren, dass die »Logik des Zusammenhanglosen« (2002: 37) – eine Beschreibung, die durchaus auf das WWW zutreffen könnte – charakteristisch für die (kapitalistische) Moderne sei, gleichzeitig jedoch ist »diese Logik jedoch darauf aus, ein disziplinäres Regime der Aufmerksamkeit durchzusetzen« (23). Die »wechselnden Konfigurationen des Kapitalismus, mit ihrer endlosen Abfolge von neuen Produkten, Reizquellen und Informationsströmen [zwingen] Aufmerksamkeit und Zerstreuung ständig über neue Grenzen und Schwellen [...] und [reagieren] dann mit neuen Methoden des Managements und der Regulierung von Aufmerksamkeit« (ebd.). Zweck der Sache ist die Produktion eines Subjekts, das »produktiv, lenkbar, kalkulierbar« (16) und mithin effizient ist. Doch zugleich erzeugt diese »Artikulation eines Subjekts über das Vermögen der Aufmerksamkeit zugleich ein Subjekt [...], das sich solchen disziplinären Imperativen« (23) tendenziell entzieht. Crary verdeutlicht dies an einem Subjekt, dessen gewünschte Aufmerksamkeit in eine absorptive, wachtraumähnliche Hypnose übergeht.

*

Zu dem Zeitpunkt als das WWW entstand, kam zu den ›wechselnden Konfigurationen des Kapitalismus‹ eine neue Variante hinzu. Es seien hier keine einfachen kausalen Verbindungen unterstellt. Weder der Kollaps des Realsozialismus just 1989/90 noch die Emergenz des so genannten ›Neoliberalismus‹ oder besser: postfordistischen Akkumulationsmodells (vgl. Hirsch 1995: 75-94; 2001) – mindestens schon seit Anfang der siebziger Jahre des 20. Jahrhunderts und dann durch den Zusammenbruch des ›Systemkonkurrenten Realsozialismus‹ zu Triumphgeheul gesteigert – sind monokausal auf die Erfindung des WWW rückführbar. Ebenso kann das WWW nur schwer in Rekurs auf diese Ereignisse erklärt werden. Doch die Struktur des WWW ›passt‹ einfach sehr gut zu der sich herausbildenden politisch-ökonomischen Konfiguration. So entspricht z.B. die durch den Verzicht auf ein zentrales Linkverzeichnis ermöglichte rasche Expansion des WWW der raschen Tendenz des nunmehr ›globalen Kapitalismus‹ sich ständig auszubreiten; die vernetzte Kommunikation und der Datentransfer per Internet erlauben, Unternehmensteile per Outsourcing oder Offshoring an andere Orte zu verschieben; generell passt die Programmierbarkeit von Computern zur flexiblen Spezialisierung der Produktion etc. (vgl. Altvater 1998: 60; Hirsch 1995: 88/89; Sennett 1998: 65). Es ist naheliegend, dass der postfordistischen Formation auch ein oder mehrere neue Formen von Subjektivität entsprechen, die möglicherweise mit dem expansiven und ungeordneten WWW korrelieren.

Das informationsverarbeitende Subjekt Bushs und Nelsons – und es sei unterstrichen, dass der mentalistische Vergleich zwischen Gehirn und Hypertext nicht nur ein Bild des Hypertextes, sondern eben auch ein Bild des Denkens bzw. des Subjekts zeichnet – war noch eine Art Wissenschaftler oder Schriftsteller, der gezielt und systematisch Informationen auswählt und ggf. eigene Überlegungen und Verknüpfungen zum Archiv hinzufügt:

»The owner of the memex, let us say, is interested in the origin and properties of the bow and arrow. Specifically he is studying why the short Turkish bow was apparently superior to the English long bow in the skirmishes of the Crusades. He has dozens of possibly pertinent books and articles in his memex. First he runs through an encyclopedia, finds an interesting but sketchy article, leaves it projected. Next, in a history, he finds another pertinent item, and ties the two together. Thus he goes, building a trail of many items. Occasionally he inserts a comment of his own, either linking it into the main trail or joining it by a side trail to a particular item. When it becomes evident that the elastic properties of available materials had a great deal to do with the bow, he branches off on a side trail which takes him through textbooks on elasticity and tables of physical constants. He inserts a page of longhand analysis of his own. Thus he builds a trail of his interest through the maze of materials available to him.« (Bush 1945: 107).

Bushs Beispiel suggeriert, dass im Memex nur sorgfältig recherchierte Informationen eingegeben oder sinnvolle und nutzbringende Verknüpfungen angelegt werden. Es unterstellt, dass das »Denken eine gute Natur und der Denker einen guten Willen besitzen« (Deleuze 1997: 172). Die Selektion aus dem universellen Archiv sollte in Bushs und Nelson Konzepten durch die logozentrische Korrelation zwischen der Struktur des Hypertextes und der Struktur des Denkens gewissermaßen ›natürlich‹ und ›selbstbestimmt‹ ermöglicht werden. So schien eine distanzierte, souveräne Wahl aus klar überschaubaren Alternativen garantiert. Und noch Berners-Lee konnte sich am CERN, also in einer Wissenschaftlerkultur, implizit darauf verlassen, dass nur sinnvolle und richtige Informationen eingegeben werden, dass alle daran interessiert sind, die Übersicht zu behalten. Die Expansivität des WWW konnte so nicht als Problem erscheinen. Aber im mittlerweile für jeden, auch außerhalb von Wissenschaftlerkulturen[14], zugängigen WWW garantiert keine »Neigung zum Wahren« (ebd.: 173) – außer in autoritativen Bibliothekskatalogen, Wissenschaftsseiten etc. –, dass nicht neben zahllosen ungeprüften Informationen auch Verschwörungstheorien, persönliche Idiosynkrasien, vorsätzliche Lügen, politische Extremismen etc. Eingang finden.

In diesem Rauschen ist es, vor allem für kommerzielle Anbieter, von zentraler Wichtigkeit, überhaupt wahrgenommen zu werden, z.B. dadurch, dass in bestimmten Suchmaschinen die ersten Plätze auf der Trefferliste an meistbietende verkauft werden (vgl. Baumgärtel 1998). Die Ausbreitung des e-commerce wird von ganz konventioneller Fernseh- und Printmedienwerbung begleitet, mit der die Firmen auf ihre Netzpräsenz hinweisen wollen. Und wer mehr Werbung machen kann, erhöht seine Chancen mehr Links auf sich zu ziehen. Das WWW macht den User zu einem Kunden und potentiellen Käufer, dessen Aufmerksamkeit auf ein bestimmtes Segment des unüberschaubaren Angebots gelenkt werden muss. Die souveräne Distanz des wählenden Subjekts ist hier nicht mehr gegeben.

Aber das postfordistische Akkumulationsmodell fordert vom Subjekt auch nicht souveräne Distanz und Stabilität, sondern vor allem Flexibilität (vgl. Sennett 1998) und Selbstdisziplin in der Anpassung an Erfordernisse des Marktes (vgl. Hirsch 2001: 200). Das bedeutet zunächst die konkrete Forderung, der oder die Einzelne müsse sich eben beruflich anpassen, räumlich mobil und ständig bereit sein, mehr und anderes zu lernen. Es bedeutet auch, stets mehr und anderes konsumieren zu wollen (Mode). Implizit wird daraus schnell der sehr viel allgemeinere Imperativ, ständig ein(e) Andere(r) sein zu können. Gerade das WWW scheint dieser Forderung entgegenzukommen – worauf etwa Sherry Turkle in ihrer Studie zur Identität in Zeiten des Internet hinweist. Über ihre eher bekannte These hinaus, dass die Homepages, MUDs und Chatrooms etc. die spielerische Arbeit an der eigenen Subjektivität erlauben und so quasi-therapeutische Effekte erzielen können, bemerkt sie ganz explizit, dass die Rollenspiele im Internet als »Flexibilitätsübungen« mit dem Zweck der Anpassung »an neue Arbeitsplätze, neue Berufslaufbahnen, neue Geschlechterrollen und neue Technologien« (1998: 415/416) verstanden werden können.[15]

So gesehen verkörpert das gegenwärtige WWW »die kulturelle Logik des Kapitalismus«, die verlangt, »dass wir unsere Aufmerksamkeit ununterbrochen von einer Sache zu einer anderen ›umschalten‹ können« (Crary in Baumgärtel 1997). Die spezifische Form seiner Links, durch die User in einem relativ ungeordneten Informationsozean herumsurfen, ist Ausdruck dieser Logik. Zugleich soll das Subjekt sich nicht verlieren, tagtraumhaft in den Fluten des Webs versinken – was vielleicht sogar eine Form des Widerstandes wäre (vgl. Crary 2002: 67). Es muss gelernt werden, trotz der sich ständig ändernden Ansprüche und Ansprachen den ›Überblick zu wahren‹. Daher gibt es Handbücher, die Usern die Effiziente Suche im Internet beibringen wollen, damit sie vom »Freizeit-Surfen hin zur professionellen Recherche« (Babiak 1997: 9) kommen. Subjekte sollen effektiv sein. Und sie sollen mobil und flexibel sein, ohne doch zu zersplittern, eben »wellenhaft [...]. Überall hat das Surfen schon die alten Sportarten abgelöst« (Deleuze 1993: 258). Nicht mehr nur die körperliche, sondern auch die informationsverarbeitende Fitness soll gestärkt werden. Auch Turkle fordert, dass das beschworene multiple Selbst einen stabilen Kern besitzen muss: »Ohne Kohärenzprinzip verliert sich das Selbst in alle Richtungen. [Die multiple Identität] ist nicht annehmbar, wenn sie lähmende Verwirrung bedeutet« (Turkle 1998: 419/420). Das Oszillieren zwischen Zerstreuung, Verstreuung, Suche und Refokussierung, Fund im WWW ist ein Training für das von der postfordistischen ›Informationsgesellschaft‹ geforderte Subjekt. Der Umgang mit den schon genannten Suchmaschinen, die die Dispersion der Informationsangebote temporär rezentrieren und z.B. durch 8448 Ergebnisse wieder zerstreuen, ist ein Beispiel dafür.

Übrigens ist die Zahl 8448 nicht willkürlich gewählt. Denn der ›große Vorsitzende‹ Bill Gates lehrt uns weise und genial über die Potentiale einer individualisierten Produktion:

»In einer wachsenden Zahl von Einzelhandelsgeschäften können sich die Kundinnen für einen Aufpreis von ungefähr zehn Dollar ihre Jeans nach genauen Angaben anfertigen lassen – wobei sie zwischen 8448 verschiedenen Kombinationen auf Hüft- und Taillenmaßen, Beinlängen und Schnitten wählen können« (Gates 1997: 264).

Dies zeigt das – hier bezeichnenderweise auf konsumierende Frauen zugeschnittene – (post)fordistische Modell von ›Freiheit‹, die darin bestehen soll, aus 8448 Alternativen wählen zu können, ohne dass klar wäre, wie eine solche Fülle von Möglichkeiten zu überblicken ist. Dieses Konzept passt sehr gut zum WWW, dem universellen Supermarkt, dessen Hauptproblem ja gerade darin besteht, den User vor eine unüberschaubare Fülle möglicher Informationen zu stellen, eine Fülle, die oft als Ausweis von ›subversiver‹ Meinungsvielfalt und Informationsreichtum gepriesen wird. Aber: »Eine Recherche, die [8448, J. S.] Antworten zum Resultat hat, hat nicht Reichtum, sondern weißes Rauschen geliefert« (Winkler 1997: 176). Es stellt sich offenkundig die Frage, ob die maßlose Inflation von Information nicht die heutige Version der Zensur ist. Statt Informationen zu verweigern oder zu unterdrücken, wird ihre Fülle durch die mit dem Netz, Radio- und Fernsehprogrammen gegebenen 8448 Alternativen so weit vermehrt, dass ebenfalls jede ›freie Wahl‹ unmöglich wird. Ist diese Behauptung nicht durch Shannons informationstheoretische Analyse gestützt, die besagt, dass es nur zwischen Redundanz (restriktiver Zensur) und Rauschen (inflationärer Zensur) Information gibt? Aber vielleicht geht es gar nicht mehr um Information, vielleicht dient das WWW vielmehr dem Zweck, die Wahl aus einer ständig sich verändernden und ausdehnenden Produktpalette einzuüben, denn nur so kann man effektiver Konsument des globalen, permanent expandierenden Marktes werden.

Und am Horizont zeichnet sich schon eine neue Variante der Selektion im Internet ab. Es wird diskutiert, ob nicht intelligente Agenten vom Umgang mit den Nutzern lernen und so selbsttätig als »externe Gedanken« (so symptomatisch Heylighen 1997: 78) das Netz durchstreifen und Informationen auswählen (vgl. Maes 1994). Das Denken wird zunehmend als modulares Aggregat verstanden (vgl. Minsky 1986), dessen Komponenten sich auslagern, formalisieren und technisch beschleunigen lassen. Die Verschiebung von Bushs Modell eines gutmeinenden Denkers zum oszillierenden Subjekt des WWW impliziert also noch etwas: War es bei Bush und Nelson die assoziative Struktur des Denkens, die in die Apparate und Programme externalisiert werden sollte, um eine Selektion zu ermöglichen, so soll jetzt das Selektieren als Aufmerksamkeitstechnik selbst in Programme – erst Suchmaschinen, dann Agenten – ausgelagert werden. Aus der quasi-McLuhanschen Externalisierung der Strukturen des Denkens in Hypertexten wird das postfordistische Outsourcing der Vermögen, spezieller der Aufmerksamkeit des Subjekts.[16] So könnte man fast sagen, dass Subjekte mehr und mehr nach dem Modell gegenwärtiger Unternehmen – die ja nun auch eine »Seele haben, was wirklich die größte Schreckens-Meldung der Welt ist« (Deleuze 1993: 260) – modelliert werden. Nicht mehr soll das Netz wie das Denken, sondern eher das Denken als »mental marketplace« (Minsky 1986: 284) operieren. Ist es nicht bezeichnend, dass sich in Deutschland, wenn auch in einem anderen Zusammenhang, schon das Unwort ›Ich-AG‹ eingebürgert hat?

*

Nur durch maschinelle und somit standardisierte Formen der Wahl (vgl. Manovich 2001: 57-61) bleibt die radikale Inflation und Diversifizierung der Angebote für die Subjekte halbwegs beherrschbar. Und umgekehrt: Es wird zum maschinellen Zwang ständig ›frei‹ wählen zu müssen. Das Bild des Denkens ist: Jede/r will informiert sein, jede/r will, um ›frei‹ zu sein, aus 8448 verschiedenen Jeans, Zahnbürsten, Versicherungsangeboten und und und auswählen, jede/r will ständig selektieren. Freiheit der Wahl ist die Notwendigkeit alle Externalisierungen, jedes Outsourcing heranzuziehen, um überhaupt wählen zu können.
Vielleicht fehlt die »Macht einer neuen Politik, die das Bild des Denkens stürzen würde« (Deleuze 1997: 179), einer Politik, die Subjekte nicht als ständig funktional selegierende Einheiten versteht. Gerade die dysfunktionalen Anteile, das Zögern, die Unentschlossenheit beim Wählen sollten in ihr Recht gesetzt werden. Vielleicht muss es ein Recht geben, nicht entscheiden, wählen, selegieren zu müssen, nicht mit 8448 Alternativen terrorisiert zu werden, ein Recht auf Freiheit von Information. Vielleicht muss es zum Recht werden einfach im Web (und auch in Einkaufszentren) tagtraumhaft verloren surfen zu dürfen. Aber vielleicht nehmen sich viele Netznutzer schon tagtäglich diese Rechte ...


Literatur

Altvater, Elmar (1998): »Kehrseiten der Globalisierung [Ein Gespräch mit Elmar Altvater]«. Telepolis 4/5, S. 54-61.
Babiak, Ulrich (1997): Effektive Suche im Internet. Suchstrategien, Methoden, Quellen, Cambridge u.a.: O'Reilly.
Baumgärtel, Tilman (1998): »Die Suchmaschine GoTo verkauft die besten Plätze auf ihren Trefferlisten«. http://www.heise.de/tp/deutsch/inhalt/te/1442/1.html (Letzter Zugriff Februar 2003).
Baumgärtel, Tilman (1997): »Computer mit eingebauter Melancholie. Ein Gespräch mit dem amerikanischen Kunsthistoriker Jonathan Crary«.
http://www.heise.de/tp/deutsch/inhalt/co/2106/2.html (Letzter Zugriff Februar 2003).
Berners-Lee, Tim (1989/90): »Information Management: A Proposal«
http://www.w3.org/History/1989/proposal.html (Letzter Zugriff Februar 2003).
Berners-Lee, Tim (1995): »Hypertext and our Collective Destiny«.
http://www.w3.org/Talks/9510_Bush/Talk.html (Letzter Zugriff Februar 2003).
Berners-Lee, Tim (1996): »The World Wide Web: Past, Present und Future«.
http://www.w3.org/People/Berners-Lee/1996/ppf.html (Letzter Zugriff Februar 2003).
Berners-Lee, Tim (1998): »The World Wide Web: A Very Short Personal History«.
http://www.w3.org/People/Berners-Lee/ShortHistory.html (letzter Zugriff: Januar 2001).
Berners-Lee, Tim / Cailliau, Robert / Luotonen, Ari / Nielsen, Henri Frystyk / Secret, Arthur (1994): »The World Wide Web«. Communications of the ACM 37/8, S. 76-82.
Bush, Vannevar (1945): »As we may think«. In: Atlantic Monthly 176, S. 101-108.
Bush, Vannevar (1969): »Memex Revisited«. In: Ders.: Science is not enough. New York: Morrow, S. 75-101.
Carmody, Steven / Gross, Walter / Nelson, Theodor H. / Rice, David / van Dam, Andries (1969): »A Hypertext Editing System for the /360«. In: M. Faiman und J. Nievergelt (Hg.), Pertinent Concepts in Computer Graphics, Urbana: University of Illinois Press, S. 291-330.
Crary, Jonathan (2002): Aufmerksamkeit. Wahrnehmung und moderne Kultur. Übersetzt von Heinz Jatho, Frankfurt/Main: Suhrkamp.
Deleuze, Gilles (1997): Differenz und Wiederholung, München: Fink.
Deleuze, Gilles (1993): »Postskriptum über die Kontrollgesellschaften«. In: Ders.: Unterhandlungen 1972-1990. Frankfurt/Main: Suhrkamp, S. 254-262.
Gates, Bill (1997): Der Weg nach vorn. Die Zukunft der Informationsgesellschaft, München: Heyne.
Hagen, Wolfgang (2002): »Bill Luhan und Marshall McGates. Die Extension des Menschen als Extension der USA«.
http://www.whagen.de/publications/MarshallMcGates/LuhanGates.htm
(Letzter Zugriff Februar 2003).
Heylighen, Francis (1997): »Vom World Wide Web zum globalen Gehirn«. Telepolis 1, S. 69-81.
Hirsch, Joachim (1995): Der nationale Wettbewerbsstaat, Berlin und Amsterdam: ID-Archiv.
Hirsch, Joachim (2001): »Postfordismus: Dimensionen eine neuen kapitalistischen Formation«. In: Joachim Hirsch/Bob Jessop/Nicos Poulantzas (Hg.), Die Zukunft des Staates, Hamburg: VSA, S. 171-209.
Maes, Pattie (1994): »Agents that Reduce Work and Information Overload«. Communications of the ACM 37/7, S. 31-40.
Manovich, Lev (2001): The Language of New Media, Cambridge and London: MIT Press.
McLuhan, Marshall (1994): Die magischen Kanäle, Dresden/Basel: Verlag der Kunst.
Minsky, Marvin (1986): The Society of Mind, New York: Simon und Schuster.
Nelson, Theodor H. (1965): »A File Structure for the Complex, the Changing and the Indeterminate«. In: Proceedings of the 20th National Conference of the Association for Computing Machinery (Cleveland, Ohio, 24-26 August 1965). New York: Winner, S. 84-100.
Nelson, Theodor H. (1987): Computer Lib – Dream Machines, Redmond: Tempus Books/Microsoft Press.
Otlet, Paul (1934): Traité de documentation: le livre sur le livre: théorie et pratique, Brüssel: Editiones Mundaneum, Palais Mondial.
Pam, Andrew (1997): »Where World Wide Web Went Wrong«.
http://xanadu.com.au/xanadu/6w-paper.html (Letzter Zugriff Februar 2003).
Schröter, Jens (2002): »Biomorph. Anmerkungen zu einer neoliberalen Gentechnik-Utopie«. Kunstforum 158, S. 84-95.
Sennett, Richard (1998): Der flexible Mensch. Die Kultur des neuen Kapitalismus, Darmstadt: WBG.
Terranova, Tiziana (1996): »Digital Darwin: Nature, Evolution, and Control in the Rhetoric of Electronic Communication«. New Formations 29, S. 69-83.
Tholen, Georg Christoph (1994): »Platzverweis. Unmögliche Zwischenspiele zwischen Mensch und Maschine«. In: Norbert Bolz, Friedrich Kittler und Georg Christoph Tholen (Hg.), Computer als Medium, München: Fink, S. 111-135.

Turkle, Sherry (1998): Leben im Netz. Identität in Zeiten des Internets, Reinbek bei Hamburg: Rowohlt.

Von Neumann, John (1945): »First Draft of a Report on the EDVAC«.
http://www.cs.colorado.edu/~zathras/csci3155/EDVAC_vonNeumann.pdf
(Letzter Zugriff Februar 2003).
Winkler, Hartmut (1997): Docuverse. Zur Medientheorie der Computer, München: Boer.
Winkler, Hartmut (2002): »Suchmaschinen. Meta-Medien im Internet?«. Navigationen 2/2, S. 33-42.
Wolf, Gary (1995): »The Curse of Xanadu«.
http://www.wired.com/wired/archive/3.06/xanadu.html (Letzter Zugriff Februar 2003).
Zachary, Pascal (1997): Endless Frontier: Vannevar Bush, Engineer of the American Century, New York: Free Press.






[*] Ich danke Bernhard Ebersohl für Recherchen und Korrekturen.
[1] Vgl. http://www.google.de/ oder http://de.altavista.com/ u. v. m.
[2] Dabei ist anzumerken, dass der Internet-Zugang in vielen Ländern der sogenannten dritten Welt kaum möglich ist.
[3] Im Folgenden werden zum Internet beitragende Entwicklungslinien wie die verteilten Netzwerke mit packet-switching oder die Geschichte der Personal Computer ausgeklammert. Ebenso wird nicht auf konzeptuelle Vorläufer der Idee einer effizienten Organisation von Wissen eingegangen, wie Bibliotheken oder Gedächtnistheater etc.
[4] Der Vergleich zwischen dem Computer und dem menschlichen Gehirn ist nicht nur bereits in John von Neumanns erstem Text zum Digitalrechner anzutreffen, in welchem die heute noch immer standardisierte Rechnerarchitektur entwickelt wird (vgl. Von Neumann 1945), sondern dominiert als Elektronengehirn-Metapher die fünfziger bis in die späten sechziger Jahre, vielleicht bis zum HAL 9000 in Kubricks Film 2001 – A Space Odyssey (GB, 1968).
[5] Bush kommt in seinem späteren Essay Memex revisited selbst auf dieses Problem zu sprechen: »Another important feature of magnetic tape, for our future memex, is that it can be erased. [...] When we take a photograph we are stuck with it; to make a change we must take another whole photograph« (1969: 88).
[6] Vgl. Carmody et al. 1969 zur Implementierung von Nelsons Konzept auf einem IBM 360.
[7] Da die Wiederauflage von 1987 die zwei Bücher (Computer Lib + Dream Machines) so umfasst, dass sie »umgekehrt« aneinander gebunden sind und jedes Buch daher eine eigene Paginierung hat, werden bei allen folgenden Zitierungen Siglen (CL= Computer Lib; DM = Dream Machines) eingesetzt.
[8] = Centre Européene pour la Recherche Nucléaire.
[9] Das WWW beruhte auf Vorarbeiten Berners-Lees, dem schon 1980 erarbeiteten und assoziative Verknüpfungen verschiedener Informationsbestände erlaubenden Enquire-Programm. Vgl. Berners-Lee 1989/90: »In 1980, I wrote a program for keeping track of software with which I was involved in the PS control system. Called Enquire, it allowed one to store snippets of information, and to link related pieces together in any way. To find information, one progressed via the links from one sheet to another.« Tim Berners-Lee bestreitet zwar, direkt von Nelson beeinflußt gewesen zu sein, gibt aber zu: »Of course by 1989 there was hypertext as a common word, hypertext help everywhere, so Ted's basic idea had been (sort of) implemented and I came across it through many indirect routes« (http://www.w3.org/People/Berners-Lee/FAQ.html, letzter Zugriff Februar 2003). In Hypertext and our Collective Destiny (vgl. Berners-Lee 1995) bezieht er sich explizit auf Bush und dessen MEMEX.
[10] Bidirektionale Links werfen wiederum neue Probleme auf: Auf populäre Seiten zeigen tausende von Links. Wie sollte die Zielseite alle diese Verweise sichtbar machen können, ohne das selbst wieder ein undurchschaubares Chaos entstünde? Wesentliche Vorschläge zur Lösung dieser Probleme sind, die Verweise in ›Metadaten‹ unterzubringen und zu filtern z.B. so, dass nur verweisende .edu-Seiten angezeigt werden.
[11] Laut Berners-Lee et al.: 1994: 80 stieg die Zahl der registrierten Web-Server von April 1993 bis April 1994 von 62 auf 829 an!
[12] Wolf (1995) führt diesen Wunsch, das Vergessen vergessen zu können auf Nelsons Persönlichkeit zurück: »I was already taping our conversation, but Nelson clearly wanted his own record. Not because he was concerned about being quoted correctly, but because his tape recorder and video camera are weapons in an unending battle against amnesia. The inventor suffers from an extreme case of Attention Deficit Disorder, a recently named psychological syndrome whose symptoms include unusual sensitivity to interruption. If he is stopped in the middle of anything, he forgets it instantly. Only by running his own tape recorder could Nelson be confident that his words would not float off, irrecoverably, into the atmosphere. Nelson's anxiety about forgetting is complicated by the drugs he takes. For his ADD, Nelson takes Cylert; for his agitation, he takes Prozac; for sleeplessness, he takes Halcion. Halcion can produce aphasia: during our lunch, Nelson sometimes found himself groping for a common word in the middle of a sentence.«
[13] ›Pool‹ kann übrigens nicht nur Tümpel oder Teich, sondern bezeichnenderweise auch ›Konzern‹ bedeuten ...
[14] Die im übrigen gelegentlich leider auch zu Fälschungen oder Plagiaten neigen ...
[15] Eine andere Weise, in der dieses Training stattfindet, ist die Distribution von Bildern flexibler Körper, vgl. Schröter 2002.
[16] Es ist interessant, den Diskurs der ›Externalisierung‹ menschlicher Vermögen in Medien (exemplarisch von McLuhan 1994 vertreten; kritisch dazu Tholen 1994; Winkler 1997: 52/53) historisch mit ökonomischen Strategien der Expansion und des Outsourcings zu verrechnen. Vgl. Hagen 2002.