Vor: Die Gegenwart des Internet Hoch: Inhaltsverzeichnis Zurück: Einleitung

Unterabschnitte

Die Geschichte des Internet

Als es der Sowjetunion gelang, im Oktober 1957 ihren ersten Satelliten erfolgreich in seine Umlaufbahn um die Erde zu schießen, sah die USA ihren technologischen Vorsprung plötzlich gefährdet: "In der allgemeinen Panik nach der erfolgreichen Sputnik-Mission erfaßte das Rennen um die Vorherrschaft im Weltraum breite Teile der amerikanischen Öffentlichkeit. [...] Mit Sputnik war für die militärische Forschung und Technologie ein goldenes Zeitalter angebrochen."1 Eine der Reaktionen der USA war die Gründung einer neuen Behörde namens "Advanced Research Projects Agency" (ARPA), die dem Verteidigungsministerium unterstand. Die ARPA unterhielt keine eigenen Forschungseinrichtungen, sondern hatte lediglich die Aufgabe, geeignete Projekte im universitären oder privatwirtschaftlichen Sektor finanziell zu fördern. Insbesondere die Grundlagenforschung schien hierbei geeignet, den technologischen und militärischen Vorsprung vor der Sowjetunion sicherzustellen.

Die ARPA war zwar Teil des Pentagon, konnte aber dennoch Projekte ohne konkrete verteidigungspolitische Ziele fördern. Besonders wichtig ist hierbei, dass es den Forschern freigestellt war, ihre Ergebnisse zu publizieren; sie unterlagen keiner strengen militärischen Geheimhaltung. In gleicher Weise war es den privatwirtschaftlichen Forschungseinrichtungen freigestellt, ihre Forschungsergebnisse in kommerziell verwertbare Produkte umzusetzen. Der eventuelle militärische Nutzen der Forschung spielte zwar so immer eine Rolle, jedoch nur eine mittelbare.

Zur Gründungszeit der ARPA gegen Ende der 50er Jahre befand sich der Computersektor der Vereinigten Staaten bereits in Expansion. Mit dem Industriegiganten IBM und und der neu gegründeten Firma "Digital Equipment Corporation" (DEC) hatten sich auch schon erste Unternehmen auf die Produktion von Computern spezialisiert. Problem war allerdings, dass selbst verschiedene Computertypen ein und derselben Firma keine Daten direkt untereinander austauschen konnten, da für neue Modelle auch eigene Betriebssysteme geschrieben werden mussten.2 Weiterhin war der Datenaustausch auf physische Träger wie Magnetbänder und Lochkarten angewiesen. Zu diesem Zeitpunkt erschien ein Datenaustausch zwischen heterogenen Maschinen auch nicht notwendig, da Computer hauptsächlich für umfangreiche numerische Kalkulationen benötigt wurden. Das Potential, welches im Datenaustausch, in der Informationsübertragung mittels eines Netzwerkes aus Computern steckte, wurde erst von wenigen erkannt.

Der Computer als Medium

Mit der Entstehung des Internet und der damit verbundenen Nutzung des Computers als Medium ist der Name J.C.R. Licklider aufs Engste verbunden. Licklider, der Physik, Mathematik und Psychologie studiert hatte, arbeitete am Lincoln Laboratory, einem Institut des "Massachussetts Institute for Technology" (MIT) und kam dort mit der ARPA in Kontakt. Bereits durch seine Mitarbeit am Prinzip des "Time-Sharing" beim MIT versuchte er seinen Forderungen nach einer engeren Zusammenarbeit von Mensch und Computer Taten folgen zu lassen. Das Time-Sharing System ermöglichte Mehrbenutzerumgebungen, welche einem größeren Nutzerkreis die simultane Arbeit via Terminals an leistungsfähigen Rechnern erlaubte. Hierbei schaltet der Prozessor in einer hohen Frequenz zwischen den einzelnen Nutzerprozessen hin und her, so dass der Rechner quasiparallel die einzelnen Prozesse abarbeitet. Time-Sharing bedeutete so für eine Zeit, in welcher Computer für den einzelnen Anwender unerschwinglich waren, bereits eine Art Demokratisierung.

Licklider hatte 1960 ein Manuskript unter dem Titel "Man-Computer Symbiosis" veröffentlicht, in welchem er sich Gedanken über das Interface, die Schnittstelle zwischen Mensch und Maschine machte. Die Computertechnik sollte an den Bedürfnissen der Benutzer ausgerichtet werden, um so eine effektive Interaktion zwischen Mensch und Maschine zu ermöglichen: "The hope is that, in not too many years, human brains and computing machines will be coupled together very tightly, and that the resulting partnership will think as no human brain has ever thought and process data in a way not approached by the information-handling machines we know today."3 Besonders wichtig war ihm die Möglichkeit der direkten Kommunikation via Display oder Sprachsteuerung zwischen Benutzer und Computer unter Ausschaltung der Dienstleistung eines Computeroperators.

Eine Vorform des Time-Sharing wurde bereits durch die Zuweisung von Rechenzeiten an einzelne Benutzer erreicht, wodurch erstmals eine interaktive Nutzung der Computerressourcen ermöglicht wurde:

"Zum ersten Mal konnte man am Computer sitzen, während er ein Programm durchrechnete, und auf der Stelle neue Anweisungen in die Tastatur hacken. Während bislang und auch später beim 'strukturierten Programmieren' der größte Teil des Software-Entwurfs abstrakt auf Papier stattfand, war es mit der neuen 'interaktiven' Computer-Nutzung möglich, eine Idee in die Tasten zu hacken, das Programm laufen zu lassen, Fehler zu entdecken, die Korrekturen einzugeben und es sofort wieder ablaufen zu lassen. Diese Art der iterativen ad-hoc-Programmierung trug den Namen 'Hacken'."4

Durch das Time-Sharing-Verfahren, für das sich Licklider einsetzte, wurde aber auch die Beschränkung auf strikt festgelegte Zeiten obsolet. Während man durch die Zuweisung von Zeitabschnitten im Prinzip immer noch die Arbeit an einem Programm unterbrechen musste, wenn die Rechenzeit aufgebraucht war, konnte der Entwicklungsprozess einer Software mit Hilfe des Time-Sharing Verfahrens ohne Unterbrechung bis zu einer zufriedenstellenden Lösung vorangetrieben werden. Lickliders Ideen fanden recht schnell einen Niederschlag, indem die ARPA 1962 mit dem "Information Processing Techniques Office" (IPTO) einen neuen Schwerpunkt setzte, dessen Leiter Licklider wurde. Im Jahre 1968 verfasst er in seinem Text "The Computer as a Communication Device" eine Art Plädoyer für eine Form der Zusammenarbeit, wie sie seiner Meinung nach mit Hilfe vernetzter Computer erst ermöglicht wird:

"[...] we are entering a technological age in which we will be able to interact with the richness of living information - not merely in the passive way that we have been accustomed to using books and libraries, but as active participants in an ongoing process, bringing something to it through our interaction with it, and not simply receiving something from it by our connection to it."5

Licklider legt hier ein Kommunikationsmodell zugrunde, in dem die Konzepte, die Vorstellungen der Kommunikationspartner externalisiert werden müssen, um sie dem anderen zugänglich und somit verständlich zu machen. Nur über den Umweg von Medien, wie etwa Sprache oder Grafiken, kann miteinander kommuniziert, können Vorstellungen miteinander abgeglichen und korrigiert werden. Dieser interaktive Prozess ist in den Massenmedien nicht mehr ohne weiteres möglich, da hier die Erzeugung von Information und die Aufnahme von Information voneinander getrennt sind. Der Rezipient kann nicht unmittelbar auf den Produzenten rückwirken, wie es etwa in einem Dialog der Fall ist. Der Computer als Medium hat hingegen den Vorteil, dass hier externalisierte Modelle weiterhin in einem kooperativen Prozess formbar und fortschreibbar sind:

"Creative, interactive communication requires a plastic or moldable medium that can be modeled, a dynamic medium in which premises will flow into consequences, and above all a common medium that can be contributed to and experienced by all.
Such a medium is at hand - the programmed digital computer. Its presence can change the nature and value of communication even more profoundly than did the printing press and the picture tube, as we shall show, a well-programmed computer can provide direct access both to informational resources and to the processes for making use of the resources."6

Wichtig beim Computer als Medium ist also sowohl die Möglichkeit der unmittelbaren Interaktion mit den Kommunikationspartnern, als auch, dass Information nicht nur übermittelt, sondern gleich auch mit Hilfe des Computers strukturiert, verarbeitet und in bestehende Modelle eingearbeitet werden kann.7

Ganz klar formuliert Licklider seine Vorstellungen von "Communities", die sich mit Hilfe von Computernetzwerken hauptsächlich auf Basis gemeinsamer Interessen konstituieren und ihre Arbeitsergebnisse auch gemeinschaftlich teilen:

"These communities are social-technical pioneers, in several ways out ahead of the rest of the computer world: What makes them so? First, some of their members are computer scientists and engineers who understand the concept of man-computer interaction and the technology of interactive multiaccess systems. Second, others of their members are creative people in other fields and disciplines who recognize the usefulness and who sense the impact of interactive multiaccess computing upon their work. [...]
In the half dozen communities, the computer systems research and development and the development of substantive applications mutually support each other. They are producing large and growing resources of programms, data and know-how."8

Die Erfahrung mit der Öffnung großer, leistungsfähiger Computersysteme durch das Time-Sharing Verfahren für eine interaktive Nutzung durchaus heterogener Nutzerschichten und die daraus resultierenden Bildung von Gemeinschaften, die Licklider am MIT sammeln konnte, wird bei ihm zum Modell für ein weit umfangreicheres "Time-Sharing System". Dieses erhält erst später den Namen "Internet", in dem die gemeinsame Nutzung von Rechnerkapazitäten in den Hintergrund tritt zugunsten der gemeinschaftlichen Nutzung von Information. Lickliders Verdienst liegt insbesondere darin, den Computer stärker in seiner Funktion als Medium entdeckt zu haben, um so ein bisher brachliegendes Potential zu erschließen.

Von Arpanet zu Internet

Im Jahre 1969, kurz nachdem Licklider seine Vorstellungen vom Computer als Kommunikationsgerät formulierte, entstand mit dem "Arpanet" das weltweit erste Computernetzwerk, dessen einzelne Komponenten an geographisch entfernt gelegenen Orten über eine Telefonleitung miteinander verbunden wurden. Wichtigstes Merkmal dieser Vernetzung sollte nach einer Idee von Paul Baran ein dezentrales Netzwerk mit redundanten Datenleitungen werden. Aufgrund dieser Redundanz sollte nach den Plänen seiner Erfinder die Funktionalität des Netzwerkes auch bei einem Totalausfall eines der Netzwerkknoten gewährleistet bleiben. Im Hintergrund stand dabei die Idee, dass bei einem gegnerischen Angriff die Verteidigungsfähigkeit erhalten bleibt, auch wenn wichtige Bestandteile des Netzes zerstört werden.9 Nebeneffekt dieser Technik ist, dass das Netz auch unter hoher "ziviler" Datenlast funktionsfähig bleibt. Interessant ist zudem der Aspekt, dass eine zunächst für militärische Zwecke, der Sicherstellung der Verteidigungsbereitschaft, entwickelte Struktur gerade die Unkontrollierbarkeit des Internet sicherstellt. Da kein Zentralrechner zur Steuerung aller Komponenten des globalen Computernetzwerk existiert, kann auch keine dieser Komponenten zentral außer Funktion gesetzt werden.

Weiteres Merkmal, neben der dezentralen und redundanten Struktur des Netzwerkes, ist die Aufteilung der Daten in Pakete. Auf diese Weise kann eine Datenleitung parallel von mehreren Teilnehmern verwendet werden, im Gegensatz zu einem Telefongespräch, das immer nur zwei Teilnehmern offen steht. Die einzelnen Pakete einer Datensendung können zudem noch vollkommen unterschiedliche Wege gehen, sie werden erst von dem empfangenden Computer wieder zusammengesetzt. Auf diese Art und Weise kann eine wesentlich effektivere Ausnutzung der zur Verfügung stehenden Leitungen gewährleistet werden, da die Datenpakete immer den Weg mit der geringsten Netzlast wählen. Das sogenannte "Packet-Switching" kann man sich dabei wie eine Briefsendung vorstellen. Der Inhalt einer Sendung ist für die vermittelnden Netzwerkknoten, den "Routern", von keiner Relevanz, einzig beachtet werden muss der Absender und der Empfänger des Paketes. Die Adressierung wird dabei dem Datenpaket vorangestellt.10

Das Konzept des "Packet-Switching" wurde übrigens Mitte der 60er Jahre nahezu parallel von unterschiedlichen Forschern auf unterschiedlichen Kontinenten entwickelt. Während jedoch die Erfindung Paul Barans in den USA eindeutig unter militärischen Vorzeichen stand, war das Anliegen von Donald Davies in Großbritannien die Effizienz der Datenübermittlung über Netzwerke: "Zwischen ihren Ansätzen bestand nur ein größerer Unterschied: Das Motiv, das Davies den Anstoß zur Entwicklung seines Paketvermittlungsnetzwerks gegeben hatte, hatte nichts mit den militärischen Überlegungen Barans gemein. Davies wollte einfach nur ein neuartiges öffentliches Kommunikationsnetz schaffen."11

Neben dem Arpanet entstanden auch kurze Zeit später andere, selbstständige Netzwerke. Während die einzelnen Knoten des Arpanet über Telefonleitungen miteinander verbunden wurden, basierte das "Alohanet" der Universität von Hawaii auf ortsfesten Funksendern. Das ebenfalls unabhängige "Satnet" ermöglichte einen relativ günstigen Weg zur Datenübertragung mit Hilfe geostationärer Satelliten und die Anbindung Europas. Es stellte sich nun die Aufgabe, diese Netze untereinander zu verbinden:

"Die technischen Erkenntnisse aus Funk- und Satellitenexperimenten waren weniger bedeutsam als die weiterführenden Anstößte, die sie der Vernetzung allgemein gaben. Es lag auf der Hand, daß die Zahl der Netzwerke zunehmen würde. Mehrere Staaten außerhalb der Vereinigten Staaten bauten Datensysteme auf, und eine wachsende Zahl großer Unternehmen begann, eigene Vernetzungskonzepte zu entwickeln."12

So kann das Arpanet als eine Vorstadium des Internet betrachtet werden: das eigentliche Internet entsteht erst aus der Verbindung unterschiedlicher Computernetzwerke. Da die verschiedenen Netzwerke auch je andere Protokolle verwenden, musste zu diesem Zweck ein neues, von der jeweiligen Netzwerktechnologie unabhängiges Protokoll entwickelt werden. 13

Das von Vint Cerf und Robert Kahn im Jahre 1974 entwickelte Protokoll "TCP/IP" hatte sich recht schnell als ein akzeptierter Standard etabliert, da es von Anfang an zur öffentlichen Verwendung freigegeben wurde und weil die ARPA die Implemetierung dieses Protokolls in das hauptsächlich von Universitäten verwendete Betriebssystem Unix14 finanziell unterstützte. Das "Internet Protocol" (IP) hat hierbei die Aufgabe, die Adressbestandteile eines Paketes auszuwerten und mit Hilfe spezieller Hardware, den Routern, den besten Weg durch das Netzwerk für ein Paket zu bestimmen. Im IP wird jedem Rechner hierarchisch eine Adresse zugewiesen. Ein Teil der Adresse gibt das Netzwerk an, in welchem sich der Rechner befindet, ein anderer Teil der Adresse den "Ort" des Rechners innerhalb dieses Netzwerkes. Dem "Transmission Control Protocol" (TCP) kommt die Aufgabe zu, die Datensendungen in Pakete zu unterteilen, diese zu adressieren, sowie darüber zu wachen, ob auch alle Pakete unbeschadet den Empfänger erreichen, um gegebenenfalls ein Paket erneut zu versenden. Das TCP/IP Protokoll ist außerordentlich flexibel, es verhält sich neutral gegenüber dem Inhalt einer Datensendung sowie gegenüber unterschiedlicher Hard- und Software. Die Addressierung der einzelnen Rechner in den unterschiedlichen Subnetzen des Internet wird mit vier, jeweils durch ein Punkt getrenneten Dezimalzahlen angegeben. Hierbei rangiert der mögliche Adressraum von 0.0.0.0 bis 255.255.255.255, es ist also eine sehr große Anzahl an unterschiedlichen Netzen sowie unterschiedlicher Rechner in diesen Netzen denkbar.15 Eine Beschränkung erfährt dieses Prinzip allerdings durch den sogenannte Domain-Name-Service (DNS). Hier werden den numerischen Adressen Namen beigeordnet, um die Netzadressen für die Nutzer leichter handhabbar zu machen. Um diese Domain-Namen entbrannte in letzter Zeit ein starker Wettbewerb, da attraktive Domain-Namen eher den Rang einer Mangelware haben als IP-Adressen.

E-Mail

Konzipiert wurde das Arpanet ursprünglich, um mit einem Programm zur Fernsteuerung fremder Rechner namens "Telnet" von einem Terminal aus entfernt gelegene Computerressourcen zu nutzen, also eine Art Time-Sharing im großen Maßstab. Mit Hilfe des "File-Transfer-Protocol" (FTP) konnten zudem Dateien unter verschiedenen Computern ausgetauscht werden. Doch bereits in den frühen 70er Jahren entwickelte sich ein anderer Verwendungszweck zum Motor des Internet: "E-Mail leistete für das ARPANET, was der Kauf von Louisana für die jungen Vereinigten Staaten bewirkt hatte. Die Entwicklung erhielt noch stärkeren Auftrieb, als das Netzwerk sich ausdehnte und die Technik sich mit dem unbezähmbaren menschlichen Bedürfnis zu reden, vereinigte."16

Die elektronische Post wurde zunächst auf Time-Sharing Systemen eingesetzt, um Nachrichten zwischen Nutzern auszutauschen, die den Rechner zu unterschiedlichen Zeiten verwendeten. Diese komfortable Lösung des Nachrichtenaustauschs ließ sich selbstverständlich auch im Arpanet verwenden. In der Zeit zwischen 1972 und 1980 hatte das Datenvolumen der E-Mails bei weitem das Volumen von ausgetauschten Programmen und Dateien übertroffen. Das Netzwerk erlangte so erst seine Bedeutung als Kommunikationsmedium, die es auch heute noch hat, da es neben seiner Fähigkeit, Computer miteinander zu verbinden, nun auch die Funktion erfüllte, Menschen miteinander zu verbinden. 1975 entstand die erste elektronische Diskussionsgruppe, die sich zur Aufgabe setzte "ein Empfinden dafür [zu] entwickeln, was bei elektronischen Kommunikationsdiensten obligatorisch, was angenehm und was unerwünscht ist."17 Diese Kommunikationsforen, die damals wie heute einen wichtigen Bestandteil des Internet ausmachten, hatten von Anbeginn an eine gemeinschaftsbildende Funktion, in dem Sinne, dass die sich ausbildenden Strukturen im Prinzip selbstorganisierend sind. Der Computer als Medium realisiert sich also nicht nur in der Informationsübertragung, sondern, wie bereits von Licklider in seinem Text "The Computer as a Communication Device" gefordert, als Werkzeug zur Bildung von "Communities". Dem trägt auch ein wichtiges Entwicklungsprinzip des Computernetzwerkes Rechnung. Dieses wurde weniger durch zentrale Entscheidungen eines kleinen Kreises an Verantwortlichen vorangetrieben, sondern auch und gerade durch seine Nutzer. Mit den sogenannten "Requests for Comments" (RFC) wurden Richtungsentscheidungen initiiert und einem Konsens zugeführt:

"Die RFCs dienten dem informellen Austausch von Vorschlägen und Ideen bei der Entwicklung des Arpanet; allen beteiligten Forschern, Doktoranden und Studenten stand es frei, Artikel beizusteuern oder zu kommentieren. Akzeptiert wurden philosophische Überlegungen ebenso wie Programmvorschläge, technische Detaildiskussionen und provokative Fragen ohne Lösungsvorschläge."18

Indem die RFCs über das Netzwerk an alle Nutzer verteilt wurde, war der Computer hier gleichzeitig das Werkzeug zu seiner eigenen Fortentwicklung.19

Usenet

Zehn Jahre vor der Entstehung des World Wide Web, welches im Allgemeinen als wesentlicher Impuls angesehen wird, der das Internet erst zu einem Massenmedium werden ließ, hatte eine andere Entwicklung profunden Einfluss auf dieses. 1979 wurde von zwei Studenten das Usenet20 ins Leben gerufen. Trotzdem dieses Computernetzwerk unabhängig vom Arpanet entstand, war es doch eine Reaktion auf das Arpanet, denn der Zugang wurde zu diesem Zeitpunkt nur für wenige, auserwählte Forschungseinrichtungen bereitgestellt:

"We [...] had little idea of what was really going on on the ARPANET, but we knew, we were excluded. Even if we had been allowed to join, there was no way of comming up with the money. It was commonly accepted at the time that to join the ARPANET took political connections and $100,000. I don't know if that assumption was true, but we were so far from having either connections or $$ that we didn't even try. The 'Poor man's ARPANET' was our way of joining the Computer Science community and we made a deliberate attempt to extend it to other not-well-endowed members of the community."21

Das Usenet war zunächst beschränkt auf Benutzer des Unix-Betriebssystems, da es das "Unix to Unix copy" (UUCP) Programm verwendete. Ein einfaches Skript automatisierte den Vorgang, mit Hilfe des Modems eine Verbindung zu einem anderen Computer aufzunehmen, dort die Datumsangaben in den Dateien zu vergleichen, um dann neuere Nachrichten in Form von Dateien auf den eigenen Computer zu kopieren. Der Zugang zu den Usenet Newsgroups stand prinzipiell jedem offen, der die notwendige Hard-und Software besaß, Gebühren wurden keine verlangt, die einzigen Kosten, die entstanden, waren die Telefongebühren. Das Usenet ermöglichte so die Teilhabe an einem stetig wachsenden Netzwerk aus Computern und den sie bedienenden Benutzern, ohne dass man auf die Ressourcen des Arpanet Zugriff haben musste. Mit der University of California stellte sich jedoch bereits 1981 eine Verknüpfung zwischen dem Arpanet und dem Usenet her, da diese Universität an beiden Netzwerken angebunden war.

Um 1982 herum hatte sich das Usenet bereits quer über den nordamerikanischen Kontinent verbreitet, Teilnehmer in Toronto diskutierten in den Newsgroups mit Teilnehmern aus San Diego. Innerhalb von nicht einmal zehn Jahren wuchs das Usenet von drei Sites22 im Jahre 1979 bis auf 11 000 Sites 1988, wobei die Anzahl der täglich versendeten Artikel von zwei auf 1800 anstieg. Es entstand so ein weltweites Netzwerk von Computerbenutzern, welche bereitwillig ihr Wissen und ihre Hilfsbereitschaft einer großen Anzahl an Teilnehmern bereit stellten:

"The ARPANET pioneered important breakthroughs in computer networking technology. It also pioneered the ability to collaborate and to utilize dispersed resources - both people and computers. Usenet represents the continuation of this tradition by making access to these collaborative research relationships available to the commonfolk."23

Der Verdienst des Usenet, die Techniken der computervermittelten Kommunikation für eine große Zahl von Teilnehmern geöffnet zu haben, macht auch erst die Basis des Usenet als Wissensressource aus, denn es sind vor allen Dingen die Teilnehmer, welche den Inhalt bestimmen. Nicht allerdings, indem sie rein aus vorhandenen Angeboten auswählen, sondern, in viel größerem Maße, indem gerade sie Angebote bereitstellen.24

Gerade in letzter Zeit erfreuen sich die sogenannten Mailing-Listen immer größerer Beliebtheit, von denen inzwischen eine schier unüberschaubare Anzahl exisitieren.25 Mailing-Listen erfüllen in etwa die gleiche Funktion wie das Usenet, auch wenn sie technisch unterschiedlich aufgebaut sind. Ruft man seine E-Mails ab, erhält man automatisch alle Beiträge der anderen Subskribienten, ebenso werden auch eigene Beiträge an alle Teilnehmer der Liste versendet. Man kann umgehend sowohl auf Artikel reagieren als auch einfach Fragen an alle anderen Mitglieder stellen. Führt eine solche Liste ein Archiv, dann resultiert hieraus auch wieder eine Wissensressource, auf die zurückgegriffen werden kann.26 Hierbei sollte unterschieden werden zwischen moderierten und unmoderierten Listen.

Der Umstand, dass Inhalte im Internet oftmals nicht durch zentrale Instanzen gefiltert werden, wird oft als Kritikpunkt gegen eine solche offene Form der Kommunikation eingewandt, da nicht für Zuverlässigkeit gebürgt werden kann. Der objektive Anschein redigierten Wissens ist aber auch ein Stück weit zu hinterfragen:

"Ob Wissen Macht ist, sei dahingestellt. Belegbar scheint, daß die Macht zum Wissen in Konkurrenz steht. Gleichzeitig ist die Ordnung des Wissens eine der beliebtesten Techniken zur Machterhaltung - bis hin zu Erziehung und Zensur. Die 'Bolshaya Sovetskaya Entsiklopediya', die große sowjetische Enzyklopädie, erschien in 65 Bänden von 1926 bis 1947. Als der letzte Band gedruckt und ausgeliefert war, war die erste Auflage politisch überholt; ihre Auslieferung wurde eingestellt. 1950 begann die zweite, 50-bändige Auflage. Nachdem diese 1958 beendet wurde, war die zweite Auflage politisch überholt. Es erschien ein 51. Band mit den Biograhien der rehabilitierten Opfer stalinistischen Terrors. Ein Jahrzehnt, nachdem die dritte, nur noch dreißigbändige Auflage erschien und Übersetzungen ins englische, italienische, griechische und spanische begonnen waren, wurde die Sowjetunion gelöscht. Staat und Enzyklopädie waren politisch überholt."27

Es ist meines Erachtens in diesem neuen Medium die gleiche Skepsis gegenüber allen Inhalten angeraten, wie sie auch prinzipiell den anderen Massenmedien entgegengebracht werden sollte. Vorteil eines offenen Mediums ist allerdings, dass eine Vielzahl divergierender Meinungen unmittelbar aufeinanderprallen, der Leser mehrerer Beiträge in den Foren des Internet von vornherein darauf angewiesen ist, sich sein eigenes Bild zu machen. Zumal im Internet Informationsanbieter, allein durch die URL voneinander getrennt, quasi in unmittelbarer Nachbarschaft existieren, kritische Hinterfragung vorgefundender Informationen also relativ problemlos möglich ist.28

World-Wide-Web

Als nächster Schritt in der Entwicklung des Internet ist die Erfindung des WWW durch Tim Berners-Lee im Jahre 1989 äußerst folgenreich gewesen. Entstanden ist diese Entwicklung am CERN, einem großen internationalen Kernforschungszentrum mit Sitz in der Schweiz. Da am CERN konstant viele Gastforscher ihre Experimente durchführen, die Ergebnisse aber meist erst an ihren Heimatuniversitäten auswerten, entstand die Notwendigkeit, Forschungsergebnisse für alle beteiligten Forscher auf eine übersichtliche Art und Weise weltweit bereitzustellen. Erzielt wurde dies durch eine Dokumentenstruktur, die Hypertextelemente enthält, so dass Forschungsergebnisse auf verschiedenen Servern untereinander verknüpft werden können. Zu diesem Zeitpunkt waren die einzigen Anwendungen für das Internet die verschiedenen E-Mail Dienste mit den Diskussionsforen, das Programm "Telnet", mit dem auf entfernte Computer zugegriffen werden konnte, sowie das "File Transfer Protocoll" (FTP), mit dem Dateien unabhängig vom Format versendet und empfangen werden konnten. Es gab aber keine wirklich effektive Möglichkeit, gefundene Informationen für die Öffentlichkeit zugänglich mit eigenen oder anderen vorgefundenen Informationen zu verknüpfen.29 So entstand das WWW zwar aus der Notwendigkeit, die weltweit agierenden Wissenschaftler am CERN mit einem intuitiv zu bedienenden Interface zu vernetzten, dahinter stand aber Berners-Lees Idee, "daß potentiell alles mit allem verknüpft ist."30

Um diese universelle Verknüpfbarkeit zu erreichen, musste zunächst ein einfacher Satz von Regeln etabliert werden. Diese sind die URL31, mit deren Hilfe Dokumente im Netz aufzufinden sind, das Protokoll HTTP32, damit die verbundenen Computer Daten austauschen können, und, zur Repräsentation dieser Daten, ein gemeinsames Format, dem HTML-Code.33 Vereinfacht gesagt werden durch TCP/IP Inkompatibilitäten zwischen unterschiedlichen Computern und Betriebssystemen überwunden, durch das WWW werden Inkompatibilitäten unterschiedlicher Dokumentationssysteme überwunden. Wichtig ist also, dass nicht alle die gleichen Systemvoraussetzungen haben, sondern, dass es einheitliche Interfaces gibt, die als offene Standards vorliegen.

Gerade dieser letzte Punkt ist es, der zum großen Teil den Erfolg und die schnelle Durchsetzung des WWW ausmachten. Zu Beginn der 90er Jahre existierten die unterschiedlichsten Betriebssyteme, in Verbindung mit noch weit mehr unterschiedlichen Dateiformaten für Datenbanken, Bild-, Audio-, Video- und Textdateien, welche von den unterschiedlichen Benutzern als die jeweils bessere Lösung verteidigt und von den Softwareherstellern konsequent unter Urheberrecht gestellt wurden. Eine Forderung, jeder möge sich doch auf ein und dasselbe Dateiformat einigen, wäre ein vollkommen hoffnungsloses Unterfangen gewesen.34 Indem nun das WWW von Anfang an auf einem Set offener Standards basierte, konnten Privatpersonen, Wissenschaftler, Studenten und eben auch kommerzielle Entwickler und Softwarefirmen die Entwicklung parallel vorantreiben. Die Idee offener Standards und der Implementation dieser Standards in heterogene Computersysteme liegt also dem WWW, ebenso wie bereits dem Internet zugrunde.

Aufgrund mangelnder Unterstützung am CERN, welches ja schließlich der Teilchenphysik und nicht der Softwareentwicklung verpflichtet war, ist Berners-Lee von Anfang an den Weg gegangen, dritte zur Entwicklung leistungsfähiger Browsersoftware anzuhalten. Hierbei war ihm immer wichtig, dass ein solcher Browser die Fähigkeit mit sich bringt, aufgerufene Web-Seiten ohne große Kenntnisse der Benutzer auch gleich editieren zu können. Selbstredend sollte damit auch die Möglichkeit verbunden sein, die eigenen Verknüpfungen von Informationen im WWW der Öffentlichkeit zur Verfügung zu stellen. Zugrunde liegt dem die Vorstellung von einer Informationsgesellschaft, deren grundlegende Ressource das Internet und mit ihm das WWW sein soll. Von absoluter Notwendigkeit ist dabei der freie, unbeschränkte Zugang zu den Informationsressourcen und die Freiheit, Informationen zu verknüpfen, Links zu erstellen, um so neue Informationen zu gewinnen:

"Damit Gruppen intuitiv sein können, müßte das Web diese Fäden auffangen können - halbfertige Gedanken, die plötzlich aufkommen, ohne offensichtlich rationale Gedanken oder Schlußfolgerungen. Das Web müßte diese Fäden einem anderen Leser als natürliche Ergänzung zu einer halbfertigen Idee präsentieren. Der intuitive Schritt tritt auf, wenn jemand, der den Verknüpfungen mehrerer unabhängiger Personen folgt, auf eine relevante Beziehung stößt und eine Direktverknüpfung einrichtet, um dies festzuhalten. All das funktioniert nur, wenn alle beim Browsen Verknüpfungen einrichten. Deshalb müssen die Erstellung von Verknüpfungen, das Schreiben von Dokumenten und das Browsen völlig integriert sein."35

Diese Vorstellung von Berners-Lee, dass die Adressaten von Information im WWW quasi nahtlos Produzenten von Information sein sollen, wurde von der Industrie, auf deren Hilfe Berners-Lee setzte, nur widerwillig bis gar nicht aufgenommen:

"Obwohl sich Browser langsam verbreiteten, unternahm niemand den Versuch, Bearbeitungsfunktionen zu integrieren. Man war anscheinend der Meinung, daß sich die Erstellung eines Browsers auszahlte, weil damit Benutzern Informationen aus der ganzen Welt zugänglich gemacht würden. [...] Aus diesen Gründen entwickelte sich das Web, das ich als Medium für alle Arten von lokalen bis weltweiten Informationen entwickelt hatte, in Richtung der ganz globalen Informationen und zu einem Publikationsmedium anstatt zu einem Mittel der Zusammenarbeit."36

Zwar werden inzwischen HTML-Editoren auch von den kommerziellen Software-Anbietern kostenfrei mitgeliefert,37 die völlige Integration von Lesen und Schreiben im gleichen Fenster wird allerdings allein im Referenzbrowser des W3-Konsortiums "Amaya" realisiert.38 Mit der Zeit wurden verschiedene Software-Anwendungen entwickelt, die die multimedialen Fähigkeiten des WWW weiter ausbauen. In aller Regel werden die Programme, mit denen sich solche Dateien betrachten lassen, zum freien Download angeboten. Jedoch wird die entsprechende Software, um selbst Multimediadateien zu erstellen, im Gegensatz hierzu teuer verkauft.39 Dahinter steht das sicherlich legitime Interesse der entsprechenden Unternehmen, ihre Produkte erfolgreich zu vermarkten. Auf der Strecke bleibt allerdings, zumindest in Teilen, die Utopie des Internet als dialogisches Massenmedium. Mit dieser "verschenkten" Software kann man nur noch konsumieren, nicht aber produzieren.



Vor: Die Gegenwart des Internet Hoch: Inhaltsverzeichnis Zurück: Einleitung