Vor: etoy: leaving reality behind Hoch: Inhaltsverzeichnis Zurück: www.jodi.org

Unterabschnitte

Freie Software

"Und auch jene Hoffnungen und Visionen, die sich an die unendliche Verlinkbarkeit von Texten, Bildern und Tönen, an die Nichtigkeit von Autor und Copyright oder die Vergemeinschaftung von Textproduktion geknüpft haben, sind in der Zwischenzeit zerstoben. Weder hat dieses Weben am unendlichen Text ein allgemeines Interesse erreicht noch sind diese künstlerischen Praxen gesellschaftlich relevant geworden. Den Status des Exotismus haben sie jedenfalls nie überwunden."1

Als im vorletzten Jahr auf dem bekannten Medienkunstfestival "Ars Electronica" die "Goldene Nica" in der Kategorie ".net" an Linus Torvalds verliehen wurde, löste dies eine kontroverse Debatte aus. Der Journalist Armin Medosch titelte in der Online-Zeitschrift Telepolis: "Kunstpreis an Linux - Ist das die endgültige Bankrotterklärung der Kunst gegenüber der Technik?"2 Mehrere an diesen Text angehängte Leserkommentare bestätigten hauptsächlich diese Sichtweise. Liest man sich hingegen die Kriterien zur Vergabe der Preise in der Kategorie ".net" durch, so wird klar, dass eines der wichtigsten Kriterien eines zu prämierenden Werkes die Eigenschaft ist, dass es in dieser Form allein im Internet entstehen konnte.3 Wie später, anhand der Entstehungsgeschichte von GNU/Linux zu ersehen sein wird, gilt dieses Kriterium für das Projekt der freien Software in ganz besonderem Maße. Laut einer quantitativen Untersuchung, die im Frühjahr 2000 veröffentlicht wurde, haben 12706 Programmierer an 3149 Softwareprojekten mitgearbeitet. Sie haben dabei 1,04 Gigabyte an Code produziert, was etwa 25 Millionen Zeilen entspricht.4 Dem Internet kommt hierbei eine Schlüsselrolle zu: im globalen Computernetzwerk werden die Ideen ausgetauscht, der Programmcode verteilt, werden meist überhaupt erst Projektgruppen gebildet, welche auch nach ihrer Konstituierung offen für verschiedene Formen der Mitarbeit bleiben.5 Dementsprechend erhielt Torvalds die "Goldene Nica" lediglich stellvertretend für alle Personen, "die an diesem Projekt in den vergangenen Jahren gearbeitet haben und in Zukunft daran beteiligt sein werden."6

Aufgrund der prinzipiellen Offenheit, der Möglichkeit zur freien Kollaboration, rückt GNU/Linux, so Florian Cramer, in die Nähe einer künstlerischen Praxis, auch wenn es explizit nicht um ästhetische Produktion geht:

"Read as a net literature and a net culture, Free Software is a highly sophisticated system of self-applied text and social interactions. No other net culture has invented its computer code as thoroughly, and no other net culture has acquired a similar awareness of the culture and politics of the digital text.
Much Net.art, net literature and critical discourse about them has focused on the aesthetics and politics of desktop user interfaces. In its focus on code, Free Software shows that net cultures are about more than just what is between people and the network. To date, it remains a rare example of electronic literature which does not confuse the Internet with web browsers."7

Obwohl die "Free-Software-Foundation" bereits seit über zwanzig Jahren besteht, GNU/Linux nunmehr seit zehn Jahren als eigenständiges Betriebssystem verwendet werden kann, wurde der "Status des Exotismus" erst in den späten 90er Jahren endgültig überwunden. Schätzungen zufolge nimmt Linux momentan mit ca. 16 Millionen Nutzern den zweiten Platz unter den installierten Betriebssystemen ein, wenngleich auch mit großem Abstand zur Nummer eins, Microsoft Windows.8

Nun ist zwar gegenwärtig der Name "Linux" sehr geläufig und untrennbar verbunden mit dem Namen eines der wichtigsten Protagonisten Linus Torvalds, dieser zeichnet aber nur verantwortlich für einen, wenn auch sehr wichtigen Bestandteil eines viel komplexeren Gebildes, das als "freie Software" bezeichnet wird. Linux ist insofern nur eine Art Sammelbezeichnung für Software, welche erst in ihrer Summe ein komplettes Betriebssystem mit einer Vielzahl von Anwendungsprogrammen ergibt. Es ist bei Linux also dringend erforderlich zwischen den einzelnen Komponenten zu unterscheiden. Der von Torvalds entwickelte Linux-Kernel ergibt erst in Verbindung mit den GNU-Utilities der Free Software Foundation ein Betriebssystem. Dieses wiederum kann erst zusammen mit dem X-Window System und den Windowmanagern, die eine grafische Benutzerumgebung bereitstellen, etwa mit Microsoft Windows oder dem Apple Macintosh verglichen werden. Alle Bestandteile sind zunächst voneinander unabhängig und werden erst in den sogenannten Distributionen zusammengefasst.

Bevor allerdings auf diese einzelnen Punkte eingegangen wird, soll kurz die Geschichte von Unix umrissen werden, da die Geschichte und das Konzept von Unix die spätere Entwicklung von GNU/Linux vorwegnimmt.

UNIX

Das Betriebssystem Unix und das Arpanet, dem Vorläufer des Internet, sind beide im Jahre 1969 entstanden und beider Entwicklung ist eng miteinander verknüpft.9 Bereits im Kaptitel zur Entstehungsgeschichte des Internet wurde auf das Konzept des "Time-Sharing" eingegangen, welches das simultane Arbeiten mehrerer Benutzer an einem Computer erlaubte. In einer Zeit, in der Computer für einzelne Personen unerschwinglich gewesen sind, bedeutete das Time-Sharing eine Möglichkeit, viele Stunden an einem Terminal zu verbringen, ohne dabei anderen Benutzern den Zugang zu den Rechnerressourcen zu verwehren. Eine überraschende Entwicklung, die hieraus resultierte, war, dass die Benutzer eher den Weg gingen, eigene Programme und Kommandos zu entwickeln, als auf vorhandene Programme zurückzugreifen, welche auf anderen Computern entwickelt wurden. Nicht zuletzt entstanden solche neuen Programme mit Blick auf die mögliche Verwendbarkeit anderer Benutzer des gleichen Computers. Eigene Entwicklungen wurden wie selbstverständlich allen anderen Interessenten zur Verfügung gestellt, konnten von diesen umgeschrieben und verbessert werden. Auf genau diesen Erfahrungen mit Time-Sharing Systemen rekurrierten später auch die Entwickler von Unix:

"What we wanted to preserve, [...] was not just a good programming environment in which to do programming, but a system around which a fellowship could form. We knew from experience that the essence of communal computing, as supplied by remote-access, time-shared machines, is not just to type progams into a terminal instead of a keypunch, but to encourage close communication."10

Obgleich Unix von Mitarbeitern an den Bell-Labs, dem Forschungslabor des US-amerikanischen Telekommunikationsgiganten AT&T entwickelt wurde, gehörte es von Anfang an zum Konzept, dass der Quellcode auch für andere, insbesondere universitäre Forscher zur Verfügung gestellt wurde. Dies gründet allerdings nicht zuletzt darauf, dass es der Firma AT&T aufgrund ihres Monopols in der Telekommunikationsbranche von Seiten der amerikanischen Regulierungsbehörde untersagt war, andere Produkte außer ihren Telekommunikationsdienstleistungen zu vermarkten.11 Indem nun die Entwickler von Unix bei AT&T mehr oder weniger frei waren von den Erfordernissen, ihre Ergebnisse zu kommerzialisieren, konnten sie sich voll und ganz einer anderen Aufgabe stellen: der Entwicklung eines Betriebssystems in offener Kollaboration, welches mehr die Bedürfnisse eines Programmierers oder Forschers im Blick hatte, als die eines Anwenders. In erster Linie entstanden dabei Hilfsmittel, die Software-Utilities:

"UNIX utilities are usually thought of as tools [...]. Tools were often invented to help with the development of UNIX programs and were continually improved by much trial, error, discussion, and redesign, as was the operating system itself. Tools may be used in combination to perform or construct specific applications."12

In Verbindung mit dem offenen Quellcode für das komplette Betriebssystem Unix liefert dieses also auch gleich eine Reihe von "Werkzeugen", die das Erstellen, oder das Verändern von Softwarecode erleichtern soll. In diesem Sinne ist Unix eher eine Entwicklungsumgebung als eine Plattform für Anwendungsprogramme. Es sind genau diese Eigenschaften, welche Unix zusätzlich dazu prädestinieren, ein Lehrbetriebssystem zu sein, dies insbesondere in Verbindung mit seiner Eigenschaft der Multi-User-Fähigkeit, welches das Arbeiten loser miteinander verbundener Gruppen via Netzwerk ermöglicht. Ronda und Michael Hauben beschreiben demgemäß Unix als ein Werkzeug zur Softwareherstellung:

"Our era is witnessing the birth of an important new technology, different from any in the past. This new technology is the technology of software production. The new tools of our era are tools that make it possible to produce software. Unlike the tools forged in the past, software tools are not something you can grab or hold. Similarly the processes required to develop this new technology are new. Knowing the details of how such new tools have been created will make it possible to better understand the promise they present for our times and for the future."13

Der Gedanke, dass Software auch gleich Produktionsmittel zur Erstellung neuer Software ist, mag nicht sehr erstaunlich sein, er ist jedoch von eminenter Wichtigkeit, wenn es um die Entwicklung freier Software geht. Die Unix-Utilities, auf dessen Konzept auch die späteren GNU-Utilities der "Free-Software-Foundation" aufbauen, sind Hilfe zur Selbsthilfe, sie sind Werkzeuge, um Werkzeuge herzustellen. In diesem Sinne bildet Unix aus sich heraus eine Struktur heraus, um sich weiterzuentwickeln. Der zugrundeliegende Quellcode ist frei zugänglich und gleichzeitig bietet sich die Möglichkeit, mit Hilfe von Software diesen Code zu verändern. Der Nutzer ist so geradezu dazu aufgefordert, sich an der Entwicklung zu beteiligen, vom Konsumenten zum Produzenten zu werden.

Aufgrund seiner offenen Spezifikationen wurde auch das Internet gleichzeitig von seinen Benutzern mitentwickelt, es bot, ebenso wie Unix, die "Infrastruktur" zur eigenen Fortschreibung. Die enge Verbindung zwischen dem Internet und Unix wird gerade beim Usenet, welches ja recht schnell Teil des Internet geworden ist, besonders deutlich. Nicht nur, dass der Zugang zum Usenet aufgrund des Unix-spezifischen "Unix to Unix Copy Protocoll" (UUCP) zunächst den Nutzern von Unix vorbehalten war, spielt das Usenet auch eine große Rolle in der Entwicklung und der Verbreitung von Unix. Das Usenet etablierte sich schnell als ein Forum, in dem Unixnutzer sich gegenseitig Hilfestellung gaben, was darin begründet lag, dass von den Entwicklern dieses Betriebssystems keine Supportdienstleistungen erbracht werden konnten:

"It was very common at the time. This was in the days when UNIX was still treated by the Bell System as, 'Oh, just something we happen to do for our own internal use. You can have a copy if you want, but if you got problems, don't bother us.' And the result was if you wanted UNIX support you did it yourself or it didn't happen."14

Da auf den Usenet-Sites in der Regel auch der komplette Unix-Quellcode erhältlich war, konnten Probleme mit der Software oftmals auch gleich behoben werden, indem die fehlerhaften Code-Zeilen einfach durch von den Nutzern verbesserte Versionen ausgetauscht wurden.

Neben der freien Verfügbarkeit des Quellcodes ist eine der Grundvoraussetzungen von Unix gewesen, ein Betriebssystem zu entwickeln, dass sich auf möglichst vielen unterschiedlichen Hardwareplattformen betreiben lässt. Um die Portierbarkeit von Unix zu erreichen, wurde sein Quellcode 1971 in der Programmiersprache C verfasst. Dieser Quellcode kann mit Hilfe der sogenannten Compiler in einen hardwarenahen Maschinencode übersetzt werden. Erhält man also von einer Software den entsprechenden Quellcode, so kann man diesen mit einer anderen Software in die Sprache übersetzten lassen, die auch das eigene Hardwaresystem versteht. Dies war zu einer Zeit, in der Betriebssysteme in der Regel für ein bestimmtes Hardwaresystem maßgeschneidert wurden, beileibe keine Selbstverständlichkeit: "Source-Code-Kompatibilität war eben das Konzept, das Unix auch vorangebracht und am Leben erhalten hat, allen Anstrengungen internationaler Software-Konzerne zum Trotz, das ganze zu Fall zu bringen."15

Nach der Zerschlagung von AT&T im Jahre 1984 in mehrere unabhängige Firmen sah sich eine hieraus hervorgegangene Software-Firma nun in der Lage, Unix gegen hohe Gebühren und ohne die Preisgabe des Quellcodes zu vermarkten.16 Der Prozess, welcher schon vor der Zerschlagung von AT&T begann und der zu einer Verzweigung der Unix-Codebasis in verschiedene kommerzielle Versionen führte,17 war nun nicht mehr zu stoppen. Aus einem offenen wurde ein geschlossener Entwicklungsprozess:

"Nach dem Konvergenzpunkt von V.4 laufen die Entwicklungslinien aufgrund von lizenztechnischen Mechanismen und der vermeintlichen Notwendigkeit, sich durch proprietäre Zusätze von den Konkurrenten zu unterscheiden, wieder auseinander. Die Quellcode-Kompatibilität geht verloren. Anwendungshersteller müssen Versionen für die einzelnen Unix-Varianten anbieten."18

Mit der proprietären Schließung von Unix in den 80er Jahren ist es dann das Projekt der freien Software geworden, diese Tradition fortzuführen.19

GNU

Initiator und auch heute immer noch Kopf des GNU-Projektes ist der Programmierer Richard Stallman.20 Ziel des Projektes ist die Entwicklung eines eigenen, konsequent Unix-konformen Betriebssystem. Dieses soll allerdings, im Gegensatz zu seinem Vorbild, von Anfang an und für die Zukunft ein freies Betriebssystem sein. Geschützt werden soll diese Freiheit durch die "GNU General Public License".21 Die GPL bedient sich der gültigen Copyrightbestimmungen, wendet sie dabei aber in ihr Gegenteil: "Copyleft uses copyright law, but flips it over to serve the opposite of its usual purpose: instead of a means of privatizing software, it becomes a means of keeping software free."22

Die zentralen Punkte der GPL sind die Freiheiten, eine Software uneingeschränkt zu nutzen, sie kopieren und weitergeben zu dürfen, sowie Software nach Belieben zu verändern, sie den eigenen Bedürfnissen anzupassen und auch wieder weiterzugeben. Dabei muss einem Interessenten immer der Quellcode mitgeliefert oder zumindest angeboten werden. Die einzige Einschränkung, die gemacht wird, ist, dass eine modifizierte Software ebenfalls wieder unter der GPL stehen muss. Dies impliziert, dass die Übernahme von Code aus freier Software in eine kommerzielle Software diese notwendig zu einer freien macht. Hierdurch soll verhindert werden, dass aus freier Software proprietäre Software wird. Wie schon im wissenschaftlichen Bereich obligatorisch, müssen auch bei freier Software die Beteiligten an einem Projekt genannt werden. Ausschlaggebend für die Entwicklung dieser Lizenz, die Stallman gemeinsam mit einem New Yorker Professor für Rechtswissenschaft entwarf, war nicht zuletzt die Erfahrung mit der proprietären Schließung von Unix. Dieses verfügte nie über Sicherungsmaßnahmen, welche jene Entwicklung hätten verhindern können. So konnte die freie Mitarbeit einer großen Zahl von Nutzern weltweit einfach von kommerziellen Firmen abgeschöpft werden.

Stallman kam 1971 an das Labor für künstliche Intelligenz des "Massachussetts Institute of Technology" (MIT), welches ein "damals bereits legendäres Hacker-Paradies war, ein Kloster, in dem man lebte um zu hacken und hackte, um zu leben."23 Zu dieser Zeit wurde Software noch nicht als schützenswertes geistiges Eigentum betrachtet. Der Code wurde ohne weiteres weitergegeben, es gab keine Lizenzen, keine Restriktionen. Dieser Zustand änderte sich in den späten 70er Jahren radikal. Software wurde mit dem aufkommenden Softwaremarkt immer mehr zu einem geschlossenen Produkt, das es zu kapitalisieren galt:

"Software war erstmals zu einer Ware geworden. Eine berüchtigte Episode ist 1976 der 'Open Letter to Fellow Hobbyists'. Bill Gates beklagte darin, daß die meisten seiner Fellows ihre Software 'stehlen' würden, was verhindere, daß gute Software geschrieben werden könne. Der neue Zeitgeist ist umso bemerkenswerter, als Gates kurz vorher beinahe aus der Harvard Universität geflogen wäre, weil er die öffentlich finanzierten Ressourcen mißbraucht hatte, um kommerzielle Software zu schreiben. Nachdem er gezwungen worden war, seine Software in die Public Domain zu stellen, verließ er Harvard und gründete Microsoft."24

Auf diese Veränderung des Status der Software, von freier Information zu geldwerter Ware, reagierte Stallman mit der Gründung der Free Software Foundation (FSF), dessen wichtigstes Projekt die Entwicklung des freien GNU-Betriebssystem war. Laut eigenen Aussagen waren Probleme mit einem Netzwerkdrucker der konkrete Anlass für seine Entscheidung. Um das Problem selbst zu lösen, bat Stallman den Hersteller um den Quellcode des Druckertreibers, doch dieser weigerte sich:

"In dieser Erfahrung verdichtete sich der neue Geist der Zeit: Ein praktisches Problem stellt sich. Die Lösung besteht darin, eine bestehende Software um eine Funktion zu erweitern. Früher hätte man den Autor der Software um den Quellcode gebeten und hätte diesen fortgeschrieben - die Technologie wäre für alle Betroffenen nützlicher geworden. Doch jetzt stand vor dem Quellcode und vor einer Kooperation von Programmierern eine Mauer namens 'intellectual property'."25

Um mit seiner Arbeit zu beginnen, war Stallman gezwungen, seine Anstellung am MIT aufzugeben, da sein Arbeitgeber nach geltendem Recht Eigentümer seiner Arbeitsleistung war. Würde er weiterhin am MIT Software entwickeln, so wäre diese nicht frei. Ende 1983 kündigte er sein Projekt in den Unix-Newsgroups des Usenet an26 - die Entwicklung von GNU stand also von Anfang an unter der Prämisse einer weltweiten freien Kooperation:

"So we started writing the components of this system. The design of this system is that there are many separate programs that communicate with each other; and it was documented, so that you could understand what the interface was between these parts, write each part one by one, and then finally test each part, as a replacement for that part of a Unix system. When you have all the parts replaced, then you put the replacements together and have an entire system. And this is how we did it. It was a very decentralized way of doing things which was well suited to a rather amorphous and decentralized community of volunteers around the world communicating mainly by email."27

Da die Free Software Foundation das durchaus ehrgeizige Projekt eines eigenen, freien und komplett Unix-konformen Betriebssytem zum Ziel hatte wurden die meisten Unix-Utilities neu und zum Teil mit verbesserter oder erweiterter Funktionalität geschrieben. Programmiert wurde auf bereits bestehenden Unixsystemen, so dass die Entwicklung eines eigenen Kernels28 zunächst nicht sehr dringlich gewesen ist. Bereits Anfang der 90er Jahre waren die wichtigsten Bestandteile eines kompletten Betriebssystem, wie die bash29, der Emacs30 und der GNU C/C++ Compiler31 mit der glibc32 fertiggestellt. Der schwierigste Part, die Entwicklung des Kernels unter dem Projektnamen HURD, sollte sich allerdings als eine äußerst langwierige und kaum bewältigbare Aufgabe herausstellen, da die Programmierer des GNU-Projektes sich vorgenommen hatten, das derzeit sehr innovative Modell eines Mikrokerns als Basis zu verwenden. Auf diesem Mikrokern sollten allen weitergehenden Betriebssystemfunktionalitäten in Form von Serveranwendungen aufsetzen.33

Als der finnische Student Linus Torvalds 1991 bereits mit einem stabilen Kernel mit dem Namen Linux aufwarten konnte, trat für das GNU-Projekt die Entwicklung eines eigenen Kernels wieder in den Hintergrund, da sie nun unverhofft auf einen modernen und Unix-konformen Kernel zurückgreifen konnten.

In der Verbindung der GNU-Software mit dem Linux-Kernel stand nun zum ersten Mal ein voll funktionsfähiges und, da Torvalds seinen Kernel auch unter die GPL stellte, ein durch geltendes Urheberrecht in seiner Freiheit geschütztes Betriebssystem zu Verfügung.

Linux

"In fact, I think Linus' cleverrest and most consequential hack was not the construction of the Linux kernel itself, but rather his invention of the Linux development model."34

Jeder Computer besteht aus mehreren Hardwarekomponenten35, welche zwar untereinander verbunden sind, jedoch nicht miteinander kommunizieren können. Damit nicht jedes Anwenderprogramm sämtliche benötigten Komponenten verwalten muss, wird diese Aufgabe vom Kernel übernommen. Der Kernel stellt einheitliche Schnittstellen zur Hardware zur Verfügung, es ist in diesem Sinne eine Art Hardwareerweiterung. Das heißt, dass die eigentliche Anwendersoftware nur über den Kernel Zugriff auf die Hardware hat. Auf diese Weise wird der Programmierer von den Einzelheiten des Hardwarezugriffs entlastet, er muss einer neuen Software nicht die Kommunikation mit dem Drucker oder dem Bildschirm beibringen. Für den Benutzer ergibt sich der Vorteil, dass auch er nicht jede neue Software auf seinem System für seine jeweilige Hardware erst konfigurieren muss. Ein Betriebssystem stellt so eine Art Plattform dar, auf der erst die eigentlichen Anwenderprogramme aufsetzen. Im Idealfall verhält sich ein Betriebssystem neutral gegenüber seinem Verwendungszweck, es stellt eine universale Maschine zur Verfügung, die erst durch die Anwendungssoftware etwa in eine Schreibmaschine oder in einen Flugsimulator verwandelt wird.

Weiterhin verwaltet der Kernel mehrere konkurrierende Zugriffe unterschiedlicher Programme auf den Prozessor. Bei dem sogenannten Multi-Tasking können so mehrere Prozesse quasiparallel verarbeitet werden, indem jedem Prozess immer alternierend kleine Zeiteinheiten zugewiesen werden. So kann ein Computer bei langwierigen Rechenprozessen trotzdem auf Tastatureingaben des Benutzers reagieren und etwa einen Druckauftrag verarbeiten. Im Falle von Mehrbenutzersystemen verwaltet der Kernel konkurrierende Zugriffe der verschiedenen Benutzer, auch hier wieder quasiparallel. Gerade die auf Unix basierenden Betriebssysteme zeichnen sich durch ihre Multi-User und Multi-Tasking Funktionalität aus. Die Stabilität und Verlässlichkeit von Unixbetriebssystemen wird nicht zuletzt durch die konsequente Durchführung des Konzeptes, dass Zugriffe einzelner Prozesse oder Benutzer auf die Hardware durch den Kernel verwaltet werden, erreicht.

Im Jahr 1987 entwickelte Andrew Tanenbaum, ein Professor an der freien Universität Amsterdam, das Lehrbetriebssystem Minix für den PC, welches die Funktionalität von Unix hatte und als Quelltext für wenig Geld zu kaufen war:

"Minix ist keine echte Basis für Anwenderprogramme; aber es ist ein sehr lehrreiches Spielzeug. Ein Lebensnerv von Minix ist das USENET, wo in der Gruppe comp.os.minix alle Neuigkeiten, Fragen und Antworten zu Minix ausgetauscht werden. Hier werden auch Veränderungen am Betriebssystem (dem Kernel) veröffentlicht und gelegentlich ganze Programme verschickt. Hier tummelt sich eine weltweit aktive Minix-Gemeinde und entwickelt das Betriebssystem und die Anwendungen drumherum."36

Da der Autor aber an einer Reihe von Restriktionen festhielt, welches Minix auf dem Status eines Lehrbetriebssytem festschreiben sollten, konnte sich aus Minix keine vollwertige und vor allem freie Basis für moderne 386-PCs entwickeln.37

Im März 1991 fing Linus Benedict Torvalds in Helsinki damit an, mit Hilfe von Minix die Möglichkeiten des gerade neu erschienenen und und für diese Zeit außerordentlich leistungsfähigen 386-Prozessor der Firma Intel zu untersuchen. Innerhalb eines halben Jahres war aus seinen Assemblerstudien38 ein kleiner, funktionsfähiger Kernel entstanden. Bereits im September 1991 verschickte Torvalds die erste Version von Linux (0.01) an interessierte Minixer. Mussten diese erst noch Linux unter Minix übersetzen und installieren, wuchs innerhalb kurzer Zeit durch die Mitarbeit vieler interessierter Minixer mit der Version 0.12 ein stabil laufender Kernel heran, der Minix für die neuen Linuxer obsolet werden ließ. Zu dieser Zeit gab es auch schon den GNU C-Compiler, die bash, Emacs und weitere GNU-Utilities. Mit Hilfe dieser Entwicklungssoftware wurde Linux verbessert und gleichzeitig das GNU-System mit dem Linux-Kernel erst komplettiert. Weiterhin konnte das nun in der Verbindung von GNU und Linux neuentstandene Betriebssystem durch seine Unix-Kompatibilität von Anbeginn an auf praktisch sämtliche freie Software zurückgreifen, wie z.B. Sendmail39, den Apache HTTP-Server40 oder dem X-Window System.

Bis hierher ist im Prinzip schon deutlich, was das besondere an der Entwicklung eines Betriebssystem in einer offenen Kollaboration ist. Die beiden folgenden Abschnitt über KDE und die Distributionen sollen dem noch hinzufügen, dass GNU/Linux nicht nur für Spezialisten von Relevanz ist, sondern auch ohne ein tiefergehendes Interesse an den Funktionsweisen von Software eingesetzt werden kann.

KDE

Um den Erfolg von GNU/Linux in seiner heutigen Form näherzukommen, soll kurz auf das Konzept der grafischen Benutzerumgebungen am Beispiel des K-Desktop-Environment (KDE)41 eingegangen werden. Erst mit Hilfe von grafischen Benutzerumgebung tritt GNU/Linux in unmittelbare Konkurrenz etwa zu Microsoft Windows im Bereich der Arbeitsplatzrechner, wo Microsoft schon seit längerem die unangefochtene Marktführerschaft eingenommen hat. Im Bereich der Netzwerkserver konnten sich dagegen nach wie vor die diversen Unix-Betriebssysteme behaupten, wobei GNU/Linux hier einen wachsenden Marktanteil hat.

Grundlegend für alle grafischen Benutzeroberflächen unter Unix ist das bereits 1984 am MIT entwickelte X-Window System. Eine freie Implementierung wird vom XFree86-Projekt42 für GNU/Linux zur Verfügung gestellt. X-Window stellt eine Sammlung von Programmen, Protokollen und Routinen zur Verwaltung einer grafischen Benutzeroberfläche dar. Auf eine basale und flexible Art und Weise bildet X-Window die Plattform für die Windowmanager.

Für GNU/Linux existieren mehrere Windowmanager, von denen in letzter Zeit KDE das mit mehreren Auszeichnungen bedacht wurde.43 Seit seiner Entstehung im Herbst 1996 avancierte KDE so zu einem der ehrgeizigsten Projekte im Bereich der freien Software. Dieser Windowmanager verfolgt konsequent die Idee der integrierten Arbeitsoberfläche, es gibt eine Vielzahl von Applikationen für den K-Desktop, neben Klangrecordern und Videobetrachtern auch Grafikprogramme, eigene Editoren, Systemprogramme, Dateimanager und auch mehrere kleine Spiele. "Drag and Drop" ist weitestgehend realisiert und zudem kann vom Desktop aus auf das Internet zugegriffen werden. Mit der neuen Version 2.0 wurde weiterhin ein komplettes Office-Paket dem K-Desktop beigefügt. Das GNU/Linux Betriebssystem in Verbindung mit dem KDE-Desktop genügt weitgehend den Anforderungen, die etwa Microsoft Windows im Bereich der Desktopsysteme etabliert hat, allerdings mit dem entscheidenden Unterschied, dass KDE freie Software ist und in einer offenen Kollaboration entwickelt wird.

An dem Projekt sind inzwischen über 200 Entwickler aus der ganzen Welt beteiligt, welche an den unterschiedlichsten Applikationen mitarbeiten. Die gesamte Entwicklung findet bei KDE, wie generell bei Linux, über das Internet und seinen Werkzeugen wie Mailing-Listen und einem sogenannten CVS-Repository statt. Das "Concurrent Version System" (CVS) ist ein Quellcode-Verwaltungssystem, welches den gleichzeitigen Zugriff mehrerer Entwickler erlaubt und Versionskonflikte automatisch verhindert. Jeder Entwickler, Übersetzer oder Dokumentationsautor kann auf Anfrage Schreibzugriff zu diesem Server erhalten, Lesezugriff, also die Möglichkeit zum freien Download ist, wie generell bei der freien Software sowieso gegeben.44 Auf diese Art und Weise kann jeder Benutzer von Linux jederzeit an den neuesten Entwicklungen Teil haben, man muss nicht mehr auf neue Ausgaben warten, wie es bei anderen Betriebssystemen üblich ist. Findet man etwa bei dem Microsoft Betriebssytem Windows einen Fehler, oder wünscht man einfach eine Funktion, die die aktuelle Version nicht bereitstellt, so muss man auf eine neue Version warten und kann dann auch nur hoffen, dass die eigenen Wünsche und Erwartungen erfüllt werden.45 Ganz anders bei Linux, hier gibt es kostenlos die Möglichkeit, mit den Entwicklern in Kontakt zu treten und Fehler zu melden, mit ein wenig Enthusiasmus beteiligt man sich einfach an einem bestehenden Projekt. Das KDE-Projekt ist deswegen so erfolgreich, da es auf komfortablen Bibliotheken46 beruht, die den Einstieg in die eigene Entwicklung von Anwendungen erleichtern:

"KDE-Entwickler können die erforderlichen Kenntnisse zu einem großen Teil während der Arbeit an ihrem Teilprojekt erwerben, was natürlich viel motivierender ist, als sich erst lange mit den Strukturen vertraut machen zu müssen, bevor man in die eigentliche Entwicklungsarbeit einsteigen kann."47

Nun kann zwar GNU/Linux selbst schon Grafikkarte, Tastatur und Monitor ansteuern, dies jedoch nur auf einer recht einfachen Ebene. So kann man ohne grafische Benutzeroberfläche etwa Programme schreiben, Texte verfassen, CDs brennen, im Internet surfen48, E-Mails schreiben, verschicken, empfangen, in Verbindung mit X-Window und einem Windowmanager wird der Linux-Rechner aber auch "intuitiv" bedienbar. Wichtig ist hierbei, dass der Nutzer durch die grafische Oberfläche nicht von der Betriebssystemebene abgeschirmt wird. Das hier vorgestellte KDE tritt nicht mit dem Anspruch auf, dass Betriebssystem selbst zu sein, es ist und bleibt Anwendungssoftware und kann jederzeit gegen einen anderen Windowmanager ausgetauscht werden.

Distributionen

Eine wichtige Rolle für die Popularisierung von GNU/Linux spielen die sogenannten Distributionen. Neben der bekanntesten freien Distribution Debian sind unter anderen die kommerziellen Versionen von RedHat und der deutschen Firma SuSE recht etabliert und umfangreich. Da die Projekte der freien Software in der Regel ein eigenes Verzeichnis im Internet betreiben, ist man ohne die Dienstleistung der Distributionen gezwungen, sich die verschiedenen Komponenten im Internet selbst zusammenzusuchen.49 Weiterhin bieten Distributoren in der Regel sowohl gedruckte Dokumentationen, als auch Installationsprogramme an. Dies ist wichtig, da die Installation eines GNU/Linux-Systems ansonsten ein erhebliches Know-How notwendig macht. Gerade dem Bereich der Dokumentation kommt ein außerordentlich hoher Stellenwert zu. So sind die Entwickler freier Software dazu angehalten, ihren Code gleich bei der Erstellung auch zu dokumentieren um das Verständnis des Softwarecodes auch für einen Außenstehenden zu erleichtern. Daneben, dass sich jeder an der Softwareentwicklung beteiligen kann, werden immer Freiwillige gesucht, um fertige Software zu dokumentieren. Fehlt die Dokumentation oder hilft eine bestehende bei spezifischen Problemen nicht weiter, dann kann man in verschiedenen Diskussionsforen um Hilfe ersuchen, auch hier ist das Internet Basis für regen Austausch.50 Neben einer solchen Selbsthilfe sind Support-Dienstleistungen wesentliches Geschäftsfeld kommerzieller Linux-Distributoren. Aufgrund der Quelloffenheit freier Software können Firmen sich außerdem darauf spezialisieren, diese im Kundenauftrag umzuschreiben oder Fehler zu beheben. Dies kommt nicht zuletzt wieder dem Bestand an freier Software zugute, da veränderte Software aufgrund der GPL auch wieder freie Sofware sein muss.

Inzwischen steht eine Reihe von kommerzieller Software für GNU/Linux zur Verfügung, wie zum Beispiel die Büroanwendungen WordPerfect und Star-Office. Problem bei diesen Angeboten ist aber, dass bei kommerzieller Software in der Regel der Quellcode nicht mitgeliefert wird, und wenn doch, dann meist in Verbindung mit Open-Source Lizenzen, die es erlauben, die Codebasis offenzulegen und trotzdem den Status des Eigentümers an dieser Software festzuschreiben. In der Bereitstellung kommerzieller Software für GNU/Linux und in der Verwendung von Open-Source Lizenzen liegt allerdings auch eine Gefahr begründet, da dass wesentliche an GNU/Linux in seiner "Freiheit" liegt und diese durchaus durch solche proprietären Angebote für ein freies Betriebssystem eingeschränkt wird.

Lizenzen

Bei der Installation kommerzieller Software akzeptiert der Benutzer in aller Regel einen längeren Lizenztext. In diesem ist festgelegt, dass einem die Software nicht etwa gehört, sondern dass man lediglich Nutzungrechte daran erworben hat. Diese Nutzungsrechte legen fest, dass man die Software nur auf einem einzigen Rechner installieren darf,51 dass lediglich zu Sicherungszwecken die Erstellung einer Kopie legitim ist, dass die Veränderung der gelieferten Software untersagt ist und dass der Hersteller keinerlei Haftung für Fehler und den daraus resultierenden Schäden übernimmt.Indem man schlicht und einfach mit einem Mausklick diesen Lizenztext akzeptiert, schließt man gleichzeitig einen rechtsgültigen Vertrag.52

Auch bei der Installation freier Software erscheint mit der "GNU-General-Public License" (GPL) ein Lizenzabkommen, auch hier wird jedwede Gewährleistung ausgeschlossen, allerdings ganz im Gegensatz zu den Lizenzen kommerzieller Software werden die Rechte in Hinsicht auf Weitergabe, Veränderung und Installation der Software nicht eingeschränkt.

Neben der GPL existieren verschiedene andere Lizenzmodelle, welche Software ebenso frei verfügbar machen. Die bekanntesten sind hierbei "Freeware", "Shareware", "Public-Domain-Software" und "Open-Source-Software". Freeware ist Software, welche ohne den Quellcode, und somit ohne die Möglichkeit zur Veränderung, kostenlos abgegeben wird. Der Autor behält sich alle Rechte an seinem Werk vor.53 Shareware ist zunächst frei verfügbar, oftmals allerdings mit eingeschränktem Funktionsumfang und verbunden mit der Aufforderung an den Nutzer, bei Gefallen einen meist festgelegten Betrag an den Autor zu entrichten. Public-Domain-Software hingegen ist Software, welche nicht gesetzlich geschützt ist, entweder weil es rechtlich nicht möglich ist, z.B. bei Software, die im öffentlichen Auftrag entstanden ist, oder aber wenn der Autor jegliche Rechte an seinem Werk ausschlägt.

Von diesen Modellen unterscheiden sich freie Software und Open-Source-Software dadurch, dass sie zwar durch das Urheberrecht geschützt sind, in dieser Lizenz allerdings Nutzungsfreiheiten festgeschrieben statt eingeschränkt werden. Wesentlicher Unterschied zwischen freier Software und Open-Source-Software ist allerdings, dass letztere nicht im gleichen empathischen Sinne frei ist, wie erstere. So kann auch Open-Source-Software beliebig oft kopiert, installiert und benutzt werden. Zudem steht der Quellcode offen und darf auch verändert werden. Allerdings ist bei Open-Source-Software sowohl das Verhältnis zwischen proprietären und freiem Code, als auch der Status von abgeleiteten Werken anders als in der GPL geregelt. Die GPL verbietet ausdrücklich die Verwendung von freiem Code in proprietärer Software und schreibt explizit vor, dass ein abgeleitetes Werk wiederum freie Software sein muss. Ganz im Gegensatz hierzu steht etwa die "Apple Public Source Licence" (APSL), welche die Offenlegung des Quellcodes für registrierte Entwickler regelt:

"Kontributoren müssen Apple eine unwiederrufliche Lizenz erteilen, die Copyright- und Patentrechte an ihren Modifikationen zu nutzen (Ziff 3), gleichzeitig behält sich Apple vor, die APSL im Falle von Patentstreitigkeiten pauschal zu widerrufen (Ziff 9.1.c). Modifikationen der Kontributoren müssen im Quellcode freigegeben und mit einem Online-Formular bei Apple angemeldet werden (Ziff 2.2.c), gleichzeitig behält sich Apple alle Rechte am Originalcode und an seinen eigenen Modifikationen vor und entbindet sich selbst bei deren Nutzung von seiner eigenen Lizenz (Ziff 11)."54

Nun kann es der Entwicklung von freier Software nur dienlich sein, wenn sich auch kommerzielle Unternehmen daran beteiligen. Da GNU/Linux ein stetig wachsender Markt geworden ist, ist es auch für Unternehmen durchaus lohnend, sich zu engagieren. Zudem ist es ein wesentliches Merkmal der Softwareentwicklung bei offenem Quellcode, dass der Code von vielen, voneinander unabhängigen Personen begutachtet und verbessert werden kann. Dieses offene Entwicklungsmodell, dass sich von Unix bis GNU/Linux als erfolgreich erwiesen hat, kann und soll auch von profitorientierten Softwarefirmen adaptiert werden. Bei den Bestrebungen, in einem kommerziellen Umfeld die Softwareentwicklung durch freie Kooperation voranzubringen ist es jedoch wichtig, dass diese Entwicklungsarbeit, diese von der Öffentlicheit verbesserte Software auch wieder frei und uneingeschränkt an die Öffentlichkeit zurückgegeben wird. Der Profit für beide Seiten ist dann ein größerer Bestand an nützlichen, frei verfügbaren und frei veränderbaren Computerprogrammen.

Gerade anhand der APSL liegt es jedoch auf der Hand, dass Apple zwar sehr wohl an der freien Mitarbeit vieler Entwickler interessiert ist, jedoch weniger an der damit verbundenen Freiheit auch für das Produkt. So besteht bei der APSL immer die Gefahr, dass die Lizenz einfach widerrufen und alle Änderungen wieder alleinig einem geschlossenen, kommerziellen, in Klarsicht-Folie eingeschweißten Produkt zugute kommt.

Während freie Software immer unter der GPL steht, existiert für Open-Source-Software eine größere Anzahl unterschiedlicher Lizenzmodelle,55 eine Vereinheitlichung wird lediglich durch eine Zertifizierung nach der Open-Source-Definition56 angestrebt. Wie es scheint, sind gerade die Firmen, die ihren Quellcode für andere freigeben, diejenigen, die die Chancen und Möglichkeiten des Internet erkannt haben. Statt das Internet zur Kontrolle von "geistigem Eigentum", oder schlicht und einfach als ein erweitertes Distributionsmedium zu betrachten, nutzen manche Firmen das Potential des globalen Computernetzwerkes für eine neue Form der Zusammenarbeit. Wie bereits oben ausgeführt, ist eines der Gesetze für den ökonomischen Erfolg im Informationszeitalter der Aufbau und die Pflege einer "Community". Im Falle von geschlossener Software soll die Bildung einer "Community" erreicht werden, indem das eigene Produkt nach Möglichkeit als Quasistandard durchgesetzt wird:

"Heute läuft auf 90%der PCs dieser Welt ein Microsoft-Betriebssystem. Die Strategien, wie Microsoft seine Vormachtstellung ausbaut und Marktchancen anderer Betriebssysteme verhindert, sind im laufenden Kartellverfahren ausgeleuchtet worden. Dazu gehören Knebelverträge mit Hardware-Herstellern, Kontrolle der Bedingungen für zertifizierte Software-Entwickler und Computerhändler, räuberische Preispolitik, Ankaufen von Konkurrenten, Bundling und Integration anderer Software in Windows [...], gezielte Inkompatibilitäten, Ausweitung des Monopols auf andere Bereiche wie Content und schließlich das allseits beliebte FUD (Fear Uncertainty Doubt): 'Mach den Leuten klar, daß 'da draußen' ein Krieg tobt, ein babylonisches Elend herrscht und nur der dominante Standard die beste Lösung bietet. Wer abweicht, wird mit Inkompatibilität bestraft. Wer mitmacht, kann nichts falsch machen'."57

Firmen, die nun statt auf Verunsicherung des Benutzers und statt auf die Errichtung einen Marktmonopols auf die Kooperation mit den Benutzern setzen, indem sie ihren Quellcode freigeben, haben ein großes Potential um Gemeinschaften zu bilden. Hier können die Benutzer auch gleichzeitig kreativ am Entstehungsprozess, an der Erweiterung und Verbesserung teilhaben:

"Während proprietäre, geschlossene Software ihre BenutzerInnen zu blossen AnwenderInnen degradiert, ermöglicht Quelloffenheit Partizipation und fördert die Mitverantwortung der BenutzerInnen, die zumindest potentiell zu Co-ProduzentInnen werden können. Um es altmodisch zu formulieren, bereitet OS auf weniger entfremdete und theoretisch mitbestimmte Arbeitsplätze vor."58

Was hier als große Chance in der Informationsgesellschaft erscheint, die Flexibilisierung der Arbeit, flache Hierarchien, Eigenverantwortlichkeit, kann allerdings auch allzu leicht in der "deregulierten Marktwirtschaft" in einer Selbstausbeutung oder in der Abschöpfung freier, unbezahlter Arbeit durch profitorientierte Unternehmen münden. Vermieden werden kann und soll dies durch die GPL, der unter diesen Vorzeichen der Vorrang vor den Open-Source-Lizenzen privatwirtschaftlicher Unternehmen gegeben werden sollte.

Wissens-Allmende

Anhand einer knappen Beschreibung von GNU/Linux ist vielleicht schon klar geworden, dass die Reduzierung freier Software auf den Aspekt der "rein technischen Programmierleistung"59 zu kurz greift, um der Intention freier Software gerecht zu werden. In seiner Kritik an der "Apple Public Source Licence" (APSL) spricht Richard Stallman genau diese Differenz zwischen Programmierleistung und der freien Software an:

"Overall, I think that Apple's action is an example of the effects of the year-old 'open source' movement: of it's plan to appeal to business with the purely materialistic goal of faster development, while putting aside the deeper issues of freedom, community, cooperation, and what kind of society we want to live in.
Apple has grasped perfectly the concept with which 'open source' is promoted, which is 'show users the source and they will help you fix bugs'. What Apple has not grasped - or has dismissed - is the spirit of free software, which is that we form a community to cooperate on the commons of software."60

Der von Stallman in seiner Kritik an Apple verwendete Begriff des "Commons" wird von Volker Grassmuck in Analogie gesetzt zu dem althochdeutschen Wort "Allmende".61 Von seiner Herkunft meint dieser Begriff die gemeinsame Nutzung kollektiver Ressourcen: "gemeinsam genutztes Land einer Gemeinde, einer festen Nutzergemeinschaft; allen gemeinsamer Grund, besonders Viehweide, Waldgebiet, Fischgewässer; sonstiges gemeindeeigenens Gelände, z.B. Wege, Plätze u.ä.".62 Entgegen dem herkömmlichen Allmendebegriff, der sich auf die gemeinschaftliche Nutzung natürlicher Ressourcen, also Luft, Wasser, Boden, bezieht, ist das Wissens-Allmende, auf das Grassmuck in seinem Text abzielt, prinzipiell unerschöpflich. Während etwa in der extensiven Landwirtschaft die Ressourcen verbraucht werden können und so eine Kontingentierung vonnöten ist, gilt dies in keiner Weise für Information. Einzig die materiellen Träger der Information sind limitiert, so dass etwa im Falle von Büchern die Institution der öffentlichen Bibliotheken dieser Limitierung entgegen wirken soll. Bibliotheken stellen so eine frühe Form des Wissens-Allmende dar, der gemeinschaftlichen Nutzung von Bildungsressourcen, ebenso wie die öffentlichen Museen und Sammlungen.

Der Gedanke, dass Information eine durchaus wertvolle Ware sein kann, ist wesentlich jünger, als der Besitz von materiellen Gütern:

"Weder das römische noch das germanische Recht kannten das abstrakte Konzept von Immaterialgütern. Erst mit dem Entstehen eines neuen Wissens- und Autorbegriff in der Renaissance tauchten erste staatlich verliehene Schutzrechte für Erfindungen und für literarische und dann auch musikalische, dramatische und andere künstlerische Werke auf."63

Wichtig ist allerdings, dass die Eigentumsrechte an Information weit mehr als die Rechte an materiellen Gütern an der Schnittstelle zwischen Privateigentum und Gemeineigentum stehen:

"Ist ein Foto, Film, Musikstück oder Roman einmal veröffentlicht, wird er Teil der informationellen Umwelt und ggf. Teil des kulturellen Erbes. Es ist also natürlich, daß sich andere Mitglieder der Kulturgemeinschaft auf sie beziehen, sie zitieren und in eigenen Kreationen darauf reagieren."64

Betrachtet man nun Software ebenso als integralen Bestandteil der "informationellen Umwelt", so ist der freie Umgang mit dieser, wie er etwa in der Frühzeit der Softwareentwicklung obligatorisch war, insbesondere in der Informationsgesellschaft von größter Wichtigkeit.

Software ist zwar erst vor etwa zwanzig Jahren zu einer industriellen Ware geworden, nichtsdestotrotz ist der Gründer der weltgrößten Softwareunternehmens, Bill Gates, in den 90er Jahren zu einem der reichsten Menschen der Welt avanciert.65 Dies findet sicherlich nicht zuletzt darin seine Begründung, dass er sich als einer der ersten konsequent gegen "Softwarepiraten" engagierte.66 Die kommerzielle Softwareproduktion mit immer schnelleren Prokuktionszyklen ist zu einer immens lukrativen Einnahmequelle geworden und gerade aus dieser Perspektive heraus ist die Entstehung einer Kultur zur Entwicklung freier Software umso erstaunlicher. Quasi unwillkürlich stellt sich die Frage nach der Motivation von Menschen, welche in ihrer Freizeit teilhaben am Aufbau und der Pflege eines öffentlichen Bestandes von in Codezeilen niedergelegtem Wissen, eben dem von Grassmuck so benannten Wissens-Allmende. Hierbei ist neben praktischen Belangen der Aspekt des Lernens sicherlich von herausragender Bedeutung.

Ist nun in der Gegenwart Information eine der wertvollsten Ressourcen, so stellt Software eine besondere Art von Information dar. Geschrieben von Menschen in höheren Programmiersprachen, ist Software nach der Übersetzung in die Maschinensprache ein Set von Instruktionen, das den Computer dazu veranlasst, Zeichenoperationen durchzuführen. Das Wissen darüber, wie ein Programm funktioniert, welche Schritte ausgeführt werden, um ein Resultat zu erzielen, ist im Quellcode niedergelegt. Der wichtigste Punkt quelloffener Software ist also, dass das Wissen um die Funktion öffentlich gemacht wird. Im Gegensatz dazu steht proprietäre Software, welche eine Black-Box darstellt: "das Wissen darüber, wie ein solches Black-Box System macht, was es macht, ist jedoch für alle praktischen Belange effektiv geschützt."67

Das Wissen um die Funktionsweise von Software ist gerade aus einer medienwissenschaftlichen Perspektive heraus sicherlich sinnvoll. In seinem Aufsatz "Von Computern und Modellen" beschreibt Douglas Rushkoff, dass ihm in der Schule beigebracht worden sei, mit Hilfe eines Computers Modelle zu erzeugen, etwa das Modell einer Schreibmaschine. Wichtig ist ihm dabei, dass er gleichzeitig gelernt habe, dass diese Modelle nicht mit der Wirklichkeit verwechselt werden dürfen: "Wir verstanden, dass in vielen Fällen die von uns geschaffenen Modelle nicht die Komplexität der wirklichen Welt besaßen." Hieraus folgert Rushkoff, dass der Umgang mit einem Medium sich verändert, wenn der Rezipient auch die "Schreibweisen" eines Mediums erlernt:

"Je besser wir verstehen, wie ein Medium hergestellt wird, desto besser können wir seine Repräsentationen von der Wirklichkeit unterscheiden. Als Beispiel kann uns das Lesen dienen. Fast jeder der lesen kann, kann auch schreiben. Folglich wissen wir, dass nicht alles, was aufgeschrieben wurde, auch schon wahr ist. Ganz ähnlich hinterfragen wir die Wahrheit von manchen Geschichten, die im Fernsehen ausgestrahlt werden, wenn wir einmal mit Camcordern und den Möglichkeiten vertraut geworden sind, wie man Videoaufzeichnungen editiert, anstatt nur als Fernsehzuschauer zu existieren."68

Sicherlich kann ein kritischer Umgang mit Medien auch ohne intime Kenntnis seiner Funktionsweisen stattfinden, doch eine solche Kenntnis erlaubt oftmals einen anderen Blick auf ein Medium. Insofern stellt quelloffene Software nicht zuletzt auch einen Zugang zu Wissen bereit, mit dem die gegenwärtigen, in Software codierten Modellierungstechniken fundiert hinterfragt werden können.

Nun ist die Einsicht in den Quellcode einer Software nicht nur aus wissenschaftlichen Gründen sinnvoll, das heisst, um sie zu verstehen, sondern auch aus praktischen Belangen heraus. Genau hier setzt ein freies Softwareprojekt an. Ein Problem soll gelöst werden, ein Bedürfniss nach funktioneller Software entsteht: "Linus Torvalds wollte ein Unix auf seinem 386er PC zuhause laufen lassen, fand allein Minix, das seinen Ansprüchen nicht genügte, und begann Linux zu entwickeln."69 Doch das wirklich Spannende hieran ist nicht, dass jemand Software schreibt, sondern vielmehr, dass er dies in gemeinsamer Kooperation mit anderen tut, die sich an dem Projekt interessiert zeigten. Software wird von denjenigen geschrieben, die sie auch im Alltag gedenken einzusetzen. Dies trotz einer vorherrschenden Ideologie der Marktwirtschaft, die verspricht, dass die spezialisierten Unternehmen gleich welcher Branche am besten wissen, was der Kunde braucht:

"See, when commercial developers create a product, they start by trying to solve a problem that customers need solved. The focus is always on the customer. What do they need? What do they want (which isn't always the same thing)? Can they use this software? How much handholding will they need to make this work? Can we make this experience so great that the competition can't sway them back?"70

Trotzdem freie Software nicht in Hinblick auf den Kundennutzen entsteht, hat sie sich zu einer ernstzunehmenden Konkurrenz für kommerzielle Software entwickelt.71 Da freie Software aus konkreten Interessen von Computerbenutzern entstanden ist und nicht aus Kundenwünschen, war es nur konsequent, dieses in Software kodifizierte Wissen im Internet weltweit zur Verfügung zu stellen, da es auch dort entstanden ist. Ebenso konsequent, dieses öffentliche Wissen vor Missbrauch zu schützen und sicherzustellen, dass es auch weiterhin öffentlich bleibt.

Gerade die freie Verfügbarkeit, die Quelloffenheit der Software bewirkt zudem, dass ein Projekt immer weiter voran getrieben wird:

"Die Anzahl der neuen Leute, die Interesse zeigen und in so ein Projekt einsteigen, ist absolut verblüffend. Das Interesse ist riesig. 'Entwickler' ist natürlich ein bißchen grob gegriffen. Die Zahl der Leute, die mehr als 1000 Zeilen Code im XFree86 drin haben, ist vielleicht zwei Dutzend, mehr sind das nicht. Es gibt jede Menge Leute, die mal einen ein- bis dreizeiligen Bug Fix gemacht haben, aber auch 'nur' Tester. Leute die Dokumentationen schreiben sind wahnsinnig wertvoll."72

Man braucht also keinesfalls ein versierter, in höchstem Maße professionalisierter Informatiker zu sein, um an einem Software-Projekt teilzunehmen. Hierin liegt gerade eine der Stärken freier Software, denn diese wird von den gleichen Menschen immer weiter perfektioniert, die die Software auch nutzen. Gerade der Nutzer hat einen anderen Zugang und so mitunter einen klareren Blick auf bestehende Probleme als ein durch und durch in ein Projekt involvierter Entwickler.

Initiiert und organisiert wird ein solches Projekt typischerweise über Mailinglisten, in denen auch über Umfang und Funktionalität eines Software-Projektes diskutiert und abgestimmt wird, nützliche Erweiterungen und Vorschläge werden aufgenommen, unnötiges wird zurückgewiesen.73 Diese Mailinglisten stellen im Prinzip ein basisdemokratisches Organisationsprinzip dar. Sie sind aber auch ein Wissensbestand, auf den zurückgegriffen werden kann, wie auf den Code einer quelloffener Software. Möglichkeit bietet dies zu einem ständigen Prozess der Evaluierung und Revision einer Wissensbasis, die allen zur Verfügung steht. Freie Software steht somit in Einklang mit den Gedanken, welche Tim Berners-Lee zur Erfindung des WorldWideWeb bewogen hatten: Zugriff auf Wissen und die Möglichkeit, dieses Wissen auch immer verändern zu können, es immer neu zu verknüpfen.74 Die Generierung und Permutation von Softwarecode kann auch als eine Art Selbstzweck angesehen werden und der Aspekt des "Lernens" fällt mitunter mit praktischen Belangen zusammen:

"Wenn ich was dazu tue, dann veröffentliche ich nicht nur für mein Ego, sondern ich setze mich auch der Kritik aus. Und da ist es ganz klar so, daß in der Welt der freien Software ein sehr positives, ein konstruktives Kritikklima herrscht, d.h., ich werde ja für einen Fehler - Software hat Bugs -, den ich in einem Programm gemacht habe, nicht runtergemacht. Es sind ganz viele Leute da, die versuchen, Fehler mit mir gemeinsam zu beheben, d.h., ich lerne. Und das ist eine ganz wichtige Motivation für sehr viele Menschen, die sich einfach auch daran weiterentwickeln wollen."75

Freie Software ist in deutlichem Maße wissenschaftlichen Idealen verbunden, der erzielte Profit ist geistiger Profit, der Entnahme von Wissen aus einem Pool und der Rückgabe an ebendiesen.76

Ich denke, gerade anhand der freien Software kann von der Einschreibung einer gesellschaftlichen Praxis, der von Grassmuck beschriebenen "Allmende-Genossenschaft", in die Technik gesprochen werden. Ebenso wie das Betriebssystem selbst aus einer großen Fülle an heterogenen Komponenten besteht, die dabei keiner zentralistischen Kontrolle unterstehen, in der Entscheidungsträger eines Konzerns über Sinn und Unsinn einer Entwicklung bestimmen, wird auch die Entwicklung nicht zentral gesteuert. Die einzelnen Projekte der freien Software sind selbstorganisierend und insofern im Wesentlichen "basisdemokratisch". Nun hat zwar jedes Projekt ein "Core-Team", in welchem letztlich Entscheidungen getroffen werden und es gibt sicherlich wichtigere und weniger wichtige Projekte der freien Software, doch klar ist trotzdem, das GNU/Linux anders strukturiert ist, als kommerzielle Betriebssysteme. Freie Software ist sehr facettenreich, und ob dies als Vor- oder als Nachteil gewertet werden sollte, bleibt letztlich jedem Computerbenutzer selbst überlassen. Nicht zu leugnen ist aber, dass der Umgang mit freier Software ein höheres Engagement voraussetzt als proprietäre Software. Allerdings wird ein solches Engagement bei GNU/Linux, wie bei kaum einem anderen Betriebssystem überhaupt erst ermöglicht.

Die im Eingangszitat dieses Kapitels erwähnte Metapher des Webens am unendlichen Text liegt von hier eigentlich nicht mehr fern. Zudem hat gerade diese Form der Zusammenarbeit in den letzten Jahren ein hohes Maß an gesellschaftlicher Relevanz erworben und GNU/Linux hat den "Status des Exotismus" längst überwunden. Nach all dem Gesagten wird die Entscheidung der Jury, die Goldene Nica der Ars Electronica an "Linux" zu verleihen, hoffentlich nicht mehr als ein "Hang zum Technikdeterminismus in den Ghettos der Medienkunst"77 erscheinen, denn freie Software ist durchaus mehr als "Technik".

In dieser Arbeit wurde bereits einiges über die, durch das globale Computernetzwerk, ermöglichte Form der freien, kollaborativen Zusammenarbeit gesagt. Für Licklider war es dabei besonders wichtig, das Personen mit den unterschiedlichsten Vorkenntnissen mittels des Computers an einem Projekt zusammenarbeiten können. Tim Berners-Lee hingegen betont die Möglichkeit, Informationen aus den verschiedenen Bereichen des Netzes weltweit miteinander zu verknüpfen. Viel gesagt wurde in dieser Arbeit auch über Urheberrecht und die Kontrolle des "geistigen Eigentums". All dies hat in dem Kapitel über freie Software schon eine Art Konkretisierung erfahren.

Der Aspekt der Konstituierung von Gemeinschaften, des Zusammenarbeitens und Verknüpfens von Informationen, wie auch die Opposition gegen die Dominanz, die Kontrolle durch große Konzerne im Internet wird aber auch in den nun folgenden Kapiteln zu RTMark und etoy eine wesentliche Rolle spielen. Interessant ist, dass es große Widerstände gab, die freie Software der Kunstwelt zuzuschlagen, wohingegen dies bei RTMark und etoy sicherlich nicht der Fall ist, letztere aber gerade durch ihren Internet-Auftritt als Firmen solche Kategorien, solche Zuschreibungen ein gutes Stück weit in Frage stellen.



Vor: etoy: leaving reality behind Hoch: Inhaltsverzeichnis Zurück: www.jodi.org