Message 03952 [Homepage] [Navigation]
Thread: oxdeT03952 Message: 1/1 L0 [In index]
[First in Thread] [Last in Thread] [Date Next] [Date Prev]
[Next in Thread] [Prev in Thread] [Next Thread] [Prev Thread]

[ox] Gundolf S. Freyermuth * Offene Geheimnisse - Aus der Open-Source-Geschichte lernen



Hi!

In der c't las ich gerade die zwei Teile eines Beitrags wiedermal von
Gundolf S. Freyermuth, von dem ich hier schon öfter was gepostet
hatte. Netterweise ist dieser Artikel unter

	http://www.ix.de/ct/01/20/176/

bzw.

	http://www.ix.de/ct/01/21/270/

im Web.

Da er über weite Strecken auch bei uns hätte formuliert worden sein
können und m.E. einige interessante weitere Gedanken enthält, poste
ich ihn trotz der Links und der Länge in Gänze. Im Web finden sich
noch einige Kommentare.


						Mit Freien Grüßen

						Stefan

--- 8< --- 8< --- 8< --- 8< --- 8< --- 8< --- 8< --- 8< --- 8< --- 8< ---
Gundolf S. Freyermuth

Offene Geheimnisse

Aus der Open-Source-Geschichte lernen

Die Softwarebranche als Laboratorium der Zukunft: Die
Open-Source-Praxis entwickelt historisch neue Organisations- und
Rechtsformen und damit Modelle für eine Überwindung der industriellen
Ordnung.

Aus der Open-Source-Geschichte lernen (Teil 1): von der
Selbstermächtigung der Anwender in den 60er Jahren zur entorteten
Echtzeit-Produktion der 80er Jahre

Mehrere Jahrzehnte, nachdem sie begann, geriet die globale Vernetzung
Mitte der neunziger Jahre plötzlich ins öffentliche Bewusstsein - als
reine Geschäftsgelegenheit. Der raketengleiche Aufstieg der dot.coms,
für den Netscapes Börsenerfolg im August 1995 den Startschuss gab, und
die nicht minder spektakulären Bruchlandungen fünf, sechs Jahre später
verdecken im breiten Bewusstsein eine simple Wahrheit: dass die
Konstruktion des globalen Datenraums wahrlich nicht das Werk
geschickter Geschäftsleute war. Nicht nur der PC musste geradezu gegen
den Widerstand der Konzerne durchgesetzt werden. Auch das
Software-Fundament des Internet legten keineswegs kommerzielle
Entwickler, sondern technisch begeisterte Männer (und wenige Frauen) -
Programmierer und Techniker, Professoren und Studenten -, die sich das
Ergebnis ihrer Brillanz nicht im Interesse individuellen Profits
patentieren ließen.

Über Jahrzehnte hinweg stellten sie die Ergebnisse ihrer Arbeit gratis
und samt Quellcode zur Verfügung. Mit dieser Form der Veröffentlichung
ihrer Programme sorgten sie dafür, dass ihre Werke für andere nicht
nur benutzbar, sondern les- und veränderbar waren. Im offenen, durch
kein Copyright behinderten Austausch der Experten konnte so die
Software perfektioniert werden. Diese Zehntausende von digitalen
Handwerkern und Bastlern, denen es primär nicht um Tausch-, sondern
Gebrauchswert ging, schreibt Jon Katz, Slashdots einflussreicher
Medienkritiker, waren ?die wahren Architekten der neuen Ökonomie?. Auf
ihren kollektiven, dem Gemeinbesitz überantworteten Kreationen beruhen
bis heute die wichtigsten Programme, die das Internet am Laufen
halten, unter anderem Sendmail, Bind, Apache, Perl, Python. Die
Bedeutung von Offenheit demonstriert das Internet zudem über reine
Software hinaus. TCP/IP, das offene Basisprotokoll des Netzes, hat
mittlerweile proprietäre Protokolle wie IPX oder NetBEUI fast völlig
verdrängt. Nahezu alle Standards und Protokolle liegen als RFCs
(Requests For Comment) vor und verdanken ihre Existenz öffentlichen
Diskussionen.

Auch das heute zentrale HTTP entwickelte Tim Berners-Lee in einem
offenen Prozess, zu dem viele beitrugen. Nicht mit allen Namen und
Kürzeln wird jeder auf Anhieb deren exakte Funktion und vor allem
deren genaue Entstehungsgeschichte verbinden können. Die Details sind
freilich in diesem Zusammenhang nicht entscheidend [1]. Es reicht,
sich ihre grundsätzliche Bedeutung zu vergegenwärtigen, etwa in einem
Bild analoger Technik: Benutzte der Datenverkehr die Eisenbahn, so
erfüllten Weichen, Stellwerke, Signale und Fahrpläne ähnliche
Funktionen.

Gar nichts also ginge ohne diese Software, deren Quellcode eben kein
Geschäftsgeheimnis ist - weshalb sich Ende der neunziger Jahre für sie
der Begriff Open Source einbürgerte. Das Programm Sendmail etwa läuft
auf 80 Prozent aller Mailserver, kaum eine elektronische Post, die auf
ihrem verschlungenen Weg vom Sender zum Empfänger nicht mit diesem
Gratis-Code in Berührung käme. Ebenso abhängig sind Surfen im WWW und
E-Commerce von freier Software: Im August dieses Jahres waren 60,5
Prozent aller Webserver freie Apaches, während Microsofts
Closed-Source-Angebot Internet Information Server (IIS) mit 27,9
Prozent abgeschlagen auf Platz zwei dümpelte.

Mehr noch bedroht Linux den Redmonder Softwarekonzern: Binnen eines
Jahrzehnts stieg, was mit 10 000 Programmzeilen eines Studenten
begonnen hatte, zu einem Kollektivschatz von über 100 Millionen
Codezeilen auf - allein der Betriebssystemkern umfasst 3,5 Millionen
Zeilen. Nach den üblichen Tarifen der Branche stellen sie einen
Investitionswert von mehreren Milliarden Dollar dar. Eine zweistellige
Millionenzahl von Nutzern hat zudem Linux weltweit zum
zweitbeliebtesten Server-Betriebssystem werden lassen. Die
Infragestellung des Industrialismus

Beinahe-Monopolist Microsoft hat die Open-Source-Bewegung denn auch
als Gefahr erkannt. Unablässige Abwehrversuche zeugen davon: Die
berüchtigten ?Halloween Papers?, die 1998 an die Öffentlichkeit
gerieten, ebenso wie CEO Steve Ballmers Reden, in denen er Linux im
Januar als ?Bedrohung Nr. 1? und im Juni als ?Krebsgeschwür?
charakterisierte, oder die Angriffe von Senior Vice President Craig
Mundie, der Anfang Mai die Open-Source-Praxis für ?ungesund? und zum
?Sicherheitsrisiko? erklärte. Vor allem Ratlosigkeit spricht aus den
Attacken: Nicht nur ist die ungeplante, in globaler Kooperation
hergestellte Software derjenigen qualitativ überlegen, die in den
üblichen bürokratisch-hierarchischen Verfahren gelingt. Obendrein
versagen die üblichen Methoden der Konkurrenzabwehr, mit denen
Konzerne wie Microsoft über die Jahrzehnte so erfolgreich waren. Denn
der neue Gegner ist zugleich allgegenwärtig und unfassbar; was unter
anderem heißt: nicht firmenweise aufkaufbar.

Open-Source-Software bedeutet so eindeutig mehr als eine Konkurrenz
unter anderen. Sie ist Teil eines Trends, einer historischen Bewegung.
Von digitaler Technik ermächtigt, operieren die Open-Source-Projekte
nach gänzlich neuen Gesetzen. Indem sie erstmals aus den digitalen
Technologien angemessene Konsequenzen für die Arbeitsorganisation
ziehen, stellen sie nichts weniger als die etablierte Ordnung
industrieller Produktion in Frage. Zu den Wettbewerbsvorteilen, die
ihre neue Praxis dem Bruch mit den Traditionen verdankt, zählen
beschleunigtes Entwicklungstempo, gesteigerte Flexibilität in der
Produktion sowie überlegene Qualitätskontrolle. Sie vor allem sorgt
für hohe Stabilität der Produkte wie für deren Angepasstheit an
spezifische Nutzerbedürfnisse.

Der Erfolg der Open-Source-Bewegung beruht daher keinesfalls nur
darauf, dass die in ihrem Kontext hergestellte Software am Ende gratis
oder zumindest vergleichsweise billig abgegeben wird. Von
weitreichenderer Bedeutung als dieser eher beiläufige Umstand sind
strukturelle Innovationen. Sie betreffen zwei grundsätzliche Bereiche
der industriellen Ordnung: die Arbeitsorganisation und die Regelung
geistigen Eigentums.

Zum einen weist die Open-Source-Praxis mit den Prinzipien freiwilliger
Assoziation und Selbstorganisation, wie selbst Forbes erkannte, ?einen
alternativen Weg, bessere Software zu produzieren?. Das ist nicht
wenig, da die Softwareindustrie inzwischen weltweit fast anderthalb
Millionen Menschen beschäftigt und über 175 Milliarden Dollar Umsatz
erzielt. Doch die Bedeutung der Neuerungen geht über den Bereich der
Softwareherstellung hinaus. Seit der Industrialisierung pflegen von
Innovationsdruck getriebene Schlüsselbranchen Verfahren zu entwickeln,
die später das gesamte Wirtschaftsleben beeinflussen.
Richtungsweisende Beispiele dafür waren etwa zu Anfang des 20.
Jahrhunderts die Taylorisierung bis hin zur Einführung des Fließbands,
die von der Autoindustrie ausging, oder aber ab der Jahrhundertmitte
die generelle Übernahme industrieller Technologien und
Arbeitsprinzipien in die Agrarwirtschaft.

Was zu industriellen Zeiten fortschrittlich war und auf nahezu alle
Bereiche der Produktion, selbst auf Verwaltung, Schulen und
Universitäten abfärbte - hierarchisch-zentralistische Kontroll- und
Kommandostrukturen, die auf inhaltliche wie zeitliche Fremdbestimmung
von jedermanns Handeln zielen -, bremst heute freilich die
gesteigerten produktiven und kreativen Möglichkeiten digitaler
Technologien. Eine ähnliche Pionierrolle, wie sie einst die
Autoindustrie in der Überwindung handwerklicher und agrarischer
Organisationsformen der Arbeit erfüllte, fällt daher nun der Hard- und
Software-Branche zu. Die Geltung ihrer Organisations- und
Eigentumsmodelle, schreiben etwa Don Tapscott und David Ticoll,
Autoren von ?Digital Capital: Harnessing the Power of Business Webs?,
?ist keineswegs auf die Einsen und Nullen von Software beschränkt. Mit
der Durchsetzung des Internet können geschickte Firmen aus vielen
Aspekten der Open-Source-Philosophie Gewinn ziehen, um sich
Wettbewerbsvorteile in der Entwicklung auch von handfesten Produkten
wie einem neuen Auto zu verschaffen.?

Der zweite Bereich struktureller Innovation betrifft die Neuregelung
geistigen Eigentums unter Bedingungen kollektiver Produktion und
vernetzter Distribution. Das geltende Urheber- und Patentrecht, dessen
Prinzipien der Frühzeit der Industrialisierung verpflichtet sind,
kollidiert praktisch wie ethisch mit dem Potenzial digitaler
Technologien. An den Modifikationen der veralteten juristischen
Rahmenbedingungen, über die gegenwärtig weltweit gestritten wird,
hängen wesentlich das Tempo und auch die Richtung der weiteren
digitalen Modernisierung. In keinem anderen Bereich immaterieller
Produktion ist die Suche nach alternativen Eigentums- und Rechtsformen
so weit fortgeschritten wie in der Open-Source-Praxis. Besonders
wegweisend sind ihre Ansätze für die Besitzregelung im Falle
kollektiver Arbeiten, deren einzelne Bestandteile separat nicht
verwertbar sind und die unter den gegenwärtig üblichen Bedingungen von
Einzelnen - juristischen oder natürlichen Personen - als geistiges
Kapital vereinnahmt und damit sowohl ihren eigentlichen Schöpfern wie
der Öffentlichkeit entzogen werden.

Die Open-Source-Bewegung operiert so an der vordersten Front der
Digitalisierung. Das bringt sie zwangsläufig in Widerspruch, wie
Steven Johnson bereits 1998 in Feed schrieb, ?zu politischen Werten,
die in einem entschieden anderen Kontext entstanden, als Ressourcen
knapp waren und Informationen nur langsam übermittelt werden konnten.
Über die Open-Source-Politik in Kategorien der traditionellen
politischen Taxonomie zu sprechen ist, als benutze man die Anatomie
von Säugetieren, um den Atemapparat von Fischen zu erklären: Es gibt
gewisse Gemeinsamkeiten, aber die zugrunde liegende Struktur ist so
unterschiedlich, dass es besser ist, man definiert alle Begriffe von
Grund auf neu.?

Nachvollziehbar, wenn auch umso bedauerlicher sind daher die immer
noch begrenzte Aufmerksamkeit und vor allem das geringe Verständnis,
das diese neue Praxis unter Computernutzern, in der Geschäftswelt und
erst recht in der breiten Öffentlichkeit findet. Denn die
Open-Source-Verfahren stellen in der Tat die industrielle Ordnung der
Dinge in Frage. Sie betreiben die Aufhebung dessen, was der Soziologe
Manuel Castells Industrialismus nennt, und laufen auf eine
Außerkraftsetzung des Überholten wie zugleich die Bewahrung
zukunftsträchtiger Traditionen auf einem entwickelteren, zeitgemäßeren
Niveau hinaus. Von Open Source für die Zukunft lernen

In den sich dabei ausbildenden innovativen Organisationsstrukturen,
Managementverfahren und Eigentumsregelungen erscheinen die Konturen
einer neuen, digitalen Ordnung. Die Open-Source-Praxis erprobt
Arbeits-, Verkehrs- und auch Rechtsformen, die erhebliche
Produktivitäts- und Wettbewerbsvorteile bieten und eher früher als
später andere Branchen erfassen dürften. Von dem Vorbild der
Open-Source-Bewegung lässt sich insofern einiges für die Zukunft
lernen. Voraussetzung freilich für eine gelungene Übertragung auf
beziehungsweise Adaptation an die spezifischen Erfordernisse anderer
Bereiche ist ein besseres Verständnis des historischen Weges, der in
den vergangenen vier Jahrzehnten die Open-Source-Bewegung von den
Rändern der Gesellschaft in ihr Zentrum führte.

Bis vor kurzem war die Geschichte der Bewegung ungeschrieben und
allein innerhalb der Free-Software-Zirkel selbst als individuelles
Erfahrungswissen ihrer Veteranen gespeichert. In den zurückliegenden
Monaten jedoch erschienen nun, ermuntert durch die steigende
Popularität und den noch schneller wachsenden wirtschaftlichen Erfolg
von Linux, eine Flut von Publikationen, deren Spektrum von
wissenschaftlichen Studien über journalistische Zeitgeschichte und
Manifeste bis zu Autobiographien von Schlüsselfiguren reicht [2].

Bei allen Schwächen - mancher Veröffentlichung merkt man die Hast an,
mit der sie auf den gerade günstigen Markt geworfen wurde - bieten
diese jüngsten Untersuchungen erstmals einen kompletten Überblick über
die Entstehungsgeschichte, die Motive von Schlüsselfiguren und den
Zusammenhang zwischen technologischem Entwicklungsstand und sozialer
Dynamik. Als Gesamtbild ersteht aus ihnen die Ansicht von der
Open-Source-Bewegung als einem Laboratorium der digitalen Zukunft. Im
Hinblick auf eine solche avantgardistische Allgemeingültigkeit der
bisherigen Open-Source-Praxis ragen sechs grundsätzliche Innovationen
heraus.

Prinzip 1

Die Selbstermächtigung der Anwender

Einem Bedürfnis vor allem verdankt die Bewegung ihre Entstehung: dem
Interesse einzelner Anwender - Techniker wie Endverbraucher -,
begrenzende Fremdbestimmung und bestehende Angebotsmängel zu
überwinden. Gestrebt wird nach weitgehender Souveränität im Umgang mit
Produkten, die professionell oder privat wichtig sind. Welche Art
freier Software in der Vergangenheit entstand, hing insofern stets vom
Stand der Technik ab und von den zeitgenössischen Varianten
unzulänglicher oder unerschwinglicher kommerzieller Produkte oder auch
behindernder institutioneller Arrangements. Sie zu überwinden,
bildeten sich die wechselnden losen Assoziationen.

Die Anfänge der Produktion freier Software gehen auf die Zeit der
Mainframes zurück. Damals litten Ingenieure, Programmierer und erste
Studenten des neuen Fachs Informatik unter der Unfähigkeit zur
interaktiven Nutzung der wenigen teuren Computer. Rechenzeit war
kostbar, und das übliche Verfahren, optimalen Einsatz zu
gewährleisten, bestand im batch processing durch Mittelsmänner. Gegen
diese behindernde Form des indirekten und zeitversetzten Umgangs taten
sich an US-Universitäten unzufriedene Nutzer zusammen, um
terminalzentrierte Time-Sharing-Verfahren zu entwickeln. Sie
ermöglichten zum ersten Mal Normalsterblichen den direkten Kontakt mit
Computern. Die Erfahrungen, die damals von einer ganzen Generation von
frühen Anwendern gewonnen wurden - mit einfacheren Programmiersprachen
wie mit ersten Computerspielen -, markieren den Anfang populärer
Computerkultur. Diese von Nutzern entwickelte Software legte die
technische wie soziale Basis für die Entwicklung des PCs in den
siebziger Jahren und damit für die digitalen Gründerjahre.

Bereits in dieser Frühphase, ein Vierteljahrhundert, bevor der Begriff
Open Source überhaupt geprägt war, schälte sich so die vielleicht
wichtigste Lehre der Bewegung heraus: Nichts beschleunigt technischen
und dann auch ökonomischen Erfolg so sehr wie die Einbeziehung
derjenigen, die mit den jeweiligen Produkten arbeiten und leben
müssen. Umgekehrt jedoch behindern verhärtete Gleichgültigkeit von
Großinstitutionen und kurzsichtiger Eigennutz von Firmen einen
Fortschritt, der gerade diesen Institutionen und Firmen beachtlichen
Nutzen bringt, wenn er nur von engagierten Nutzern erst einmal
durchgesetzt worden ist.

Die Selbstermächtigung der Anwender in der Open-Source-Bewegung lässt
heute erkennen, was die industrielle Praxis und die von ihr geprägte
Mentalität lange verbargen. ?Die normale Forschungsliteratur
konzentriert sich auf die Entwicklung von Innovationen als etwas, was
allein Hersteller betreiben?, sagt Eric von Hippel, Ökonom an der
Sloan School of Management des MIT und Autor von ?Sources of
Innovation?. Von Hippels Forschungen ergaben, dass Verbraucher und
Anwender schon immer für einen wesentlichen Teil aller Neuerungen
verantwortlich waren: ?Nutzer entwickelten viele, wenn nicht die
meisten der wichtigen Innovationen, etwa auf dem Feld der
Halbleiterherstellung, bei wissenschaftlichen Instrumenten und auch im
Bereich der Konsumgüter, von Kuchen und Keksen über Kleidungsstücke
bis zu Sportartikeln.? Jüngste Beispiele sind Müsliriegel oder
Skateboards.

Unter analogen Verhältnissen freilich bestand - wollten Verbraucher
ihre eigenen Interessen durchsetzen - nur die Wahl zwischen zwei
Extremen. Einzelne konnten in individueller Heimarbeit ein bestehendes
Produkt verbessern oder neu konstruieren. Oder sie konnten versuchen,
gegen den institutionellen Widerstand beziehungsweise die
Gleichgültigkeit der Produzenten indirekten Einfluss zu nehmen, etwa
durch das Einreichen von Verbesserungsvorschlägen oder durch Teilnahme
an Marktuntersuchungen. Solches Kundenfeedback mochte zu partiellen
Re-Designs führen. Erst aber mit dem Aufkommen digitaler
Kommunikationstechnologien gewann die Einbeziehung von Anwendern eine
funktionale Qualität. Plötzlich konnten sie zu gleichberechtigten
Mitentwicklern an professionellen Projekten jeder Größenordnung
avancieren - in Echtzeit und unabhängig von geografischen
Begrenzungen.

Prinzip 2

Evolution der Standards

Die erste Phase freier Softwareentwicklung endete daher mit den
sechziger Jahren. Damals kulminierten Entwicklungen in drei parallelen
Strängen der Digitalisierung, wobei in allen Fällen nicht
Institutionen und Konzerne, sondern die Initiativen einzelner Anwender
die entscheidende Triebkraft waren. Zum einen mündete der jahrelange
Trend zum vernetzten Echtzeitrechnen in die ersten Knoten des Arpanet.
Aus ihm entstand ein Jahrzehnt später dank des offenen
TCP/IP-Protokolls das Internet und damit das wichtigste
Produktionsmittel für freie Software. Das Bedürfnis nach individueller
Verfügung über Computer ließ weiterhin Bastler die für Taschenrechner
1969 entwickelten Mikroprozessoren zweckentfremden. Diese
Hardware-Hacks begründeten die PC-Industrie, deren Siegeszug Anfang
der achtziger Jahre dann die erste Organisation der Bewegung erzeugen
sollte.

Zum dritten nahm sich - wiederum 1969 - der Programmierer Ken Thompson
eines Projekts an, das Bell Labs, MIT und General Electric nach hohen
Investitionen schlicht aufgegeben hatten: Aus dem
Mehrplatzbetriebssystem Multix entwickelte er zusammen mit Dennis
Ritchie, der zur gleichen Zeit die Programmiersprache C schuf, ein
Einplatzsystem. Folgerichtig wurde es Unix getauft. Es sollte für die
nächsten dreißig Jahre die avancierte Software-Entwicklung für
Mikrocomputer, PC und Internet prägen. 1975 wurde die erste
Unix-Version auf einem Magnetband vertrieben - ohne jede
institutionelle Unterstützung, ohne Marketing, ohne Helpline. Doch
binnen 15 Jahren hatte das Programm all die
Mikrocomputer-Betriebssysteme verdrängt, die zuvor den Markt unter
sich aufteilten - wobei der Erfolg allerdings bald proprieäre
Unix-Versionen auf den Markt kommen ließ.

Bereits Unix? Version 7 sowie Xenix, die erste Portierung von Unix auf
einen Intel-Prozessor, verschlossen 1979 den Quellcode selbst für
akademische Zwecke. Dass eine der beiden kleinen Firmen, die mit
AT&T-Lizenz Xenix gemeinsam produzierten, ein weitgehend unbekannter
Krauter namens Microsoft war, der erst zwei Jahre später mit dem
ebenfalls nicht von ihm erfundenen MS-DOS größeren Erfolg haben
sollte, lässt diese plötzliche Wendung von Unix zum argwöhnisch
bewachten Closed-Source-Betriebssystem verständlicher erscheinen.

Unix gab so vor allem in den Jahren zwischen 1969 und 1979, die auch
den PC hervorbrachten, ein frühes und ungemein erfolgreiches Beispiel
für die Effektivität freier Software - ein Beispiel, das im Übrigen
bis heute nachwirkt. In der von dem Studenten Bill Joy 1977 in
Berkeley entwickelten Variante stellte Unix 1982 die
Software-Grundlage der heutigen Milliardenfirma SUN. Die
Leistungsfähigkeit von Unix inspirierte ebenso das von Richard
Stallman 1984 begründete freie GNU-Projekt, mit dem ein freies,
Unix-artiges Betriebssystem geschaffen werden sollte (GNU ist ein
rekursives Akronym für ?GNU?s Not Unix?).

Die vorhandenen Elemente der GNU-Variante wiederum halfen 1991 Linus
Torvalds, den Linux-Kernel zu programmieren und zu kompilieren. Die
GNU-Bewegung inspirierte Torvalds ebenfalls, seinen Kernel als freie
Software unter die GPL (General Public License) zu stellen. Darüber
hinaus schuf das GNU-Projekt die Systemtools und Anwendungen, die
Linux erst zu einem benutzbaren Betriebssystem machen - weshalb viele
bis heute statt der einfachen Bezeichnung Linux den Terminus GNU/Linux
bevorzugen. Und Unix selbst, in der Berkeley-Variante, liegt
schließlich noch dem neuen Apple-Betriebssystems Mac OS X zugrunde,
dessen X zugleich die Version 10 wie den Unix-Ursprung indiziert.

In den siebziger Jahren machte der Erfolg von Unix - wie später der
vieler anderer offener Protokolle und Standards - einen weiteren
zentralen Unterschied zwischen freier und proprietärer Software
deutlich: Solange Firmen und Institutionen eifersüchtig den
Entwicklungsgang bestimmen, pflegen hinderliche Inkompatibilitäten zu
wuchern. Man erinnere sich nur daran, dass es lange Zeit so gut wie
unmöglich war, Daten zwischen den Computern verschiedener Hersteller
auszutauschen - nicht einmal reine Textdokumente. Bereits Ende der
fünfziger Jahre war daher der American Standard Code for Information
Interchange (ASCII) entwickelt worden, der eine solche minimale
Interoperabilität gewährleisten sollte. Doch es dauerte fast eine
Dekade, bis er akzeptiert, und weitere fünfzehn Jahre, bis er allen
Ernstes implementiert wurde und auch nur die nötigsten Sonderzeichen
umfasste. Mit einer gewissen Zwangsläufigkeit behindern proprietäre
Programme und die mit ihnen verbundene Geheimniskrämerei die
Ausbildung von offenen Standards und damit eine optimale Nutzung.
Offene Standards

In der Entwicklung freier Software hingegen setzen sie sich zügiger,
weil naturwüchsig durch. Dafür gibt es subjektive wie objektive
Gründe. Aus der Wirtschaftstheorie ist bekannt, dass Marktmechanismen
weit über Ab- und Einsichten von Individuen wie einzelnen Gruppen
hinaus geordnete Systeme zu initiieren vermögen - weshalb am Ende
nahezu aller Entwicklungszyklen Standards stehen. Im Falle der
Closed-Source-Verhältnisse beschränkt sich die Wirksamkeit solcher
Selektionsmechanismen weitgehend auf komplette Produkte.
Open-Source-Strukturen hingegen dehnen die Wirkung der
Marktmechanismen bereits auf den Entwicklungsprozess aus, wodurch der
Standardisierungsdruck eskaliert. Anwender nämlich sind, egal, wie
viel sie für eine Ware bezahlt haben, primär an deren Gebrauchswert
interessiert. Daher opponieren sie allem, was eine effektive Nutzung
beschränkt - vor allem Inkompatibilitäten mit anderen Hard- und
Softwareprodukten, die sie oder Menschen in ihrem Umfeld bereits
einsetzen.

Der Ausdehnung von Marktmechanismen auf den Entwicklungsprozess
verdankt sich die notorische, den gesunden Menschenverstand
verblüffende Einheitlichkeit und historische Kontinuität der
Open-Source-Projekte. Man sollte erwarten - und selbst die meisten
Entwickler in der freien Softwarebewegung taten das auch anfänglich -,
dass die ungeplante und weitgehend unkontrollierte Arbeit von
Hunderten oder Tausenden von Personen, die über den Erdball verteilt
leben und sich kaum je kennen, zur inhaltlichen Zersplitterung, auch
zur Kurzlebigkeit von Projekten und damit zu einem höheren Maß an
divergierenden Entwicklungen und Inkompatibilitäten führt. All dies
geschah zwar auch in der Geschichte freier Software. Die drei freien
BSD-Varianten FreeBSD, NetBSD und OpenBSD etwa zeugen von der immer
möglichen Zersplitterung. Und natürlich kamen auch viele
Open-Source-Projekte - nicht anders als in der Closed-Source-Welt -
kaum über ihre Anfänge hinaus und gingen sang- und klanglos unter.
Doch diesen durchaus zahlreichen, wenn auch schnell vergessenen
Ausnahmen steht die beachtliche Stabilität der großen Projekte
gegenüber.

Sie resultiert aus der spezifischen Struktur des
Open-Source-Prozesses. In ihm nämlich konkurrieren alle Projekte um
eine begrenzte Zahl von talentierten Entwicklern. In der Konsequenz
führt das zu einer beschleunigten Selektion: Unattraktive Projekte
verlieren recht schnell ihre besten Mitarbeiter zu Gunsten populärerer
Projekte, die sich dadurch zügig stabilisieren. Und selbst in den
Fällen, wo zwei oder gar mehr konkurrierende Ansätze überleben, ist
unbeabsichtigte Inkompatibilität allein aufgrund des offenen
Quellcodes so gut wie ausgeschlossen. Einerseits also kann
Unverträglichkeit kaum zufällig entstehen, andererseits macht im
Gegensatz zur Closed-Source-Welt auch ihre gezielte Produktion wenig
Sinn, da sich mit mangelnder Kompatibilität bei gleichzeitig offenem
Quellcode keinerlei Konkurrenzvorteile, vielmehr sogar Nachteile im
Hinblick auf die Akzeptanz verbinden.

Aus diesen strukturellen Gründen neigt kollektives Design im
historischen Verlauf statt zur Kurzlebigkeit zu Kontinuität und statt
zu Diversifikation zur Standardisierung. Daraus ergibt sich der
Gesamteindruck des Gegensatzes zum hierarchisch verwalteten
Closed-Source-Bereich. Dessen primärer Anreiz zur Mitarbeit besteht in
der finanziellen Entlohnung, und dementsprechend bestimmt Fluktuation
das Bild: Programmierer finden besser bezahlte Stellungen und
verlassen ein Projekt, zahlreiche Firmen verschwinden durch Übernahme
oder Schließung vom Markt, die meisten Produkte haben eine kurze
Halbwertzeit. In den diversen Open-Source-Nischen, deren Mitglieder um
den besten Code wetteifern, herrscht dagegen relative Dauerhaftigkeit
der wichtigsten Projekte, personelle Konstanz ihrer Entwickler sowie
eine langfristige Kompatibilität der Produkte vor.

Das älteste, bis in die digitale Vorzeit der sechziger Jahre
zurückreichende Beispiel gibt dafür die dreißigjährige Geschichte der
Unix-Familie in ihrer charakteristischen Mischung aus
Generationen-Zersplitterung zwischen proprietären und offenen
Varianten bei grundsätzlicher familiärer Kontinuität. Wirklich
bedeutend für die Entwicklung freier Software und die damit verbundene
Ausbildung von Standards war Unix zwar allein in seinem ersten
Jahrzehnt, den siebziger Jahren. Doch sein freies Erbe wirkt fort,
nicht zuletzt in der - wesentlich auf Unix basierenden - Infrastruktur
des Internet mit seinen offenen Protokollen wie TCP/IP, SMTP oder
HTTP.

Prinzip 3

Produktionsgemeinschaft der Gleichen

Die sukzessive Eröffnung des Datenraums seit den siebziger Jahren mit
der Möglichkeit zum Transfer von Daten, mit E-Mail und Usenet-Foren
versetzte dem keimenden Trend zur freien Softwareentwicklung zunächst
einen qualitativen, später auch einen quantitativen Schub. Das
Internet verband die geografisch verstreuten und voneinander
isolierten Widerstandsnester, die sich an Institutionen wie Bell Labs,
MIT oder der University of California in Berkeley gebildet hatten.
Rund um die Produktion freier Software formte sich eine erst nationale
und seit den achtziger Jahren internationale Gemeinschaft. Angesichts
der damals recht rudimentären Gestalt globaler Vernetzung stand im
Vordergrund der Bemühungen zunächst der nutzergerechte Ausbau des
Datenraums selbst.

Freie Software entwickelte wesentlich die Infrastruktur des Internet.
Eric Allman von der University of California in Berkeley schrieb 1981
Sendmail für Unix, um den Austausch elektronischer Post zwischen dem
Universitätsnetz, dem er angeschlossen war, und dem weitläufigeren
Arpanet zu ermöglichen. Ebenfalls Anfang der achtziger Jahre entstand
BIND - Berkeley Internet Name Domain -, das Protokoll, das bis heute
die Eingabe simpler Namen statt jener Zahlenkolonnen erlaubt, aus
denen die Netzadressen realiter bestehen. Weitere Beispiele für den
Erfolg freier Software im Umfeld des Internet geben Perl (Practical
Extraction Report Language), Python oder PHP. Perl, 1987 von dem
Linguisten und damaligen Staatsangestellten Larry Wall entwickelt und
zur freien Nutzung im Usenet veröffentlicht, war Anfang der neunziger
Jahre die Standardsprache zum Entwickeln dynamischer Webinhalte, ohne
die E-Commerce kaum denkbar gewesen wäre. Mittlerweile haben zwei
andere freie Software-Entwicklungen diese Funktion weitgehend
übernommen: Python, Anfang der neunziger Jahre von Guido van Rossum
entwickelt, und PHP (ursprünglich Personal Home Page, heute verstanden
als Abkürzung für PHP Hypertext Preprocessor), entstanden Mitte der
neunziger Jahre im Kontext von David J. Hughes? mSQL, einer
ursprünglich freien relationalen Unix-Datenbank.

Das Internet spielte auch eine wesentliche Rolle für die Anfänge von
Linux: Linus Torvalds, 1991 Student an der Universität von Helsinki,
nutzte auf seinem Heimcomputer 386-Minix, eine experimentelle Version
des auf Unix basierenden Minix-Lehrbetriebssystems. Um von seinem PC
aus Usenet-Nachrichten oder E-Mail auf dem Universitätsserver lesen zu
können, schrieb Torvalds eine eigene Terminalemulation. Um wiederum
die zu nutzen, bedurfte es eines Neustarts, nach dem die üblichen
Minix-Features nicht mehr zugänglich waren. Aus Torvalds
Anstrengungen, das eigene Programm mit den Features zu verbinden, die
Minix bot, entstand am Ende Linux. Glyn Moody betont in seinem Buch
die historische Ironie: Weil Torvalds nicht ins Internet konnte,
entwarf er ein Betriebssystem - das dann nur dank Internet überhaupt
reifen konnte. In dieser engen historischen Verknüpfung zeigt sich
entortete Echtzeitkommunikation als conditio sine qua non der
Open-Source-Praxis. Ihre Konsequenzen sind technischer wie sozialer
Art.

Zunächst einmal beschleunigte die Vernetzung die wissenschaftliche
Basistechnik des ?peer review?, bei dem Fachleute die Arbeiten von
Kollegen begutachten. Kein anderes Verfahren hat über die Jahrhunderte
hinweg die Produktion von Wissen so nachhaltig geprägt. Der
?organisierte Skeptizismus?, wie Robert Merton in der Renaissance den
aus der Antike überkommenen kritischen Dialog der Gebildeten nannte,
garantiert die Qualität auf dem Markt des Wissens. Im 19. und 20.
Jahrhundert, als die Verwissenschaftlichung von Wirtschaft und Alltag
fortschritt, gewann die Expertenkritik an Bedeutung. Hinderlich war
freilich im alltäglichen Zusammenhang der mit peer reviews verbundene
Verlust an Zeit, da sie, wenn nicht teure Parallelgutachten in Auftrag
gegeben werden konnten, vorrangig an die Publikation in Büchern und
Zeitschriften gebunden waren. Und noch stärker wurde außerhalb des
wissenschaftlichen Diskurses die Wirksamkeit von Expertenkritik durch
die kommerzielle Praxis eingeschränkt, Firmenwissen nicht mit
Außenstehenden zu teilen. Ohne freien Informationsfluss, ohne die
Kommunität der Erkenntnisse, wie sie in der Wissenschaft üblich ist,
konnten peer reviews nicht wirklich produktiv werden.

Beide Einschränkungen überwindet die Open-Source-Praxis. Dabei
steigert sie zudem die Leistungsfähigkeit der tradierten
Wissenstechnik. Wenn die Begutachtung von Verfahren und inhaltlichen
Vorschlägen ohne Zeitverlust erfolgt, wandelt sich der Charakter von
peer reviews so radikal, wie sich etwa transkontinentale Kommunikation
verändert, wenn sie statt Briefen, die Wochen mit der Schiffspost
unterwegs sind, Telefon oder Chat nutzt. Die Echtzeitbedingungen der
Open-Source-Praxis schufen so ein interaktives dialogisches
Produktionsmittel für geografisch zerstreute Gruppen. Ihr wichtigstes
Kennzeichen ist, schreibt Eric Raymond, was Soziologen den
?Delphi-Effekt? nennen: den Umstand, dass die Zuverlässigkeit von
Expertenentscheidungen mit der Zahl der Beteiligten steigt.

Die technologische Aufwertung des peer reviews durch die digitale
Vernetzung ergänzt die Ausbildung virtueller Gemeinschaften. Erst der
exponentielle Zuwachs an Internetnutzern in den achtziger und vor
allem neunziger Jahren brachte dafür die kritische Menschenmasse.
Seitdem sind Zusammenschlüsse zu nahezu jedem denkbaren Interesse
lebensfähig - und in ihnen kollaborative Produktionen praktikabel.
Dank des globalen Talentpools lassen sich qualitativ hochwertige
Ergebnisse erzielen und zugleich der Einsatz an Arbeitskraft in der
wichtigen, aus den ?scientific communities? vertrauten Währung der
?peer recognition? belohnen. Programmierer und Techniker, wo sie leben
und für welche Firmen sie arbeiten mögen, lösen so in
Open-Source-Projekten nicht nur ihre dringendsten technischen Probleme
beziehungsweise die ihrer Arbeitgeber. Sie finden auch soziale
Anerkennung durch Gleichgesinnte und Gleichqualifizierte, die ihre
Leistungen angemessen zu würdigen verstehen.

Von Free Software zu Open Source

Die gänzliche Abhängigkeit der Open-Source-Praxis vom Einsatz
digitaler Technik bindet ihre Fortschritte an deren Weiterentwicklung.
Die Jahre um 1969/70 schufen insofern mit der Einführung des
Mikroprozessors, der Etablierung der ersten nationalen Netzwerkknoten
des Arpanet und der Geburt von Unix die Voraussetzungen für die in der
Folge eskalierende Selbstermächtigung der Anwender, für die
Etablierung von offenen Software-Standards und vor allem für die
Ausbildung einer historisch gänzlichen neuen, potenziell globalen
Produktionsgemeinschaft der Gleichen.

Der nächste qualitative Entwicklungssprung kündigte sich ab Anfang der
achtziger Jahre an - im Gefolge der massenhaften Durchsetzung des PC
und der zunehmenden Internationalisierung sowie Privatisierung des bis
dahin primär amerikanisch-staatlichen Internet. Fortschritte in der
Mikroprozessorherstellung, die Multimedia-PCs in einer Leistungsklasse
erschwinglich machten, die bis dahin teuren Mikrocomputern vorbehalten
gewesen war, sowie die Eröffnung des World Wide Web schufen dann die
Voraussetzungen für den digitalen Boom der 90er Jahre. Diese Mischung
aus technologischen Durchbrüchen und sozialer Durchsetzung der neuen
Techniken war es, die den Weg für die Produktion und Akzeptanz von
freier Software auf breiterer Basis ebnete.

[Teil 2]

Viel zu geringe Aufmerksamkeit habe die Menschheit den untergründigen
Religionskriegen der digitalen Epoche geschenkt, schrieb Umberto Eco
einmal: Zweifelsfrei nämlich kämpften die Evangelisten des grafisch
üppigen Macintosh für die katholische, himmelreichere Version des
Rechnens, während die DOS-Anhänger mit protestantisch-lustfeindlicher
Unerbittlichkeit daran gemahnen, dass es nicht jedem beschieden sei,
erlöst zu werden. Ecos furiose Glosse für das italienische Magazin
Espresso fing am Ende der Gründerjahre des PC ihren vergehenden Geist
ein. Der Text erschien 1994, ein Jahr also, bevor Microsoft mit
Windows 95 mehr oder weniger die Kopie des Mac OS gelang, und just um
die Zeit herum, als unter weitgehendem Ausschluss der
Weltöffentlichkeit - weil nur in Finnland und im noch kaum bevölkerten
Cyberspace - Linux 1.0 veröffentlicht wurde [3].

Das freie Betriebssystem sollte zwar mit verblüffender Schnelligkeit
das ungleiche Desktop-Duopol von Macintosh und DOS/Windows
unterminieren und zur wesentlichen dritten Kraft werden. Doch an dem
eifernden Charakter der Auseinandersetzungen änderte es nichts. Im
Gegenteil: Viele, die Bill Gates als Antichrist verteufelten,
verehrten Linus Torvalds bald als Heiland. Steven Johnson etwa stellte
in Feed, der von ihm herausgegebenen einflussreichen (und im Juni 2001
eingestellten) Online-Zeitschrift, die Veröffentlichung von Linux in
eine Reihe mit dem Port-Huron-Statement, dem Epoche machenden
Manifest, das 1962 einer ganzen Generation amerikanischer Studenten
die Protest-Agenda setzte. Neutralere Beobachter bestaunten eher den
virulenten Messianismus im Umkreis der Open-Source-Bewegung. Mit
?Luthers Übersetzung der Bibel in die Volkssprache? werde Linux
verglichen, wunderte sich Harvey Blum in der Online-Ausgabe des
ehrwürdigen Magazins Atlantic und zitierte den Perl-Erfinder Larry
Wall, der Open Source als Software-Ausdruck der alten christlichen
Botschaft beschreibt, dass die Schöpfung nicht abgeschlossen und der
Mensch mit freiem Willen und der Fähigkeit zur kreativen Kollaboration
begabt sei.

Ihren Anhängern bedeutet freie Software so je nach Ausrichtung
politische Revolte, religiösen Sinn und auch große Kunst: 1999 wurde
das Betriebssystem Linux für seine Verdienste um eine demokratische
Digitalisierung mit dem Prix Ars Electronica ausgezeichnet. Linus
Torvalds selbst erfreut sich folgerichtig, wie Andrew Leonard in
seiner Open-Source-Geschichte feststellt, ?des am schnellsten
wachsenden Personenkults in der Welt der Technologie?.

Damit spielt Torvalds heute in der Open-Source-Szene eine ähnliche
Rolle wie Richard Stallman in den achtziger Jahren innerhalb der
Free-Software-Bewegung. Damals war die Entwicklung freier Software
durch technologische Fortschritte ebenfalls an eine neue Schwelle
getreten. Die Selbst-ermächtigung der Anwender, die mit der
Time-Sharing-Bewegung der sechziger Jahre begann, hatte im Zuge der
beginnenden Vernetzung in den USA während der siebziger Jahre zur
Ausbildung einer Vielzahl offener Produktionsgemeinschaften geführt
(Prinzip 1 im ersten Teil [2]). Diese lockeren Gruppen von
Programmierern machten Unix damals zum wichtigsten Betriebssystem für
Mikrocomputer. Ebenso etablierten sie freie Software und offene
Protokolle sukzessive als Standards in zentralen Bereichen der
verschiedenen Netze (Prinzip 2). Die wichtigste Innovation war dabei
die Beschleunigung des ?peer review? auf Echtzeit. Sie verwandelte das
Werkzeug wissenschaftlicher Kritik in ein interaktives dialogisches
Produktionsmittel für geografisch zerstreute Gruppen (Prinzip 3).

Anfang der achtziger Jahre kam es dann zu zwei entscheidenden
Innovationen: Die Einführung von TCP/IP ermöglichte die Verbindung der
wachsenden Zahl unverbundener öffentlicher und privater Netze zum
Internet. Gleichzeitig ließen Leistungssteigerung und Verbilligung
Personal Computer in vielen Bereichen an die Stelle der teureren
Mikrocomputer treten. Damit entstand das Bedürfnis, freie Software
auch für PCs zu produzieren.

Prinzip 4

Geistiges Gemeineigentum

Diese Nachfrage zu erfüllen, setzte sich Richard Stallman vom
Artificial Intelligence Laboratory des MIT zum Ziel. Seinen Ruf als
Experte für freie Software hatte er sich seit 1975 mit Emacs erworben
(kurz für Editing MACroS). In diversen Varianten ist das Programm bis
heute einer der besten Texteditoren und ein unentbehrliches Werkzeug
zur Softwareproduktion. 1984 initiierte Stallman dann das GNU-Projekt
zur Schaffung einer freien PC-Version von Unix. 1985 gründete er die
Free Software Foundation. Mit seinen einflussreichen
Non-Profit-Initiativen sorgte er so dafür, dass freie Software auch in
den Zeiten von Microsofts erfolgreichem Streben nach Desktop-Dominanz
lebensfähig blieb. Belohnt und geehrt wurde Stallmans Engagement 1990
mit dem hoch dotierten MacArthur Genius Grant.

Dass allerdings Anhänger freier Software damals plötzlich eine eigene
Institution für notwendig hielten, zeugt von den Anfängen sozialen
Selbstbewusstseins. Mit der Stiftung versuchte Stallman, die
Programmier- und Distributionspraxis, die sich in den siebziger und
frühen achtziger Jahren naturwüchsig herausgeschält hatte, auch
intellektuell zu begreifen und vor allem durch neuartige Formen
sozialer und juristischer Verträge abzusichern. Vorrangigstes Ziel war
(und ist) es dabei, die Freiheit von Software zu gewährleisten -
worunter primär die Freiheit der Nutzer zu verstehen ist, Programme zu
kopieren, weiterzuverteilen und den eigenen Bedürfnissen gemäß zu
verändern.

Dementsprechend formulierte die Stiftung eine General Public License
(GPL). Sie leitet seit anderthalb Jahrzehnten juristisch die
Veröffentlichung freier Software an. Ihr Grundgedanke ist das dem
Copyright durchaus ironisch entgegengesetzte Copyleft. Es erlaubt,
geistiges Eigentum anderer beliebig zu modifizieren und auch
profitabel zu vertreiben, solange das neue Produkt freien Zugang zum
Quellcode gewährt. Verboten sind unter der GPL also proprietäre
Hinzufügungen, die für die Zukunft die Freiheit des peer review und
damit Verbesserungen verhindern.

Mit ihrem neuartigen Ansatz zur Regelung geistigen Eigentums schuf die
Free-Software-Foundation ein folgenreiches Modell - viele Jahre, bevor
das Internet zum Medium der Massen wurde und in ihm nicht nur
Programme, sondern auch digitalisierte Texte, Töne und Bilder mehr
oder weniger frei kursieren konnten. Heute nun, da die technische und
damit praktische Unhaltbarkeit geltender Copyrightbestimmungen zu Tage
liegt und Fragen geistigen Eigentums zu einem zentralen Konfliktfeld
der Digitalisierung geworden sind, wird die Hellsicht deutlich, mit
der sich Stallman bereits vor bald 20 Jahren dem Problem stellte.
Gleichzeitig aber erlaubt der historische Abstand auch, die Verhaftung
der Free-Software-Bewegung im Zeitgeist und die daraus resultierenden
Mängel ihrer Lösungsangebote zu erkennen.

Gegenkulturelle Wurzeln, libertäre Früchte

Nicht nur Stallmans damalige Äußerungen, auch die GPL waren
beeinflusst von Werten und Haltungen der alten
Hippie-Hacker-Gegenkultur. Typisch für deren Ziele war der Schlachtruf
des Hypertext-Erfinders Ted Nelson: ?Computer Power to the People?. Er
verlangte Anfang der siebziger Jahre nach einer radikalen
Demokratisierung des bürokratisch-elitär geregelten Zugangs zu den
wenigen und teuren Rechnern. Diesen guten Zweck gedachte man
allerdings durch Vergesellschaftung des Vorhandenen zu erreichen. Zehn
Jahre später, zurzeit der Stiftungs-Initiative, äußerten sich die
antikapitalistischen und eigentumsfeindlichen Wurzeln der
Free-Software-Ideologie noch im changierenden Gebrauch des Adjektivs
frei. Software sollte mal frei sein im libertären Sinne von freier
Liebe und freier Meinungsäußerung, mal frei im sozialistischen Sinne
von Freikarten und Freibier - und in der Regel möglichst beides.

Zwar besaß die Forderung nach freierem Zugang zu Computern und
Programmen in den sechziger und siebziger Jahren ihre Berechtigung, da
digitale Technologien für Normalbürger praktisch unerschwinglich
waren. Mit der Durchsetzung des PC als Konsumgegenstand wurde die
Forderung nach Gratis-Hard- oder Software jedoch zunehmend
gegenstandslos. Statt durch Verwaltung des vorhandenen Mangels
erwirtschaftete der Kapitalismus einmal mehr massenhafte Verfügung
durch produktiven Zuwachs. Die stete Verbilligung von Hard- und
Software ließ denn auch innerhalb der Free-Software-Bewegung in den
neunziger Jahren libertäre Gedanken über die sozialistischen siegen.

Demokratische Kontrolle

In der Gegenwart sind die Grundgedanken des Copyleft gar zum politisch
wie wirtschaftlich interessanten Eigentumsmodell geworden - für den
immer mehr zur Regel werdenden Fall geistiger Produkte, die nicht
individuell, sondern in Kollaboration geschaffen wurden. Was nämlich
unter einer Perspektive, die vom einzelnen Schöpfer ausgeht, einer
Enteignung gleicht, bewirkt im Falle kollektiver Kreation gerade das
Gegenteil: indem es die übliche individuelle Aneignung
gemeinschaftlich geschaffener Werte durch private oder juristische
Personen verhindert.

Die meisten Programme - wie im Übrigen viele andere Varianten
intellektueller Schöpfung beziehungsweise geistigen Eigentums, von
Filmen bis zu Forschungsprojekten - entstehen heute als Ergebnis einer
Vielzahl von Einzelanstrengungen. Individuelle und ausschließliche
Besitztitel entsprechen diesen Arbeitsprozessen nicht. Zudem
verhindern sie eine freie Weiterentwicklung durch interessierte
Gruppen, selbst durch die ursprünglichen Mitarbeiter. Gegenüber einem
wesentlichen Teil der avanciertesten Produkte der Wissensgesellschaft
versagt so die Patent-Haltung zum geistigen Eigentum. Gerecht wird
ihnen eher ein anderes, allemal so bewährtes Modell: das akademische.

Gegen den Einwand von Microsofts Vizepräsident Craig Mundie, die GPL
entwerte die Idee kreativer Arbeit, wendete denn auch Red-Hat-CTO
(Chief Technology Officer) Michael Tiemann ein, dass dies genauso
wenig der Fall sei, wie die Abschaffung der Sklaverei einst die Idee
des Privateigentums schmälerte: ?Da Software mehr und mehr Teil
unseres Lebens wird, die Basis unserer Kommunikation und die
Verkörperung unserer persönlichen Identität, sollten wir, das Volk,
nicht diejenigen sein, die über die Freiheit verfügen, die Software zu
kontrollieren (und nicht umgekehrt)??

In der Wissensgesellschaft gehört, wie Harvard-Jurist Larry Lessig im
Microsoft-Monopol-Prozess deutlich machte, eine demokratische
Kontrolle über die digitale Infrastruktur unabdingbar zur Erhaltung
von intellektueller und wirtschaftlicher Freiheit. Programme und
Protokolle ermöglichen und limitieren zugleich zivilisatorische
Erfahrungen. Was den Alltag so nachhaltig prägt und wovon auch das
Überleben unzähliger Unternehmen abhängt, kann nicht auf Dauer
Privatbesitz und außerhalb des Einflusses der Mehrheit der Anwender
bleiben. ?Die brutale Wahrheit ist einfach die?, schreibt Eric Raymond
in ?The Magic Cauldron?: ?Wenn die entscheidenden Vorgänge in deinem
Geschäft von undurchsichtigen Bits abhängen, in die du keinerlei
Einsicht hast (mal ganz abgesehen davon, dass du sie nicht verändern
kannst), dann hast du die Kontrolle über deinen eigenen Laden
verloren. Du brauchst deinen Lieferanten mehr, als der dich braucht -
und du wirst für dieses Ungleichgewicht der Kräfte bezahlen, mehr und
immer mehr.?

Verstaatlichung oder staatliche Kontrolle, die in der industriellen
Epoche übliche Lösung solcher Infrastrukturprobleme, bedeutete jedoch,
den Teufel des wirtschaftlichen Monopols mit dem bürokratischen
Beelzebub auszutreiben und technologischen Stillstand zu riskieren.
Dass die Mehrheit der US-Computernutzer dem Versuch skeptisch
gegenübersteht, Microsoft auf die eine oder andere Weise unter
Staatsaufsicht zu stellen, hat darin seinen Grund. Einen moderneren
Ansatz zur demokratischen Kontrolle der digitalen Infrastruktur bietet
dagegen die Open-Source-Praxis.

Wie existenziell sie für die Wohlfahrt der gesamten Menschheit werden
könnte, deutet die Verschmelzung von Informatik und Genetik an. Bei
vielen geschützten Programmen, deren Quellcode als Kronjuwelen einer
Firma geheim gehalten werden, geht es bereits um genetisches Wissen -
um die Programme unseres Lebens. Auf dem Gebiet der Bioinformatik
braucht es daher wie auf keinem anderen freie Verfügbarkeit von
Informationen. Permanenter peer review kann Missbrauch verhindern und
- wichtiger noch - die Forschung beschleunigen. Proprietärer Besitz
hingegen, der die Mehrheit der Wissenschaftler von der Mitarbeit
ausschließt, kostet Zeit und damit Leben. ?Wir können uns?, sagen
Experten wie Drew Endy vom Molecular Sciences Institute in Berkeley,
?ein biologisches Microsoft nicht leisten.? Die Erfolgsgeschichte von
Linux deutet die Alternative an.

Prinzip 5

Die neue Hackordnung

Mit Intels 386er-Prozessor und verbilligten Speichermedien wurde
Anfang der neunziger Jahre erstmals digitales Gerät für Privatleute
erschwinglich, das so leistungsfähig war wie zuvor nur Mikrocomputer
zum Preis einer Luxuslimousine. Mit den neuen PCs wuchs der Bedarf
nach entsprechend professioneller Software. Stallmans GNU wie auch
andere experimentelle Anläufe, Unix zu portieren, waren jedoch noch
nicht weit genug gediehen. Zu einem epochalen Entwicklungssprung hatte
dagegen das Internet angesetzt - dank seiner Internationalisierung und
Privatisierung, vor allem aber dank eines weiteren Beispiels freier
Software. Timothy Berners-Lee, damals am CERN-Institut in Genf, heute
MIT, veröffentlichte 1991 die Software, die das World Wide Web
begründete - in akademischer Tradition ohne jeden Copyright-Anspruch.
Das freie WWW verdrängte binnen weniger Jahre andere Ansätze, das Netz
benutzerfreundlicher zu machen, etwa das um 1990 erfolgreiche
Gopher-System, auf das jedoch 1993 die Universität von Minnesota
kommerzielle Ansprüche erhob.

Aus der explosiv wachsenden Online-Bevölkerung rekrutierten sich die
Programmierer für Linus Torvalds? Projekt eines Unix-Kernels für
386er-Prozessoren. Was sie in so überraschend großer Zahl zu Linux
zog, war eine zentrale Innovation. Sie beschreibt Eric Raymond in
seinem Manifest ?The Cathedral and the Bazaar?, das 1997 am Anfang der
formellen Gründung der Open-Source-Bewegung stand: ?Das wichtigste
Feature von Linux war nicht technisch, sondern soziologisch.? In der
freien Softwarebewegung nutzte man zwar schon vorher das Internet zur
Kommunikation und Übermittlung von Code. Doch die Organisation
größerer Projekte hatte sich den neuen technischen Möglichkeiten kaum
angepasst. Bei aller geografischen Zerstreutheit bildeten die
Beteiligten recht geschlossene Hierarchien, die ihre Arbeitsergebnisse
nur untereinander austauschten und Programme erst nach Fertigstellung
veröffentlichten.

Torvalds brach mit dieser Tradition. Er verzichtete so weitgehend wie
niemand vor ihm auf Zwangsjacken in der industriellen Tradition. Es
gab kaum lineare Abschnitts- und Terminplanungen, keine hierarchischen
Vorgaben und restriktiven Zugangskontrollen. Grundsätzlich konnte sich
jeder beteiligen. Neuen Code testete Torvalds nicht lange intern, er
veröffentlichte ihn vielmehr in schneller Folge im Internet. Das
Auffinden von Fehlern und ihre Beseitigung blieb damit weitgehend der
globalen Gemeinschaft überlassen. Mit dem Fortschreiten des Projekts
kam es zudem zu einer modularen Strukturierung, die Verantwortung für
Teilbereiche auf interessierte Subgruppen übertrug. An jeder Aufgabe
arbeiteten so jeweils Menschen, denen ihr Part nicht zugeteilt worden
war, sondern die ihn sich ihren Qualifikationen und Motivationen
entsprechend ausgesucht hatten.

Dieser sozialen Innovation verdankte sich der enorme Anklang, den
Torvalds Bitte um Mithilfe fand. Globale Offenheit statt lokaler
Geheimniskrämerei, Einbeziehung Interessierter statt Ausgrenzung
fremder Hilfe, dynamische Selbstorganisation statt statisch-linearer
Planvorgaben, Zeitsouveränität statt Fremdbestimmung,
Eigenverantwortlichkeit statt verwalteter Kontrolle, permanente peer
reviews statt Beurteilungen durch Vorgesetzte und Management - mit
dieser gebündelten Abkehr vom Vorbild industrieller
Arbeitsorganisation entwarf das Linux-Projekt bereits in seiner
Frühzeit ein Modell vernetzter Wissensproduktion. Richard Gabriel von
SUN beschreibt es als ?eine Art semi-chaotische, selbst organisierende
Verhaltensstruktur, in der zahlreiche kleine Reparatureingriffe
schnell zum Aufbau komplexer und massiver Kreationen führen können.?

Entscheidend für den Erfolg von Linux war neben der optimalen Nutzung
der technischen Produktivkräfte zur entorteten Echtzeit-Kollaboration
die ebenfalls verbesserte Nutzung der knappen Ressource menschlicher
Kreativkraft - die gesteigerte Motivation der Mitarbeiter. Denn die
Linux-Praxis gewährte Arbeits- und Gemeinschaftserfahrungen, die im
Gegensatz nicht nur zur verwalteten kommerziellen Softwareproduktion,
sondern auch zur bis dahin üblichen Organisation freier Projekte
standen. Die Befriedigung, die viele Mitarbeiter in ihrer Arbeit
fanden, erinnerte vielmehr an die durch wissenschaftliche oder
künstlerische Arbeiten. Sie werden ja gleichfalls nicht fremdbestimmt,
zu festen Arbeitszeiten und allein zum Zwecke des Lebensunterhalts
aufgeübt. Bei ihnen geht es wesentlich auch um das eigene
Selbstwertgefühl und Ansehen in der Gemeinschaft.

Historische Vorbilder solch kollaborativer Produktion, die schon zu
analogen Zeiten auf die Open-Source-Praxis vorausweisen, finden sich
in den Experimenten der künstlerischen Avantgarden des 20.
Jahrhunderts, etwa in Techniken der Appropriation - der kreativen
Aneignung fremden Materials wie etwa beim Collagieren und Sampling -
und vor allem in den Schreibspielen der Surrealisten. Diese Nähe der
Open-Source-Praxis zur Kunst lässt sich nicht nur im historischen
Rückblick feststellen. Sie prägt durchaus die aktuelle Praxis. Davon
zeugen die Selbstäußerungen führender Vertreter der Free-Software- und
Open-Source-Gruppen, die immer wieder von Selbstausdruck und
Selbstverwirklichung sprechen. Eric Raymond zum Beispiel schreibt in
?The Cathedral and the Bazaar?: ?Ich tue, was ich tue, primär als
künstlerische Befriedigung.?

Open Source: die Theorie zur Praxis

Im Zentrum seines 1997 verfassten Open-Source-Manifestes steht denn
auch die Auflösung der kapitalistischen Kontrollwirtschaft. An ihre
Stelle tritt, schreibt er, ein Modell der Arbeit, das lineare
Planungshierarchien, wie sie beispielsweise den Bau einer Kathedrale
prägen, durch die offenen, von Gleichberechtigung ausgehenden
Transaktionsstrukturen eines Bazars ersetzt. Raymonds Thesen, die er
auf Kongressen vortrug und im Internet publizierte, fanden weiten
Anklang - nicht zuletzt, weil sie der zunehmend erfolgreichen Praxis
freier Software ein theoretisch-historisches Fundament verliehen und
dabei gleichzeitig den ideologischen Ballast abwarfen, der Stallmans
Free-Software-Bewegung gehindert hatte, breitere Akzeptanz zu finden.

Zu den prominentesten Lesern, die sich von Raymonds Manifest
beeinflussen ließen, gehörte Netscape-Gründer Jim Barksdale. Er fasste
den Entschluss, mit der industriellen Geheimniskrämerei zu brechen und
den Quellcode des Netscape-Browsers zu veröffentlichen.
Ironischerweise popularisierte damit die Firma, deren Börsengang keine
drei Jahre zuvor das Internet als Geschäftsgelegenheit ins Bewusstsein
der breiten Öffentlichkeit katapultiert hatte, nun auch Anfang 1998
die Gegenbewegung. Nach Jahren eher verborgenen Wirkens gerieten die
Vertreter der freien Software ins Licht der Medien. Raymond beschloss,
die Gunst der Stunde zu nutzen. Er, Bruce Perens und andere Anhänger
suchten nach einem pragmatischen Slogan, einem treffenden
Markenzeichen, das anders als der von Stallman, dem Kommunarden des
Code, geprägte Begriff der ?Free Software? nicht mehr die
sozialistischen Träume der analogen Gegenkultur der sechziger Jahre
assoziieren ließ.

Mit Open Source fanden sie die magische Wortkombination. Der Begriff
war mehr als eine unverdächtige und mehrheitsfähige Sprachregelung. Er
erfasste, was sich durch Linux verändert hatte. War Free Software der
Kampfbegriff einer kleinen Minderheit gegen die erdrückende und
Veränderungen unterdrückende Übermacht proprietärer Produkte gewesen,
so entsprach die konsensträchtige Rhetorik der Open-Source-Bewegung
der Realität des Jahres 1998: dem massenhaften Erfolg bei den
avanciertesten Anwendern, dem Aufstieg der freien Software vom
subkulturellen Billigparia zum technologisch ernst zu nehmenden
Konkurrenten und vor allem auch zum leistungsfähigen
Wirtschaftspartner. Denn bereits zwischen 1992 und 1994, dem Jahr, als
Linux 1.0 veröffentlicht wurde, waren erste und durchaus erfolgreiche
Open-Source-Firmen entstanden.

Prinzip 6

Geschäftsmodell konkurrierender Kollaboration

Deren Geschäftsmodell weicht freilich von dem traditioneller
Softwarefirmen dramatisch ab. Im Verhältnis zu anderen
Open-Source-Anbietern ersetzt es die übliche Konkurrenz mittels
proprietärer Angebote durch so genannte coopetition, eine Mischung aus
Zusammenarbeit (cooperation) in technologischer Hinsicht und
Konkurrenz (competition) im serviceorientierten Wettbewerb um die
Kunden. Diese Konzentration auf Service wiederum beruht auf der
Einsicht, dass Software - die immaterielle Abspaltung der in
mechanischen und industriellen Maschinen materiell gefangenen
Algorithmen - ihrem Charakter nach eben kein abgeschlossenes
industrielles Produkt darstellt, sondern vielmehr einen prinzipiell
nach hinten offenen Prozess. Jede Version ist nur eine Stufe in einem
steten Entwicklungsvorgang, der auf die Befriedigung der sich
wandelnden Ansprüche der Anwender zielt. Auch gratis erhältliche
Open-Source-Software bietet daher reichlich Service- und damit
Geschäftsgelegenheiten. Firmen wie SuSE, gegründet bereits 1992, oder
Red Hat und Caldera, beide 1994, sammeln aus der Menge freier
Software, die sich im Netz akkumuliert, funktionierende Pakete
zusammen, sorgen für die Komplettierung des einen oder anderen
fehlenden Elements und verleihen ihrem Auswahlangebot durch
Supportleistungen gesteigerten Gebrauchswert.

Dieser Erfolg der letzten zwei, drei Jahre verdankte sich wesentlich
der intellektuellen und institutionellen Open-Source-Plattform von
1998. Mit ihr wurde der freien Software der Weg in die Geschäftswelt
geebnet. Das nützte den Open-Source-Firmen nicht zuletzt deshalb, weil
es damals binnen weniger Monate gelang, mächtige Verbündete zu
gewinnen. Zu ihnen zählen heute Intel, Oracle, Dell und vor allem IBM,
das allein dieses Jahr eine Milliarde Dollar für die Durchsetzung von
Linux ausgeben will. Der Einsatz der etablierten Firmen für
Open-Source-Ware - neben Linux insbesondere auch für Apache - sowie
die gelegentliche Freigabe von eigenem Quellcode (?outsourcing to Open
Source?) hat die Akzeptanz von freier Software erhöht und die
Nutzerbasis stark verbreitert.

Gewissen ökonomischen Rückschlägen im Gefolge der dot.com-Krise zum
Trotz, zeichnet sich ein Ende der Neunziger-Jahre-Erfolgsgeschichte
von Linux und anderer offener Software, wie es viele Skeptiker nach
den schnellen Anfangserfolgen befürchteten, denn auch bislang nicht
ab. Eric Raymond behauptet im Gegenteil einen doppelten historischen
Trend zu offenen Systemen. Er zeige sich zum einen im Zyklus einzelner
Programme, die mit zunehmendem Alter gegenüber innovativer Konkurrenz
nur bestehen können, indem sie zu De-facto-Standards avancieren. Als
Beispiel führt Raymond Doom an: Die Veröffentlichung des Quellcodes
zog eine Vielzahl freier Entwickler an, die dem Spiel neues Leben
einhauchten und so seine Auswertungszeit verlängerten.

Zum zweiten aber tendiere die Digitalisierung grundsätzlich zur
Etablierung offener Standards. Vom Fünfziger-Jahre-Chaos proprietärer
Betriebssysteme und Programme, deren Daten nicht einmal zwischen
Computermodellen desselben Herstellers austauschbar waren, führe so
über proprietäre Standardisierungen, wie sie Microsoft leistete, eine
gerade Entwicklungslinie zu offenen Standards, wie sie sich mit Linux
ankündigen. Ob Raymonds Behauptung eines solchen langfristigen Trends
stimmt oder nicht: Gegenwärtig gewinnt die Open-Source-Bewegung
unentwegt an Tempo - vorangetrieben durch Microsofts eskalierende
Rücksichtslosigkeit, aber auch durch die unbestreitbaren praktischen
wie politischen Vorteile des Systems und nicht zuletzt, wie Andrew
Leonard in Wired schrieb, ?von einem wachsenden sozialen Bewusstsein,
dass das Teilen von Informationen funktioniert?.

Jenseits von Software

Die Open-Source-Praxis erscheint daher als eine epochale kulturelle
Anpassungsleistung an die Möglichkeiten, die sich mit digitalen
Technologien und der globalen Vernetzung eröffneten. Ihr Siegeszug
geht an die Wurzeln der industriellen Ordnung. Auffällig sind dabei
Parallelen zur Industrialisierung vor rund 200 Jahren. Im Vergleich
erlauben sie ein distanzierteres Verständnis des historischen
Prozesses, dessen unmittelbare und daher leicht bewusstlose
Zeitgenossen wir sind. Denn auch damals betrieben neue Technologien
die Überwindung der etablierten Strukturen. Und auch damals standen im
Zentrum der Entwicklung die beiden Elemente, um die heute wieder
gerungen wird: die Verfügung über geistiges Eigentum und eine bessere,
weil den neuen Technologien entsprechendere Arbeitsorganisation.

Bei dem Wandel im Umgang mit intellektuellem Kapital nach 1800 ging es
zunächst darum, im Interesse des industriellen Fortschritts die Rechte
an innovativem geistigen Besitz zu sichern. Denn erst solche
juristischen Garantien ermöglichten im Rahmen der ebenfalls neu
geschaffenen Rechtsformen industrieller Firmen die private
Kollektivfinanzierung von Großkonzepten wie der Errichtung großer
Fabriken oder dem Ausbau der Eisenbahn. Eine radikale Modernisierung
und institutionelle Absicherung des Patent- und Urheberrechts begann.
In der Frühzeit der Industrialisierung vollendeten sich damit
Bestrebungen nach einer tendenziellen Gleichstellung von materiellem
und geistigem Besitz.

Eingesetzt hatten sie bereits im 17. Jahrhundert als Folge von
Mechanisierung und Verbürgerlichung. Unter agrarisch-feudalen
Verhältnissen war eine Emanzipation des geistigen Kapitals jedoch von
marginalem sozialen Interesse und politisch wie praktisch nur partiell
zu realisieren. Erst mit der Industrialisierung erhielt das Streben
der bürgerlichen Intelligenz nach patent- und urheberrechtlichem
Schutz ihrer Arbeit gesteigerte soziale Dringlichkeit und wurde im
Interesse industriellen Fortschritts gelöst. Im 19. Jahrhundert
etablierte sich so ein historisch neuer Begriff identifizierbaren
geistigen Privateigentums, abgesichert durch entsprechende
gesetzgeberische Maßnahmen, neue Institutionen wie zum Beispiel
nationale Patentämter und auch internationale Abkommen.

Die Neuordnung geistigen Eigentums

In seinen Details wurde dieses industrielle Verständnis geprägt von
der materiellen Repräsentation intellektuellen Besitzes, seiner
mechanischen Reproduktion und realweltlichen Distribution. Die
gegenwärtige Ersetzung analoger Technologien durch digitale stellt
wesentliche Elemente des damals etablierten industriellen Umgangs mit
geistigem Besitz wieder in Frage. Nicht nur fallen mit digitaler
Reproduktion und Distribution zunehmend die nöti-gen
Kontrollmechanismen aus. Obendrein bremst das überholte System der
Eigentumssicherung heute schon digitalen Fortschritt so nachhaltig,
wie vor 200 Jahren umgekehrt der Mangel an Eigentumsgarantien die
Finanzierung der industriellen Entwicklung hemmte. Free-Software- und
Open-Source-Bewegung scheinen insofern einen Ausweg aus den
industriellen Verhältnissen aufzuweisen. Auch für die zunehmend
wünschenswerte Öffnung des zivilisatorischen Wissens nach ihrem
GPL-Vorbild gibt die Frühzeit der Industrialisierung ein historisches
Beispiel: die Ver-Öffentlichung der privaten Bibliotheksbestände von
Adel und Kirche.

Bücher waren zur Zeit der bürgerlichen Revolution das dominierende
Speichermedium für zivilisatorisches Wissen. Sie standen daher im
Zentrum des sozialen Machtkampfes. Die um 1800 im großen Maßstab teils
konfiszierten, teils aufgekauften Bände wurden in der ersten Hälfte
des 19. Jahrhunderts zur materiellen Grundlage einer gänzlich neuen
industriellen Organisations- und Distributionsform von Informationen,
zentriert um öffentliche und neugegründete nationale Bibliotheken. Der
Bestand etwa der Pariser Biblioth&egraveque Nationale, eröffnet 1795,
verdoppelte sich durch Zwangsakquisition binnen zwei Jahrzehnten auf
über 600 000 Bände. Ähnliches geschah im deutschsprachigen Raum. Die
Frühzeit der Industrialisierung sah so die Geburt des modernen, an den
staatlichen Bürokratien orientierten Bibliothekswesens mit seinen
Signaturen, Standnummern, Magazinen und innovativen Klassifikationen
wie etwa Melvil Deweys Dezimalsystem aus dem Jahre 1873.

Historisch notwendig wurde die Entprivatisierung, Ver-Öffentlichung
und Umorganisierung des Buchbestandes im 19. Jahrhundert aus
ökonomischen Gründen: Die technologische Aufrüstung der
Arbeitsprozesse in den Fabriken und noch mehr der Ausbau nationaler
Bürokratien zur Verwaltung der industriellen Massen verlangten nach
qualifizierteren Arbeitskräften, als sie unter den Bedingungen
agrarisch-feudaler Wissensvermittlung in ausreichender Zahl
entstanden. Wissen wurde damit von einem Luxus der Oberschichten zu
einem existenziellen Überlebensmittel. Der politische Kampf um
Volksbildung, die Umwandlung von individueller Bildung in massenhafte
Ausbildung begann.

Die Bibliotheken waren zentrale Agenturen dieses Prozesses. Ihre
Philosophie war die akademische. Sie unterschied zwischen materiellen
Gegenständen, deren Menge begrenzt war und durch Verbrauch im Wert
reduziert wurde, weshalb mit ihnen sparsam umzugehen war, und
intellektuellem Kapital, dessen Wert sich durch Gebrauch nicht
reduzierte, sondern durch Verbreitung sogar wuchs. Öffentliche
Bibliotheken stellten die dem Stand der Reproduktionstechniken
angemessene Kompromissform dar: Sie machten das in dem begrenzten
Vorrat an gedruckten Büchern gespeicherte Wissen einer maximalen Menge
von Menschen zugänglich.

Die revolutionäre, mittels juristischer Zwangsmaßnahmen durchgesetzte
Ver-Öffentlichung der Buchbestände stellte von daher eine der
wichtigsten kulturellen Adaptionsformen an die gewandelten
Erfordernisse der Industrialisierung dar. Vergleichbares beginnt sich
nun an der Schwelle zur digitalen Epoche zu vollziehen. Erneut wird
eine historische Anpassung im Umgang mit dem zivilisatorischen Wissen
notwendig. Die Bedeutung der digitalen Infrastruktur wächst. Ihre
Nutzung wandelt sich von einem Luxus oder Hobby zur sozialen und
ökonomischen conditio sine qua non. Je unverzichtbarer aber Software
wird, desto weniger kann der Mangel an Kontrolle durch die Anwender
bestehen. Angesichts des akzelerierten Entwicklungstempos wie auch des
gewandelten Demokratieverständnisses kommen in der digitalen Epoche
freilich hierarchische Bürokratien nicht mehr als Medium einer
notwendigen öffentlichen Kontrolle in Frage. Diese Rolle fällt
neuartigen beweglicheren, effektiveren und vor allem offeneren
Strukturen zu. Für sie bietet die Open-Source-Praxis ein Modell.

Demokratisierung der Arbeit

Den Ansätzen zu einer digitalen Ver-Öffentlichung des
zivilisatorischen Wissens, wie sie die GPL leistet, entspricht eine
zweite, ebenso historische Open-Source-Innovation: die Ansätze zur
Überwindung der industriellen Arbeitsorganisation. Fabrik wie
Bürokratie raubten im 19. Jahrhundert den Individuen die
Zeitsouveränität, die sie in der agrarischen und handwerklichen
Produktion genossen hatten. Deren Abläufe waren nicht auf das
quantitative Abarbeiten von Zeit gerichtet gewesen, sondern auf
qualitative Aufgabenerfüllung wie Aussaat und Ernte oder die
handwerkliche Erledigung von Aufträgen. Erst unter industriellen
Bedingungen wurde Arbeitszeit für die Mehrheit der Menschen zur
Fremdzeit, zu einem Teil des Tages, an dem physische
Anwesenheitspflicht herrscht und erwachsene Bürger durch Anweisungen
und Beaufsichtigung systematisch entmündigt werden.

Was Jahrtausende selbstverständlich gewesen war - dass man sich die
eigene Arbeit relativ selbstständig nach sachlichen Erfordernissen
einteilte -, wandelte sich zum Privileg und blieb die Regel allein in
Nischen des hoch qualifizierten Handwerks und künstlerischer oder
wissenschaftlicher Tätigkeiten. Die überwiegende Mehrheit der Menschen
verrichtete ihr Tagewerk dagegen im 20. Jahrhundert unter dem Zeichen
des Taylorismus. Das von Frederick Winslow Taylor entwickelte
hierarchische Managementsystem seziert im Interesse einer möglichst
ökonomischen Organisation maschinengestützter Produktion die
Arbeitsvorgänge und menschlichen Bewegungen. Indem der Taylorismus dem
Einzelnen Bewegungsfreiheit und Eigenzeit nimmt, um ihn zum Anhängsel
der Maschine und insbesondere des Fließbands zu machen, steigert er
die mechanische Effizienz - und vernichtet psychische Motivation und
auf Selbstständigkeit basierende Kreativität.

Die industrielle Ordnung der Arbeit machte sie so zur Last - weshalb
ihre Verwalter auf eine Vielzahl von Kontroll- und Zwangsmaßnahmen
sowie auf eine stete Steigerung der finanziellen Anreize angewiesen
waren. Unter analogen Bedingungen ließ sich daran kaum rütteln. Alle
utopischen Gegenbewegungen scheiterten an den Sachzwängen
industrieller Technologie. Erst mit der Digitalisierung schuf sich die
Menschheit die nötigen Voraussetzungen, um das Joch industrieller
Arbeit abzuschütteln. Das Linux-Projekt war in den neunziger Jahren
dafür wegweisend, indem es die globale Vernetzung nicht länger nur zur
Kommunikation, sondern für eine prinzipielle Umorganisation der Arbeit
nutzte.

Ausgehend von der Tradition der Anwender-Selbstermächtigung und
aufbauend auf den Betriebssystemen und der digitalen Infrastruktur,
die freie Software in den siebziger und achtziger Jahren geschaffen
hatte, setzte Torvalds gleichsam naturwüchsig abstrakte digitale Werte
praktisch um; insbesondere Enthierarchisierung und Dezentralisierung.
Ihnen entsprachen die beiden zentralen Praktiken der Rekrutierung von
Arbeitskraft auf dem Wege der globalen Selbstselektion und ihr
zeitlich selbstbestimmter Einsatz. Nicht die Arbeitsteilung, wohl aber
die Arbeitszuteilung wurde aufgehoben. An die Stelle von überwachender
Kontrolle trat Eigenverantwortlichkeit in autonomen Teilbereichen.
DigitaleAvantgarde

Darin gibt die Open-Source-Praxis ein Modell sozialer Organisation von
Arbeit und speziell Wissensproduktion in der digitalen Epoche. Die
Forschung, der das Prinzip des peer review als Medium der Kritik
ursprünglich entstammt, kann von dessen Echtzeitbeschleunigung zum
Mittel der Erkenntnisproduktion ebenso lernen wie weite Bereiche der
Wirtschaft. Der Einsatz digitaler Techniken etwa zum Zwecke von
Kollaborationsstrukturen mag es erlauben, auf einengende lineare
Planungen zu verzichten, um Selbstselektion und zeitliche Autonomie
und damit Motivation und Kreativität zu befördern.

Diese doppelte epochale Anstrengung, die Verfügung der Menschheit über
ihr Wissen und die Organisation der gesellschaftlichen Arbeit neu zu
ordnen, macht die Open-Source-Praxis in der Tat, wie Steve Johnson
schreibt, zur ?ersten wirklich eingeborenen politischen Schöpfung der
digitalen Welt?. In der Unterwerfung des Einzelnen unter den
industriellen Apparat war der Taylorismus nicht nur, wie oft bemerkt
wurde, Ausdruck einer Maschinenwerdung des Menschen. Er war auch eine
durch und durch vordemokratische Organisationsform, in deren System
die faschistischen und kommunistischen Diktaturen bereits angelegt
waren, die im 20. Jahrhundert in so vielen Ländern den Prozess der
Industrialisierung vorantrieben. In der Open-Source-Praxis
gleichberechtigter und teilautonomer Kollaboration drücken sich
dagegen genuin demokratische Werte aus. Ihre Ermächtigung des
Individuums macht tendenziell die Entmündigung rückgängig, die der
Industrialismus der Mehrheit der Arbeitenden antat.

Der oft recht unduldsame Enthusiasmus der Open-Source-Fans, der bei
einer so prosaischen Angelegenheit wie der Software-Produktion
befremdet, die bisweilen penetrante Mischung aus genialem Gestus,
religiöser Erweckung und politischem Eifer wird unter dieser
Perspektive zwar nicht sozial erträglicher, aber doch historisch
verständlich - als Ausdruck des berechtigen Bewusstseins, Teil einer
bahnbrechenden Avantgarde zu sein. (odi) Literatur

[1] Wer sich informieren will, findet online zahlreiche
Computerlexika, etwa www.techweb.com/encyclopedia/.

[2] In der Reihenfolge ihres Erscheinens:

Chris DiBona (Hrsg.), Open Sources: Voices From the Open Source
Revolution (1999)

Peter Wayner, Free for All: How LINUX and the Free Software Movement
Undercut the High-Tech Titans (Juli 2000)

Russell Pavlicek und Robin Miller, Embracing Insanity: Open Source
Software Development (September 2000)

Pekka Himanen, Hacker Ethic (Januar 2001)

Glyn Moody, Rebel Code: Linux and the Open Source Revolution (Januar
2001)

Eric Raymond, The Cathedral and the Bazaar (Januar 2001; aktualisierte
Sammlung seiner seit 1997 erschienenen und zum Teil bereits 1999
gesammelt veröffentlichten Aufsätze)

Linus Torvalds und David Diamond, Just for Fun: The Story of an
Accidental Revolutionary (Mai 2001)

Andrew Leonards work in progress zur Open-Source-Geschichte auf
www.salon.com

[3] Oliver Diedrich: Happy Birthday, Tux! Zehn Jahre Freies
Betriebssystem. c't 19/01, S. 162

________________________________
Web-Site: http://www.oekonux.de/
Organisation: projekt oekonux.de


[English translation]
Thread: oxdeT03952 Message: 1/1 L0 [In index]
Message 03952 [Homepage] [Navigation]