Message 03950 [Homepage] [Navigation]
Thread: oxdeT03931 Message: 2/8 L1 [In index]
[First in Thread] [Last in Thread] [Date Next] [Date Prev]
[Next in Thread] [Prev in Thread] [Next Thread] [Prev Thread]

Re: [ox] Konferenz-Beitrag: Vom vertikalen zum horizontalen Produktionsmodell in der Computerindustrie



Hallo!

Ein paar Anmerkungen zu Deinem Vortrag, Werner. Am Anfang schimpfe ich viel
rumm, weil Du da wirklich einiges IMHO völlig falsch verstanden hast, aber
die Kernaussage stimmt schon, denke ich:

On Thu, Nov 01, 2001 at 09:03:49PM [PHONE NUMBER REMOVED], Stefan Merten wrote:
Das dem Betriebssystem Linux zu Grunde liegende Konzept eines
monolithischen Betriebssystem-Kerns ist ca. 30 Jahre alt und muss als
veraltet bezeichnet werden.

Ohje. Diesen alten Hut wieder vorzukramen... Das dem Computer zu Grunde
liegende Konzept ist 60 Jahre alt. Ja und?

Natürlich haben Microkernel Vorteile, aber sie haben auch Nachteile. Genauso
wie monolitische Kernel Vor- und Nachteile haben. Bei Linux sind einige der
Nachteile noch dazu durch das Modulsystem abgemildert.

Tannenbaums Angriff auf Linux kann man auch verstehen als beleidigte
Reaktion eines Akademikers. Man kennt das ja, wie alternde Profs reagieren,
wenn man sie in ihrem Spezialgebiet vorführt ;-)

Tannenbaum hat sich den ganzen Schlammassel ja selbst zuzuschreiben. Er
hätte ja nur sein Minix unter die GPL stellen müssen und niemand hätte Linux
schreiben müssen. Aber nein, er wollte ja lieber Reihbach machen.

Eine gewisse Anziehungskraft scheint in diesem Zusammenhang wohl auch
deshalb von Linux auszugehen, weil es (etwas überzeichnet formuliert)
jeder halbwegs begabte Informatik-Student bereits am Ende des
Grundstudiums nach einer guten einführenden
Betriebssystem-Lehrveranstaltung verstehen kann.

Ja und? Ist das denn kein Vorteil? KISS (Keep it Simple Stupid) ist eine der
wichtigsten Entwurfskriterien. In der Geschichte der Computerei hat es sich
hundertfach wiederholt: Im akademischen Elfenbeinturm wird ein superdolles
Konzept entwickelt, dass theoretisch tausendfach überlegen ist nur in der
Praxis will es keiner benutzen. Das Internet ist das beste Beispiel.

Bemerkenswert ist, dass sich die sonst sehr technisch interessierten
Linux-Anwender und -Systemspezialisten am veralteten Aufbau von Linux
nicht zu stören scheinen. 

Es gibt sehr wohl auf allen Bereichen auch alternative Projekte in der
Freien Software (Graphische Oberfläche "Berlin" statt "X" ist z.B. sowas).
Nur brechen die halt mit den Kompatibilitäten. Weiter unten gibst Du ja noch
die Software-Kompatibilität als einen Hauptvorteil von Windows an. Das
stimmt eben gerade nicht. Windows-Software ist zu nix Kompatibel ausser zu
sich selbst.

Auch weitere wesentliche architektonische
Mängel werden praktisch nicht diskutiert.

Was soll denn das sein? Die meisten Sachen sind inzwischen behoben und es
gibt nur noch sehr wenige Bereiche in denen manche kommerzielle Unixe die
Nase vorne haben. Windows fast nirgends.

Interessanterweise scheiterte das GNU/HURD Microkernel-Projekt gerade
dort, wo eigentlich die Stärken der Open Source Entwicklung liegen
sollten: nämlich beim Testen. Richard Stallmann schrieb hierzu: "HURD
zuverlässig zu machen, zog sich über viele Jahre hin." [2, S. 65] (...
bis es dann vom monolithischen Linux überholt wurde).

GNU/Hurd wurde ja auch nicht im Basaar-Modell entwickelt, sondern im
Kathedralen-Modell. "Open Source" sagt nichts über das Entwicklungsmodell
aus. Btw. ist es inzwischen fertig.

So stellt sich die Frage, ob das viel gerühmte Open Source
"Basar"-Entwicklungsmodell [3] nicht doch Grenzen kennt. 

Natürlich kennt es das. Alles hat Grenzen. Nur vermengst Du hier zwei
Sachen. Man kann auch proprietär im Bazaar entwickeln und man kann auch Open
Source als Kathedrale bauen. 

Dagegen
scheint es Microsoft spätestens mit dem Betriebssystem-Release Window
2000 gelungen zu sein, innerhalb von durchaus akzeptablen 10 Jahren
einen stabilen und zuverlässigen Microkernel zu entwickeln.

*Hüstel*

Noch problematischer ist, dass die Software-Hersteller ihre Produkte
für die verschiedenen Versionen aufwendig portieren müssen. 

Eine Portierung zwischen zwei Unixen ist für Anwendungssoftware mehr oder
weniger trivial. Sämtliche Gnu-Software läuft auf allem, was Unix auch nur
im entferntesten ähnlich sieht, ohne dass das mit allzuviel Aufwand
verbunden wäre.

Die damit
erreichbare Kundenbasis ist oft zu klein, um dies zu rechtfertigen.
Ganz anders dagegen, die große Basis installierter
Microsoft-Windows-Systeme, mit ihren einheitlichen API's über die
gesamte Betriebssystem-Familie hinweg. So findet man heute auch die
konkurrenzlos meiste Software für die Microsoft-Plattform.

Millionen Fliegen fressen Scheisse ...

Mit den unterschiedlichen Linux-Distributionen u.a. von Red Hat,
Caldera, Suse und vielen weiteren kleineren Distributoren, wiederholt
sich das bereits bei Unix beobachtete Dilemma. 

Ne, die Unterschiede sind minimalst. Auf jeden Fall wesentlich geringer als
die zwischen verschiedenen Windows-Versionen.

Neben dem
Spezialwissen, das für jede der verschiedenen Linux-Distributionen
benötigt wird, steht wieder vor den Entwicklern die Frage, welches
Linux sie denn unterstützen sollen.

Dies wird dann von den Unternehmen oft sehr restriktiv entschieden.

Was nichts weiter ist als Dummheit. Die könnten sämtliche Linuxe mit einem
Minimum von Aufwand unterstützen. Weswegen sie das nicht tun, ist vor allem,
weil sie lukrative Verträge mit Distributoren abschliessen wollen.

Während beispielsweise Oracle derzeit noch für Red Hat, Caldera, und
Suse eine Unterstützung anbietet, will die SAP ihr R/3 auch in Zukunft
ausschließlich für die Distribution von Red Hat liefern - und auch
dies nur für eine speziell angepaßte Version. "Wir können nicht alle
Linuxe testen" lautet hierzu die Erklärung der IBM. [4, S. 23]

IBM bietet seine Sachen IMHO inzwischen auch für die meisten Distributionen
an, wenn ich richtig informiert bin. 

In einer Untersuchung der D. H. Brown, Inc., die jährlich einen

Gähn. Bei solchen Studien kommt sowieso immer nur raus, was man vorher schon
wusste. Das ist pure Politik. Pseudoargumente für Schlipsträger. Das braucht
kein Mensch. Auch zu diesem Thema gibt es auch gegenteilige Studien.

Ob dies aber den Anforderungen in den IT-Bereichen der Unternehmen
gerecht wird, muss bezweifelt werden. Erfordert doch die
Kommandozeilen-Administration einen wesentlich höheren und auch
wiederkehrenden Lernaufwand, bis man die notwendigen Kommandos "im
Kopf" hat. Gerade bei selten benutzten Kommandos und bei einer
größeren Anzahl unterschiedlicher Betriebssysteme, wie sie in der
Praxis die Regel sind, entstehen dadurch ein deutlich höherer
Arbeitsaufwand und eine größere Fehleranfälligkeit.

Das ist alles eine Frage, was man gewöhnt ist. Die Klickerei braucht für
mich meist mehr Arbeitsaufwand und hat extrem größere Fehleranfälligkeit
("Hups - knapp daneben geklickt", "Wollen sie wirklich speichern?", "Sind
sie auch wirklich ganz sicher?").

Dagegen sind Windows-unterstützte Administrationswerkzeuge - wenn sie
denn gut gemacht sind - in der Regel mit einem wesentlich geringeren
Lernaufwand verbunden. 

Das kann man so pauschal nicht sagen. Die Lernkurve verläuft anders. Mit
Klickibunti hat man einen schnellen Anfangserfolg und dann wird es bald sehr
zäh. Mit Kommandozeile ist es manchmal am Anfang etwas zäher, dafür sind die
Möglichkeiten dann aber auch grenzenlos.

Damit können dann mehr Systeme von weniger
Personen bzw. bei gleichbleibender Personalstärke die vorhandenen
Systeme intensiver betreut werden.

Das ist - entschuldige - wirklich kompletter Blödsinn. Hast Du mal als
Administrator von einem Rechnerpark von 100 und mehr Rechnern gearbeitet?
Ich schon. Und ich kann Dir sagen, dass Du da ohne Kommandozeile völlig
aufgeschmissen bist. Guck Dir mal die Anzahl Administratoren für
Windows-Rechnerparks und für Unix-Rechnerparks an. Das sind bei Windows
mindestens doppelt soviele, wenn nicht mehr. Ok, einen Vorteil hat Windows:
Die Admins brauchen keine Ausbildung ausser Resetknopf drücken und gute
sportliche Basiskondition wegen der vielen Lauferei. Wenn was nicht mehr
funktioniert hilft ja sowieso nur Neuinstallation. 

Neueste Technologien zur Unterstützung der Nutzer von
Softwaresystemen, wie z. B. die Wizard- oder Agententechnologie
erfordern zwingend leistungsfähige Windows-Darstellungsmöglichkeiten.

Was ist denn "Wizard-Technologie"? Sind das diese tanzenden Büroklammern?
Wenn man einen schlechten Geschmack hat, mögen die ja ganz unterhaltsam
sein, aber zur Unterstützung der Nutzer tragen die sicherlich nicht bei. Und
was "Agententechnologie" angeht: Zufällig kenne ich mich vom Studium her
damit sehr gut aus und kann Dir versichern, dass es dafür kein einziges
Fenster braucht, wenn man nicht will (Kann man natürlich haben, wenn man
meint man braucht das). Du bist dem Marketinggewäsch von irgendwelchen
Firmen aufgesessen, anders kann ich mir so eine Verdrehung der Tatsachen
nicht erklären.

Inzwischen wurden auch für Linux grafische Administrations-Tools
entwickelt. 

Und nicht nur das. Linux bietet vor allem die Wahlmöglichkeit zwischen
Kommandozeile und Klickibunti und genau die habe ich bei Windows meist
nicht.

Der Anteil der Software an den gesamten IT-Investitionen wurde hier im
Durchschnitt mit (nur) 16% ermittelt. Der Aufwand für das eigene
Betriebspersonal beträgt dagegen 30%. Unter den Softwarekosten selbst
beträgt der Anteil der Anwendungssoftware 95%. Die Kosten für das
Betriebssystem sind dort in den sonstigen (sic!) Kosten von 5%
enthalten. Würde man nun in einem solchen Unternehmen sämtliche
Betriebssysteme gegen Linux austauschen (was wohl schon durch die
Vorgaben der Anwendungssoftware unmöglich sein dürfte), dann betrüge
die Ersparnis bei den IT-Ausgaben wohl höchstens 2%.

Sieht toll aus diese Rechnung. Nur leider lässt das ausser Acht, dass man
mit Linux 95% der benötigten Anwendungssoftware schon dabei hat, wärend man
sich bei Windows jeden Furz dazukaufen muss.

Das ebenfalls hier häufig anzutreffende Argument, Linux braucht
gegenüber anderen Betriebssystemen geringere Hardware-Ressourcen
trifft nur unter einschränkenden Bedingungen zu. Es setzt zum einen
eine reduzierte Funktionalität voraus (z.B. als Betriebssystem für
einen Einzweck-Server) sowie zum anderen, den Verzicht auf eine
grafische Bedienoberfläche (z.B. Gnom oder KDE).

Trotzdem ist das ein Vorteil. Man kann nämlich alte Rechner weiterverwenden.
Als Router, Druckerserver, Terminal, ... was auch immer. Es gibt in einer
üblichen IT-Umgebung jede Menge Nischen wo ein Minilinux super sinnvoll ist.

Heterogenität
- -------------

Noch vor der Frage, welche Linux-Distribution eingesetzt werden soll,
steht vor jedem Unternehmen das noch grundsätzlichere Problem, ob
überhaupt noch ein weiteres Betriebssystem in die meist ohnehin schon
heterogene Systemlandschaft eingeführt werden sollte. Denn für jedes
neue Betriebssystem werden zusätzliches Wissen und zusätzliche
Erfahrungen der Administratoren benötigt.

Für jede neue Windowsversion auch, btw. 

Die große Resonanz in der kommerziellen IT-Öffentlichkeit dürfte aber
zumindest teilweise damit zu erklären sein, dass die Linux-Anhänger
auch überproportional Autoren und Leser der entsprechenden
Fachzeitschriften sind.

Lange Jahre war es umgekehrt. Linux wurde vielfach totgeschwiegen.

Überhaupt werden die Linux-Diskussionen von deren Anhänger oft sehr
emotional geführt. 

Das gilt für alle diese Technikdiskussionen und für alle Fraktionen
gleichermassen. Muss dran liegen, dass Nerds Probleme damit haben ihre
Gefühle zu zeigen wenn es um Menschen geht ;-)

Dass ein Mangel an sachlichen Argumenten im Zweifel auch schon mal mit
Emotionen ausgeglichen wird, läßt sich seit den Linux-Anfängen
beobachten. So gibt Linus Torvalds in der bereits erwähnten
Tanenbaum-Torvalds-Debatte ganz freimütig zu:

"Normalerweise gerate ich nicht in eine Flame-Argumentation, aber wenn
es um Linux geht, bin ich sehr empfindlich." [1, S. 225]

Ist ja auch sein Ding. Kann ich gut verstehen. Tannenbaum hat ja auch bei
seinem Ding (nämlich der Missachtung scheinbar unhintergehbarer akademischer
Wahrheiten) empfindlich reagiert.

Und in [9] wird die private E-Mail von Eric Raymond an einen
Mitstreiter zitiert, die - von ihm wohl nicht beabsichtigt - in einem
Message-Board aufgetaucht ist:[3]

"Wenn Du Dich in der Öffentlichkeit noch einmal wie ein Arschloch
aufführst, das unsere Gemeinde spalten, ihre Interessen in Frage
stellen und mich beleidigen will, dann werde ich das persönlich
nehmen. Du wirst es bereuen. Pass auf, was Du tust." [9]

Nasowas, die werden böse miteinander. Tsts. Wenn das überhaupt ein Argument
sein soll, dann eines für Linux. Da sind wenigstens noch Menschen zu Gange.
Das im Zweifel Eric - "Freie Schussbahn für Freie Bürger" - Raymond
natürlich immer das grössere Arschloch ist, bleibt davon unberührt ;-)

Interessant ist dabei allerdings, dass dieser Vorwurf nur Microsoft
trifft und nicht sinngemäß z. B. auch die Produzenten von
Intel-Prozessoren, Cisco-Routern oder Java-Systemen. 

Korrekt. Hat mich auch schon oft gewundert. Wobei die Häme bei Intels
Rechenfehlern ja auch recht gigantische Ausnahme angenommen hat.
Wahrscheinlich liegt das daran, dass man mit dem Betriebssystem halt am
direktesten zu tunhat und deshalb mit den Unzugänglichkeiten auch am
direktesten konfrontiert wird. Ausserdem unterscheiden sich ein Cisco-Router
und ein Windows-Betriebssystem in einem wichtigen Punkt: Ersterer ist
zuverläassig ;-)

Linux in der PC-Wertschöpfungskette
===================================

Vertikale und horizontale Hersteller
- ------------------------------------

So, nachdem ich Dich jetzt so böse gedisst habe. Geb ich jetzt zum Abschluss
meine Zustimmung im wesentlichen zum Rest des Papers zu Protokoll. Und das
ist ja auch der interessante Teil.

Das mit den horizontalen Herstellern ist wahrscheinlich wirklich der
Hauptgrund für den _kommerziellen_ Erfolg von Linux. Nur hat Linux eben auch
noch ganz anderen als kommerziellen Erfolg und von dem sprichst Du garnicht.

Ausserdem gibt es auch für klassische vertikale Hersteller Möglichkeiten
Linux einzusetzen, sie können sozusagen das Betriebssystemgeschäft
"outsourcen". Beispiele sind Apple und HP.

Andererseits hat Linux aufgrund seiner Open-Source-Herkunft den großen
Vorteil, dass derzeit nur vergleichsweise geringe Investitionen für
dessen Weiterentwicklung erforderlich sind.

Sind 1 Milliarde, die IBM in Linux gepumpt hat, gering? Na, vieleicht war
das nach Deinem Vortrag, weiss ich jetzt nicht mehr.

Grüße, Benni
________________________________
Web-Site: http://www.oekonux.de/
Organisation: projekt oekonux.de


[English translation]
Thread: oxdeT03931 Message: 2/8 L1 [In index]
Message 03950 [Homepage] [Navigation]