1 Die Wurzeln von Ubuntu
»Es gibt kein richtiges Leben im falschen.«
(aus dem Buch »Minima Moralia«)
Theodor W. Adorno (1903–1969),
Philosoph, Soziologe und Komponist
Was Sie in diesem Kapitel erwartet
Wir beginnen mit einem einführenden Kapitel in die Thematik »Linux«. Sie werden die Hintergründe und die Geschichte von GNU, UNIX und Linux kennenlernen und näher betrachten. Des Weiteren gehört hierzu auch eine nüchterne Analyse der Vor- und Nachteile von Linux-basierten Systemen. Wir werden uns etwas näher mit den Grundgedanken von Open Source beschäftigen und die Philosophie dahinter beleuchten. In diesem Kapitel sind Sie genau richtig, wenn Sie einige Begriffe aus der Welt der freien Software lernen möchten. Sätze wie »Linux ist eigentlich nichts anderes als GNU/UNIX mit einem Kernel namens Linux.« werden Ihnen nach dem Lesen dieses Kapitels schon viel verständlicher sein. Diese kleine Einführung in Linux erhebt keinen Anspruch auf Vollständigkeit, sie soll lediglich einen ersten Überblick über die Materie geben.
1.1 Mehr als die Summe
Wenn Sie Ubuntu installieren, wird nicht nur das Betriebssystem an sich installiert. Schon bei einer Standardinstallation wird eine Menge weiterer Software mitinstalliert, beispielsweise ein Office-Paket oder ein Bildbearbeitungsprogramm. Dies ist man nicht gewohnt, wenn man vorher nur Microsoft Windows kannte. Sie haben mit einer solchen Installation schon weitaus mehr auf Ihrem Computer als »nur« Linux. Vereinfacht gesagt besteht Ubuntu aus:
- Linux
Dies ist der eigentliche Betriebssystemkern (englisch: kernel) und somit die Basis von Ubuntu. Ich werde hierauf in Abschnitt 1.1.3, »Linux«, näher eingehen. - GNU
Aus dem GNU-Projekt stammen viele Softwarepakete, ohne die Linux kaum nutzbar wäre und die einen essentiellen Charakter besitzen. Hierauf werde ich in Abschnitt 1.1.2, »GNU«, näher eingehen.
Kernel: Basis und Kernkomponente eines Betriebssystems. Der Kernel ist verantwortlich für grundlegende Aufgaben wie die Prozess- und Speicherverwaltung sowie für die Hardwareunterstützung. Sie erfahren mehr über den Ubuntu-Kernel in Abschnitt 14.9, »Kernel und Module«.
Man spricht aufgrund dieser beiden Komponenten korrekterweise auch häufig von »GNU/Linux«, wenn von Linux die Rede ist. Genauer gesagt ist GNU/Linux eine riesige Softwaresammlung und Ubuntu eine Komposition aus Betriebssystem und einigen Anwendungen.
Dies bedeutet allerdings nicht, dass jede Software, die bei Ubuntu enthalten ist, auch aus dem GNU-Projekt stammt. Tatsache ist, dass der Großteil der heute für Linux verfügbaren Software nichts mehr mit dem eigentlichen GNU-Projekt zu tun hat. Beginnen möchte ich dieses Kapitel aber mit einer Beschreibung von UNIX, ohne das weder GNU noch Linux in ihrer heutigen Form existieren würden.
1.1.1 UNIX
Linux hat das UNIX-Betriebssystem zum Vorbild. Während Microsoft Windows ein relativ junges System ist – das erste Windows erschien 1985 –, reicht die Geschichte von UNIX bis ins Jahr 1965 zurück. Es hat somit inzwischen eine fast 50-jährige Entwicklungsgeschichte hinter sich. UNIX ist demnach ein recht altes Betriebssystem. Es besitzt seit seinen Anfängen aber wichtige Funktionen, die zum Beispiel Microsoft erst sehr viel später in sein Betriebssystem implementiert hat, teilweise sogar bis heute nicht.
UNIX: Ein Mehrbenutzer-Betriebssystem, das Anfang der 70er Jahre von den Bell Laboratories zur Unterstützung der Softwareentwicklung erschaffen wurde. UNIX bezeichnet im allgemeinen Sprachgebrauch Betriebssysteme, die entweder ihren Ursprung im UNIX-System von AT&T (ursprünglich Bell Laboratories) haben oder dessen Konzepte implementieren. Viele moderne Betriebssysteme basieren auf UNIX, u. a. Linux und Mac OS X.
AT&T: American Telephone & Telegraph Corporation. Ein nordamerikanischer Telekommunikationskonzern, der neben Telefon-, Daten- und Videotelekommunikation auch Mobilfunk und Internetdienstleistungen für Unternehmen, Privatkunden und Regierungsorganisationen zur Verfügung stellt.
Microsoft und die Sicherheit
Dass Microsoft manche »alten« Funktionen von UNIX nicht in seine Produkte einbaut, hat den Grund, dass Microsoft schon immer den Fokus auf leichte Bedienbarkeit gelegt und dafür Schwächen bei der Sicherheit in Kauf genommen hat. Dies soll nicht bedeuten, dass Microsoft-Produkte generell unsicher sind.
Die Betriebssysteme könnten aber deutlich sicherer sein, wenn man einige Konzepte, wie beispielsweise die strikte Rechtetrennung, von UNIX übernommen hätte. Ohne einem System zugrundeliegende, vernünftige Sicherheitskonzepte ist ein großer Aufwand nötig, um sich gegen potentielle Angreifer zu wehren. Die Bedeutung von Firewalls und Virenscannern ist bei Windows überaus groß. Ich werde in Kapitel 15, »Backup und Sicherheit«, detaillierter auf dieses Thema eingehen.
MULTICS
Die Wurzeln von UNIX reichen bis ins Jahr 1965 zurück, auch wenn es zu dieser Zeit noch nicht UNIX hieß. Mehrere Firmen (u. a. Bell und das MIT) arbeiteten damals an einem Betriebssystem für Großrechner. Dieses Betriebssystem wurde MULTICS genannt (Multiplexed Information and Computing Service). Leider wurde es nie fertiggestellt. Ken Thompson entwickelte im Jahre 1969 bei den Bell Laboratories in den USA das erste auf Teilen von MULTICS basierende UNIX. Zu dieser Zeit waren Computer noch sehr groß und entsprechend teuer, aber UNIX war schon damals sehr stabil.
UNIX ist einfach in Datennetze zu integrieren. Alle Funktionen dafür sind bereits in UNIX implementiert. Die Netzwerkfähigkeit ist eine der großen Stärken des UNIX-Systems. Noch heute läuft zum Beispiel das gesamte Telefonnetz der USA auf UNIX-Servern.
Bell: Bell Telephone Laboratories oder Bell Labs war ursprünglich die Entwicklungsabteilung des Bell-Konzerns (gegründet 1876 von Alexander Graham Bell). Dort wurden unter anderem grundlegende Bauteile für Vermittlungsstellentechnik, spezielle Isolierungen für Telefonkabel und der Transistor erfunden. 1925 wurden die Bell Labs ein eigenständiges Unternehmen.
MIT: Das Massachusetts Institute of Technology (MIT) ist eine (private) Technische Hochschule und Universität in Cambridge (Massachusetts) in den USA, gegründet 1861. Das MIT gilt als eine der weltweit führenden Hochschulen im Bereich technologischer Forschung und Lehre.
C
UNIX wurde zu Beginn vollständig in einer maschinennahen Assembler-Sprache geschrieben, bevor es ab 1971 in die Hochsprache C umgeschrieben wurde. Im Übrigen war das Hauptanliegen von Ken Thompson, ein raumfahrtbezogenes Programm zu entwickeln, das zum Beispiel Orbitberechnungen für Satelliten beherrschte. Zu dieser Zeit stand nämlich das Apollo-Raumfahrtprogramm der USA im Mittelpunkt des öffentlichen Interesses.
Die Sprache C hat den Vorteil, dass man nur einen Übersetzer für eine neue Hardwareplattform braucht, um das System mit relativ wenigen Änderungen an eine neue Umgebung anpassen zu können. Dadurch wurde UNIX sehr gut portierbar und auf verschiedenen Hardwareplattformen überaus leistungsfähig.
Der Name »UNIX«
Das System hieß in Anspielung auf das MULTICS-System ursprünglich »Unics«; der Name wurde später zu »Unix« abgewandelt. Heute wird der Name auch als Uniplexed Information and Computing Service interpretiert. Dies ist allerdings eine nachträgliche Interpretation, ein sogenanntes Backronym. Historisch gesehen ist »Unix« die ältere Schreibweise, die Schreibweise »UNIX« tauchte erst viel später auf.
Verbreitung
Die Verbreitung des Systems erfolgte zu Beginn seiner Entwicklung ausschließlich im universitären Bereich, indem es kostenlos an wissenschaftliche Einrichtungen verteilt wurde. Dadurch entstanden viele verschiedene Derivate, da es von nun an von vielen Usern parallel weiterentwickelt wurde. Erst 1982 begannen Firmen wie Hewlett Packard, IBM oder Sun mit dem Vertrieb kommerzieller UNIX-Systeme.
IBM: International Business Machines. Eines der ältesten IT-Unternehmen, das anfangs mit Lochkartenmaschinen und später mit Großrechnern eine marktbeherrschende Stellung einnahm. Es entwickelte u. a. das Betriebssystem DOS, das später an Microsoft verkauft wurde.
Schaffung von Standards
Die parallele Entwicklung verschiedener UNIX-Systeme führte zwangsläufig zu Inkompatibilitäten, und man entschloss sich zu Beginn der 1990er Jahre, einheitliche Standards zu schaffen, um die Weiterentwicklung von UNIX zu einem konvergenten Betriebssystem zu fördern. Hierbei arbeitete man eng mit Institutionen wie dem Institute of Electrical and Electronic Engineering (IEEE) und dem American National Standards Institute (ANSI) zusammen.
SVR5 und Quellcode
Die Weiterentwicklung von UNIX lief nach der Schaffung von Standards sicher und kontinuierlich weiter. Inzwischen hat UNIX die aktuelle Versionsbezeichnung »System V Release 5« (SVR5) erreicht. Dieser Standard gilt seit 1989. Die Rechte am Quellcode von UNIX liegen laut eines Gerichtsbeschlusses bei der Softwarefirma Novell, die Rechte am Warenzeichen dagegen bei der Open Group, dem Zusammenschluss der Open Software Foundation und von X/Open.
Novell: Softwareunternehmen mit Sitz in den USA. 2004 kaufte Novell SUSE und vertreibt seitdem SUSE Enterprise und unterstützt die Community-Version openSUSE. Novell machte 2007 Schlagzeilen, als es als erstes Unternehmen aus dem Linux-Lager ein Patentabkommen mit Microsoft unterschrieb.
Weitere Eigenschaften
Sonstige wichtige Aspekte eines UNIX-Systems wie Multi-User/Multi-Tasking-Fähigkeit oder die hierarchische Dateiverwaltung werden Sie im weiteren Verlauf des Buchs kennenlernen.
Supercomputer
Aber auch im Bereich der rechenintensiven Anwendungen hat sich UNIX etabliert. UNIX kann Rechner unterstützen, die einen oder mehrere Prozessoren besitzen. Die Leistungsfähigkeit dieser Multiprozessorsysteme steigt dabei fast linear an. Durch ein Cluster, also die Vernetzung von Rechnerknoten, kann die Leistung eines UNIX-Systems noch erheblich gesteigert werden. So wurden Trickfilme wie »Toy Story« und »Das große Krabbeln« unter Verwendung von UNIX erschaffen, aber auch viele Spezialeffekte für Filme wie »Titanic«.
Im Bereich der Supercomputer hält UNIX eine Monopolstellung. Eine aktuelle Liste der 500 stärksten Supercomputer finden Sie auf der Webseite www.top500.org. Im DesktopBereich befindet sich UNIX seit Anfang der 90er Jahre langsam, aber kontinuierlich auf dem Vormarsch, nicht zuletzt aufgrund der steigenden Verbreitung von Linux. Von einem der jüngsten Anläufe zur Eroberung des Desktops handelt dieses Buch.
Supercomputer: Hochleistungsrechner, die zum Zeitpunkt ihrer Einführung im obersten realisierbaren Leistungsbereich operieren. Ein typisches Merkmal eines Supercomputers ist seine große Anzahl an Prozessoren, die auf einen sehr großen Hauptspeicher zugreifen. Seit geraumer Zeit etablieren sich vermehrt sogenannte Cluster, bei denen eine große Anzahl von (meist preiswerten) Einzelrechnern zu einem großen Rechner vernetzt werden.
1.1.2 GNU
GNU ist ein rekursives Akronym von »GNU's Not Unix« und bezeichnet ein vollständig freies Betriebssystem, das sich seit 1983 in der Entwicklung befindet. GNU ist Teil des GNU-Projekts, das 1983 von dem Physiker Richard Matthew Stallman gegründet wurde und 1984 seine Arbeit aufnahm. Richard Stallman hatte zuvor am MIT gearbeitet und zu dieser Zeit den kommerziellen Aufschwung von UNIX-Systemen miterlebt. Firmen begannen mit der Entwicklung proprietärer Software, deren Quellcode nicht mehr offen einseh- und veränderbar war. Stallman war darüber sehr verärgert und kündigte daher im Januar 1984 seine Stelle am MIT, um sich vollständig dem GNU-Projekt widmen zu können.
Richard Matthew Stallman, geboren am 16. März 1953 in Manhattan, New York City, ist ein US-amerikanischer Informatiker und studierter Physiker. Stallman, der unter seinen Initialen RMS bekannt ist, gründete das GNU-Projekt und ist einer der frühesten und bekanntesten Protagonisten freier Software. Stallman hatte beträchtlichen Anteil am Erfolg von GNU/Linux – er ist der erste Präsident der Free Software Foundation.
Abbildung 1.1 Das Gnu – das Maskottchen von GNU
Free Software Foundation: 1985 wurde die gemeinnützige Free Software Foundation (www.fsf.org) ins Leben gerufen, um freie Software zu fördern und dafür Kapital zusammenzutragen. Die dabei wohl wichtigste Aufgabe der FSF ist die finanzielle, personelle, technische und juristische Unterstützung des GNU-Projekts. Neben dieser Arbeit bemüht sich die FSF gleichzeitig um allgemeine Beratung, Berichterstattung und Aufklärung rund um freie Software. Am 10. März 2001 wurde die Free Software Foundation Europe (www.fsfe.org) gegründet, um die Belange freier Software im europäischen Raum zu vertreten.
Das GNU-Betriebssystem spielt durch die rasche Verbreitung von Linux heute nur noch eine Nebenrolle. Wesentlich wichtiger sind die Programme, die aus dem GNU-Projekt heraus entstanden sind. Ohne diese wäre Linux und damit auch Ubuntu in der heutigen Form nicht möglich. GNU sollte eine vollständig freie Alternative zu UNIX darstellen, wurde aber mit einer größtmöglichen Kompatibilität mit UNIX entwickelt, damit man die etablierten UNIX-Programme auch unter GNU verwenden kann.
Der Name GNU bezeichnet das Betriebssystem als Ganzes, streng genommen besteht es aber aus mehreren Komponenten:
- GNU Mach
Mach ist ein Betriebssystem-Kernel, der an der Carnegie Mellon University in Pittsburgh entwickelt wurde. Mach gehört zur Klasse der Mikro-Kernel und verrichtet heute nicht nur in GNU, sondern zum Beispiel auch in Apples Betriebssystem Mac OS X seinen Dienst. - GNU Hurd
GNU Hurd ist die Sammlung von Servern und Services, die auf GNU Mach laufen. Diese Services implementieren Dateisysteme, Netzwerkprotokolle, Dateizugriffskontrollen und andere Eigenschaften. - GNU-Software
Aus dem Projekt heraus oder für das Projekt wurde eine Vielzahl von Anwendungen entwickelt (zum Beispiel der C-Compiler gcc, die Bash [Bourne-Again-Shell] und GNU Emacs).
General Public License (GPL) – die Basis von Open Source
GNU steht unter der General Public License (GPL), dem wohl wichtigsten Dokument der Open-Source-Bewegung. Diese Lizenz beinhaltet ein »Copyleft« (in scherzhafter Analogie zum Copyright), das jedem Benutzer von GPL-lizenzierter Software das Kopieren und Verändern dieser Software ausdrücklich erlaubt. Die einzige Bedingung ist, dass die geänderte Software wieder unter der GPL steht. Diese Bedingung verhindert die Entstehung von proprietärer Software aus freier Software heraus.
Proprietär: Die Freie-Software-Bewegung benutzt den Begriff »proprietär« für Dinge, die nicht »frei« sind. Der Begriff bezeichnet zum einen Software, zum anderen Dateiformate, Protokolle usw. Bekannte Beispiele proprietärer Software sind: Microsoft Windows, Adobe Photoshop, AutoCAD oder Macromedia Flash. Beispiele für proprietäre Dateiformate sind das MS-Word-Format oder das WMA-Format. Beispiele für nicht proprietäre, offene Formate sind Ogg Vorbis, das Portable-Network-Graphics-Format oder das HTML-Format.
»Die meisten Lizenzen für Software und andere nutzbare Werke sind daraufhin entworfen
worden, Ihnen die Freiheit zu nehmen, die Werke mit anderen zu teilen und zu verändern.
Im Gegensatz dazu soll Ihnen die GNU General Public License die Freiheit garantieren,
alle Versionen eines Programms zu teilen und zu verändern. Sie soll sicherstellen,
dass die Software für alle ihre Benutzer frei bleibt. Wir, die Free Software Foundation,
nutzen die GNU General Public License für den größten Teil unserer Software; sie gilt
außerdem für jedes andere Werk, dessen Autoren es auf diese Weise freigegeben haben.
Auch Sie können diese Lizenz auf Ihre Programme anwenden.«
(Vorwort der GPL, inoffizielle deutsche Übersetzung der Version 3)
Im Jahr 2001 bezeichnete Steve Ballmer (CEO, Microsoft) Linux wegen der Auswirkungen der GPL als »Krebsgeschwür«. Diese Lizenz würde sich ausbreiten wie Krebszellen. Microsoft hat trotz der erklärten Abneigung gegen die Lizenz aber selbst bereits ein Produkt mit GPL-lizenzierter Software verkauft (Microsoft Windows Services for UNIX).
Microsoft: Ein von Bill Gates und Paul Allen gegründetes Softwareunternehmen. Derzeitiger CEO(Chief Executive Officer) ist Steve Ballmer (Stand: Juli 2012), Firmensitz ist Redmond in der Nähe von Seattle, USA. Microsoft ist der Hersteller des Betriebssystems Windows. Inzwischen gehört auch der Vertrieb von Hardware zu den Einnahmequellen des Unternehmens.
Freie Software – frei oder kostenlos?
Ich habe bereits mehrfach den Begriff »freie Software« benutzt, und der geneigte Leser wird sich wundern, warum man mit freier Software trotzdem Geld verdienen kann. Dies ist kein Widerspruch, denn das »frei« in freier Software ist im Sinne von »offen« und nicht im Sinne von »kostenlos« zu verstehen. Dass eine Software frei ist, bedeutet nicht automatisch, dass sie nicht urheberrechtlich geschützt ist. Des Weiteren ist freie Software nicht zwangsläufig kostenlos. Sie dürfen freie Software kopieren und weitergeben, erweitern oder verändern.
Es gibt verschiedene Lizenzen für die Absicherung freier Software. Die bekannteste ist die bereits beschriebene GPL, die u. a. fordert, dass der Quellcode eines Programms offen einsehbar sein und mitgeliefert werden muss. Sie erhalten weitere umfangreiche Informationen über GNU auf der Webseite des Projekts, http://www.gnu.org, und über die Free Software Foundation auf http://www.fsf.org.
Debian GNU/Hurd: 1998 rief Marcus Brinkmann das Debian-GNU/Hurd-Projekt ins Leben, um der Entwicklung von GNU neuen Schwung zu verleihen. Durch die Verbindung mit Debian, der größten Linux-Distribution, wurde es möglich, die gesamte Infrastruktur des Debian-Projekts für GNU/Hurd nutzbar zu machen. Etwa 50 % der ca. 15.000 im offiziellen Debian-Archiv enthaltenen Pakete wurden bislang erfolgreich für Debian GNU/Hurd übersetzt.
Von Debian GNU/Hurd wird zurzeit etwa halbjährlich ein Schnappschuss in Form von CD-ROMs veröffentlicht. Die Installation, Benutzung und Administration des Systems unterscheiden sich, abgesehen von vorhandenen Einschränkungen, kaum von Debian GNU/Linux. Soundkarten sowie moderne Peripherie-Geräte via USB, FireWire, Bluetooth und eine automatische Hardwareerkennung (Hotplug) werden zurzeit noch nicht unterstützt, auch fehlt die Unterstützung für zahlreiche Dateisysteme.
1.1.3 Linux
An dieser Stelle kommen wir endlich zu »Linux«, der wichtigsten Grundlage von Ubuntu und vielen anderen Linux-Distributionen.
MINIX – die Grundlage von Ubuntu
Das Jahr 1991 war die Geburtsstunde von Linux. Ein junger finnischer Informatikstudent namens Linus Benedict Torvalds (geboren am 28. Dezember 1969 in Helsinki, Finnland, siehe Abbildung 1.2) entwickelte einen eigenen Betriebssystemkern, weil er mit dem von ihm eingesetzten MINIX nicht zufrieden war. Er wollte vor allem die Leistung der damals weit verbreiteten 80386-Prozessoren ausnutzen. Dies konnte MINIX seiner Meinung nach nicht leisten.
Philosoph und Ingenieur
Zu diesem Zweck benutzte er freie Software, die im Rahmen des GNU-Projekts zur Verfügung stand, zum Beispiel den GNU-C-Compiler (gcc). Des Weiteren legte er Wert darauf, dass auch Linux den POSIX- und X/Open-Standards entsprach. Richard Stallman und die Free Software Foundation begründeten die Philosophie und die Community, aus der heraus Projekte wie Linux entstanden. Torvalds bezeichnete Stallman als den »großen Philosophen«, während er sich selbst als Ingenieur betrachtet.
Das Projekt startet – die Ankündigung
Hier sehen Sie einen Auszug aus dem Posting von Linus Torvalds vom 1. August 1991:
From: torvalds@klaava.Helsinki.FI Newsgroups: comp.os.minix Subject: What would you like to see most in minix? Summary: small poll for my new operating system Date: 25 Aug 91 20:57:08 GMT
Hello everybody out there using minix - I'm doing a (free) operating system (just a hobby, won't be big and professional like gnu) for 386(486) AT clones. This has been brewing since april, and is starting to get ready. I'd like any feedback on things people like/dislike in minix, as my OS resembles it somewhat (same physical layout of the file-system (due to practical reasons) among other things).
I've currently ported bash(1.08) and gcc(1.40), and things seem to work. This implies that I'll get something practical within a few months, and I'd like to know what features most people would want. Any suggestions are welcome, but I won't promise I'll implement them :-)
Linus (torvalds@kruuna.helsinki.fi)
PS. Yes - it's free of any minix code, and it has a multi-threaded fs. It is NOT portable (uses 386 task switching etc), and it probably never will support anything other than AT-harddisks, as that's all I have :-(.
Linux ist im Prinzip nur ein modifiziertes UNIX, daher gelten die für UNIX beschriebenen Eigenschaften (Vorteile, Struktur usw.) ebenso für dieses Betriebssystem. Es ist modular aufgebaut, es besteht also aus mehreren Komponenten, die sich theoretisch nach Belieben auswechseln lassen. Explizit bedeutet dies, dass Sie nicht nur wichtige Elemente des Betriebssystems, beispielsweise die grafische Oberfläche, austauschen können – Sie haben auf Wunsch sogar Einfluss auf die Zusammensetzung des Kernels selbst.
Modularität – der X-Server als Beispiel
Linux »umfasst« grundsätzlich erst einmal nur den reinen Textmodus, d. h. die direkte Kommunikation mit dem System über die Konsole. Wenn Sie unter Linux eine grafische Benutzeroberfläche haben möchten, muss ein sogenanntes X-Window-System installiert und gestartet werden.
Dieses X-Window-System ist client-server-basiert:
- Der X-Server kümmert sich hierbei um die Steuerung der angeschlossenen Eingabegeräte (zum Beispiel Maus und Tastatur) und um die Bildschirmausgabe.
- Die X-Clients sind die Programme, die Sie auf Ihrer grafischen Oberfläche sehen können,zum Beispiel ein Textverarbeitungsprogramm.
Die Aufteilung in Server und Client hat den großen Vorteil, dass die Clientprogramme lokal, aber auch entfernt auf einem anderen Rechner installiert sein können. Durch eine Netzwerkverbindung können Sie trotzdem grafisch arbeiten, als ob beides auf dem gleichen PC installiert wäre. Grundsätzlich ist ein X-Server nur eine Sammlung von Funktionen zur grafischen Darstellung von Informationen. Grafische Benutzeroberflächen wie GNOME oder KDE bauen hierauf auf und sind somit einzeln installier- und austauschbar.
Freie Software und Demokratie
An dem obigen Beispiel erkennen Sie einen großen Vorteil freier Software. Bei freier Software ist es keiner Firma möglich, mit Marktmacht, Geld oder Einfluss die Verwendung einer bestimmten Software zu erzwingen. Über 90 % aller Linux-Entwickler arbeiten ehrenamtlich in ihrer Freizeit und sind somit nur den Kontrollprinzipien der Entwicklergemeinde unterworfen. Wenn die Mehrheit der Entwickler mit einer Entscheidung nicht zufrieden ist, wird diese Idee verworfen – es entstehen Ableitungen und Parallelentwicklungen.
Auf den ersten Blick mag dies verwirrend und ineffektiv erscheinen. Sie können ein solches Vorgehen aber am ehesten mit demokratischen Strukturen vergleichen. Eine solche Form der Organisation ist selbstverständlich nicht perfekt, aber sie ist die beste, die wir uns vorstellen können.
Ihr Kommentar
Wie hat Ihnen das <openbook> gefallen? Wir freuen uns immer über Ihre freundlichen und kritischen Rückmeldungen.