Galileo Computing < openbook > Galileo Computing - Professionelle Bücher. Auch für Einsteiger.
Professionelle Bücher. Auch für Einsteiger.

Inhaltsverzeichnis
Vorwort
1 Einführung
2 Mathematische und technische Grundlagen
3 Hardware
4 Netzwerkgrundlagen
5 Betriebssystemgrundlagen
6 Windows
7 Linux
8 Mac OS X
9 Grundlagen der Programmierung
10 Konzepte der Programmierung
11 Software-Engineering
12 Datenbanken
13 Server für Webanwendungen
14 Weitere Internet-Serverdienste
15 XML
16 Weitere Datei- und Datenformate
17 Webseitenerstellung mit (X)HTML und CSS
18 Webserveranwendungen
19 JavaScript und Ajax
20 Computer- und Netzwerksicherheit
A Glossar
B Zweisprachige Wortliste
C Kommentiertes Literatur- und Linkverzeichnis
Stichwort

Download:
- ZIP, ca. 14,2 MB
Buch bestellen
Ihre Meinung?

Spacer
IT-Handbuch für Fachinformatiker von Sascha Kersken
Der Ausbildungsbegleiter
Buch: IT-Handbuch für Fachinformatiker

IT-Handbuch für Fachinformatiker
Galileo Computing
1216 S., 6., aktualisierte und erweiterte Auflage, geb.
34,90 Euro, ISBN 978-3-8362-2234-1
Pfeil 4 Netzwerkgrundlagen
Pfeil 4.1 Einführung
Pfeil 4.1.1 Was ist ein Netzwerk?
Pfeil 4.1.2 Entstehung der Netzwerke
Pfeil 4.2 Funktionsebenen von Netzwerken
Pfeil 4.2.1 Das OSI-Referenzmodell
Pfeil 4.2.2 Das Schichtenmodell der Internetprotokolle
Pfeil 4.2.3 Netzwerkkommunikation über die Schichten eines Schichtenmodells
Pfeil 4.3 Klassifizierung von Netzwerken
Pfeil 4.3.1 Die Reichweite des Netzwerks
Pfeil 4.3.2 Die Netzwerktopologie
Pfeil 4.3.3 Der Zentralisierungsgrad des Netzwerks
Pfeil 4.4 Netzwerkkarten, Netzwerkkabel und Netzzugangsverfahren
Pfeil 4.4.1 Die verschiedenen Ethernet-Standards
Pfeil 4.4.2 Token Ring
Pfeil 4.4.3 Drahtlose Netze
Pfeil 4.4.4 Sonstige Zugangsarten
Pfeil 4.5 Datenfernübertragung
Pfeil 4.5.1 Netzwerkzugang per Modem (analoge Telefonleitung)
Pfeil 4.5.2 ISDN
Pfeil 4.5.3 DSL-Dienste
Pfeil 4.5.4 Internetzugänge über Mobilfunk
Pfeil 4.6 Die TCP/IP-Protokollfamilie
Pfeil 4.6.1 Netzzugang in TCP/IP-Netzwerken
Pfeil 4.6.2 IP-Adressen, Datagramme und Routing
Pfeil 4.6.3 Transportprotokolle
Pfeil 4.6.4 Das Domain Name System (DNS)
Pfeil 4.6.5 Verschiedene Internet-Anwendungsprotokolle
Pfeil 4.7 Andere Protokollstapel
Pfeil 4.7.1 Die AppleTalk-Protokollfamilie
Pfeil 4.7.2 Novell IPX/SPX
Pfeil 4.7.3 NetBEUI/SMB
Pfeil 4.8 Zusammenfassung

4 NetzwerkgrundlagenZur nächsten Überschrift

Jeder wandle für sich und wisse nichts von dem andern.
Wandern nur beide gerad’, finden sich beide gewiss.
– Johann Wolfgang Goethe/Friedrich Schiller, Xenien

Internet und lokale Netzwerke haben die Bedeutung des Computers in den letzten Jahren revolutioniert. Viele Anwendungsprogramme kooperieren über das Netzwerk miteinander. Der Datenaustausch in und zwischen Unternehmen erfolgt fast ausschließlich per Vernetzung, und immer mehr Geschäftsabläufe werden online getätigt. Da die Netzwerkfähigkeit zudem eine Grundfunktionalität aller modernen Betriebssysteme geworden ist, steht diese Einführung noch vor dem Kapitel über allgemeine Systemkonzepte.

Nach einer historischen und technischen Einführung erfahren Sie in diesem Kapitel das Wichtigste über gängige Netzwerkhardware; somit wird die Betrachtung der Hardware aus dem vorigen Kapitel hier vervollständigt. Anschließend werden die Netzwerkprotokolle mit dem Hauptaugenmerk auf die seit Jahren dominierenden Internetprotokolle (TCP/IP) beleuchtet.


Galileo Computing - Zum Seitenanfang

4.1 EinführungZur nächsten ÜberschriftZur vorigen Überschrift

In diesem Abschnitt erfahren Sie zunächst einmal, was Netzwerke eigentlich sind und was verschiedene Netzwerktypen voneinander unterscheidet. Anschließend wird die Entstehungsgeschichte lokaler Netze, der Datenfernübertragung und des Internets betrachtet.


Galileo Computing - Zum Seitenanfang

4.1.1 Was ist ein Netzwerk?Zur nächsten ÜberschriftZur vorigen Überschrift

Ein Netzwerk ist eine Verbindung mehrerer Computer zum Zweck des Datenaustauschs, für verteilte Anwendungen oder auch für die Kommunikation zwischen ihren Benutzern.

Im Lauf der Computergeschichte haben sich viele verschiedene Möglichkeiten der Verkabelung und der Kommunikationsstrukturen sowie zahlreiche Anwendungsgebiete entwickelt:

  • Die Verkabelung oder allgemein die Hardwaregrundlage reicht von der Verwendung gewöhnlicher Telefonleitungen mit besonderen Verbindungsgeräten, den Modems, über speziell für die Anwendung in lokalen Netzwerken entwickelte Netzwerkkarten und Netzwerkkabel bis hin zu Hochgeschwindigkeitsnetzen, etwa über Glasfaserkabel. Auch die diversen Möglichkeiten der drahtlosen Übertragung werden immer wichtiger.
  • Kommunikationsstrukturen, definiert durch sogenannte Netzwerkprotokolle, gibt es unzählige. Viele sind von einem bestimmten Hersteller, einer Plattform oder einem Betriebssystem abhängig, andere – wie die Internet-Protokollfamilie TCP/IP – sind offen, unabhängig und weit verbreitet.
  • Was die Anwendungsgebiete angeht, reichen diese vom einfachen Dateiaustausch in Arbeitsgruppen über die gemeinsame Nutzung teurer Hard- und Software bis hin zu hochkomplexen, spezialisierten und verteilten Anwendungen.

    Paketvermittelte Datenübertragung

    Ein wesentliches Merkmal der meisten Netzwerkformen ist die Übertragung von Daten mithilfe sogenannter Datenpakete.

    Um die Paketvermittlung (Packet Switching) zu verstehen, sollten Sie zunächst ihr Gegenteil, die Schaltkreisvermittlung (Circuit Switching) der herkömmlichen Telefonleitungen, betrachten. (Hinweis: Inzwischen gilt dies nicht mehr zwingend; durch die Einführung neuer Technik laufen auch immer mehr Telefonverbindungen hinter den Kulissen paketvermittelt ab – per Voice over IP (VoIP) sogar bis zum Endkunden. Durch geeignete Kommunikationsprotokolle wird aber dafür gesorgt, dass die Nutzer dies nicht bemerken.) Durch das Wählen einer bestimmten Rufnummer (oder früher durch die Handvermittlung) werden bestimmte Schalter geschlossen, die für die gesamte Dauer des Telefongesprächs eine feste Punkt-zu-Punkt-Verbindung zwischen beiden Stellen herstellen. Über diese dauerhafte Leitung können Sprache oder Daten in Echtzeit und in der korrekten Reihenfolge ohne Unterbrechung übertragen werden. Nachdem die Übertragung beendet ist, wird die Verbindung wieder abgebaut, und die betroffenen Leitungen stehen für andere Verbindungen zur Verfügung.

    Ganz anders sieht es bei der Paketvermittlung aus: Zu keinem Zeitpunkt der Datenübertragung wird eine direkte Verbindung zwischen den beiden beteiligten Stellen hergestellt. Stattdessen sind beide nur indirekt über ein loses Netz von Vermittlungsstellen, Router genannt, miteinander verbunden. Damit auf diesem Weg Daten übertragen werden können, wird folgender Mechanismus verwendet:

    • Die Daten werden in kleinere Einheiten unterteilt, die Datenpakete.
    • Jedes einzelne Datenpaket wird mit der Absender- und der Empfängeradresse versehen.
    • Der Absender übergibt jedes Datenpaket an den nächstgelegenen Router.
    • Jeder beteiligte Router versucht, das Paket anhand der Empfängerangabe an den günstigsten Router weiterzuleiten, damit es letztendlich an seinem Ziel ankommt.
    • Der Empfänger nimmt die Datenpakete entgegen und interpretiert sie je nach Daten- und Übertragungsart auf irgendeine zwischen den beiden Stellen vereinbarte Art und Weise.

    Zur reinen Paketvermittlung gehört zunächst einmal kein Mechanismus, der die vollständige Auslieferung aller Datenpakete garantiert. Es wird standardmäßig weder der Erfolg noch das Ausbleiben einer Paketlieferung gemeldet. Im Übrigen wird auch keine verbindliche Reihenfolge festgelegt. Da jedes einzelne Paket einen beliebigen Weg durch das Netzwerk nehmen kann, kommt mitunter ein später abgesendetes Paket noch vor einem früher versandten beim Empfänger an.

    Um die potenziell unsichere Datenübertragung per Paketvermittlung für bestimmte Anwendungen zuverlässiger zu machen, wird zusätzlich eine Erfolgskontrolle implementiert. Außerdem werden die Pakete oft durchnummeriert, um die korrekte Reihenfolge wiederherzustellen. Allerdings haben solche Maßnahmen nichts mit der eigentlichen Paketvermittlung zu tun und müssen in diesem Zusammenhang nicht beachtet werden. In der Regel sind die Softwarekomponenten, die sich um die Übertragung der Datenpakete kümmern, gar nicht in der Lage, diese zusätzlichen Kontrollinformationen selbst auszuwerten.


Galileo Computing - Zum Seitenanfang

4.1.2 Entstehung der NetzwerkeZur nächsten ÜberschriftZur vorigen Überschrift

Wenn Sie sich die Geschichte der Computer anschauen, die in Kapitel 1, »Einführung«, skizziert wurde, fällt auf, dass die Verwendung von Netzwerken anfangs keinen Sinn ergeben hätte: Bei den frühen Großrechnern gab es keine standardisierte Software, die miteinander hätte kommunizieren können. Darüber hinaus wurden sie zunächst über Schalttafeln und später über Lochkarten bedient. Es gab also keine Echtzeit-Interaktion zwischen Benutzer und Programm, sodass es erst recht abwegig war, verschiedene Computer miteinander interagieren zu lassen. Frühestens, als der Dialogbetrieb über Terminals (siehe Kapitel 3, »Hardware«, und Kapitel 5, »Betriebssystemgrundlagen«) eingeführt wurde, war an eine Vernetzung zu denken.

Geschichte des Internets

Der Anstoß für die Entwicklung eines Computernetzwerks kam aus einer eher unerwarteten Richtung: Die atomare Bedrohung des Kalten Krieges schürte die Angst der Verantwortlichen in Politik und Militär in den USA, im Fall eines Atomkrieges handlungsunfähig zu werden, weil die Übermittlung von Informationen nicht mehr funktionieren könnte. Es war schlichtweg zu riskant, sich auf einen einzigen Zentralcomputer mit Terminals zu verlassen. Deshalb begann 1969 der Betrieb eines experimentellen Netzes aus vier Computern an verschiedenen US-amerikanischen Universitäten. Federführend für das Projekt war die (Defense Department’s) Advanced Research Projects Agency (ARPA, später auch DARPA), eine Forschungskommission des amerikanischen Verteidigungsministeriums, die 1957 als Reaktion auf den ersten sowjetischen Satelliten Sputnik gegründet worden war. Die USA wollten den Anschluss auf verschiedenen wichtigen Gebieten der Wissenschaft nicht verpassen – und neben der Raumfahrt gehörte auch die Computertechnik zu diesen Gebieten. Folgerichtig hieß dieses erste Netzwerk ARPANET.

Allgemein sind bei der Betrachtung von Netzwerken immer mindestens zwei Ebenen zu unterscheiden: zum einen der Anwendungszweck des Netzwerks, zum anderen dessen technische Realisierung. Bei näherem Hinsehen sind sogar noch weitere solcher Ebenen auszumachen; diese sogenannten Schichtenmodelle werden in Abschnitt 4.2, »Funktionsebenen von Netzwerken« besprochen. Interessanterweise stellt sich im Entwicklungsverlauf von Netzwerken manchmal heraus, dass der gewünschte Anwendungszweck technisch anders realisierbar ist, aber auch oft, dass eine bestimmte technische Realisation völlig anderen Anwendungen als der ursprünglich geplanten dienlich sein kann. Besonders in der Geschichte des Internets, dessen Vorläufer das ARPANET war, ist dies oft festzustellen.

Die ursprüngliche Anwendung dieses Netzes bestand lediglich darin, Datenbestände auf den unterschiedlichen angeschlossenen Computern automatisch zu synchronisieren, das heißt einfach aus Sicherheitsgründen den gleichen Informationsbestand auf mehreren Rechnern bereitzuhalten.[Anm.: Auch heutige Serversysteme vervielfältigen wichtige Daten auf diese Weise automatisch. Das Verfahren wird Replikation genannt und kommt insbesondere bei Datenbank- oder Verzeichnisdienstservern zum Einsatz. In Kapitel 12, »Datenbanken«, wird es am Beispiel von MySQL beschrieben.]

Grundgedanke der Vernetzung selbst war dabei besonders die Fähigkeit jedes beteiligten Computers, Daten, die nicht für ihn selbst bestimmt waren, sinnvoll weiterzuleiten. Hieraus ergeben sich zwei unschätzbare organisatorische und technische Vorteile:

  • Ein Computer muss nicht direkt mit demjenigen verbunden sein, mit dem er Daten austauschen soll.
  • Der Ausfall oder die Überlastung eines bestimmten Verbindungsweges kann durch Alternativen kompensiert werden.

Auf diese Weise konnte das ursprüngliche Ziel, nämlich die Angriffs- und Ausfallsicherheit des Netzes zu gewährleisten, erreicht werden.

Schon unmittelbar nach der Einrichtung des ARPANETs begann die eingangs erwähnte Weiterentwicklung. Man stellte schnell fest, dass die technische Infrastruktur dieses Netzes für weit mehr Anwendungen zu nutzen war als das vergleichsweise langweilige automatische Synchronisieren von Datenbeständen. So kam bald eine benutzerorientierte Möglichkeit des Dateiaustauschs hinzu. Außerdem war es schon für gewöhnliche Konfigurationsaufgaben unerlässlich, einem entfernten Computer unmittelbar Anweisungen erteilen zu können. Dies war der Ausgangspunkt für die Entwicklung der Terminalemulation, also der Benutzung des eigenen Terminals für einen Computer, an den es nicht unmittelbar, sondern nur indirekt über das Netzwerk angeschlossen ist. Auch wenn diese Anwendungen noch nicht sofort ihre späteren Namen – FTP und Telnet – erhielten und die technischen Details ihrer Implementierung sich noch weiterentwickelten, sind sie dennoch nach wie vor wichtige Nutzungsschwerpunkte des Internets.

Alles in allem wurde dieses Netzwerk schnell populär. Zwei Jahre nach seiner Einrichtung, im Jahr 1971, waren bereits 40 Computer an verschiedenen Universitäten und anderen staatlichen Forschungseinrichtungen angeschlossen, und es war bei Weitem nicht nur die militärische Nutzung von Interesse. Auch akademisch hatte das Netz viel zu bieten: Wissenschaftler sind darauf angewiesen, Daten auszutauschen; hier ergab sich eine Möglichkeit, dies sehr schnell und effektiv zu tun.

1972 wurde dann der bis dahin bedeutendste Dienst dieses Netzes erfunden: Ray Tomlinson, ein Mitarbeiter eines Ingenieurbüros in Kalifornien, verschickte die erste E-Mail. Bis heute zählt die E-Mail zu den erfolgreichsten und verbreitetsten Anwendungen des Netzes; sie kann sich nach dem viel jüngeren World Wide Web noch immer auf einem guten zweiten Platz in puncto Beliebtheit von Internetdiensten halten, und es ist auch nicht zu sehen, warum sich dies in absehbarer Zeit ändern sollte.

Das ursprüngliche ARPANET wuchs immer weiter. Zudem wurden nach dem gleichen Prinzip andere, ähnliche Netze konstruiert. Dies ist nicht zuletzt der Tatsache zu verdanken, dass alle Schritte, die zur Entwicklung des Netzes beigetragen haben, von Anfang an sorgfältig dokumentiert und der Öffentlichkeit zugänglich gemacht wurden. Dieser Dokumentationsstil ist bis heute beibehalten worden; die entsprechenden Dokumente heißen RFC (Request For Comments, etwa »Bitte um Kommentare«).

Es gibt bis heute über 7 000 solcher RFC-Dokumente, die alle online zur Verfügung stehen, zum Beispiel unter http://www.rfc-editor.org/rfc-index2.html. Die meisten sind technische Beschreibungen von Entwürfen, Protokollen und Verfahrensweisen; nur wenige (in der Regel mit dem Datum 1. April) nehmen sich nicht ganz so ernst – zum Beispiel RFC 2324, in dem das Protokoll HTCPCP zur Steuerung vernetzter Kaffeemaschinen vorgeschlagen wird, oder RFC 1300, ein nettes Gedicht über Namen und Begriffe, die im Zuge der Computer- und Netzwerkentwicklung ihre ursprüngliche Bedeutung verändert haben.

Alle Personen, Institutionen und Unternehmen, die etwas Entscheidendes zum ARPANET und späteren Internet beigetragen haben, haben dies in solchen Dokumenten erläutert. Dies ermöglicht es jedem beliebigen Hersteller von Hard- oder Software, mit seinen Produkten diese Standards zu unterstützen, denn sie gehören keinem einzelnen Hersteller und keiner bestimmten Person, und niemand kann den Zugriff darauf beschränken oder Lizenzgebühren fordern – ein entscheidender Grund dafür, warum die Protokolle des Internets heute vom Personal Computer bis zum Großrechner überall dominieren.

In den 80er-Jahren schließlich wurde der militärisch genutzte Teil des ARPANETs als MilNet von ihm abgetrennt, und das restliche ARPANET wurde mit dem NSFNet, dem Netz der National Science Foundation, und einigen anderen Netzwerken zum Internet zusammengeschlossen. Die kommerzielle Nutzung, heute Hauptverwendungsgebiet des Internets, ließ danach aber noch fast 15 Jahre auf sich warten. Denn die Anwendungen des Internets waren zwar robust und wenig störanfällig, aber alles andere als benutzerfreundlich. Abgesehen davon waren die ersten Personal Computer, die in der zweiten Hälfte der 70er-Jahre auftauchten, weder konzeptionell noch von der Leistung her in der Lage, mit den Internetprotokollen etwas anzufangen.

Recht früh wurde dagegen die Datenfernübertragung (DFÜ), also der Datenaustausch über Telefonleitungen, für Home- und Personal Computer eingeführt. Seit Ende der 70er-Jahre wurden sogenannte Akustikkoppler verwendet: Geräte, die an den Computer angeschlossen wurden und auf die einfach der Telefonhörer gelegt werden musste. Diese langsamen und störanfälligen Apparate wurden bald durch Modems ersetzt, die eine direkte Verbindung zwischen Computer und Telefonleitung zuließen und im Laufe der Jahre allmählich schneller und zuverlässiger wurden. Hauptanwendungsgebiete waren auf der einen Seite die sogenannten Mailboxen, also Informations- und Datenangebote für Computer, die eine direkte Telefonverbindung zum Mailboxrechner herstellten. Auf der anderen Seite entstanden in den 80er-Jahren die meisten kommerziellen Onlinedienste wie CompuServe, AOL oder in Deutschland BTX (Vorläufer von T-Online), das zunächst über spezielle Terminals statt über PCs mit einer bestimmten Software genutzt wurde.

Die Entwicklung des Internets vom exklusiven Wissenschaftlernetz zum Massenmedium nahm ihren Anfang erst 1989 in der Schweiz, am Europäischen Forschungsinstitut für Kernphysik (CERN) in Genf. Dort machte sich der britische Informatiker Tim Berners-Lee Gedanken darüber, wie man Netzwerke, besonders das Internet, für den einfachen und effizienten Zugriff auf wissenschaftliche Dokumente nutzen könnte. Ergebnis dieser Arbeit war die Grundidee des World Wide Webs, eines hypertextbasierten Informationssystems, das die Infrastruktur des Internets zur Datenübermittlung nutzen sollte.

Hypertext ist nichts anderes als Text mit integrierten Querverweisen, die automatisch funktionieren. Mit anderen Worten: Durch Betätigen des Querverweises, der in diesem Zusammenhang Hyperlink heißt, stellt der Text selbst – beziehungsweise das System, das diesen darstellt – die Verbindung mit dem verknüpften Dokument her.

Nun war Hypertext 1989 gewiss nichts Neues. Versuche damit reichen zurück bis in die 50er-Jahre, in Hilfesystemen war er in den 80er-Jahren bereits Alltag. Neu war nur seine Nutzung über ein Netzwerk, genauer gesagt über das Internet.

So entstand ein äußerst effektives Informationssystem für Wissenschaftler, die auf diese Weise ihre Forschungsergebnisse miteinander austauschten. Der Prototyp dieses Systems, das World Wide Web heißen sollte, umfasste im Einzelnen die folgenden Bestandteile:

  • ein spezielles neues Anwendungsprotokoll, das Hypertext Transfer Protocol (HTTP)
  • einen Serverdienst, der in der Lage ist, Anfragen, die in der Sprache des HTTP formuliert sind, auszuliefern
  • eine neu geschaffene Formatierungs- und Beschreibungssprache für solche Hypertext-Dokumente, die Hypertext Markup Language (HTML)
  • ein Anzeigeprogramm für entsprechend formatierte Dokumente, den Browser

1991 wurde das System der Öffentlichkeit vorgestellt. Es wurde praktisch von Anfang an nicht nur zu ernsthaften wissenschaftlichen Zwecken genutzt, sondern allgemein zur Veröffentlichung von Text, Bildern und den verschiedensten Themen. Zunächst war die Nutzung des Systems beschränkt auf wissenschaftliches Personal sowie interessierte Studenten. Sie störten sich nicht am mangelnden Komfort der ersten Browser oder den geringen Layoutfähigkeiten der ersten HTML-Versionen. Als jedoch immer mehr private Benutzer dazukamen – was durch das allmähliche Entstehen kommerzieller Internetprovider und Browser für PC-Betriebssysteme wie Windows oder Mac OS gefördert wurde –, änderte sich dies. Der berühmt gewordene »Browserkrieg« zwischen Netscape und Microsoft schuf letztendlich Fakten, die niemand für möglich oder auch nur wünschenswert gehalten hätte, die jedoch bis heute das Wesen des World Wide Webs bestimmen.

Zwei Merkmale sind hier besonders wichtig:

  • Die Seitenbeschreibungssprache HTML wurde immer mehr für die Definition des Seitenlayouts genutzt statt nur für die Struktur. Für Websites, die ein möglichst großes Publikum erreichen sollen, das weniger technisch und mehr inhaltlich interessiert ist, ist das Layout wichtiger als die Struktur. (Inzwischen kommt für das Layout allerdings praktisch nur noch CSS zum Einsatz, und HTML konzentriert sich wieder – wie ursprünglich angedacht – auf die Dokumentstruktur.)
  • Der Anteil kommerzieller Websites am gesamten Bestand wurde immer größer und überwiegt heute bei Weitem; das Angebot im Web ist den Rundfunkmedien wie etwa dem Fernsehen ähnlicher geworden. Während Tim Berners-Lee sich ursprünglich ein Netz vorgestellt hatte, in dem alle Teilnehmer sowohl Anbieter als auch Konsumenten von Inhalten sein sollten, wird das Web heutzutage von vielen weitgehend passiv als Medium genutzt. Erst die neu entstehenden »Web 2.0«-Tools wie Blogs, Wikis und andere kommen Berners-Lees eigentlichen Ideen näher, wobei die gleichzeitig zu beobachtende Kommerzialisierung samt Aufkauf der wichtigsten Sites durch große Medienkonzerne sicherlich nicht in seinem Sinne ist.

Lokale Netze

Einen vollkommen anderen Anstoß zur Entwicklung von Netzwerken gab das Aufkommen des sogenannten Outsourcings in der Computertechnik, also der Verlagerung der Rechenleistung von einem Zentralcomputer auf den einzelnen Schreibtisch.

Die fortschreitende Ausstattung von Büros mit Personal Computern führte mangels anderer Optionen zunächst zur Blüte des »Turnschuhnetzwerks«: Anwender liefen mit Datenträgern bewaffnet durch das ganze Gebäude, um Daten miteinander auszutauschen oder zum Beispiel einen speziellen Drucker zu verwenden. Auch zwischen verschiedenen Unternehmen erfreute sich der sogenannte Datenträgeraustausch großer Beliebtheit: Die Datensätze von Geschäftsvorfällen wurden auf Disketten oder Magnetbändern zwischen den einzelnen Unternehmen hin und her gereicht.

Lokale Firmennetzwerke wurden zwar bereits Mitte der 70er-Jahre bei XEROX PARC erfunden, aber erst Ende der 80er-Jahre rückten sie stärker ins allgemeine Interesse. Es war ein Bedürfnis der Anwender von PCs, miteinander Daten auszutauschen, einfach deshalb, weil die meisten Vorgänge der Datenverarbeitung von mehreren Mitarbeitern erledigt werden. So entstanden viele verschiedene Arten der Netzwerkhardware. Neben dem bereits genannten Ethernet mit seinen vielfältigen Varianten gab es beispielsweise auch Token Ring von IBM, ARCnet oder auch einfache serielle Direktverbindungen zwischen Computern über die sogenannten Nullmodemkabel.

Was die Software angeht, wurden die eigentlich nicht dafür geeigneten PC-Betriebssysteme um Netzwerkfähigkeiten erweitert. Hinzu kamen spezielle Betriebssysteme für Server, also solche Rechner, die anderen im Netzwerk verschiedene Ressourcen zur Verfügung stellen. Bekannt sind hier etwa Novell NetWare, IBM OS/2 oder später auch Windows NT Server.

Wenn Sie in diesem Zusammenhang Linux und andere Unix-Varianten vermissen, dann liegt das daran, dass Unix als PC-Betriebssystem und als Serversystem für PC-Netzwerke erst einige Jahre später populär wurde. Ein gewisses Grundverständnis für Unix ist übrigens unerlässlich, um die Funktionsweise der Internetprotokolle nachvollziehen zu können. Einige Grundlagen dieses Systems werden in Kapitel 5, »Betriebssystemgrundlagen«, und Kapitel 7, »Linux«, erläutert.



Ihr Kommentar

Wie hat Ihnen das <openbook> gefallen? Wir freuen uns immer über Ihre freundlichen und kritischen Rückmeldungen.







<< zurück




Copyright © Galileo Press 2013
Für Ihren privaten Gebrauch dürfen Sie die Online-Version natürlich ausdrucken. Ansonsten unterliegt das <openbook> denselben Bestimmungen, wie die gebundene Ausgabe: Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Alle Rechte vorbehalten einschließlich der Vervielfältigung, Übersetzung, Mikroverfilmung sowie Einspeicherung und Verarbeitung in elektronischen Systemen.


[Galileo Computing]

Galileo Press, Rheinwerkallee 4, 53227 Bonn, Tel.: 0228.42150.0, Fax 0228.42150.77, info@galileo-press.de


  Zum Katalog
Zum Katalog: IT-Handbuch für Fachinformatiker






IT-Handbuch für Fachinformatiker
Jetzt bestellen


 Ihre Meinung?
Wie hat Ihnen das <openbook> gefallen?
Ihre Meinung

 Buchempfehlungen
Zum Katalog: Computer-Netzwerke






 Computer-
 Netzwerke


Zum Katalog: Java ist auch eine Insel






 Java ist auch
 eine Insel


Zum Katalog: Schrödinger lernt HTML5, CSS3 und JavaScript






 Schrödinger lernt
 HTML5, CSS3
 und JavaScript


Zum Katalog: Linux-Server






 Linux-Server


Zum Katalog: Schrödinger programmiert C++






 Schrödinger
 programmiert
 C++


Zum Katalog: Responsive Webdesign






 Responsive
 Webdesign


Zum Katalog: Windows 8 für Administratoren






 Windows 8 für
 Administratoren


Zum Katalog: Linux






 Linux


 Shopping
Versandkostenfrei bestellen in Deutschland und Österreich
InfoInfo