Windows NT in heterogenen Netzen

Kapitel 1: Das Netzwerkkonzept von Windows NT

Letzte Änderung: 18.5.98 von B. Tritsch

Überblick

Zurück zum Index "PC- und MS-Windows-Support"

Zurück zum Inhalt


Mit seiner Lösung Windows NT Server gewinnt Microsoft zunehmend Marktanteile. Dabei propagiert die Gates-Company das Produkt nicht nur als Netzwerk-Betriebssystem, sondern auch als Internet/Intranet-Plattform. Im folgenden werden die Grundlagen von Windows NT vorausgesetzt und sein Einsatz in einem heterogenen Umfeld beleuchtet.

Die Windows NT-Architektur

Die Betriebssystemstruktur von Windows NT Server und Workstation untergliedert sich in eine Reihe von Komponenten, wobei Teile des Betriebssystems im Executive (privilegierten) Modus sehr geschützt und andere Teile in einem Anwendungsmodus ablaufen.

Die Struktur von Windows NT ist auf einer Kernelarchitektur - ähnlich wie Unix - aufgebaut. Windows NT unterstützt Multithreading und preemtive Multitasking, ist aber im Gegensatz zu Unix kein Multiuser-Betriebssystem.

Charakteristisch ist die Aufteilung in Benutzermodus und Kernmodus, die sich auch in einem streng geteilten Adreßbereich für beide Modi zeigt. Sie beruht auf der Ringstruktur des Prozessors, die eine unterschiedliche Einstufung für Programmodule nach Prioritätsniveaus erlaubt. Der INTEL-Prozessor (ab der Generation 80386) bietet vier Prioritätsniveaus an. Die höchste Priorität, d.h. größtmöglichen Schutz und Befugnis privilegierte Operationen auszuführen und mit der Hardware zu kommunizieren bietet das Prioritätsniveau null. Von Windows NT werden die Ringe null für den Kernmodus (Kern, Systemdienste und Gerätetreiber) und drei für den Benutzermodus (alle anderen Prozesse) genutzt. Die Ringe eins und zwei werden nicht verwendet.

Prozesse im Kernmodus haben die Aufgabe die Funktionalität des Betriebssystems zu gewährleisten, daher müssen sie entsprechend der Wichtigkeit und Komplexität ihrer Aufgabe entsprechend priorisiert werden. (Prozesse im Kernmodus regeln den Zugriff auf die Hardware, verwalten den vorhandenen Speicher und versorgen die Prozesse im Benutzermodus mit Ressourcen.)

Abbildung 1.1: Die Betriebssystemstruktur von Windows NT 4.0

Im Benutzermodus stellt Windows NT eine Reihe geschlossener Subsysteme zur Ausführung von Applikationen zur Verfügung. Sie alle kommunizieren mit dem darunterliegenden Betriebssystem und regeln ihre Bildschirmausgaben über die Windows32-Graphikschnittstelle.

Die von Windows NT unterstützten Dateisysteme können parallel nebeneinander laufen.

Die wichtigsten Netzwerkkomponenten von Windows NT sind der Redirector und der Netzwerk-Server. Beide sind Bestandteil der NT Exekutive. Der Redirector stellt Zugriffsmechanismen zur Verfügung, um auf Ressourcen wie Remote-Dateien, Named Pipes und Remote-Drucker zugreifen zu können, die auf einem entfernten Rechner liegen. Er ermöglicht aber auch Verbindungen zu anderen Netzwerken, wie Novell Netware oder Banyan Vines. Der Redirector Rdr.sys ist als Dateisystem-Treiber realisiert, der mit den Netzwerktreibern der darunterliegenden Schichten über die TDI (Transport Driver Interface)-Schnittstellen kommunizieren kann.

Zu dem Redirector gibt es eine Benutzermodus-Schnittstelle, die über das Programm Services.exe gestartet wird. Benutzermodus-Schnittstelle und Redirector bilden zusammen den Arbeitsstationsdienst. Alle im Benutzermodus entstandenen Anforderungen werden an diesen Dienst übergeben, der sie intern an den Redirector weiterleitet.

Unter Windows NT ist die Netzwerkkommunikation mit verschiedenen Protokollen möglich. Um diese Funktionalität auch bereitzustellen, wenn kein Benutzer angemeldet ist, werden die zugehörigen Prozesse im Hintergrund ausgeführt. Solche Hintergrundprozesse heißen unter Windows NT Services oder auf deutsch Dienste. Sie sind vergleichbar mit Daemons unter UNIX. Die standardmäßig installierten Dienste für Netzwerkfunktionalitäten werden in der untenstehenden Abbildung aufgezeigt.

Abbildung 1.2: Die installierten Netzwerkdienste unter Windows NT

Die Netzwerkdienste lassen sich auch nachträglich installieren. Die folgende Abbildung zeigt die im Standardlieferumfang von Windows NT 4.0 beinhalteten Netzwerkdienste.

Abbildung 1.3: Nachträglich installierbare Netzwerkdienste

Das OSI-Referenzmodell

Unabhängig von der Architektur der zugrundeliegenden Rechner ist die Netzkommunikation ein sehr komplexes und abstraktes Thema. Es betrifft Hardware genauso wie Protokolle oder gar Anwendungsprogramme, die entweder das Netz ausmachen oder es benötigen. Um dieses Thema besser zu strukturieren und damit leichter auf die erhöhten Anforderungen des Marktes reagieren zu können, entwickelte die "International Standardization Organization" (ISO) 1977 ein sogenanntes Referenzmodell für "Open Systems Interconnection", das ISO-OSI-Referenzmodell. Hierbei handelt es sich um ein Schichtenmodell, wobei die transportorientierten Funktionen in vier und die datenverarbeitungsorientierten Funktionen in drei Schichten unterteilt sind.

Die grundlegende Idee hinter einem Schichtenmodell ist, daß jede beteiligte Schicht einer darüberliegenden Schicht bestimmte Dienste anbietet. Damit schirmt sie die höheren Schichten von Details ab, wie die betreffenden Dienste realisiert sind. Dadurch ist es möglich, daß eine Schicht n des einen Computers mit der selben Schicht n eines anderen Computers kommuniziert. Die Regeln und Konventionen dieser Kommunikation werden als das Protokoll der Schicht n bezeichnet.

In der Realität kommunizieren die Schichten n nicht miteinander. Jede Schicht reicht seine Daten und zusätzliche Kontrollinformationen an die direkt darunterliegende Schicht weiter bis die tiefste Schicht erreicht ist. Unter dieser Schicht liegt das physikalische Medium, durch das die echte Kommunikation stattfindet.

Zwischen einem Paar übereinanderliegender Schichten besteht eine definierte Schnittstelle (Interface). Das Interface bestimmt die Operationen und Dienste die die untere der oberen Schicht anbietet. Ein Satz von Schichten und Schnittstellen wird dann die Netzwerkarchitektur genannt. Eine Liste von Protokollen, die von einem bestimmten System genutzt werden - ein Protokoll pro Schicht - wird Protocol Stack genannt. Typischerweise addiert jedes Protokoll bestimmte Kontrollinformationen (Header) zu den Daten, wenn sie von oben nach unten durch die Schichten gereicht werden. Diese sind für den Gegenpart beim Empfänger gedacht. Diese zusätzlichen Header werden beim Empfänger dann auch auf dem Weg zur obersten Schicht wieder entfernt.

Schichten können zwei verschiedenen Arten von Diensten nach oben bereitstellen. Die eine Art ist verbindungsorientiert und am ehesten mit einem Telefonsystem zu vergleichen. Man wählt den Partner an, kommuniziert mit ihm und trennt die Verbindung wieder. Die zweite Art ist verbindungslos und orientiert sich am Postsystem. Jede Nachricht wird mit einer vollständigen Adresse versehen und wird durch das System zum Empfänger geleitet. Hierbei kann es im Gegensatz zu verbindungsorientierten Diensten vorkommen, daß sich die Reihenfolge von verschickten Nachrichten durch unterschiedliche Verzögerungszeiten im System verändert. Jeder Dienst wird dabei durch die sogenannten Quality of Service charakterisiert. Diese Dienstequalität bezieht sich auf die Sicherheit der Übertragung und teilweise auch auf die Effizienz bezüglich der Geschwindigkeit.

Die sieben Schichten des im folgenden betrachteten OSI-Referenzmodells lauten von unten nach oben:

  1. Physical Layer (physikalische Bitübertragungsschicht): Diese Schicht definiert und beschreibt das Verfahren zur Übertragung einzelner Bits über das Übertragunsmedium (z.B. BNC-Kabel). Hierzu gehören unter anderem die Bit-Synchronisation sowie das Modulationsverfahren, das im wesentlichen die Bandbreite der Netzkommunikation bestimmt.
  2. Data-Link Layer (Sicherungs- oder Leitungsschicht): In dieser Schicht erfolgt die Definition des Zugriffsprotokolls (MAC = Medium Access Control) auf das physikalische Medium, die Block-Synchronisation, die Flußsteuerung, sowie die Fehlererkennung und -korrektur. Die Übertragung wird in einzelnen Datenübertragungsblöcken (Frames) sichergestellt.
  3. Network Layer (Vermittlungsschicht): Die Vermittlungsschicht sorgt für den Transport eines Nachrichtenblocks (Paket) von einem Endsystem zum anderen. Sie ist verantwortlich für die Adressierung, die Vermittlung, die Fehlerbehandlung und die Sequentialisierung der Datenpakete. Der Weg zwischen den Endgeräten kann hierbei sowohl physikalisch vorhanden sein oder auch nur eine logische Verbindung darstellen.
  4. Transport Layer (Transportschicht): Diese Schicht stellt eine Prozeß-zu-Prozeß-Verbindung zur Verfügung und trennt gleichzeitig die anwendungsbezogenen Schichten von den transportierenden. Hier werden der Datenstrom in geeignete Pakete zerlegten bzw. wieder zusammengesetzt.
  5. Session Layer (Verbindungs-, Kommunikationssteuerschicht): Die Sitzungsschicht ist verantwortlich für die Bereitstellung von notwendigen Sprachmittel zur Eröffnung, Durchführung, Synchronisation und zum ordnungsgemäßen Abschluß einer Sitzung zwischen den Teilnehmern. Hierbei kann zwischen verschiedenen Sitzungsarten (z.B. Punkt-zu-Punkt, Multicast) unterschieden werden.
  6. Presentation Layer (Datenschicht, Darstellungsschicht): Die Aufgabe dieser Schicht ist vor allem die Anpassung der auszutauschenden Daten zwischen den beiden kommunizierenden Systemen. Hier werden z.B. grundsätzlich inkompatible Datenformate von Computern verschiedener Hersteller konvertiert.
  7. Application Layer (Anwendungsschicht): Diese Schicht enthält alle anwendungsspezifischen Schnittstellen für die Anwendungsprogramme. Diese haben nur auf diese Schicht unmittelbaren Zugriff.

Durch dieses Modell - das sich in seiner Realisierung nicht etablieren konnte (Gründe: Timing der Einführung, Technologie mit zu vielen Schichten, Implementationsprobleme, politische Gründe) - können nun Protokolle beschrieben werden, die Standards im Netzbereich darstellen. Nicht alle Netzstandards lassen sich jedoch eindeutig auf das OSI-Referenzmodell abbilden. Dennoch hat sich durch seine klare Gliederung die Betrachtungsweise eingebürgert, Netzstandards in Relation zu diesem Modell zu sehen. Als den beiden unteren Schichten (Physical Layer, Data-Link Layer) analog können daher die IEEE 802.X-Standards betrachtet werden, die Kabel, physikalische Topologie, elektrische Topologie und Zugriffsschemata für verschiedene Netzprodukte beschreiben.

Abbildung 1.4: Verschiedene Protokoll-Suiten im OSI-Modell

Das Physical Layer beinhaltet damit beispielsweise die Hardware- (Adapter) und Kabelspezifikation für Ethernet, Token-Ring, RS-232, und andere. Im Data-Link Layer befinden sich die Treiber für verschiedene Netzstandards, z.B. LAPB (Link Access Protocol Balanced) für TCP/IP-Netze, ODI (Open Data-link Interface) für Novell NetWare oder NDIS (Network Driver Interface Specification) für Banyan VINES und den Microsoft LAN Manager.

Das Network Layer wird durch eine Reihe von Protokollen realisiert: IP (Internet Protocol), X.25 (Packet-Level Protocol), IPX (Internet Packet Exchange der Firma Novell) oder VIP (VINES Internet Protocol der Firma Banyan).

Ab der Schicht 4 (Transport Layer) existiert eine fast undurchschaubare Vielfalt an Protokollen, die zumeist herstellerabhängig sind. Einzig TCP/IP- und NetBIOS-basierte Netze gewährleisten einen gewissen Homogenität. Hierbei wurde TCP/IP (Transmission Control Protocol/Internet Protocol) seit seinem Entwurf 1973 und der darauffolgenden Standardisierung 1983 zumeist nur auf Workstations realisiert. Beinahe zeitgleich etablierte sich das NetBIOS (Network Basic Input/Output System) bevorzugt gut verpackt in einer der PC-spezifischen Implementationen (Novell NetWare, Banyan VINES, Microsoft LAN Manager). Erst 1992 fand das TCP/IP-Protokoll auch auf den PCs größere Verbreitung, als es von Microsoft standardmäßig in seinem Windows-Betriebssystem unterstützt wurde. Hierbei konnte auf eine große Auswahl von TCP/IP-basierten Diensten aus der UNIX-Welt für Datentransfer, Mitteilungen, entferntes Starten von Programmen, Anbinden von fremden Datenträgern o.ä. zurückgegriffen werden.

Besonders problematisch sind die Schichten 5 und 6 des OSI-Modells. Oftmals lassen sich bestehende Netzwerktechnologien nur schwer auf diese beiden Schichten abbilden. Daher wird das OSI-Modell oft auf ein fünfschichtiges TCP/IP-orientiertes Modell reduziert. Dieses besteht nur aus Physical Layer, Data Link Layer, Network Layer, Transport Layer und Application Layer.

Netzwerkkomponenten

Institute, Behörden und Firmen vernetzen in immer stärkerem Maße ihre verwendeten Rechnerplattformen. Dies dient im wesentlichen zum leichteren Austausch wichtiger Daten und Information, der Nutzung von netzweiten Ressourcen (Drucker, Massenspeicher etc.) sowie der einfacheren Wartbarkeit von einer entfernten Konsole oder gar zur multimedialen Kommunikation. Die physikalische Ausdehnung dieser lokalen Netze (LANs = Local Area Networks) beschränkt sich in der Regel auf ein oder mehrere Gebäude in relativer Nähe (< 10 km, siehe auch Tabelle 1.1).

Distanz zwischen Prozessoren Prozessoren liegen im selben Beispiel
0,1 m Mainboard Multiprozessor-Computer
1 m System Computer-Cluster
10 m Raum LAN
100 m Gebäude LAN
1 km Campus LAN
10 km Stadt MAN
100 km Land WAN
1.000 km Kontinent WAN
10.000 km Planet "Internet"

Tabelle 1.1: Klassifizierung verbundener Prozessoren nach ihrer Entfernung

Die Unterscheidungskriterien von LANs sind

  1. ihre Größe
  2. ihre Übertragungstechnologie
  3. ihre Topologie

Die Größe von LANs ist beschränkt. Die Beschränkung ist bekannt und wird durch maximal erlaubte Verzögerungszeiten innerhalb des Netzwerks bestimmt. Typische Verzögerungszeiten liegen im Bereich von 10 Mikrosekunden.

Die Übertragungstechnologie gängiger LANs besteht zumeist aus einem Kabel, das alle Maschinen verbindet. Als Topologie ist daher entweder ein Bus oder ein Ring vorgegeben. Neuere Technologien fordern ein eigenes Kabel für jeden angeschlossenen Rechner, was zu einer Sterntopologie mit einem zentralen Sternverteiler (Hub) führt.

Die verbreitetsten LANs sind Ethernet (Bus: 10 Mbit/s, 100 Mbit/s und 1 Gbit/s) und Token-Ring (Ring: 4 bzw. 16 Mbit/s). Diese Standards spezifizieren verschiedene Netzkabeltypen, -topologien und -zugriffe. Bei Ethernet (= IEEE 802.3) kann jeder Rechner als Master zu jeder Zeit auf das Netzwerk senden. Gibt es hierbei einen Konflikt zwischen zwei gleichzeitig sendenden Rechnern, wartet jeder Rechner für eine über Zufallsgeneratoren bestimmte Zeit um dann wieder einen Sendeversuch zu starten. Bei Token Ring (= IEEE 802.5) bestimmt ein im Netzwerk umlaufendes "Token" den sendenden Zugriff jedes Rechners.

Insbesondere das Ethernet spielt im Internet-Umfeld eine wichtige Rolle (wobei der Name von Xerox stammt und an den "Äther" - dem Kabel - erinnert, der nach der Lehrmeinung vor 1887 nötig war um Strahlung zu transportieren). Wesentlich ist beim Ethernet die Art zur Vermeidung von Kollisionen, was im MAC-Sub-Layer der Data-Link-Schicht geschieht. Es handelt sich dabei um das Protokoll Carrier Sense Multiple Access with Collision Detection (CSMA/CD). Es sorgt dafür, daß bei einer Kollision beim Senden von Daten von zwei Rechnern die Transmission sofort unterbrochen wird. Die korrumpierten Daten werden verworfen und nach Zeiten, die von Zufallsgeneratoren bestimmt werden, beginnen die Rechner wieder aufs neue ihre Daten zu senden.

Die Kabelstandards, die dem 10 Mbit/s-Ethernet zugrunde liegen, lassen sich in folgende Tabelle einordnen:

Name Kabel Maximale Segmentlänge Nodes pro Segment Vorteile
10Base5 Thick Coax 500 m 100 Gut für Backbones (Tranceiver-Kabel)
10Base2 Thin Coax 200 m 30 Billig (Bus)
10Base-T Twisted Pair (Cat. 3) 100 m 1024 Leicht zu warten (Hubs)
10Base-F Fibre Optics 2000 m 1024 Gut zwischen Gebäuden

Tabelle 1.2: Die gängigsten Arten von Ethernet-Kabeln im Bereich von 10 Mbit/s

Um höhere Übertragungsraten im Ethernet zu erreichen, wurde der IEEE 802.3-Standard erweitert. Das Resultat - 802.3u - wurde offiziell 1995 eingeführt und wird zumeist Fast Ethernet genannt. Die Basisidee ist dabei sehr einfach: Das alte Paketformat die Schnittstellen und die prozeduralen Regeln werden beibehalten und nur die Bit-Zeit wird von 100 nsec auf 10 nsec reduziert. Weiterhin wurden die Vorteile der 10Base-T-Verkabelung als Designgrundlage genutzt. Die gängigen Kabelstandards für die Übertragung von 100 Mbit/s sind daher wie in der folgenden Tabelle aufgeführt:

Name Kabel Maximale Segmentlänge Vorteile
100Base-T4 Twisted Pair (Cat. 3) 100 m Alter Kabeltyp, aber nur unidirektional
100Base-TX Twisted Pair (Cat. 5) 100 m Full Duplex bei 100 Mbps
100Base-FX Fibre Optics 2000 m Full Duplex bei 100 Mbps

Tabelle 1.3: Die gängigsten Arten von Ethernet-Kabeln im Bereich von 100 Mbit/s

Die elektrische Signale können auf den physikalischen Leitungen jedoch nur eine begrenzte Distanz zurücklegen, ohne Leistung in einem gewissen Rahmen zu verlieren. In LANs werden daher Repeater, Bridges, Hubs, Routers und Gateways genutzt, um die Signale zu regenerieren und mit anderen LANs oder Wide Area Networks (WANs) zu kommunizieren.

Um den Datenverkehr zwischen Firmen oder Filialen innerhalb von Städtegrenzen zu ermöglichen, wurden MANs (Metropolitan Area Networks) als die vergrößerte Ausgabe von LANs installiert. Ihre wichtigsten Vertreter sind FDDI (Fibre Distributed Data Interface) mit Transferleistungen von 100 Mbit/s und DQDB (Distributed Queue Dual Bus = IEEE 802.6) mit skalierbaren Übertragungsraten von 34, 45 oder 140 Mbit/s.

Eine große Bedeutung auf dem Netzmarkt besitzen weltumspannende WANs (Wide Area Networks). Sie basieren in der Regel auf den physikalischen Leitungen, die von den nationalen Telekom-Unternehmen betrieben werden. Ein prominenter Vertreter einer physikalischen Netztechnologie ist ISDN (Integrated Service Digital Network, 128 kBit/s bis 2 Mbit/s). Eine neue Technologie für WANs, die jedoch auch für LANs und MANs eingesetzt werden kann, ist ATM (Asynchronous Transfer Mode), die Datentransferraten von 25, 50, 155 oder 622 Mbit/s erlaubt und speziell für zeit- und synchronisationskritische multimediale Datentypen geeignet ist.

Die Datentransmission über WANs basiert sehr stark auf dem Einsatz von Switching-Elementen bzw. Routing-Komponenten, die die Daten von einem Endsystem über Kontinente zu einem anderen Endsystem leiten können. Die Prinzipien wie dieses Weiterleiten geschehen kann, werden Point-to-Point, Store-and-Forward oder Packet-Switched genannt. Die Daten werden dabei in Paketen über das Netz geschickt. Werden die Pakete sehr klein und haben immer eine konstante Größe, werden sie Zellen (Cells) genannt.

Die Topologie der zugrundeliegenden WANs kann sehr unterschiedlich aussehen. Die Möglichkeiten reichen von einem Stern über einen Ring, einen Baum, einem Komplettverbund (n-zu-n) und gekoppelten Ringen bis hin zu vollkommen irregulären Netzen. Besonders komplex wird die Topologie dann, wenn auch kabellose Netzwerkteile durch Funkstrecken und Satelliten einbezogen werden.

Die Verbindung sehr vieler WANs über Gateways ergibt dann das Internetwork oder einfacher das Internet!

Client/Server-Architektur

Wie Kulturen in zwei abgeschiedenen Ländern haben sich in den letzten Jahren die Netztechnologien für Personal Computer und Workstations entwickelt. Bei den Workstations dominieren die "offenen" Systeme, und Standards wurden zum Allgemeingut. Bei den PCs dagegen beanspruchten bisher Firmen wie Novell oder Banyan die Standards für sich alleine. Erst die Workgroup-Initiative, die von Microsofts Windows für Workgroups gestartet wurde, brachte diesen Markt wieder in Bewegung.

Mit Workgroup-Computing, Client/Server-Architekturen, Peer-to-Peer-Networking und dem sogenannten "Rightsizing" gingen die ersten Versuche der systemübergreifenden Vernetzung einher. Neben UNIX-basierten Workstations wurden immer öfter PCs in ein bestehendes Netzwerk eingebunden. Hierdurch konnten sie auf deutlich mehr Ressourcen (Datenbanken, Massenspeicher, Drucker, etc.) zugreifen und mit anderen Rechnerbenutzern kommunizieren (Email). Daneben stellte sich für sie jedoch auch das Problem des "Teilen-müssens", d.h. die soziale Komponente kam mehr zum tragen, die in einem Netzsystem naturgemäß stärker betont wird als in einem autarken System.

Dem einfachen Wunsch nach einem Datenaustausch zwischen Workstation und PC oder der vollen Integration der beiden Plattformen in ein gemeinsames Netz stehen jedoch viele Hindernisse entgegen: verschiedene Hardware, Betriebssysteme, Netzprotokolle, Dateiformate, Zugriffskontrollen und Netztopologien.

Grundsätzlich wird im Netzbereich zwischen zwei Architekturen unterschieden: Peer-to-Peer- und Client/Server-Netze. Ersteres realisiert eine Punkt-zu-Punkt-Verbindung zwischen einzelnen Plattformen. Parallel zu seiner normalen Arbeit kann jeder Rechner seine Ressourcen den anderen Rechnern im Netz verfügbar machen sowie verfügbar gemachte Ressourcen von anderen Rechnern in Anspruch nehmen. Dies gilt für Ressourcen wie Dateien, ganze Verzeichnisse oder Dateisystemzweige, Drucker, Festplatten, CD-Laufwerke, etc.

Abbildung 1.5: Peer-to-Peer-Netz und Client/Server-Netz

In einer Client/Server-Architektur bleiben bestimmte ressourcenintensive Aufgaben wie Datenverwaltung, Drucken, E-mail-Verwaltung oder Systemadministration auf den Server (Auftragnehmer) beschränkt. Die Clients (Auftraggeber) haben nur direkte Verbindung zum Server und dienen durch Anforderungen an seine Dienste als Interaktionseinheit. Der Netzverkehr ist dadurch im Gegensatz zu anderen Architekturen vergleichsweise gering. Der Server erfordert jedoch ein hohes Maß an Prozessorleistung, Festplattenkapazität, Hauptspeicherkapazität und Datendurchsatz. In der Regel kann der Server durch die hohen Anforderungen an seine Reaktionszeit auf Diensteanforderungen für keine anderen Aufgaben benutzt werden. Daher wird ein solches Netz erst ab mehr als zehn Benutzer sinnvoll.

Es existieren verschieden abgestufte Client/Server-Optionen, die in der untenstehenden Abbildung aufgezeigt werden. Sie unterscheiden sich hauptsächlich durch unterschiedliche Behandlung der verteilten Anwendung und der Datenhaltung. Sie implizieren verschiedene Leistungsfähigkeiten auf Seiten des Servers oder des Clients.

Abbildung 1.6: Unterschiedliche Client/Server-Konzepte

Zum nächsten Kapitel