Rechnernetze: Vorbereitung zur mündlichen Prüfung
Geschwurbel von Daniel Schwamm (25.10.1995 bis 09.11.1994)
Inhalt
Netzwerkklassen:
-
LAN: Local Area Network. Lokales Netzwerk. I.d.R. auf einen geographischen
Bereich von 500 m begrenzt. Z.B. Vernetzung von PCs innerhalb eines Unternehmens.
-
MAN: Metropolitan Area Network. Städtisches Netz. Erstreckt sich über einen
geographischen Bereich von einigen Kilometern. Z.B. Vernetzung von PCs über eine
Stadt verteilt.
-
WAN: Wide Area Network. Weitverkehrsnetz. Erstreckt sich über einen
grossen geographischen Bereich. Z.B. Vernetzung von PCs über Stadtgrenzen hinweg.
LAN-Merkmale:
- Broadcast-Medium
- verteiltes MAC-Protokoll (Media Access Control) für dynamisches Multiplexing
- Planung, Aufbau, Betrieb und Nutzung liegen in einer Hand
-
bieten der Schicht 3 den LLC-Dienst (Logical Link Control vom Typ 1,2 oder 3:
unbestätigte Datagramme, logische Verbindungen und bestätigte Datagramme) an.
Netzunterscheidungskriterien:
- Architektur: geschlossen, offen
- Einsatzgebiet: Prozess, Backbone, Büro, Real-Time
- Medium: Zweidraht, Koaxkabel (Innenleiter plus Aussenleiter), Lichtwellenleiter (LWL)
-
Übertragungsverfahren: simplex, halbduplex, duplex, FDM (Frequency Division Multiplex),
TDM (Time Division Multiplex), WDM (Wavelength Division Multiplex), Basisband
- Vermittlungsart: Paketvermittlung, Durchschaltevermittlung
- Zugriffsverfahren: deterministisch, probabilistisch
- Topologie: Bus, Ring, Stern, Vermaschung.
Embedded System: Ein Rechnernetz (RN), welches räumlich in einen
Automatisierungsprozess integriert ist.
Computer-Abschreibung: Nach den Handels- und Steuergesetzen
dürfen Computer nur innerhalb eines Zeitraumes von 5 Jahren abgeschrieben
werden. Da sie i.d.R. wesentlich schneller technologisch altern, können
zusätzliche Abschreibungen als aussergewöhnliche wirtschaftliche
Abnutzung geltend gemacht werden. Software (SW) darf übrigens nur dann
als Aktiva aufgeführt werden, wenn sie entgeltlich erworben wurde und
sich der Sourcecode im Eigenbesitz befindet.
Modellierte Rechnerkommunikation: Die Kommunikation zwischen
Rechnern lässt sich über Turing-Maschinen oder "Endliche Automaten" als eine
Übertragung von Zustandsänderungen innerhalb eines diskreten Zustandsraumes
darstellen. Da eine Folge von Zustandsänderung als Prozess gilt, kann statt
von Rechner-Kommunikation auch von Prozess-Kommunikation gesprochen werden.
Diese Prozess-Kommunikation ist bei Weitem einfacher zu protokollieren,
als ein Mensch-Mensch-Dialog => End-to-End-Kommunikation >>
Point-to-Point-Kommunikation. Ein Verteiltes System besteht aus kommunizierenden
Endlichen Automaten.
Dienste versus Protokolle: Dienste werden von einer Schicht der darüber
liegenden Schicht angeboten (Dienst-Primitive). Die Realisierung der Dienste
erfolgt über Protokolle, die mit den Peer-Entities abgearbeitet werden.
Standards erlauben Interoperabilität bei heterogenen Plattformen, können
andererseits aber auch innovationshemmend wirken. Am meisten muss bei Schicht 1
und Schicht 7 des ISO/OSI-Modells standardisiert werden.
ISO (International Organization for Standardization):
- 40 Mitgliederländer<(LI>
- Technischen Komitees (TC)
- Normierung v.a. Schichten 4 bis 7.
CCITT (Internationaler Beratender Ausschuss für den Telegrafen- und Telefondienst):
- Behörden und privater Telefongesellschaften
- Eine Arbeitsgruppe ist z.B. nur für Gebühren verantwortlich (D-Reihe)
- V-Reihe: Telefon-Datenübertragung
- X-Reihe: Interfaces
- Eine Forschungsperiode dauert 4 Jahre
- Jede Jahr ist mit einer anderen Farbe der Bücher gekennzeichnet
ANSI (American National Standards Institute): non-profit Privat-Konsortium.
Bildete die X3-Arbeitsgruppe. Mitglied der ISO. Bekannt für ihre Zeichensätze, die
auf ASCII (American Standard Code for Information Interchange) basieren, ANSI C
oder auch ASA (American Standards Association) für die Angabe der Filmempfindlichkeit.
X/OPEN: non-profit Industrie-Konsortium europäischer Hersteller zur
Forcierung von OSI (Open Systems Interconnection) und offenen Systemen unter UNIX.
ETSI (European Telecommunications Standards Institute): Setzt innerhalb der
Europäischen Gemeinschaft (EG) einheitliche Normen durch. Bekannt ist v.a. die GSM
(Group Special Mobile), die den GSM-Mobilfunk-Standard in Europa (dem grössten
Mobilfunk-Markt) durchsetzte. Anders als bei ISDN will die ETSI das Voice-over-Data-Konzept
realisieren (keine kanalisierte Trennung von Daten und Sprache).
EG-Grünbuch: Liberalisierungsverfahren der EG bezüglich der Post-Monopole,
um diese flexibler und kundenansprechender zu machen. Immerhin hat die DÜ grosse
wirtschaftliche Bedeutung. Die Monopolisierung wird nicht ganz aufgehoben,
um sozial-unverträgliche Auswüchse zu verhindern (ländliche Gegenden könnten
z.B. vom Daten-Verkehr abgeschnitten werden, weil der Kommunikationsausbau sich
dort monetär nicht rechnet). In den USA haben AT & T und Bell die Liberalisierung
bereits 1984 durchgemacht. In Europa begann England damit, dann die BRD. Der Rest
wird folgen.
Viele Hersteller fahren eine Strategie des Mehr-Schein-als-Sein. So definieren
sie neue Marktnischen, in denen sie sich als Marktführer präsentieren können.
Sie reden bei Innovationen lautstark mit, um dann Erstprodukte als Produkte
der zweiten Generation verkaufen zu können. Die Ausgaben für das Marketing
übertreffen oft die Ausgaben für die Technik-Entwicklung!
Moderne Anwendungsarchitekturen bestehen aus:
- Oberfläche (Motif)
- Netzen (TCP/IP)
- Services (WWW)
- Endbenutzerwerkzeugen
- Entwicklungssystemen (X11)
- Betriebssystemen (AIX)
- Hardware (POWER-CPU in RS/6000)
- Datenbanksystemen (DB2 als Online transaction processing-System)
- Transaktionsmonitoren (CICS/6000; Customer Information Control System)
- und Programmiersprachen (C++, SQL).
Vier Gruppen (nicht Einzelfirmen!) forcieren v.a. die Netzentwicklung:
- TCP/IP-UNIX-Gemeinde: Praktische Lösungen als Vorreiter.
- OSI: Basisnormen, Vernachlässigung von Verteilung und Objektorientierung.
- OSF (Open Software Foundation): Verteilung, DCE und OSF/1 (Nachfolger von MACH).
- OMG (Open Management Group): Objektorientierung, CORBA (sanfte Migration möglich).
Warum ist die totale Vermaschung von Netzwerken indiskutabel?
Wie kann man sie umgehen?
Die totale Vermaschung verlangt bei n Rechnern n*(n-1)/2
physikalische Verbindungen. Dieser Anspruch ist bei grösseren Netzen
nicht mehr zu erfüllen. Auswege: Multiplexing (statisch/dynamisch) oder
Verbindungswege-Schaltung.
Stern-Topologie: Diese Topologie ist leicht erweiterbar, benötigt
aber einen hohen Kabelaufwand. Über Bypass-Schaltungen sind sie relativ
robust, fällt jedoch der zentrale, aktive Sternkoppler aus, dann
fällt das ganze Netz aus.
Jeder Repeater im CSMA/CD (Carrier Sense Multiple Access/Collision Detection)
kostet Zeit! Repeater sind aber wegen der starken Dämpfung elektrischer Leiter unbedingt
notwendig. Daher ist die räumliche Ausdehnung von Ethernet begrenzt. V.a. auch,
da im Gegensatz zum Token-Passing bei Ethernet Dummy-Füllungen nötig werden, damit
Pakete die Mindestlänge haben, um die Round-Trip-Propagation-Time zu erfüllen,
die nötig ist, um Kollisionen erkennen zu können.
Bitstuffing: Als End-Flag wird 0111110 verwendet, wobei es wichtig ist, dass das
End-Flag mit 0 beginnt, damit der Bit-Stuffing-Automat vor dem Zählen der 1er den Zähler
auf 0 zurücksetzt. Das ist wichtig, wenn die letzten Datenbits 1er sind, weil sonst
eventuell einige dieser 1er zum End-Flag dazugezählt werden würden.
Um alle Netzteilnehmer über eine Kollision zu informieren, sendet die erkennende
CSMA/CD-Station ein spezielles Bit-Muster auf das Netz, die sogenannte Jam-Nachricht.
Ether-Switcher: Um Kollisionen in Ether-Netzen zu reduzieren (erhöht den
Durchsatz), können Ether-Switches eingesetzt werden, die Pakete anhand der MAC-Adressen
durch ein LAN routen. Dadurch verlieren Ethernets jedoch ihre generelle
Broadcast-Eigenschaft.
Besonderheit des Token-Rings: Das Fehlermanagement wird hier
von einer Monitorstation übernommen, obliegt also nicht den Protokollen.
Nachteil: Zentralisierter Ansatz, der durch seine Komplexität die
Datenrate in elektronischen Token-Ringen auf 5 Mbps beschränkt.
Blockfehler-Kontrolle: Anders als CRC (Cyclic Redundancy Check) kann die
Mischung aus VRC (Vertical Redundancy Check) und LRC (Longitudinal Redundancy Check)
auch zur Fehlerkorrektur verwendet werden, da damit die Position
von 1-bit-Fehlern ermittelt werden kann. Problem: Schon bei 2-bit-Fehlern
können Fehler nicht mehr korrigiert werden, da dann entweder VRC oder LRC
keinen Fehler mehr anzeigen.
Während die zweite ISO/OSI-Schicht bei der LAN-Benutzung durch die
802.x-Norm realisiert wird, wird beim WAN-Networking das HDCL-Protokoll
(High Level Data Link Control) eingesetzt. Dieses Protokoll ist von IBMs
SDLC (Synchronous Data Link Control, halbduplex; für Sender und
Empfänger existieren unterschiedliche Protokolle!) abgeleitet, aber nicht wie
dieses ein Master-Slave- und Polling-Abfrage-, sondern ein LAP-B-Protokoll
(duplex). Bei HDCL werden die Rahmen nicht durch nur ein ACK (Acknowledgement)
mit hoher Sequenz-Nummer quittiert, sondern es müssen alle Rahmen durch zyklisches
ACKING explizit bestätigt werden. Die Fenstergrösse ist mit 3 bit
recht klein. Auch die HDCL-Adressen sind mit nur 8 bit sehr klein - kleiner
jedenfalls als X.25-Adressen (soll ab LAP-D geändert werden). Auf jedem
IMP (Interface Message Processor) müssen die HDCL-Rahmen wieder zum X.25-Pakete
zusammengesetzt werden, da die 3. Schicht des IMPs die X.25-Adresse zum Routing
benötigt.
HDCL unterscheidet:
- Rahmenformat I-Frames
- Rahmenformat S-Frames
- Rahmenformat U-Frames
- Arbeitsmodus NRM (Normal Response Mode; C/S, halbduplex)
- Arbeitsmodus ARM (Asynchronous Response Mode; C/S, duplex)
- Arbeitsmodus ABM (Asynchronous Balanced Mode; peer-to-peer, duplex)
HDCL in seiner asynchronen Variante muss die Rahmenenden markieren, damit der
Empfänger sie von Null-Sendungen unterscheiden kann. Eine Alternative zu HDCL besteht
in der Envelope-Technik: Hier werden zu jedem 8 bit-Zeichen zwei zusätzliche Bits
mitgesendet - eines zur Synchronisation, das andere zur Markierung von
Steuerinformationen. Nachteil: Auch ohne CRC und Adressen besteht ein Overhead von
25%! Wird daher so gut wie nicht verwendet.
Datenendeinrichtungen (DEE): Endstellen der Kommunikation, i.d.R.
Computer. Bisweilen werden auch Bridges u.ä. als DEE bezeichnet, diese
sind aber eher als Datenübertragungseinrichtungen (DÜE) anzusehen. Die
klassischen DÜE sind Modems, über die die Computer das
öffentliche Netz zur DÜ verwenden können. Die Kommunikation zwischen
DEE und DÜE wird über das X.25-Protokoll abgewickelt (in Schicht 1
liegt das X.21/X.20-Interface). Die Kommunikation zwischen den WAN-Knoten ist meist
herstellerspezifisch und damit sehr schnell (X.25-Kommunikation verursacht
dagegen ein Delay um die 10 ms!). Verbindungen von einem X.25-Netz zu einem
anderen X.25-Netz werden über X.75 abgewickelt.
Um Terminal-Daten über ein X.25-WAN versenden zu können, wird der offene Standard
PAD (Packet Assembly/Disassembly) der CCITT verwendet. Daten können darüber
asynchron gesendet werden. Sie werden verpackt und synchronisiert in das X.25-Netz
(i.d.R. Datex-P mit einem PAD-Zuschlag) gespeist. Durch Datex-P und Datex-L wurde
X.20 (asynchron) und X.21 (synchron) in der BRD ein Erfolg, sonst weltweit aber nirgendwo.
Um Verbindungen in WANs zu schalten, gibt es das Pulswahlverfahren und das
Frequenzwahlverfahren. Während das Frequenzwahlverfahren in den USA üblich ist,
benutzt die Telekom in der BRD das Pulswahlverfahren (ausser für ISDN). Bei
Benutzung von Tasten-Telefonen werden zwar die Nummern-Frequenzen erzeugt,
diese werden aber in Pulse transformiert.
Class 1-Modem: Programmierbar, SW hat volle Kontrolle, heute sogar
besser als Class 2-Modems, bei denen die Steuerung alleine der HW obliegt (das
war bei den langsamen Rechnern früher sinnvoll, heute sind sie aber zu unflexibel).
Peer-to-Peer-Protocol (PPP): Früher auch SLIP genannt. Erlaubt die
Kommunikation mittels Modem über X.25 und Übergang auf TCP/IP-Netze.
Besonderheit: Dial-on-Demand-Eigenschaft, d.h., die Verbindung existiert nur
zur Zeit der Übertragung und wird danach sofort abgebrochen, wodurch
Verbindungskosten reduziert werden (im Gegensatz zu Standleitungen oder
ISDN-Verbindungen).
Routing Information Protocol (RIP): Das ausschliesslich auf den Knoten
von TCP/IP-Netzen verwendete Routing-Protokoll (auf DEE nicht nötig!). Es
ist ein verteilt-adaptives Verfahren, das seine Tabellen alle 30 Sekunden auffrischt
(Hops-Anzahl als Wahl-Kriterium), wodurch hoher Overhead anfällt. Besseres
Routing-Protokoll: OSI-IS-IS (OSI-Intermediate-System-to-Intermediate-System).
Hybrides Routing: Isoliertes, zentralisiertes und adaptives Routing,
z.B. das Delta-Routing, wobei Delta angibt, inwieweit Informationen für
die Routing-Tabellen vom Routing Control Center (RCC) bezogen (Delta->0)
oder selbst ermittelt (Delta->Unendlich) werden.
Die Transport-Schicht hat die Aufgabe, je nach geforderten
Quality of Service (QOS) die kostengünstigsten T-, N- und DL-Protokolle
auszuwählen. Sie bestimmt die optimale PDU-Grösse (Protocol Data Unit),
transformiert T-Adressen auf N-Adressen, multiplext zwei T-Verbindungen auf
eine N-Verbindung oder sendet eine T-Verbindung über zwei N-Verbindungen,
legt für beschleunigte Daten eine eigene Flusskontrolle an, erhält T-Verbindungen
aufrecht, auch wenn die N-Verbindung unterbrochen wurde (ausser bei
Transport Class 0 (TP0)).
Der T-SAP (Transport Service Access Point) setzt sich zusammen aus dem
N-SAP (Network Service Access Point) und der Port-Nummer. Der NSAP
setzt sich zusammen aus der Host-ID und der Netz-ID. Die Host-ID ist bei
WAN-Benutzung identisch mit dem T-SAP. Bei LAN-Benutzung wird dagegen eine
spezifische LAN-Adresse verwendet, z.B. eine 48 bit-Ethernet-Adresse.
Das Transport-Protokoll arbeitet genauso wie alle oberen Schichten des
ISO/OSI-Modells: Nach Absetzen von T-CON_req wird zuerst die Verbindung darunter
komplett mit Handshake aufgebaut, in diesem Falle also die N-Verbindung:
N-CON_req -> N-CON_ind, N-CON_rsp -> N-CON_cnf. Misserfolge werden
gleich an die T-Schicht gesendet, aber Erfolge benötigen eine weitere
Verarbeitung durch die N-Schicht: Sie sendet mittels N-DATA_req eine
T-CONNECTION-REQUEST-PDU an ihrer Partner-Schicht. Kommt diese dort an
(N-DATA_ind), wird das Ereignis an ihrer T-Schicht weitergeleitet, wodurch
T-CON_ind ausgelöst wird. Nimmt die T-Schicht den Verbindungswunsch an,
dann reagiert sie mit T-CON_rsp (ansonsten mit T-DISC_req). Die N-Schicht packt
daraufhin eine T-CONNECTION-RESPONSE-PDU zusammen und sendet diese mittels
N-DATA_req zu ihrer Partner-Schicht. Dort wird sie an die T-Schicht
weitergeleitet, wo sie das erwartete T-CON_cnf-Ereignis auslöst. Jetzt erst
kann die Transport-Schicht in die DÜ-Phase übergehen. Dabei bleibt
ihr verborgen, wenn die T-DATEN-PDUs in mehreren Etappen als N-DATEN-PDUs oder
mehrere T-DATEN-PDUs als eine N-PDU übertragen werden.
Bedeutet Transport Class 0 (TP0) automatisch, dass der Sender die Quelle
mit Datenpaketen zuschiessen kann?
Nein, denn obwohl TP0 auf eine eigene
Flusssteuerung verzichtet, können die unteren Schichten sehr wohl
über eine solche verfügen. Dadurch wird auch die Ziel-Transportschicht (TS)
geschützt (aber nicht immer in genügendem Masse: Es kann also
mit TP0 durchaus passieren, dass das Ziel Pakete verwirft, wenn diese zu
schnell eintreffen, aber es muss nicht passieren). Übrigens: TP0 ist
das einzige Protokoll, bei dem der N-Verbindungsabbau auch einen
T-Verbindungsabbau impliziert. Alle anderen Protokolle "überleben" einen
N-Verbindungsabbau.
Das Dreiwege-Handshaking, wie sieht das aus?
Besonderheit: Kein globaler Taktgeber für Sequenz-Nummern nötig. Der Sender baut
die Verbindung auf mit T-CONNECT.req mit beliebiger Sequenz-Nummer x. Der
Empfänger erhält x (T-CONNECT.ind) und bestätigt es mit
T-CONNECT.rsp, teilt dem Sender aber auch gleichzeitig mit, welche
Sequenz-Nummer y er als Nächstes erwartet. In seinem ersten Daten-Paket
(T-DATA.req) sendet der Sender dann y mit, um es sich vom Empfänger
bestätigen zu lassen. Bei einem Zweiwege-Handshake hätten sich Sender
und Empfänger auf die Benutzung von x beschränkt.
Nennen Sie 3 identische und 3 unterschiedliche Eigenschaften
von Transport- und Sitzungsverbindungen (TV/SV)!
Gemeinsamkeiten: Es existieren bei beiden Schichten Verbindungsaufbau-Primitive
und Verbindungsabbau-Primitive, Fehler sind abfangbar, und bestimmte Daten können
beschleunigt übertragen werden.
Unterschiede: T-SAP und S-SAP (Security Service Access Point) sind nicht
identisch. SV können 1:1 auf TV abgebildet werden, aber eine SV kann auch mehrere
TV nutzen, wie auch mehrere SV über eine TV möglich sind. Anders als die TS beherrscht
die Security-Schicht (SS) jedoch kein Multiplexing; Mehrfach-Nutzungen von TV sind
nur sequenziell möglich SS-Dienste sind nur selten nötig (abgesehen von den
"durchreichenden" Diensten), während auf die
TS-Dienste nie verzichtet werden kann. Der wichtigste Unterschied aber ist der
Verbindungsabbau: Bei TV geht dieser über T-DISCONNECT.req abrupt vor
sich, d.h. Daten können verloren gehen, bei SV geht er über
S-RELEASE.req i.d.R. geordnet vor sich, d.h. keine Daten können verloren
gehen (S-U-ABORT.req aber auch hier möglich). Die TV kennt nur 2 Datenströme
(normale und beschleunigte), die SS kennt dagegen 4: Normale (S-DATA.req),
beschleunigte (S-EXPEDITED-DATA.req), markierte (werden normal versendet, aber
mit S-TYPED-DATA.req versendet), leistungsbehaftete (S-CAPABILITY-DATA; nur
zwischen Activities austauschbar). Übrigens: RPCs benötigen
verbindungslose S-Dienste!
ASN.1 (Access Service Network ) wird in Schicht 7 eingeordnet. In Schicht
6 wird diese abstrakte Syntax in die globale Transfersyntax nach den Basic Encoding
Rules übersetzt. Es gibt acht verschiedene Zeichensätze in ASN.1. Der
üblichste ist IA5. Finden auf heterogenen Plattformen portable Sprachen
wie C Verwendung, können ASN.1-Beschreibungen auch mittels eines Compilers
in C-Source übersetzt werden. Die lexikalische Analyse reduziert den
ASN.1-Text auf terminale Symbole; syntaktisch überflüssige Zeichen
wie Tabulatoren und Kommentare werden entfernt, nicht vorgesehene Zeichen als
Fehler gemeldet. Die syntaktische Analyse prüft, ob die terminalen Symbole
den Syntaxregeln entsprechen.
Einige mögliche Transferregeln sind:
Typ_Int ::=INTEGER; => typedef long int _TypInt;
Typ_Enum ::=ENUMERATED{a(0),b(1)}; => enum _TypEnum{a=0, b=1};
Typ_Bool ::=BOOLEAN => typedef enum{false, true} _TypBool;
Typ_Real ::=REAL; => typedef double _TypReal;
Typ_Bit_Str::=BIT STRING; => typedef class BitArray_TypBitStr;
Warum sind mehrere [PRIVATE 0]-Tags in einem ASN.1-Modul
nicht erlaubt, aber mehrere [0]-Tags?
Die [0]-Tags sind kontextspezifische Tags, die für verschiedene Datentypen als
Feldwert angeführt werden können.
Beispiel:
test::=[PRIVAT 0] SEQUENCE {
Vorname [0] ISO64STRING,
Nachname [1] ISO64STRING, -- [0] Fehler, weil gleicher Typ
Alter [0] INTEGER, -- [0] erlaubt, weil anderer Typ
};
Warum ist der Längencode 128 in der ASN.1-Transfersyntax nicht zweideutig?
Es gilt: 128=%10000000. Eine 1 als Most Significant Byte (MSB)
bedeutet, dass die Länge des Typ-Inhalts entweder unbekannt ist oder
länger als 127 Bytes ist. Da die restlichen sieben Bits 0 ergeben, folgen
dem Längencode 0 Längenangaben-Oktaden, d.h. die Länge des
Typ-Inhalts ist eindeutig unbekannt. Damit der Empfänger dennoch das Ende
des Typs erkennen kann, muss dieses durch zwei abschliessende
0-Oktaden gekennzeichnet werden.
Die Schlüsselwörter IMPLICIT und OPTIONAL, was haben sie für eine Bedeutung?
IMPLICIT wird hinter den Tags und vor dem
Datentyp eingefügt, um dem Empfänger zu signalisieren, dass in
der Transfersyntax nach dem Tag keine Datentyp-Code steht, sondern direkt die
Länge des Typ-Inhalts. Ohne IMPLICIT muss auch der Datentyp
übertragen werden. Beispiel: name [0] IMPLICIT ISO64STRING, d.h., die
Typ-Kennung für ISO64STRING muss nicht übertragen werden, da der
Empfänger am kontextspezifischen Tag [0] erkennt, welcher Typ
übertragen wird. OPTIONAL hinter der Typ-Kennung bedeutet, dass dieser
Typ nicht in jedem Fall übertragen wird.
Big-Endian bei IBM: High-Byte und Low-Byte (HB+LB).
Little-Endian bei VAX: LB+HB.
Asymmetrische Verschlüsselung (public Key): Für Verschlüsselung und
Entschlüsselung werden verschiedene Schlüssel eingesetzt. Beispiel:
DES-Standard (Data Encryption Standard), wobei die Sicherheit dort
dadurch garantiert ist, dass die inverse Funktion einer Funktion nur sehr
schwer ermittelt werden kann. Bei symmetrischen Verschlüsselungen (private
Key) werden bei n Teilnehmern n*(n-1)/2 Schlüssel benötigt, die jeder
kennen muss. Bei asymmetrischer Verschlüsselung können alle
öffentlichen Schlüssel zentral und frei zugänglich gelagert werden;
jeder muss sich nur noch seinen eigenen geheimen Schlüssel merken.
Verschiedene SW-Pakete existieren für Nicht-OSI-Netze. Die bekanntesten sind:
-
Novell NetWare: Elevator-Seeking auf Server-Rechner. Loadable Modules. Früher
nur maximal 250 Teilnehmer, ab Version 4.0 auch unternehmensweite Netze möglich über
einen globalen Network Directory Service (NDS; existiert als Server-Prozess).
-
Banyan Vines: Kostengünstig; v.a. für Internetworking; StreetTalk-Nameserver.
-
LAN Manager: Prozessor-Scheduler, Permits+Zugriffslisten => Sicherheit+.
-
LAN Server: OS/2-Server; Ring-0-Implementierung (Platten-Zugriff ohne BS).
Text-Konvertierung beim E-Mail-Dienst des Internets: Standard ist
7-bit-ASCII-Code, weshalb binäre Dateien oder Texte mit Steuerzeichen und Umlauten
erst mittels "UUEncode" (Unix to Unix Encode), welches in dem Mailprogramm
integriert ist, in 6-bit-Code umgesetzt werden müssen (wodurch Dateien 30% länger
werden).
Usenet: Der News-Service, der im Netz Rubriken wie "comp"
(Computer), "sci" (Science Fiction), "rec" (Recreation - Freizeit und Hobby)
wartet. Zur Übertragung nutzt Usenet das Network News Transport Protokoll,
welches auf TCP/IP aufsitzt. Einloggen geschieht über das Internet.
File Transfer Protocol (FTP): Zugang auf Fremdrechner über "anonymous" oder
"ftp", wenn auf diesem ein FTP-Server läuft. Im Usenet wird häufig mitgeteilt,
auf welchem FTP-Server sich welche Daten befinden. Als syntaktisch reduzierte
Variante von FTP kann rcp (Remote Copy) angeführt werden.
TCP/IP-RPC (Remote Procedure Call): RPCs basieren auf dem UDP (Unit Data Protocol)
und können daher nur maximal 8 kB übertragen.
External Data Representation (XDR): Die TCP/IP-Präsentationsschicht, die,
da sie nur einen Kontext führt, keinen eigenen Header benötigt.
Telnet: Für interaktive Verbindungen. Zur
Übertragung von Daten ungeeignet (je asynchronem, verpackten Zeichen
werden 40 Byte Kontrollinformationen mitgeschickt!), aber entfernter
Programmaufruf möglich, und das nicht nur wie bei FTP auf FTP-Server-Rechnern.
Anders als PAD ist telnet auch ein Full-Screen-Übertragungsservice.
Archie: Wird über Telnet aufgerufen, z.B. "telnet archie.th-darmstadt.de".
Login ist meist "archie". Über diesen Dienst können bestimmte Dateien in bestimmten
FTP-Servern lokalisiert werden.
Gopher: Bequemeres Telnet. Gopher-Client und Gopher-Server
bauen Gopher-Space auf, wobei Suchen über verschachtelte Menüs
erfolgt. "Veronica" unterstützt einen dabei mit Stichwort-Verzeichnissen.
World Wide Web: Integration von E-Mail, News, FTP, Telnet,
Gopher usw. Per Maus kann man sich hyper-multimedial Daten anzeigen lassen.
EUnet: Über telnet abrufbar. Der deutsche Hauptserver befindet sich in
Dortmund (info@Germany.EU.net). EUnet ist in 34 Ländern mit 175 Servern vertreten.
Gedacht zur menügesteuerten Datenrecherche, jedoch ist eine Authentifizierung und
Autorisierung nötig.
Internationale Standardisierten Profile (ISP): Anwendungsspezifische
Zusammenstellung von OSI-Protokollen. Z.B. TOP ((Technical and Office Protocol),
MAP (Manufacturing Automation Protocol) und GOSIP (Government OSI Profile,
TOP der englischen Behörden).
MAP (Major Internet Backbone): Full-MAP (10 Mbps), das nicht so viel
Wert auf Real-Time-Applikationen legt. Anders Mini-MAP (5 Mbps, Schichten 1, 2 und 7),
welches der Prozess-Kommunikation dient. Über MAP als offenes System lässt sich CIM
(Computer Integrated Manufacturing) auf heterogenen Plattformen realisieren.
Wichtig: Hohe Netzverfügbarkeit. 3 Stunden Ausfall bedeuten z.B.:
Verfügbarkeit=(365*24-3)/(356*24)=99.97%.
TOP: Basiert auf CSMA/CD und ist mit MAP koppelbar. Durch
TOP soll das papierlose Büro realisiert werden. Vorteil: Alle Ablagen
räumlich kleiner vom Schreibtisch auf den Monitor verlagert, und jeder
Mitarbeiter kann direkt darauf zugreifen!
Warum ist der CCR-Dienst (Commitment, Concurrence and Recovery), der ein
2-PC-Protokoll realisiert, auf absturzgefährdeten Rechnern unsicher?
Stürzt ein Slave in Phase 1 ab, fährt er wieder hoch, sendet C-RESTART,
und der Master leitet ROLLBACK ein. Stürzt der Slave aber in Phase 2 ab,
ist kein Rollback mehr möglich. Abgefangen wird dieses Problem dadurch,
dass die Slaves die Phase 1-Ergebnisse auf ein absturzgesichertes Medium schreiben,
die Aktion also auf jeden Fall durchführen können.
FTAM (File Transfer, Access and Management): Nicht so transparent wie das
MHS (Message Handling System), erlaubt aber auch
entfernten Dateizugriff (und nicht nur deren Übertragung). Das virtuelle
Dateisystem erlaubt eine abstrakte Beschreibung der Dateistrukturen über
Attribute, die auf alle realen DS abgebildet werden können. FTAM kann
dadurch auf ISAM-Dateien (Index Sequential Access Method) genauso zugreifen
wie auf DOS-Dateien. Anders als NFS kennt FTAM nicht nur sequenzielle Dateien
(in denen mittels seek() herumgesprungen werden kann), sondern kennt verschiedene
Strukturen (kann z.B. ISAM-Datei-Zugriff simulieren).
Über FTAM können nicht alle Attribute einer Datei
geändert werden. Warum nicht?
Könnte eine Superuser-Datei (z.B. die
Passwort-Datei) über Änderung des Owner-Attributs zu einer
User-Datei gemacht werden, könnte der User sie missbrauchen.
Mehrfach-Dateien sind Dateien, die repliziert auf verschiedenen
Datei-Servern vorliegen. Problem: Welche der Dateien wird geändert? Es
kann z.B. ein Master-Server existieren, der alleine Schreib-Zugriffe erlaubt.
Stürzt dieser Master jedoch ab, dann kann die Datei nicht mehr
geändert werden. Hier hilft das Voting-Verfahren weiter: Entspricht die
Zahl freier Datei-Server (Leser-Quorum-frei) dem Schreib-Quorum, kann einer
dieser Server zum Schreiben verwendet werden - eine spezielle Nummer gibt dabei
an, wo die aktuellste Version zu finden ist.
Network File System (NFS): NFS-Server sind zustandslose Server; sie können
über Datagramme mit Aufträgen versorgt werden. Problem: Dateien
lassen sich nicht öffnen und gleichzeitig als gesperrt markieren. FTAM
dagegen arbeitet mit zustandsbehafteten Servern: Über F-SELECT lassen
sich Dateien exklusiv zum Schreiben sichern. Warum können sie über
F-OPEN nicht wieder entsperrt werden? Weil dann u.U. der nächste Schreiber
aus der Warteschlange ebenfalls Schreibzugriff erhält, also zwei Clients
gleichzeitig die Datei ändern können. FTAM erlaubt aber nur
Mehrfach-Lese-Zugriff (und so lange auch nur ein Leser existiert, kann sich kein
anderer Prozess exklusive Rechte an der Datei sichern).
Message Handling System (MHS): Entspricht ISO-MOTIS (Message Oriented
Text Interchange System; nicht zu verwechseln mit dem GUI Motif!) oder
CCITT-X.400, und ist ein Nachrichten-Austausch-System. User-Agents
können über verschiedene Protokoll-Klassen (Protocol Class, PC) miteinander
kommunizieren, i.d.R. wird aber P2 zur interpersonellen Kommunikation verwendet,
für EDI (Electronic Data Interchange) z.B. existieren andere Protokolle. MTAs
(Mail Transfer Agents) kommunizieren über das P1. In PCs, die keinen eigenen
MTA fahren können, werden SDE (Submission and Delivery Entities) eingesetzt,
die über das P3 die MTA-Dienste an den User Access (UA) durchreichen können.
Bisher ist X.400 das einzig erfolgreiche OSI-Produkt!
X.500: Der Directory Service ist ähnlich wie CMIP (Common Management
Information Protocol) und MHS strukturiert: Directory User Agents kommunizieren
über das Directory Access Protokoll mit Directory System Agents peer-to-peer,
während die Directory System Agents (DSA) über das Directory System Protocol
Informationen austauschen. Die
Namen-Adressen-Tabellen werden von den DSA redundant-verteilt gehalten;
kurzzeitige Inkonsistenzen sind möglich. Interaktive Verbindungen garantieren
eindeutige Namen über Attribute. Die Namensgebung ist objektorientiert,
ein Designfehler ist allerdings, dass es keine Mehrfach-Vererbung und
zyklischen Verweise gibt. Einzig Alias-Namen brechen die strenge Hierarchie
etwas auf. Dafür sind mehrwertige Attribute erlaubt (ASN.1-SET OF-Type)
=> kein 1NF. Die Namenssuche erfolgt über die Referenzmethode,
Verkettungsmethode oder Multicast-Methode. X.400 z.B. benutzt X.500, um Namen
auf Adressen abzubilden. Vorteil: Bei Ortswechsel ändert sich die Adresse,
nicht aber der Name.
Videotext (VT): Es existieren 7 verschiedene Klassen, von Videotext,
über IBM 3270 bis hin zu interaktiven Grafik-Terminals.
Job Transfer and Manipulation (JTM): Ähnlich wie bei RPCs (aber nicht
so transparent) können hiermit auf entfernten Rechnern Anwendungen abgearbeitet werden,
sofern diese über das JTM-Modul verfügen.
Remote Procedure Call (RPC): Nicht mehr die Anwender, sondern die Anwendungen
bestimmen den Netzverkehr. Statt interpersoneller Kommunikation dominiert in
Zukunft also die Prozesskommunikation!
Log-in-Pizzeria: Über den amerikanischen
Information-Highway ist der Pizza-Hut angeschlossen. Über einen
Log-in-Dienst kann man sich hier seinen Pizza-Belag individuell
"konfigurieren" lassen. Eine praktische Anwendung wird damit schon durch den
Information-Highway unterstützt.
CMIP (Common Management Information Protocol): Das
OSI-Netzwerk-Management wird in der Norm 802.1 beschrieben und ist im Gegensatz zu
den anderen Normen objektorientiert. Es betrifft alle Schichten, aber v.a.
Schicht 7. CMIP sorgt dafür, dass Schichten Alarme auslösen,
wenn z.B. die QOS-Schwellenwerte über-/unterschritten wurden.
Konfigurationen können visualisiert werden, Prozessor-Statistiken werden
geführt, Gateways bleiben beaufsichtigt, CRC-Fehler und Kollisionen werden
gezählt, der Ring-Monitor-Status überwacht, und das Abrechnungswesen
wird gemanagt. Alle Ressourcen des Netzes werden als Objekte beschrieben; die
Funktionalität des Netzmanagements wird durch ein Application Framework in
ASN.1 abgedeckt. Das CMIP wird durch CMISE (Common Management Information Service
Element) auf Schicht 7 als CASE (Common Application Service Element)
implementiert. ASN.1-Objekte-Beschreibungen werden kompiliert, wodurch die
Objekte in die Management Information Base aufgenommen werden. Anders als SNMP
(Simple Network Management Protocol) arbeitet CMIP verbindungsorientiert
und zuverlässig!
Alternativen zu CMIP: Das SNMP (Simple Network Management
Protocol) der TCP/IP-Welt ist zwar nicht objektorientiert, doch es wird bereits
vielfach zum Corporate Networking (integrierter Netzwerkbetrieb innerhalb eines
Unternehmens) eingesetzt (und ebnet damit dem CMIP den Weg). NetView/6000 z.B.
erlaubt die Verwaltung von TCP/IP-, OSI-, SNA- und ISDN-Ressourcen. Ein
SNMP-Agent sitzt auf jedem Knoten und wird laufend über den Knoten-Status
(MIB, Management Information Base) informiert. So wie der Manager anfragt,
bekommt er die MIB geschickt. SNMP läuft unter der X11-Umgebung, wobei als
Präsentationslogik X-Windows, DEC-Windows, Motif- oder X/OPEN-Window
Manager eingesetzt werden können. Im Gegensatz zu CMIP arbeitet das SNMP mit UDP
verbindungslos und unzuverlässig (Send & Pray!). Auch hier werden die
MIBs in ASN.1 beschrieben, wobei die RFCs (Request for Comments) von
Universitäten im Internet verbreitet werden. Eine Verbindung von SNMP und CMIP
ist über Gateways möglich.
Das DME (Distributed Management Environment) ist Teil des
DCE (Distributed Computing Environment). Sie entspricht in etwa dem CMIP,
hat allerdings den Security-Part wesentlich verschärft. Die Management-Station
kann hier verteilt organisiert sein und dennoch interaktiv mit den Agenten kommunizieren.
Es gilt: Auch in kleinen Netzen ist ein Management zu empfehlen - schliesslich
muss man sich ja auch in einem Kleinwagen anschnallen.
Es ist nur eine Frage der Zeit, wie lange das P in PC (Personal Computer)
noch gerechtfertigt ist. Der Trend geht dahin, PCs ebenso wie Terminals
überwachen zu können. Netzwerk-Management besitzt immer mehr das
Potenzial, nicht nur indirekt über Server den Benutzungsgrad von PCs zu
ermitteln, sondern dies auch auf direkterem Wege zu erreichen - der
gläserne User ist bald Alltag.
Formal Description Language: Hier existieren Estelle
(ISO; endliche Automaten; Channel-Definitionen geben Auskunft darüber,
welche Informationspakete zwischen Sender und Empfänger ausgetauscht
werden), SDL (CCITT; grafische Flussdiagramme) und LOTOS (ISO).
CORBA (Common Object Request Broker Architecture): Borland geht mit
BOCA (Borland Object Component Architecture), welches IDAPI
(Integrated Database Application Program Interface) enthält, einen
ähnlichen Weg wie CORBA. Auch das Tivoli Management Environment bietet
ein CORBA-Framework, IDL-Stubs, Data Marshalling über XDR, und ein
Basic Object Access-Modul (BOA-Modul), mittels dem der Object Broker
auf die Common Objects zugreifen kann.
Statt Lichtwellenleiter (LWL) kann u.U. auch auf die Breitband-Netze der
TV-Kabel-Anbieter zurückgegriffen werden, deren Vernetzung bereits
besteht. Das könnte die Verbreitung von High-Speed-Netzen (HS) wesentlich
beschleunigen.
Auch der Alpha-Chip mit seinen 64 bit steigert das Tempo der
HS-Verbreitung: Er leitet eine ganz neue SW-Generation ein (skalierbar von
Handheld bis Host). Zwar würde u.U. heutzutage auch ein 64 bit-Bus vom
Cache zur CPU genügen, intensives Multimedia und Virtual Reality verlangt
aber die Aufhebung des Flaschenhalses Workstation. Eine 386-CPU als
Multimedia-Maschine anzukündigen ist Falschmünzerei. Wichtiger als
die HW ist jedoch das einheitliche Betriebssystem (BS), und noch wichtiger
sind die verfügbaren Applikationen, denn innovative Applikationen müssen
kompatibel zu alten Applikationen sein, z.B. durch SAA-Konzept-Einhaltung
(System Service Architecture), da sonst der Schulungsaufwand für Firmen
zu gross wird. Letzteres ist über Computer-based Training (CBT)
u.ä. zu reduzieren.
Was ist das bessere Server-BS: UNIX oder WINDOWS-NT?
Auch auf lange Sicht wird wohl UNIX das Rennen machen, denn WINDOWS-NT stellt
nichts wirklich Neues dar; die WINDOWS-Applikationen laufen zwar, doch OS/2
und WINDOWS wachsen sowieso um Server-Funktionalität. Ausserdem wird
WINDOWS-NT nicht von IBM gefördert! Es heisst daher eher: UNIX oder WINDOWS?
An UNIX ist v.a. das Human-Interface zu bemängeln, über Motif wird dieses Problem
aber bereits beseitigt. Und WINDOWS taugt derzeit nicht für den Server-Betrieb.
Weitere Beschleunigungsfaktoren sind: An SCSI-3 wird
gearbeitet und Multi-Threaded-Single-Server-Architekturen arbeiten
ressourcensparender als alte Server-Architekturen (die sich bei Requests stets
selbst kopieren mussten). Die Zeiten der langsamen kbps-Übertragungen, als ein
einzelnes Röntgenbild noch 20 Minuten benötigte um Übertragen zu werden,
sind damit hoffentlich vorbei.
Ist in LWL ein Duplex-Betrieb möglich?
Ja, über Wellenlängen-Multiplexing - ähnlich wie Midsplit-Technik bei
Frequenzmodulation (FM) in elektrischen Leitern: Hohe Frequenz für Hinweg
und niedrige Frequenz für Rückweg.
LEDs bringen es auf Schaltzeiten grösser 5 ns,
LASER sogar auf Schaltzeiten unter 1 ns. Über LEDs sind nur 200 Mbps
realisierbar, über LASER dagegen bis zu 16 Gbps! Als Empfänger der
optischen Signale werden PINs (Positive Intrinsic Negative) eingesetzt - oder
die empfindlicheren, aber teureren APDs (Avalanche-Photodiode).
Dämpfung und Dispersion spielen auch bei optischen
Leitern eine Rolle. So ist i.d.R. die Dispersion, also die Ausdehnung der
Informationswellen, abhängig von der Wellenlänge (Abhilfe schaffen
hier Solitonen-Laserwellen, die aber noch erforscht werden müssen). Daher
ex. "Fenster", in denen die Dispersion minimal ist: Im WAN ist das
1550 nm, im MAN 850 nm. Für die Qualität der Übertragung ist
weiter entscheidend, ob die LWL gesteckt oder gespleisst wurden, oder wie
klein der Querschnitt ist.
Bussysteme haben sich im optischen Bereich nicht durchgesetzt.
Hier dominieren Sterne, bei denen Stationen AM Netz hängen, und
Ringe, bei denen Stationen IM Netz hängen. CSMA/CD-Netze haben das Problem,
dass je schneller sie sind, sie räumlich umso kleiner sein müssen, da sich
die Round-Trip-Propagation-Time verringert (es sei denn, man würde bei
jeder Sendung umfangreiche Dummy-Füllungen vornehmen). Ein optischer
Token-Bus jedoch kann länger als sein elektronisches Gegenstück sein, und
bietet statt 5 Mbps 20 Mbps an. Besser jedoch ist es, gleich auf spezielle
HS-Protokolle wie FDDI zu setzen, welches ohne Monitorstationen auskommt
und zur Logical Link Control (LLC) kompatibel ist.
Fiber Distributed Data Interface (FDDI): Neben FDDI/LWL existiert
inzwischen auch FDDI-Twisted Pair, was ebenfalls 100 Mbps bringen soll und dabei
wesentlich billiger ist, da die Verkabelung meist bereits vorhanden ist.
Problem: Im Gegensatz zu FDDI/LWL existiert hier kein
eindeutiger Standard, jeder Anbieter kocht sein eigenes Süppchen. In
FDDI-Netzen gibt es keine Jitter-Probleme, da jede Station selbst ein Token
produzieren und mit ihrem eigenen Takt Nachrichten versenden kann; sie
muss diesen jedoch eine Präambel voranstellen, damit die Quelle sich
synchronisieren kann. FDDI besitzt die Frame Stripping-Eigenschaft, d.h. jeder
Sender nimmt seine Nachrichten selbst vom Netz runter. Die synchrone Sendezeit
muss bei einer speziellen Station angefordert werden, die
(prioritätsgesteuerte bzw. fairnessgesteuerte) asynchrone Sendezeit ergibt sich aus der
Token-Holding-Time minus synchrone Sendezeit. An FDDI-Ringe können DACs
(Dual Attachment Concentrator) und DASs (Dual Attachment Stations)
angeschlossen werden, an DACs können SACs (Single Attachment Concentrator)
und SASs (Dual Attachment Stations) angeschlossen werden, an SACs können
SASs angeschlossen werden.
FDDI-II: Bietet im Gegensatz zu FDDI auch verbindungsorientierte
Dienste an. Dadurch können isochrone Daten von dynamisch allokierbarer
Bandbreite übertragen werden. Dadurch das es inkompatibel zu FDDI ist,
verhindert es jedoch sowohl den eigenen Erfolg (zumal DQDB (Distributed
Queue Dual Bus) seine Funktionalität übertrifft), als auch den Erfolg
von FDDI!
Highspeed-Netze und die globale Zeit: Bei langsamen Netzen
war eine globale Zeit relativ einfach zu realisieren, da ein versendeter
Auftrag stets veraltet war, wenn er sein Ziel erreichte. Bei HS-Netzen werden
Daten jedoch so schnell übertragen, dass bei ungenauer
Synchronisation versendete Aufträge jünger als die globale Zeit des
Zielrechners sein können; das führt schnell zu Inkonsistenzen, wenn
dadurch die vorgesehene Abarbeitungschronologie nicht mehr eingehalten
wird.
Information-Highways sollen mit 155 Mbps, 622 Mbps und 2.5 Gbps zu den
Nervensträngen der Informationsgesellschaft des nächsten Jahrtausends werden.
Sie gelten als strategische Waffe im internationalem Wettbewerb.
Es gilt: Info-Highway > 64 kbps (LANs gehören also schon dazu, ISDN aber
nicht!). Die Telekom setzt bei den HS-WANs auf die Synchrone Digitale
Hierarchie-Technik (SDH-Technik), die im Gegensatz zur Plesiochronen Digitalen
Hierarchie-Technik (PDH-Technik) den direkten Zugriff auf einzelne Kanäle
verschiedener Bandbreiten (155 oder 622 Mbps) erlauben (bei plesiochronen Netzen
muss alles empfangen und der interessierende Kanal mühsam ausgefiltert werden).
Drei Übertragungsverfahren bieten sich im Information-Highway an: Frame Relay,
DQDB und ATM (Asynchronous Transfer Mode).
Der Hauptnachteil von PDH-Netzen, wie sie derzeit im WAN-Bereich dominieren,
ist nicht, dass einzelne Kanäle nicht direkt demultiplext werden können, sondern
dass es keine internationale Normierung der Bandbreiten gibt. Sind in Europa 2 kbps bzw.
34 kbps-Netze üblich, verwenden die Amerikaner 44 kbps-Netze und die Japaner
32 kbps-Netze. Ein internationaler ISDN-Dienst ist unter diesen Bedingungen kaum
möglich.
SDH-Technik (Synchrone Digitale Hierarchie): SDH-Netze bieten eine
international genormte Bandbreite an, die Container anbietet, die nach belieben
mit (ATM-)Zellen gefüllt werden kann. Nachteilig daran ist, dass die Container nie
ganz gefüllt werden und zusätzlichen Overhead von 90 Bytes fordern.
Das genormte Synchrone Transfer-Modul STM-1 bietet 155 Mbps, STM-2 622 Mbps und
STM-3 2.4 Gbps. Die Telekom ist derzeit dabei, alle ihre Netze auf SDH
umzustellen, v.a. auch bezüglich B-ISDN, welches auf ATM basiert. ATM und
SDH vertragen sich gut, allerdings sind auch reine ATM-Übertragungen möglich.
Die Kommunikationsbranche beschäftigt 13 Millionen Menschen, bis zum Jahr
2000 wohl 60 Millionen Menschen. Grösster Hersteller von Routern ist CISCO.
Die neuen Bundesländer wurden neu mit Monomodefasern ausgestattet.
Nicht einmal die USA sind so flächendeckend mit LWL ausgestattet!
Frame Relay: Vereinfachte, sehr verbreitete Variante von X.25. Es ist
verbindungsorientiert, verzichtet aber auf Fluss- und Fehlerkontrolle.
Die Frames können variabel lang sein (max. 4 kB), daher sind sie für
isochrone Signale ungeeignet.
DQDB (Distributed Queue Dual Bus): Kommt aus MAN-Welt, aber auch bei WANs
einsetzbar. Zwei gegenläufige Busse, an deren Anfang leere 53-bit-Zellen erzeugt
werden. In diesen Containern sind 48 bit an Information unterzubringen. Im
Gegensatz zu ATM enthält jede Zelle die komplette Routing-Information. DQDB ist
i.d.R. connectionless: Broadcasts, isochrone Daten, Robustheit gegeben. Unter
Einsatz eines zentralen Bandbreiten-Managers kann die 12-Slot-Rahmenstruktur
jedoch auch zur Übertragung von Kanälen verwendet werden: Jedes Oktett (Gruppe
aus acht Teilen) in einer Zelle eines 12-Slots-Rahmens enthält dann Informationen
für einen bestimmten Kanal.
ATM ist zwar kompatible zu DQDB, verfügt jedoch nicht über eine
12-Slot-Rahmenstruktur. Die DQDB-Testnetze sollen v.a. den ATM-Markt öffnen.
Besonderheit des DQDB-Connectionless-Service: Jede Station
hat einen fairen Zugang zum Netz. Dies wird über den Countdown-Counter
(CC) und den Request-Counter (RC) je Bus realisiert. Bei Sendewunsch wird der
CC mit dem Wert von RC gefüllt und bei jeder freien Zelle (zu erkennen am
freien Busy-Bit) dekrementiert; wenn er Null ist, darf die Station senden.
Zuvor muss der Sendewunsch jedoch durch setzen eines Request-Bits in einer
Zelle angekündigt werden: Jedes freie Request-Bit dekrementiert, jedes
gesetzte Request-Bit inkrementiert den RC. Anders als ATM verfügt DQDB
über eine 12-Slot-Rahmenstruktur:
ATM (Asynchronous Transmission Mode) und ATD (Advanced Technology
Demonstration): Technologie der Zukunft. DQDB-kompatible Zellen,
aber virtueller Adressierung. Asynchron=jede freie Zelle kann zu jedem
Zeitpunkt genutzt werden. Der Takt ist beim Empfänger aus den Zellen zu
rekonstruieren, d.h. auf Netz muss kein einheitlicher Takt existieren (gut
für internationale Netzverbindungen). Wegen Verbindungsaufbau müssen
Sender und Quelle gleich schnell sein (ist aber dynamisch aushandelbar).
Fehlerprotokolle existieren nur in End-to-End-Schichten. ATM ist die Basis
für B-ISDN.
Die Delay-Jitter-Problematik existiert bei ATM nur bei
Konkurrenz-Netzen: Bilder fangen an zu ruckeln, wenn andere im Netz ebenfalls
Bandbreite belegen (im Token-Ring passiert dagegen nichts). Das Delay der
Zellenbildung ist konstant, aber das Delay durch die Verarbeitung der Zellen in
den Switches ist variabel. Der Jitter gibt die Abweichung vom Sendetakt wieder.
Er darf bei asynchronen Netzen wie ATM nicht zu hoch sein, damit der
Empfänger aus den ankommenden Paketen noch die Taktfrequenz rekonstruieren
kann. STD benötigt im Gegensatz zu ATD exakte Synchronisation, um Kanäle
identifizieren zu können. Die Taktung geschieht bei ATM über die Grösse der
Pulsrahmen (oder spezielle Synchronisationszellen?). Gerade die Fähigkeit zur
Synchronisationsgewinnung macht ATM-Geräte so kostspielig: Eingesetzt
werden dazu i.d.R. elastische Puffer; die Header ankommender Zellen werden
gezählt und daraus ihre Sendefrequenz ermittelt.
ATM deckt nur Schicht 1 des OSI-Modells ab, aber über
den ATM Adaption Layer (AAL) können beliebige Protokolle darauf aufsitzen
(also auch verbindungslose!), z.B. Ethernet, Token-Ring, SNA, TCP/IP. Bei
reinem ATM-Verkehr wird eine LLC emuliert. Logische Verbindungen kosten nur
beim Aufbau und während aktiver Übertragungen Gebühren, obwohl
ständig Puffer in den IMPs reserviert werden müssen. Quellarten:
Constant Bit Rate, Variable Bit Rate (VBR, wegen bursty-Eigenschaft),
VBR/constant (Actionfilm braucht mehr BB als Tierfilm). Damit der Sender dem
Netz durch übertriebenes Bursting kein Schaden zufügen kann, existieren
Policy-Mechanismen wie Leaky Bucket.
Banyan-Koppel-Netze arbeiten sehr schnell. Eine
3-bit-Kanal-ID (ATM-Zellen) gibt dabei den Weg durch das dreistufige Koppelnetz
vor (jedes Koppelnetz-Element besitzt dazu zwei Ein- und zwei Ausgänge; je
nach Bit-Wert wird intern nach unten bzw. oben geroutet). Da es dabei immer
noch zu internen Blockierungen kommen kann, werden die ATM-Zellen
vorsortiert.
Die Signalisierung bei ATM ist noch proprietär, daher arbeiten ATM-Produkte
von verschiedenen Herstellern nicht unbedingt miteinander.
Innerhalb von B-ISDN-Netzen gibt es keine Standards, aber beim Zugang hat sich
immerhin eine Norm durchgesetzt: Die erweiterte ISDN-D-Kanal-Signalisierung,
wobei die Erweiterung v.a. die Multicast-Fähigkeit durch
Punkt-zu-Mehrpunkt-Verbindungen für TV-Übertragungen betrifft.
Auch die Interfaces zum ATM-Daten-Zugang sind nicht einheitlich: In den
USA existieren DS3-Interfaces mit 44 Mbps (USA-PDH-Netze), in
Europa E3-Interfaces mit 34 Mbps (Euro-PDH-Netze), sowie das Taxi- und
SONET-Interface mit 155 Mbps (SDH-Netze). Nur ATM-Produkte mit gleichem
Interface verstehen sich derzeit. Auch der ATM Adaption Layer (AAL) hilft hier
nicht weiter: Er zerhackt im Wesentlichen nur die Pakete ins Zellenformat,
sorgt aber auch je nach Klasse für Fehlererkennungsredundanz und Multiplexing.
Der AAL des Typs 3/4 erlaubt verbindungsorientierte und -lose Dienste,
sofern spezielle ATM-Datagramm-Server für das Routing existieren. Über AAL
wird TCP/IP oder besser noch XTP (Xpress Transport Protocol) angesetzt,
welches einen schnellen Datentransfer gestattet. Bei XTP wurden die Schichten
3 und 4 in HW integriert, die Fehlerkontrolle sendet nur bei Fehlern explizite
selektive NAKs (Negative Acknowledgement), als
Flusskontrolle wird die schnelle Raten-Flusskontrolle verwendet, und
Verbindungen werden nicht durch Handshaking, sondern durch impliziten
Verbindungsaufbau realisiert. Die Fehlertoleranz von XTP ist also gross,
doch das Delay-Jitter kann garantiert werden => ideal für isochrone
Daten wie Filme!
In den ATM-Zellen existiert ein PID-Feld (Packet Identifier): Es gibt
Auskunft darüber, ob die Zelle in einem Ethernet- oder Token-Passing-LAN befindet,
oder ob es durch ein WAN zu routen ist. Je nach Wert wird ein bestimmtes Protokoll
(Ethernet, Token-Ring, Token-Bus, FDDI, IP) aktiviert. Problematisch: In IP
sind Broadcasts möglich, in ATM-WANs derzeit noch nicht!
Direkte ATM-ATM-Verbindungen lassen sich immerhin mit 80 Mbps
betreiben. Werden jedoch Switches dazwischen geschaltet, dann nimmt die
Datenrate rasch ab. Nicht nur durch das interne Routing, sondern auch durch die
damit verbundenen Management-Tätigkeiten. Novell-Netze versenden z.B. alle
60 s eine Reihe von Service-Paketen, die nahezu alle virtuellen ATM-Kanäle
dicht machen. Problematisch ist auch, dass z.B. die Fenster in
TCP/IP-Netzen für ATM viel zu klein sind, d.h., die meiste Zeit wartet eine
Sendestation auf die ACKs des Ziels. Andererseits findet derzeit auch noch kein
Policing statt, wodurch eine Station ein ATM-Netz zum Zusammenbruch führen
kann. Zuletzt kosten auch die OSI-Schichten eine Menge Performance, v.a. die
Schicht 6 oder zuverlässige Transport-Dienste, d.h., um spezielle
ATM-Schicht-Protokolle wird man auf Dauer wohl nicht herumkommen.
Workstations sind aber auch HW-bedingt Flaschenhälse: Ihre Platten schaffen nur
28 Mbps.
ATM arbeitet mittels virtueller Kanäle verbindungsorientiert. In jeder
Zelle existiert daher eine Virtual Path ID (VPI) und eine Virtual
Channel ID (VCI). Jede physikalische Verbindung besteht aus x Virtual Paths
(VPs), und jeder VP besteht aus y Virtual Channels (VC). Die VCs werden also
zum Feinrouting durch die
ATM-IMPs verwendet, während die VPs von den Cross-Connect-Systemen
(grosse ATM-IMPs) umgeschrieben werden. In einem VP haben alle VCs die
gleiche Bandbreite, d.h. für jede Bandbreite ex. ein eigener VP; dies
erleichtert die Verwaltung der Verbindungen und Zugriffe auf das (SDH-)Netz
erheblich.
Je nachdem, mit welcher Bitrate gesendet wird, werden in ATM
die Zellen einer Nachricht dichter oder weiter gemultiplext. Bei sehr hoher
Bandbreite wird z.B. jede zweite Zelle eines virtuellen Kanals ausgenutzt,
während bei niedriger Datenrate nur jede 10 Zelle ausgenutzt wird. Die
Summe aller auf einen Kanal gemultiplexten Nachrichten darf aber die
Kapazität des Kanals nie überschreiten (das wird über eine
quellenorientierte Flusskontrolle - Ratenflusskontrolle - realisiert,
was weniger aufwendig ist als ein ACKING durch das Ziel).
Switched Multi-Megabit Data Service (SMDS, auch Datex-M genannt)
kann DQDB nutzen. SMDS bietet Dienste wie E-Mail, File-Transfer, CAD u.a. Es
wird vollständig in B-ISDN integriert werden. Kosten werden pauschal
monatlich fixiert und hängen nur von der gewünschten Zugriffsrate ab.
Bietet die amerikanischen Standard-Datenraten 1.5 Mbps (T1) und 45 Mbps (T2).
ISDN: Ist mit seiner festen Bandbreite weniger auf DÜ
ausgerichtet, als auf Telefonie (das gilt auch für seine
Verbindungsorientierung), B-ISDN soll dieser Beschränkung jedoch durch
asynchrones Zeit-Multiplexing aber entgegenwirken.
Warum basiert ISDN eigentlich auf 64 kbps-Kanälen (in den USA dagegen 56 kbps)?
Aus historischen Gründen,
denn diese Bandbreite genügt bei 3100 Hz gerade zur Sprachübertragung
von 8000 8-bit-Puls-Codes pro Sekunde. N-ISDN (Narrow-ISDN) bietet für
multimediale Applikationen zu wenig Bandbreite, eigentlich sich aber für die DÜ
zwischen LANs (über Primär-Multiplex-Verbindung bis zu 1.9 Mbps möglich). Der Trend
ist, das veraltete ISDN zu ignorieren und auf B-ISDN zu warten. Dennoch sind
fast alle Innovationen im WAN-Bereich seit der Euro-ISDN-Gründung 1993
ISDN-orientiert. Für eine 5 min dauernde 64 kbps-Leitung (reicht für
2.4 MB) ist bei ISDN-2 genausoviel zu zahlen, wie für eine 5 min
dauernde Analog-Verbindung. In Zukunft soll es neben verbindungsorientierten
Diensten auch Paketvermittlungsdienste geben.
Zeit-Vielfache sind einfacher und kleiner aufgebaut als
Raum-Vielfache. Statt Kanäle physikalisch zu schalten, werden die
ankommenden Daten in einen Haltespeicher kopiert, nach den Routing-Tabellen
umsortiert, und dann wieder ausgegeben. ISDN managt auf diese Weise das Routing von
30 x 64 kbps-PCM-Kanälen.
ISDN kennt die folgenden Kanäle: Die B1- und
B2-Kanäle mit jeweils 64 kbps für Sprache und Daten, den D-Kanal mit
16 kbps Daten-Paket-Infos, 16 kbps TEMEX-Daten und 16 kbps
Kontrolldaten-Paketen, sowie den H-Kanal mit bis zu 138 Mbps und den E- und
Q-Kanal für interne Wartungsaufgaben. Über eine
Primär-Multiplex-Stelle lassen sich auch bis zu 30 B-Kanäle
zusammenfassen. Die Übersendung der B1-, B2- und D-Kanal-Daten erfolgt
gleichzeitig, indem 4.000 Mal in der Sekunde ein Rahmen mit folgendem Format
übertragen wird (das macht 4000*(4 b Rahmen+16 b B1+16 b B2+12 b D)=192 kbps,
wovon aber nur 4000*(16 b B1+16 b B2+4 b D)=144 kbps Nutzdaten sind):
2b-Rahmen | 8b B1 | 4b D | 8b B2 | 4b D | 8b B1 | 4b D | 4b B2 | 2b-Rahmen
B-ISDN: Anders als bei SMDS sind die Kosten bei B-ISDN
abhängig von der Übertragungszeit, der Zielentfernung und der
Datenrate. Anders als bei ISDN kann hier die Bandbreite dynamisch allokiert
werden (bis 144 Mbps). B-ISDN soll auch zur Übertragung von TV-Bilder
eingesetzt werden, die trotz MPEG immer noch 10-20 kbps pro Kanal benötigen
(hochauflösendes TV sogar 154 Mbps!) plus 1 Mbps für jeden Audio-Kanal.
Gebühren-Vergleich beim Telekom-Angebot: Bei Datex-P
(maximal 48 kbps; Zugang über X.20) ist nur das Datenvolumen zu bezahlen,
was sich positiv bei Übertragungen über grosse Entfernungen
auswirkt. Die Gebühren bei Datex-L (maximal 64 kbps; Zugang über X.21)
werden genauso berechnet wie bei einem HFD (High FiDelity, 1.92 kbps; Zugang über X.21):
Sie ergeben sich aus der Entfernung, der Datenrate und der Verbindungsdauer,
d.h., bei weiteren Entfernungen sind diese Verbindungen sehr teuer.
Benötigt der Anwender aber Verbindungen, dann kann er auf das billigere
ISDN zurückgreifen: Die Datenrate ist hier konstant, daher ergeben sich
die Gebühren alleine aus Entfernung und Verbindungsdauer.
SONET: Hier kommen nur die guten Monomodefasern zum
Einsatz. Das bringt satte 622 Mbps für STM-2 in SDH-Netzen!